Sorumlu yapay zeka size rekabet avantajı sağlayacak

Kaynak Düğüm: 1585975

İşin Geleceği Zirvesi'nden bir oturumu kaçırdınız mı? bizim başımıza Geleceğin İş Zirvesi isteğe bağlı kitaplık Akış


Yapay zekanın iş ortamını değiştirdiğine ve onu benimseyenlere rekabet avantajları sağladığına dair çok az şüphe var. Ancak, AI'nın basit uygulamasının ötesine geçmenin ve AI'nın güvenli ve etik bir şekilde yapılmasını sağlamanın zamanı geldi. buna denir sorumlu AI ve yalnızca olumsuz sonuçlara karşı bir koruma olarak değil, aynı zamanda başlı başına bir rekabet avantajı olarak da hizmet edecektir.

Sorumlu yapay zeka nedir?

Sorumlu AI, etik, yasal, güvenlik, mahremiyet ve hesap verebilirlik konularını kapsayan bir yönetişim çerçevesidir. Sorumlu yapay zekanın uygulanması şirkete göre değişse de, bunun gerekliliği açıktır. Sorumlu AI uygulamaları olmadan, bir şirket ciddi finansal, itibari ve yasal risklere maruz kalır. Olumlu tarafı, sorumlu yapay zeka uygulamaları, özellikle de işin içine hükümetler dahil olduğunda, belirli sözleşmelere teklif vermek için bile ön koşul haline geliyor; iyi uygulanmış bir strateji, bu teklifleri kazanmada büyük ölçüde yardımcı olacaktır. Ek olarak, sorumlu yapay zekayı benimsemek, şirketin genel olarak itibar kazanmasına katkıda bulunabilir.

Tasarıma göre değerler

Sorumlu yapay zekayı uygulama sorununun çoğu öngörüye bağlıdır. Bu öngörü, bir yapay zeka sisteminin geliştirme ve dağıtım yaşam döngüsü boyunca sahip olabileceği etik veya yasal sorunları tahmin etme yeteneğidir. Şu anda, sorumlu AI değerlendirmelerinin çoğu, bir AI ürünü geliştirildikten sonra gerçekleşir - AI uygulamak için çok etkisiz bir yol. Şirketinizi finansal, yasal ve itibar riskinden korumak istiyorsanız, projelere sorumlu yapay zekayı göz önünde bulundurarak başlamalısınız. Şirketinizin, bir projenin sonunda ne elde ettiğinize göre değil, tasarım gereği değerlere sahip olması gerekir.

Tasarıma göre değerleri uygulama

Sorumlu yapay zeka, şirket liderliği tarafından öncelik verilmesi gereken çok sayıda değeri kapsar. Herhangi bir sorumlu AI planında tüm alanları kapsamak önemli olsa da, şirketinizin her bir değer için harcadığı çabanın miktarı şirket liderlerine bağlıdır. Sorumlu yapay zekayı kontrol etmek ile yapay zekayı gerçekten uygulamak arasında bir denge olmalıdır. Sorumlu AI için çok fazla çaba harcarsanız, etkinliğiniz zarar görebilir. Öte yandan, sorumlu yapay zekayı görmezden gelmek, şirket kaynakları konusunda pervasız olmaktır. Bu ödünleşimle mücadele etmenin en iyi yolu, projenin başlangıcında kapsamlı bir analizle başlamaktır, olay sonrası bir çaba olarak değil.

En iyi uygulama, AI projelerinizi başlamadan önce, projeler sırasında periyodik olarak ve tamamlandıktan sonra gözden geçirmek için sorumlu bir AI komitesi oluşturmaktır. Bu komitenin amacı, projeyi sorumlu AI değerlerine göre değerlendirmek ve projeyi uygun hale getirmek için eylemleri onaylamak, onaylamamak veya onaylamamaktır. Bu, daha fazla bilgi edinilmesini veya temelden değiştirilmesi gereken şeyleri talep etmeyi içerebilir. Biyomedikal araştırmalarda etiği izlemek için kullanılan bir Kurumsal İnceleme Kurulu gibi, bu komite de hem yapay zeka uzmanları hem de teknik olmayan üyelerden oluşmalıdır. Teknik olmayan üyeler herhangi bir arka plandan gelebilir ve AI uzmanları üzerinde bir gerçeklik kontrolü görevi görebilir. Öte yandan AI uzmanları, olası zorlukları ve iyileştirmeleri daha iyi anlayabilir, ancak daha büyük topluluğun endişelerine yeterince duyarlı olmayabilecek kurumsal ve endüstri normlarına fazla alışabilir. Bu komite proje başlangıcında, proje süresince periyodik olarak ve proje sonunda nihai onay için toplanmalıdır.

Sorumlu AI Komitesi hangi değerleri dikkate almalıdır?

Odaklanacak değerler, işletme tarafından genel misyon beyanına uyması için düşünülmelidir. İşletmeniz muhtemelen vurgulamak için belirli değerleri seçecektir, ancak tüm önemli ilgi alanları ele alınmalıdır. İlham almak için kullanmayı seçebileceğiniz birçok çerçeve vardır. Google'ın ve Facebook. Ancak bu makale için, tartışmayı, Güvenilir Yapay Zeka Değerlendirme Listesi'nde Avrupa Komisyonu tarafından Kurulan Yapay Zeka Konusunda Üst Düzey Uzman Grubu tarafından ortaya konan tavsiyelere dayandıracağız. Bu öneriler yedi alanı içermektedir. Her alanı keşfedeceğiz ve her alanla ilgili sorulacak sorular önereceğiz.

1. İnsan gücü ve gözetimi

AI projeleri, insan ajansına ve karar verme sürecine saygı göstermelidir. Bu ilke, AI projesinin karar verme sürecinde insanları nasıl etkileyeceğini veya destekleyeceğini içerir. Ayrıca, yapay zeka konularının yapay zekadan nasıl haberdar edileceğini ve sonuçlarına nasıl güveneceğini de içerir. Sorulması gereken bazı sorular şunlardır:

  • Kullanıcılar bir kararın veya sonucun bir AI projesinin sonucu olduğunun farkında mı?
  • Yapay zeka projesinin olumsuz etkilerini izlemek için herhangi bir tespit ve müdahale mekanizması var mı?

2. Teknik sağlamlık ve güvenlik

Teknik sağlamlık ve güvenlik, AI projelerinin, AI'nın güvenilmez bir şekilde çalışmasıyla ilişkili riskler hakkındaki endişeleri önceden ele almasını ve bu tür etkilerin en aza indirilmesini gerektirir. Yapay zeka projesinin sonuçları, yapay zekanın tahmin edilebilir ve tutarlı bir şekilde performans gösterme yeteneğini içermeli ve yapay zekanın siber güvenlik endişelerinden korunma ihtiyacını kapsamalıdır. Sorulması gereken bazı sorular şunlardır:

  • Yapay zeka sistemi siber güvenlik uzmanları tarafından test edildi mi?
  • Yapay zeka projesiyle ilişkili riskleri ölçmek ve bunlara erişmek için bir izleme süreci var mı?

3. Gizlilik ve veri yönetimi

AI, hem girdilerinde hem de çıktılarında bireysel ve grup gizliliğini korumalıdır. Algoritma, mahremiyeti ihlal edecek şekilde toplanmış verileri içermemeli ve kötü aktörler bu tür hatalara zorlamaya çalışırken dahi deneklerin mahremiyetini ihlal eden sonuçlar vermemelidir. Bunu etkin bir şekilde yapabilmek için veri yönetişimi de bir endişe kaynağı olmalıdır. Sorulacak uygun sorular şunları içerir:

  • Eğitim veya çıkarım verilerinden herhangi biri korumalı kişisel verileri kullanıyor mu?
  • Bu AI projesinin sonuçları, bir kişinin mahremiyetini ihlal edecek şekilde harici verilerle çaprazlanabilir mi?

4. şeffaflık

Şeffaflık, bireysel sonuçlarda izlenebilirlik ve AI algoritmalarının genel açıklanabilirliği ile ilgili endişeleri kapsar. İzlenebilirlik, kullanıcının bireysel bir kararın neden verildiğini anlamasını sağlar. Açıklanabilirlik, kullanıcının karar vermek için kullanılan algoritmanın temellerini anlayabilmesi anlamına gelir. Ayrıca, kullanıcının belirli tahminleri için karar verme sürecinde hangi faktörlerin yer aldığını anlama yeteneğini de ifade eder. Sorulacak sorular şunlardır:

  • Girilen verilerin kalitesini izliyor ve kaydediyor musunuz?
  • Bir kullanıcı, belirli bir kararın nasıl alındığı ve bu kararı değiştirmek için ne yapabilecekleri konusunda geri bildirim alabilir mi?

5. Çeşitlilik, ayrımcılık yapmama

Sorumlu AI olarak kabul edilmek için, AI projesi mümkün olduğunca tüm insan alt grupları için çalışmalıdır. Süre AI önyargısı nadiren tamamen ortadan kaldırılabilir, etkin bir şekilde yönetilebilir. Bu azaltma, eğitim veri kümesine daha çeşitli bir insan arka planı eklemek için veri toplama süreci sırasında gerçekleşebilir ve ayrıca farklı insan grupları arasındaki doğruluğu dengelemeye yardımcı olmak için çıkarım zamanında kullanılabilir. Ortak sorular şunları içerir:

  • Eğitim veri kümenizi, çeşitli insan alt gruplarını içerecek şekilde mümkün olduğunca dengelediniz mi?
  • Adaleti tanımlayıp ardından sonuçları nicel olarak değerlendiriyor musunuz?

6. Toplumsal ve çevresel refah

Bir yapay zeka projesi, çevre üzerindeki etkisi ile birlikte özneler ve kullanıcılar üzerindeki etkisi açısından değerlendirilmelidir. Demokratik karar verme, değerleri koruma ve yapay zeka projelerine bağımlılığı önleme gibi sosyal normlar desteklenmelidir. Ayrıca, AI projesinin çevre üzerindeki kararlarının sonuçları, uygulanabilir olduğunda dikkate alınmalıdır. Neredeyse tüm durumlarda geçerli olan bir faktör, gerekli modelleri eğitmek için gereken enerji miktarının değerlendirilmesidir. Sorulabilecek sorular:

  • Projenin kullanıcıları ve konuları ile diğer paydaşlar üzerindeki etkisini değerlendirdiniz mi?
  • Modeli eğitmek için ne kadar enerji gereklidir ve bu, karbon emisyonlarına ne kadar katkıda bulunur?

7. sorumluluk

AI projesi tarafından yapılan veya geliştirme sırasında karşılaşılan eylem ve kararlardan bazı kişi veya kuruluşların sorumlu olması gerekir. Zarar verici kararların verildiği durumlarda yeterli tazminat olasılığını sağlayacak bir sistem olmalıdır. Ayrıca risk yönetimi ve hafifletme için de biraz zaman ve dikkat ayrılmalıdır. Uygun sorular şunları içerir:

  • Yapay zeka sistemi üçüncü taraflarca risk açısından denetlenebilir mi?
  • Yapay zeka projesiyle ilişkili başlıca riskler nelerdir ve bunlar nasıl azaltılabilir?

Alt satırda

Yukarıda özetlenen yedi sorumlu AI değeri, bir kuruluşun sorumlu AI girişimi için bir başlangıç ​​noktası sağlar. Sorumlu yapay zeka peşinde koşmayı seçen kuruluşlar, devlet sözleşmelerine teklif vermek gibi daha fazla fırsata giderek daha fazla eriştiklerini görecekler. Bu uygulamaları uygulamayan kuruluşlar kendilerini yasal, etik ve itibar risklerine maruz bırakır.

David Ellison, Kıdemli Yapay Zeka Veri Bilimcisidir. Lenovo.

VentureBeat

VentureBeat'in misyonu, teknik karar vericilerin dönüştürücü teknoloji ve işlem hakkında bilgi edinmesi için dijital bir şehir meydanı olmaktır. Sitemiz, kuruluşlarınıza liderlik ederken size rehberlik edecek veri teknolojileri ve stratejiler hakkında önemli bilgiler sunar. Sizi topluluğumuzun bir üyesi olmaya, erişmeniz için davet ediyoruz:

  • ilgilendiğiniz konular hakkında güncel bilgiler
  • bültenlerimiz
  • kapılı düşünce lideri içeriği ve ödüllü etkinliklerimize indirimli erişim, örneğin 2021 Transform: Daha fazla bilgi edin
  • ağ özellikleri ve daha fazlası

Üye ol

Kaynak: https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

Zaman Damgası:

Den fazla AI - VentureBeat