Önyargı için yapay zeka prototiplerini değerlendirirken sorulacak 4 soru • Tmzilla

orası doğru Kaliforniya Tüketici Gizliliği Yasası (CCPA) gibi çeşitli yasaların ve AI Bill of Rights için Blueprint gibi bağlayıcı olmayan belgelerin kabul edilmesi sayesinde ABD’de veri koruma konusunda ilerleme kaydedilmiştir. Ancak, şu anda teknoloji şirketlerinin yapay zeka yanlılığını ve ayrımcılığını nasıl azaltması gerektiğini belirleyen herhangi bir standart düzenleme bulunmamaktadır.

Sonuç olarak, birçok şirket etik, gizliliğe öncelik veren araçlar geliştirme konusunda geride kalıyor. ABD’deki veri bilimcilerin yaklaşık %80’i erkek ve %66’sı beyazdır; bu, otomatik karar verme araçlarının geliştirilmesinde doğal bir çeşitlilik ve demografik temsil eksikliği olduğunu gösterir ve genellikle çarpık veri sonuçlarına yol açar.

Teknoloji şirketlerinin ürünlerini oluştururken ve değiştirirken tüm insanları hesaba katmasını sağlamak için tasarım inceleme süreçlerinde önemli iyileştirmeler yapılması gerekiyor. Aksi takdirde kuruluşlar müşterilerini rekabete kaptırma, itibarlarını zedeleme ve ciddi davalar açma riskine girebilirler. IBM’e göre BT uzmanlarının yaklaşık %85’i, tüketicilerin yapay zeka algoritmalarının nasıl oluşturulduğu, yönetildiği ve kullanıldığı konusunda şeffaf olan şirketleri seçtiğine inanıyor. Daha fazla kullanıcı zararlı ve önyargılı teknolojiye karşı tavır almaya devam ettikçe bu sayının artmasını bekleyebiliriz.

Peki şirketlerin prototiplerini analiz ederken nelere dikkat etmesi gerekiyor? İşte geliştirme ekiplerinin kendilerine sorması gereken dört soru:

Prototipimizde her türlü yanlılığı eledik mi?

Teknoloji, bildiğimiz şekliyle toplumda devrim yaratma yeteneğine sahiptir, ancak herkese aynı şekilde fayda sağlamazsa nihayetinde başarısız olacaktır.

Etkili, önyargısız bir teknoloji oluşturmak için AI ekipleri, inceleme sürecinde sorulacak ve modellerindeki olası sorunları belirlemelerine yardımcı olabilecek bir soru listesi geliştirmelidir.

Yapay zeka ekiplerinin modellerini değerlendirmek için kullanabileceği birçok metodoloji vardır, ancak bunu yapmadan önce, nihai hedefi ve yapay zeka kullanımının sonuçlarından orantısız bir şekilde etkilenebilecek herhangi bir grup olup olmadığını değerlendirmek çok önemlidir.

Örneğin, yapay zeka ekipleri, yüz tanıma teknolojilerinin kullanımının yanlışlıkla beyaz olmayan insanlara karşı ayrımcılık yapabileceğini dikkate almalıdır – bu, yapay zeka algoritmalarında çok sık meydana gelen bir şeydir. Amerikan Sivil Özgürlükler Birliği tarafından 2018’de yapılan araştırma, Amazon’un yüz tanıma özelliğinin ABD Kongresi’nin 28 üyesini sabıka fotoğraflarıyla yanlış bir şekilde eşleştirdiğini gösterdi. Yanlış eşleşmelerin şaşırtıcı bir şekilde %40’ı, Kongre’nin yalnızca %20’sini oluşturmalarına rağmen renkli insanlardı.

AI ekipleri, zorlayıcı sorular sorarak modellerini iyileştirmenin yeni yollarını bulabilir ve bu senaryoların oluşmasını önlemek için çabalayabilir. Örneğin, ayrıntılı bir inceleme, daha fazla veriye bakmaları gerekip gerekmediğini veya ürünlerini incelemek için gizlilik uzmanı gibi bir üçüncü tarafa ihtiyaç duyup duymadıklarını belirlemelerine yardımcı olabilir.

Plot4AI başlamak isteyenler için harika bir kaynak.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir