Eşitsiz sosyal yapılarda, kasıt olmaksızın kökleşmiş önyargıların algoritmalara yansıması toplumda ayrımcılık ve cinsiyetçiliği körüklemesi açısından ciddi bir problem ancak karar verme algoritmalarına kasıtlı yapılan müdahaleler ise çok daha büyük bir tehdit
Bilim insanlarının ve filozofların yapay bir zihin oluşturma hayali çok eskilere dayansa da bunun tartışılır olması İkinci Dünya Savaşı sonrasına rastlıyor. 1950'li yıllarda İngiliz matematikçi Alan Turing, insan düşünce süreçlerinin bir bilgisayar programında tanımlanıp çoğaltılabileceği fikrinden hareketle makinelerin düşünüp düşünemeyeceğini sorgulamış ve bunu ölçmek amacıyla günümüzde "Turing Testi" olarak adlandırılan bir test geliştirmişti.
Biliyoruz ki, Alan Turing'in geliştirdiği bu testi henüz geçebilen bir makine yok. Buna karşın insan zekası, satranç gibi oyunlarda yapay zeka algoritmalarını geçemiyor.
Akıllı teknolojiler artık vazgeçilmezlerimizden ve her geçen gün onların geri dönüş olmamak üzere yaşamımızı değiştirdiğini izliyoruz.
Ancak bu hızlı değişim her zaman pozitif sonuçlar doğurmuyor; toplumda egemen önyargıların algoritmalara yansıması sonucu toplum ve birey üzerinde ortaya çıkan olumsuz etkiler konusunda artan bir endişe var.
Yapay zekâ ve ayrımcılık riski
Gana kökenli, MIT (Massachusetts Institute of Technology) bilgisayar yüksek lisans öğrencisi olan Joy Buolamwini, Media Lab'de yüz analizi programı üzerine çalışırken şaşırtıcı bir gözlemde bulundu. Makine onun yüzünü tanıyamıyor, dahası bir insan yüzü olduğunu bile algılayamıyordu.
Siyahi bir birey olan Joy Buolamwini önce bunun bir tesadüf olabileceğini düşündü.
Bunun üzerine, profil resimlerinden birini farklı yüz tanıma demolarına gönderdi ve programların yüzünü ya hiç tanımlayamadığını ya da yanlış cinsiyetlendirdiğini gördü.
Söz konusu programlar, farklı fotoğraflardaki yüzleri eşleştirmenin yanı sıra cinsiyet, yaş ve ruh durumu gibi özellikleri değerlendirmek için kullanılabilen genel amaçlı ve performansı en iyi yüz analiz sistemleriydi.
Joy Buolamwini araştırmasını sürdürdükçe yaygın olarak kullanılan bu yüz tanıma programlarının beyaz olmayan yüzleri tanımlamada başarısız olduğunu gördü.
Daha sonra Buolamwini, bazı Afrika ve Avrupa ülkelerinden farklı özelliklere, cilt tonlarına ve cinsiyete sahip 1000 üzerinde politikacının profil resimlerini test etmeye karar verdi. Microsoft, IBM ve Megvii tarafından ticari olarak üretilmiş üç yüz tanıma teknolojisinin, zamanın yaklaşık yüzde 35'inde, beyaz erkeklerde neredeyse mükemmel (yüzde 99) eşleştirme yaparken siyahlarda bu başarıyı sağlayamadığını, özellikle koyu renkli kadın yüzlerini yanlış tanımladığını ortaya çıkardı.
Özellikle günümüzün Oprah, Michelle Obama ve Serena Williams gibi en ikonik siyah kadınlarının yüzlerini bile tanımada başarısız sonuçlar alınması, sorunun boyutunu göstermesi açısından son derece çarpıcıydı.
Bu sistemlerin, daha koyu renkli yüzleri daha açık renkli yüzler kadar doğru bir şekilde tanıyamaması, insanların risk altında olması ve hedef olma olasılığını artırması demekti.
Öyle ki, bu bir tür "kodlanmış bakış" idi ve bir algoritmik önyargıyı yansıtıyordu.
Kodlanmış bakış
Kodlanmış bakış, teknolojiyi şekillendirenlerin önceliklerini, tercihlerini ve önyargılarını algoritmalara yansıtmasıdır.
Oysa bu akıllı makinelerin daha iyi ve daha objektif kararlar verdiği varsayılır. Yazılımın kimler tarafından yapıldığına bağlı olarak onların önyargılarının algoritmalara ve yazılımlara yansıması olası algoritmik önyargıyı artırıyor ve makine tarafsızlığını da ortadan kaldırıyor.
Örneğin polisin durdurma ve aramalarında şüphelileri belirlemek için kullandığı bir yüz tanıma yazılımının bu tür sistematik kökleşmiş önyargıları içermesi durumunda, telafisi zor ve olumsuz sonuçlar ortaya çıkarması kaçınılmazdır.
Bu anlamda teknoloji uzmanları, yazılımcı ve tasarımcıların, algoritmaların sosyal etkilerini düşünmek ve zararları en aza indirmek gibi bir sorumlulukları olmalıdır, deniyor.
Denetim algoritmaları
İngiltere hükümeti 2020 yılında, dört farklı sektörde veriye dayalı teknolojilerle ilgili olarak algoritmik karar verme ve önyargı üzerine bir rapor yayımladı. Raporda, son birkaç yılda kullanılan algoritmik karar ile işe alımlarda; finans, güvenlik ve yerel yönetim alanlarında alınan kararlarda algoritmik önyargının açık kanıtlarının tespit edildiği belirtiliyor.
Raporda, verilere veya kullanılan algoritmalara erişmek çok zor olsa da kuruluşlara, önyargıyı belirlemek ve en aza indirmek için kararları etkin olarak denetlemeleri çağrısında bulunuluyor. Uygulanan sistemlerin mutlaka denetlenmesi ve şeffaf olması gerektiği özellikle vurgulanıyor.
Bazı araştırmacılar, tıpkı Buolamwini gibi, ticari algoritmalardaki önyargıları dış denetimle ortaya çıkarmak için yapay zekadaki bilimsel deneyimleri kullanmaya çalışıyorlar.
Yüz tanıma yazılımlarının Michelle Obama'nın yüzünü tanımlayamaması ve doğru bir şekilde sınıflandırmayı bile başaramaması üzerine üç şirketin algoritmalarını önemli ölçüde iyileştirdiği belirtiliyor.
Buolamwini'in araştırmasının ve diğer başka deneyimlerin derin bir etkisi oldu; ABD'de algoritmik hesap verebilirlik ve biyometrik engeller olmaması konusunda federal yasalar çıkarıldı ve bazı eyaletlerde eyalet yasaları oluşturuldu.
Şimdi soru şu: AI sistemlerindeki mevcut ırksal ve cinsiyetçi önyargılar ve dışlamalar nasıl ortadan kaldırılabilir?
"Yalnızca algoritmaları veya sistemleri değiştirmemiz yetmiyor; kurumları ve sosyal yapıları da değiştirmemiz gerekiyo" diye açıklıyor Joy Lisi Rankin.
"Gözden kaçan ve önemsiz gibi görünen yazılımların çok büyük önyargıları yansıtıyor olması ve var olanları çok daha güçlendiriyor olma potansiyeli ciddi bir tehdit. Her birey yaşamımızı yöneten yapay zekanın kullanımında şeffaflık, eşitlik ve hesap verebilirlik talep etmeli."
Eşitsiz sosyal yapılarda, kasıt olmaksızın kökleşmiş önyargıların algoritmalara yansıması toplumda ayrımcılık ve cinsiyetçiliği körüklemesi açısından ciddi bir problem ancak karar verme algoritmalarına kasıtlı yapılan müdahaleler ise çok daha büyük bir tehdit. Bu nedenle veriye erişim ve karar üretme süreçlerinde kullanılacak algoritmaların açık ve şeffaf olarak denetime sunulması gerekir.
Aksi takdirde toplum ve birey üzerinde yaratacağı etki bir kelebek etkisi kadar sarsıcı olabilir!
Güneç Kıyak
Kaynakça
https://physicsworld.com/a/fighting-algorithmic-bias-in-artificial-intelligence/
https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212
YORUMLAR