Yanlılık ve Yapay Zeka

Yapay zekayla ilgili öngörülen felaket senaryolarına biraz bilimsel altyapı sunmak istiyorum bu akşam. Olayların çığrından çıkması için yapay zekanın “bir şekilde bilinçlenip” sonra da bize düşman olması şart değil, çok daha matematiksel sorunlar yaşanabilir. Yanlılık sorunu bunlardan bir tanesi.

Modern yapay zeka teknikleri ölçüm ya da gözlemdeki asimetrileri, dağılımdaki dengesizlikleri kullanarak öğrenir. Mesela kan basıncı, boy, kilo, yaş, cinsiyet gibi değişkenlere bakarak diyabet teşhisi koyan bir yapay zeka modelimiz olsun – şurada bir örneğini de yazmıştım. Kendi kendinize eğitebileceğiniz bu yapay zeka modeli geçmiş yıllarda doktorlar tarafından konulmuş diyabet var/yok teşhislerini kullanıyor. Haliyle aslında yapay zeka diyabete teşhis koymayı öğrenmiyor, eğitim verisindeki teşhislerin doktorlar tarafından nasıl konulduğunu öğreniyor. Bu ince fark çok önemli, modern yapay zeka uygulamalarının neredeyse tamamı doğruyu ve gerçekliği insan gözünden görüyorlar. Eğer insanlar doğruyu ve gerçekliği çarpıttıysa, makinalar da mecburen çarpık bir gerçekliği öğreniyor.

Bu nasıl ele avuca sığmaz bir soruna doğru gider: Müşterilerin çeşitli bilgilerine dayanarak sigorta taleplerinde suistimal olup olmadığına karar veren bir yapay zeka modeli kullanıyor olalım – oldukça iyi çalışan, hali hazırda kullanılan bir sürü böyle model var. Eğitim verisi tam olarak, sigorta şirketimizin geçmişte yakaladığı suistimal vakalarıdır. Eğer şirketimizin suistimal ekibinde bir etnik azınlığa karşı ön yargı varsa, misal siyahları daha çok soruşturmaya tabii tutuyorsa çalışanlarımız, ister istemez suistimal tespit edilen vakalar içinde daha çok siyahi müşteri olacaktır. Bu veriye dayanarak eğitilen yapay zeka da haliyle daha çok siyahi müşterinin talebini potansiyel suistimal olarak tahmin edecektir. Eh elimizde siyahi müşterileri daha sıklıkla araştıran bir grup insan var, üstüne bir de yapay zeka daha çok siyahi müşteri vakası önümüze koyuyor. Bu sefer başlangıçtakinden daha da sık miktarda siyahi müşerinin vakası suistimal olarak tespit edilecek. Eee, sonra bu yeni veriler yapay zeka modelini geliştirmek için kullanılacak, daha yeni daha iyi model siyahi müşterilere daha da çok suistimal demeye başlayacak. İşin sonunun nereye gittiğini görüyorsunuzdur.

Bu eğit – uygula – yeniden eğit süreci, başlangıçtaki bir yanlı tutumla büyük yanlışlara doğru savrulabilir ve biz de bunu çok uzun zaman hiç farketmeyebiliriz. Bu işlere “Hocam bunlar sınav çıkacak mı?” diye yaklaşanlara saldıracak yapay zeka. İstatistikten, matematikten, bilimden vazgeçmeyen, her bir adımda ne yaptığının bilincinde olanların keyfi gıcır olacak.

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

*

Şu HTML etiketlerini ve özelliklerini kullanabilirsiniz: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>