Popüler BilimAlgoritmalar

Yapay Zeka ve Önyargı

Eğer kontrol edilmezse, önyargılı bir yapay zeka ile karşı karşıya kalabiliriz.

Yapay zeka dünyayı yönetiyor olsaydı, bu o kadar da kötü olmazdı. Yapay zeka, insanlar olarak berbat etmeye elverişli olduğumuz şeyler üzerine objektif kararlar alabilirdi. Ancak ipleri yapay zekaya vereceksek, bu adil olmalı. Bu durum şu ana kadar böyle değildi. İnsanların açıkladığı veya düzenlediği veri kümeleri konusunda eğitilen yapay zeka; bu insanların ırkçı, cinsiyetçi ya da diğer önyargılı eğilimlerini de öğrenebilir.

Yavaş olsa da programcılar bu önyargıları düzeltiyor gibi görünüyor. Fakat kendi önyargımızı kodumuzdan uzak tutmayı başarabilsek bile, yapay zeka artık her şeyi kendi başına geliştirebiliyor.

Yayınlanan yeni bir araştırma, yapay zeka ajanlarının bir ağının, kendi kendilerine hem benzer ajanlara karşı grup içi tercih hem de farklı olanlara karşı aktif önyargılar geliştirebildiklerini göstermektedir. Aslında, bilim insanları bu önyargıları geliştirmek için oldukça az bilinç seviyesi gerektiği sonucuna vardılar. Bu da kolayca önyargı yaratabilecekleri anlamına geliyor.

Yapay zeka ajanları, karşılığını almak üzere diğer ajanlara sanal para bağışlayabilmeleri için kurulmuştur. Temelde, ne kadar paylaşacaklarını ve hangi paylaşımcılarla paylaşacaklarını seçmeleri gerekiyordu. Araştırmacılar iki eğilimin ortaya çıktığını gördü: Yapay zeka ajanları, benzer özellikler tanınmış olanlara, bağışlama konusunda daha eğilimliyken, aktif önyargıya sahip olduklarına karşı durumun daha farklı olduğu görüldü. Yapay zeka ajanları, grup içi yapılan bir bağışta daha fazla karşılık sağlanacağını ve diğerlerine bağışta bulunmanın aktif bir şekilde onlar için bir kayba yol açacağını öğrenmiş görülmektedir.

Bu dünyamızda, algoritmaların özellikle siyahi insanları baskılamak ve hedef göstermek için kullanıldığı bir yerde, karşılaştığımız önyargının oldukça soyut bir şeklidir. Yapay zeka ajanları, bazı kişilerin sahip olduğu gibi belli bir azınlık grubuna karşı herhangi bir küçümseme geliştirememektedir. Bunun yerine, kendinden başkasına, ötekine olan bir önyargı taşır ve bu özel simulasyon ile sınırlı bir önyargıdır.

Ancak araştırmanın gerçek dünyadaki uygulamalar için büyük etkileri var. Kontrolsüz bırakılırsa, bunun gibi algoritmalar daha fazla kurumsallaşmış ırkçılığa ve cinsiyetçiliğe ve belki de insan düşmanı bir önyargıya sebep olabilir.

Makaleye göre bunu düzeltmek için oldukça fazla yol var. Örneğin, araştırmacılar yapay zeka ajanlarını küresel öğrenme dedikleri şeylere zorlayarak veya kendi çevreleri dışındaki farklı yapay zeka ajanlarıyla etkileşime sokarak önyargı düzeylerini azaltabileceklerini buldular. Yapay zeka ajanlarının popülasyonları genel olarak daha fazla özelliğe sahip olduğunda, önyargı düzeyleri de düşüyordu. Çünkü daha fazla çeşitlilik vardı. Araştırmacılar da gerçek hayatta önyargılı insanları başka bakış açılarına maruz bırakmaya yönelik paralel bir fikir çizdiler.

Bu faktörler, toplumun çoğulluğunu; bireyin ötesindeki refah politikası, hükümet, tarihi çatışma, kültür, din ve medya gibi sorunlardan etkilenmeyi yansıtır.

Bu, yapay zekayı kendi cihazlarına bırakıp her şeyin iyi gideceğini varsayamayacağımız anlamına geliyor. The Wall Street Journal dergisinde yayınlanan “Merhaba Dünya: Algoritma Çağında İnsan Olmak” başlıklı kitabında, matematikçi Hannah Fry, yaşamımızı şekillendiren algoritmalara karşı, bizi daha eleştirel ve daha şüpheci olmaya çağırıyor. Bu, araştırmanın da gösterdiği gibi, yanlış bir tavsiye değil.

Yapay zeka sistemlerinin objektif, tarafsız makineler olduğuna inanmak istersek, sistemde her zaman aksaklıklar olabileceğini kabul etmeliyiz. Bu şimdilik, kendimize ve algoritmalara dikkat etmemiz anlamına geliyor.

Çeviri: Ayşe Ege Palaz


Referanslar

1. Futurism, “Left Unchecked, Artificial Intelligence Can Become Prejudiced All On Its Own”
<https://futurism.com/artificial-intelligence-prejudiced/>

Ayşe Ege Palaz

Rasyonalist editör, grafik tasarımcı ve çevirmen. Dokuz Eylül Üniversitesi (DEÜ) Mütercim Tercümanlık lisans mezunu.

Leave a Reply

Your email address will not be published.

Back to top button