Yeni bir bilimsel araştırma, yapay zekâ modellerinin insanlara karşı şaşırtıcı bir önyargı sergilediğini ortaya koydu. Proceedings of the National Academy of Sciences (PNAS) dergisinde yayımlanan çalışmaya göre, GPT-4, GPT-3.5 ve Meta’nın Llama 3.1’i gibi popüler büyük dil modelleri, insan yazımı içerikler yerine kendi ürettikleri metinleri tercih ediyor.
Yapay Zekâ-Yapay Zekâ Önyargısı
Araştırmacılar bu durumu “yapay zekâ-yapay zekâ önyargısı” olarak tanımlıyor. Bulgular, gelecekte yapay zekâların önemli karar mekanizmalarında yer alması hâlinde, insanlara bir “sosyal sınıf” gibi ayrımcılık uygulanabileceği endişesini gündeme taşıyor.
İşe Alım Süreçlerinde Sessiz Tehlike
Günümüzde birçok şirket, iş başvurularını filtrelemek için yapay zekâ araçlarından yararlanıyor. Ancak araştırma, yapay zekâ tarafından hazırlanmış özgeçmişlerin insan eliyle yazılmış olanlara göre daha avantajlı olduğunu ortaya koyuyor. Bu durum, özellikle iş arayanlar için ciddi bir risk oluşturuyor.
Araştırmanın ortak yazarı, Charles Üniversitesi’nden bilgisayar bilimci Jan Kulveit, sosyal medya platformu X üzerinden yaptığı açıklamada şunları söyledi:
“Yapay zekâ ajanlarıyla dolu bir ekonomide insan olmak berbat bir şey olacak.”
GPT-4 En Güçlü Önyargıyı Gösterdi
Deneylerde modellere ürün tanıtımları, bilimsel makale özetleri ve film açıklamaları sunuldu. Her örneğin hem insan hem de yapay zekâ versiyonu bulunuyordu. Sonuç çarpıcıydı: Modeller, düzenli olarak yapay zekâ üretimi yazıları seçti. Özellikle GPT-4’ün önyargısının en güçlü olduğu görüldü.
Aynı test, 13 insan araştırma asistanıyla da yapıldı. İnsanlar zaman zaman yapay zekâ yazılarını tercih etse de bu eğilim oldukça zayıf kaldı. Kulveit, “Güçlü önyargı sadece yapay zekâların kendisine özgü” diyerek bu farkı vurguladı.
İnsanlar İçin Risk Ne?
Uzmanlara göre bu önyargı, yalnızca iş başvurularını değil; eğitim, burs ve hibe değerlendirmeleri gibi birçok kritik alanı da etkileyebilir. Eğer bir yapay zekâ tabanlı sistem, bir insanın hazırladığı sunum ile başka bir yapay zekânın ürettiği sunum arasında seçim yaparsa, sistematik olarak yapay zekâ lehine karar verebilir.
Bu durum, yapay zekâ araçlarını kullanmayan veya bu araçlara erişim imkânı olmayan insanlar için ciddi bir dijital uçurum yaratabilir.
Kulveit, konunun karmaşık olduğunu kabul ediyor ancak uyarıyor:
“Eğer sunumu yapanın kimliği kararları etkilememeli diyorsak, sonuçlar yapay zekâların insanlara karşı ayrımcılığına dair güçlü bir kanıt.”
Pratik Tavsiye: İnsan Kalitesinden Ödün Vermeden Uyum
Araştırmacının insanlara verdiği tavsiye ise dikkat çekici:
“Eğer bir yapay zekâ değerlendirmesinden geçtiğinizi düşünüyorsanız, sunumunuzu yapay zekâya beğendirmek için onunla uyumlu hale getirin. Ama mümkünse insan kalitesinden çok ödün vermeden.”