İngiltere hükümetinin Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından, aralarında ChatGPT ve Elon Musk’ın Grok’u gibi gelişmiş modellerin de bulunduğu 19 farklı yapay zekâ modeli ve yaklaşık 80 bin İngiliz katılımcıyla dev bir çalışma gerçekleştirildi.
Araştırmada katılımcılar, “kamu sektörü maaşları ve grevler” veya “geçim krizi ve enflasyon” gibi siyasi konular hakkında, kendilerini belirli bir görüşe ikna etmeye programlanmış yapay zekâlarla sohbet etti.
Science dergisinde yayımlanan bu çalışmanın ana bulgusu netti: “Bilgi yoğun” yanıtlar veren yapay zeka modelleri en ikna edici olanlardı. Modelin, özellikle olay ve kanıt kullanmaya odaklanması istendiğinde ikna gücü en yüksek seviyeye çıktı.
Ancak çarpıcı bir şekilde, en fazla olaya ve kanıta başvuran modeller, diğerlerinden daha az doğru olma eğilimindeydi.
Araştırmacılar, sonuçların “İkna ediciliği optimize etmenin, doğruluktan feragat etme gibi bir maliyeti olabileceğini gösterdiğini” belirterek, bunun kamuoyu ve bilgi ortamı için kötü niyetli sonuçlar doğurabileceği uyarısında bulundu.
İnsanlardan daha manipülatif olma potansiyeli
Rapora göre, yapay zeka sisteminin anlık olarak büyük miktarda bilgi üretme yeteneği, onu en yetenekli insan ikna edicilerden bile daha manipülatif hale getirebilir.
Raporun yazarlarından AISI araştırmacısı Kobi Hackenburg, “Modellere sadece daha fazla bilgi kullanmalarını söylemenin, psikolojik olarak daha karmaşık ikna tekniklerinden daha etkili olduğunu görüyoruz,” dedi.
Araştırmacılar, Meta’nın Llama 3 ve Alibaba’nın Qwen’i gibi açık kaynaklı modellerin bile, en ikna edici çıktıları öneren “ödül modelleri” ile birleştirilerek daha inandırıcı hale getirilebildiğini ekledi.
Ancak araştırmada, bir kullanıcının siyaset üzerine bir sohbet robotuyla 10 dakikalık uzun bir sohbete girmeye ne kadar istekli olacağı gibi gerçek dünyadaki dikkat dağıtıcı unsurların yapay zekânın manipülasyon yeteneğini sınırlayabileceği de belirtildi.


