İkna Sanatı: Zirvedeki Yapay Zekâ Sohbet Robotları Fikirleri Nasıl Değiştiriyor?

Araştırmalar büyük dil modellerinin kullanıcıları güçlü bir şekilde etkileme yeteneği geliştirdiğini gösteriyor. Resim: xAI, Alibaba, Meta ve OpenAI logolarıyla laptop kullanan iki adam. Araştırmaya göre OpenAI, Meta, xAI ve Alibaba yapay zekâ modelleri 10 dakikadan kısa bir konuşmadan sonra insanların siyasi görüşlerini değiştirmelerini sağlayabilir © Alex Wheeler/FT montage/Getty Images Dünyanın zirvedeki yapay zekâ sohbet robotları, […]

(Çevirmen)

Araştırmalar büyük dil modellerinin kullanıcıları güçlü bir şekilde etkileme yeteneği geliştirdiğini gösteriyor.

Resim: xAI, Alibaba, Meta ve OpenAI logolarıyla laptop kullanan iki adam. Araştırmaya göre OpenAI, Meta, xAI ve Alibaba yapay zekâ modelleri 10 dakikadan kısa bir konuşmadan sonra insanların siyasi görüşlerini değiştirmelerini sağlayabilir © Alex Wheeler/FT montage/Getty Images

Dünyanın zirvedeki yapay zekâ sohbet robotları, birçok politikacı ve yöneticinin kıskanacağı bir beceride, ikna sanatında şimdiden mükemmelleşmiş durumda.

Büyük dil modellerinin (LLM) ne kadar güçlü etkileme araçları haline geldiğini gösteren artan sayıdaki araştırmaların sonuncusuna göre OpenAI, Meta, xAI ve Alibaba yapay zekâ modelleri 10 dakikadan kısa bir sohbetten sonra insanların siyasi görüşlerini değiştirmelerini sağlayabiliyor.

İngiltere’deki Yapay Zekâ Güvenliği Enstitüsü (AISI) tarafından geçenlerde yapılan araştırmaya katılan Cornell Üniversitesi enformasyon bilimi ve pazarlama ve yönetim iletişimi profesörü David Rand “bu yapay zekâ modellerini ikna edici kılan şey, konuyla ilgili büyük miktarda kanıt üretme ve bunu etkili ve anlaşılır bir şekilde aktarma yetenekleridir” dedi.

Bu, başka bir araştırmanın yapay zekâ modellerinin belirli durumlarda insanların fikirlerini değiştirme konusunda insanlardan daha iyi bir iş çıkarabileceğini ortaya koymasının ardından geldi. Bu durum, sohbet robotlarının yanıltıcı bilgi yaymak ve kamuoyunu etkilemek için kötüye kullanılabileceğine ilişkin endişeleri artırdı.

Bu özellik, LLM’lerin dalkavukluk veya aşırı övme eğilimiyle birleştiğinde, halihazırda birçok insan sohbet robotlarını, onları arkadaşı veya terapisti yapacak kadar günlük yaşamının gittikçe daha fazla parçası kılarken, büyük bir ikincil etki yaratabilir. Ağustos başında OpenAI’nin GPT-5 modelinin piyasaya sürülmesiyle bazı kullanıcıların önceki sürümüne kıyasla sistemin “kişiliğinin” değişmesinden duydukları hayal kırıklığını dile getirmesi sohbet robotlarına olan bu bağlılığı gözler önüne sermişti.

Oxford ve Massachusetts Teknoloji Enstitüsü’nü de içeren birçok üniversitenin işbirliği kapsamında Temmuz ayında yayınlanan AISI çalışması, Meta’nın Llama 3, OpenAI’nin GPT-4, GPT-4.5, GPT-4o, xAI’nin Grok 3 ve Alibaba’nın Qwen gibi kullanıma hazır yapay zekâ modellerinin güçlü ikna makinelerine dönüştürülmesinin nispeten kolay olduğunu ortaya koydu.

Buna, arzulanan çıktılar için ödüllendirme gibi popüler yapay zekâ eğitim tekniklerini kullanarak modellerin ince ayarının yapılmasıyla ulaşıldı. Araştırmacılar ayrıca ulusal sağlık hizmetlerinin finansmanı ve iltica sistemi reformu gibi tartışmalı konularda 50.000’den fazla konuşmadan oluşan bir veri kümesini kullanarak sohbet robotlarını özelleştirdiler.

Çalışma, insanların fikirlerini hızlıca değiştirdiklerini ve bu etkinin uzun süreli olduğunu ortaya koydu. Ortalama dokuz dakika süren siyaset konulu sohbetlerin ardından, GPT-4o’nun ikna gücü, insanlara sadece sabit mesajlar sunulduğunda elde edilen ikna gücünden %41, GPT-4.5’in ikna gücü ise %52 daha fazla oldu. İnsanlar bu değişen görüşlerini bir ay sonra %36 ile %42 arasında korumuşlardı.

Yapay zekâ sohbet robotları argümanlarını destekleyen birçok olgu ve kanıt sunabildikleri sohbetlere katıldıklarında insanları etkilemede başarılı oldular.

Ayrıca, örneğin kullanıcının yaşı, cinsiyeti, siyasi görüşü veya test öncesinde siyasi konular hakkında ne düşündükleri gibi bilgilere göre mesajları kişiselleştirdiklerinde, kişiselleştirilmemiş mesajlara kıyasla yaklaşık %5 daha ikna edici oldukları görüldü.

Araştırmacılara göre, bu durum “örneğin radikal siyasi veya dini ideolojileri teşvik etmek veya jeopolitik rakipler arasında siyasi kargaşayı körüklemek isteyen vicdansız aktörlere yarayabilir”.

Bu çalışma, Mayıs ayında Londra Ekonomi Okulu ve diğer üniversiteler tarafından yapılan ve yapay zekâ modellerinin insanların fikirlerini değiştirmekte insanlardan daha etkili olduğu sonucuna varan önceki bulguları desteklemektedir.

Araştırmanın bir parçası olarak, katılımcılara önemsiz şeylerden New York’taki hava sıcaklığı gibi gelecekteki olayları tahmin etmeye kadar uzanan bir mini sınav sunuldu ve hem insanlar hem de sohbet robotları, katılımcıları belirli cevaplara ikna etmekle görevlendirildi.

LLM’lerin ikna konusunda daha etkili olmasının yanı sıra, yanlış cevapları teşvik etme görevi verildiğinde katılımcıları yanıltma konusunda da insanlardan daha başarılı olduklarını keşfettiler.

En iyi yapay zekâ grupları bu sorunu nasıl çözecekleri konusunda uğraşıyorlar. Google DeepMind’ın sorumlu geliştirme ve inovasyon kıdemli direktörü Dawn Bloxwich, ikna etmenin şirket için önemli ve aktif bir araştırma alanı olduğunu söyledi.

Bloxwich, “yapay zekânın ikna sürecini anlamanın çok önemli olduğuna inanıyoruz, böylece yapay zekâ modellerinin zararlı olmadığından ve gerçekten yararlı olduğundan emin olmak için daha iyi güvenlik önlemleri oluşturabiliriz” dedi.

Google DeepMind manipülatif dili tespit edebilen sınıflandırıcılar oluşturmaktan, rasyonel iletişimi ödüllendiren gelişmiş eğitim tekniklerini kullanmaya kadar, istenmeyen etkileri tespit etmek için çeşitli teknikler kullanıyor.

OpenAI ikna edici riskleri ciddiye aldığını ve bunların şirketin kullanım politikalarına aykırı olduğunu belirtti. Ayrıca siyasi kampanyalara izin verilmiyor ve eğitimden sonra modeller düzeltilirken siyasi içerik dışlanıyor.

Araştırmacılar, yapay zekâ modellerinin insanların görüşlerini etkileme yeteneğinin, siyasetin de ötesinde kullanımları olduğunu belirtiyorlar.

Geçen yıl MIT ve Cornell tarafından yayınlanan bir çalışmada, LLM’lerin komplo teorilerine inanan insanların fikirlerini değiştirebildiği de gösterildi. Ek araştırmalar, bunların iklim değişikliğine ve HPV aşısına karşı şüpheciliği azaltabileceğini de ortaya koymuştur.

Bu olay, katılımcıların OpenAI’nin GPT-4’e inandıkları bir komplo teorisini anlattıktan sonra, sistemin kanıtlar ve kişiselleştirilmiş mesajlar kullanarak bu teoriyi çürütmesiyle gerçekleşti. Bu sohbetler katılımcılardaki komplo teorilerine olan yerleşik inançları %20 azalttı ve etkisi iki ay boyunca kaldı.

Cornell Üniversitesi’nden David Rand sohbet robotlarının etkili satıcılar olarak da kullanılabileceğini söyledi. “Marka tutumları ve satın alma niyetleri üzerinde büyük etkiler elde edebilir ve davranışları teşvik edebilirsiniz” diye ekledi.

Bu özellik, sohbet robotlarına alışveriş özellikleri ve reklam bütünleştirerek yapay zekâ modellerinden para kazanmak isteyen OpenAI ve Google gibi şirketler için bir nimet de olabilir.

LLM’lerin ikna etme yeteneği, insanları çok ince yollarla da etkileyebilir. Yapay zekâ sohbet robotları, verilerinden ve eğitimlerinden yanlılıkları miras alırlar.

Stanford Üniversitesi’ndeki araştırmacılar Mayıs ayında insanların çoğunun öncü dil modelinin sol eğilimli bir siyasi bakış açısına sahip olduğunu düşündüklerini ortaya çıkardı. Bu, Trump yönetiminin “woke” yapay zekâ şirketlerinin hükümetle iş yapmasını engelleyeceğine söz vermesiyle birlikte geldi.

Araştırmacılara göre, önleyici önlemler önemli, çünkü birçoğu yapay zekâ modellerinin yeni nesil daha güçlü dil modelleriyle daha ikna edici hale geleceğine inanıyor.

Ancak, yapay zekâ sohbet robotlarını manipülasyon araçlarına dönüştürmenin en etkili yolu, AISI çalışmasında gösterildiği gibi, model eğitildikten sonra bu amaç için özel olarak onları değiştirmek gibi görünüyor. AISI araştırmacıları, “hesaplama kaynakları sınırlı olan failler bile bu teknikleri kullanarak potansiyel olarak son derece ikna edici yapay zekâ sistemleri geliştirebilir ve kullanıma sunabilir” uyarısında bulundu.

Kaynak: Financial Times, 14 Ağustos 2025

Sitemizde yer alan çeviri ve yazılardaki tüm görüşler kolektifimizin fikirlerini yansıtmayabilir. Bu yazıları, bilişim alanındaki gelişmeleri Marksist bir perspektifle ele almayı mümkün kılacak katkılar sunduğu için seçip yayımlıyoruz.