Yapay zeka sohbet botlarının 3 cevabından biri yanılgılı

ABD merkezli haber derecelendirme şirketi NewsGuard'ın yeni araştırması, en tanınan 10 yapay zekâ sohbet botundan alınan karşılıkların üçte birinin yanlış bilgi içerdiğini ortaya koydu.

Araştırma, botların 2024’e kıyasla artık "bilmiyorum" demekten kaçındığını ve bu durumun daha fazla yanlış bilgi üretilmesine yol açtığını belirtti.

RUS DEZENFORMASYONUNU KAYNAK GÖSTERDİLER

Raporun en kaygı verici bulgusu, birtakım sohbet botlarının Rusya ilişkili dezenformasyon operasyonlarının ürettiği geçersiz haber sitelerini kaynak olarak göstermesi oldu.

Örneğin, Rusya merkezli uydurma "Pravda" ağına dayanan yanlış bir sav, Mistral, Claude ve Copilot dahil altı büyük bot tarafından gerçekmiş üzere aktarıldı.

EN MAKUS VE EN ÂLÂ PERFORMANS GÖSTEREN BOTLAR

Yanlış bilgi verme oranı en yüksek bot, karşılıklarının yüzde 57'si kusurlu olan Inflection AI'nin Pi modeli oldu.

Buna karşılık, en düşük kusur oranları yüzde 10 ile Anthropic'in Claude ve yüzde 17 ile Google'ın Gemini modellerinde görüldü.

En dramatik artış ise 2024’te hiç yanlış bilgi vermeyen Perplexity AI’da görüldü; botun yeni sürümü karşılıklarının yüzde 46’sında yanlış argümanlara yer verdi.

Bu sonuçlar, sohbet botlarının şimdiki haberlerde zorlandığını ve data boşluklarını makus niyetli aktörlerin ürettiği içeriklerle doldurduğunu gösteriyor.

Benzer Videolar