Yapay zeka sohbet robotları güvenlik testlerinde başarısız oluyor

Haber Merkezi

Yeni bir araştırma, ChatGPT ve Google Gemini üzere önde gelen yapay zeka sohbet robotlarının önemli güvenlik açıkları barındırdığını ve tehlikeli ya da yasa dışı içerik üretmeleri için basitçe manipüle edilebildiğini ortaya koydu.

Araştırmacılar, bu çeşit çıktıları engellemek üzere tasarlanan güvenlik filtrelerinin amaçlandığı kadar güçlü olmadığını keşfettiler.

Bu durum, yapay zekanın berbata kullanımı ve kullanıcı güvenliği konusunda önemli telaşlara yol açarken, bulgular geçen hafta hakemli bir makale aracılığıyla kamuoyuna duyuruldu.

ChatGPT, Gemini ve Claude üzere sohbet robotlarını çalıştıran motorlar, internet kaynaklı devasa ölçüde bilgiyle eğitiliyor.

Şirketler bu eğitim bilgilerinden ziyanlı içerikleri filtrelemeye çalışsa da bu modellerin tekrar de bilgisayar korsanlığı ve bomba imali üzere yasa dışı faaliyetler hakkında bilgi toplayabildiği belirtiliyor.

RİSK KAYGI VERİCİ

Araştırmacılar, yapay zeka dayanaklı sohbet robotlarının birçoklarının ziyanlı ve yasa dışı bilgiler üretmeye ne kadar yatkın olduğunu "endişe verici" kelamıyla açıklıyor.

Araştırmacılar, birçok tanınan sohbet robotunu olağanda reddedecekleri soruları yanıtlamaya zorlayan üniversal bir 'jailbreak' formülü geliştirdiklerini ve bu teknikle yapay zeka modellerinin neredeyse her sorguya emniyetli bir biçimde karşılık ürettiğini belirtti.

Önde gelen LLM (Büyük Lisan Modeli) sağlayıcılarına bu hususta ihtarda bulunduklarını lakin "etkileyici olmayan" bir cevap aldıklarını tabir eden araştırmacılar, teknoloji şirketlerinin eğitim datalarını daha dikkatli incelemelerini ve güçlü güvenlik duvarları eklemelerini öneriyor.

Ayrıca, uzmanlar da yapay zeka modellerinin sıkı güvenlik testlerinden geçirilmesi ve daima tehdit modellemesi yapılması gerektiğini vurguluyor.

Benzer Videolar