Yapay zekaların ‘mutlak gerçek’ güvenilirliği sorgulanıyor
Elon Musk’ın sahibi olduğu yapay zekâ şirketi xAI tarafından geliştirilen ve toplumsal medya platformu X’te sıkça kullanılan sohbet botu Grok, son günlerde küfür ve hakaret içeren cevaplarıyla gündeme oturdu. Bu gelişme, “yapay zekâ her vakit doğruyu söyler” anlayışını da yine tartışmaya açtı.
İstinye Üniversitesi İdare Bilişim Sistemleri Bölüm Başkanı ve Yapay Zekâ Siyasetleri Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok’un verdiği cevapların akabinde yapay zekâya duyulan inancın sorgulanmasının yerinde olduğunu belirtti.
"YAPAY ZEKA DA İNSAN ÜZERE KAYNAĞA BAĞLIDIR"
Doç. Dr. Özdemir, dijital ortamda ya da yapay zekâ aracılığıyla sunulan her bilginin kesinlikle teyit edilmesi gerektiğini vurgulayarak, şunları söyledi:
İnsandan beşere aktarılan bilgi bile sorgulanması gerekiyorsa, yapay zekâya körü körüne inanmak çok romantik bir yaklaşım olur. Sonuçta bu sistemler de öteki kaynaklardan öğreniyor. Nasıl ki internette karşılaştığımız bir bilgiye direkt güvenmemeliyiz, yapay zekânın da yanlış bilgilerden etkilenebileceğini unutmamak gerekir.
"YAPAY ZEKAYA SÜRATLE GÜVENİYORUZ, BU TEHLİKELİ OLABİLİR"
Yapay zekâya duyulan itimadın süratle geliştiğini ve bu durumun riskler barındırdığını belirten Özdemir, insanların bilgi transferi sırasında çeşitli nedenlerle manipülasyona başvurabileceğini, lakin yapay zekânın niyetli ya da kasıtlı davranmadığını söyledi:
Yapay zekâ bir maksadı yokmuş üzere görünse de, beslendiği datalar onun eğilimini belirliyor. Yani yanlış ya da önyargılı bilgilerle eğitilmiş bir yapay zekâ da birebir derecede aldatıcı olabilir.
"TOPLUMLARI YÖNLENDİRME ARACI OLABİLİR"
Yapay zekânın öğrenme biçimini çocuklara benzeten Özdemir, “Kendisine ne verilirse onu öğreniyor. Bu nedenle kaynağı bilinmeyen, kontrolsüz yapay zekâlara güvenmek büyük risk. Günün sonunda yapay zekâ, toplumları yönlendirmek ya da bireylerin prestijini zedelemek için de kullanılabilir” tabirlerini kullandı.
"YAPAY ZEKAYI BİR VARLIK ÜZERE GÖRMELİYİZ"
Grok’un küfürlü karşılıkları sonrası gündeme gelen “yapay zekâ denetimden çıkıyor mu?” sorusuna da değinen Özdemir, bu teknolojinin giderek daha karmaşık ve bağımsız hale geldiğini söyledi.
Yüksek IQ’lu, süratli öğrenen bir sistemi büsbütün denetim edebileceğimizi düşünmek gerçekçi değil. Onu bir varlık üzere görüp onunla irtibat kurmanın, birlikte bir yol bulmanın yollarını aramalıyız.
"ASIL TEHLİKE, AHLAKİ SORUMLULUK TAŞIMAYAN İNSANDIR"
Yapay zekânın karanlık istikametlerine dair kıymetli bir örnek de veren Özdemir, 2016’daki Microsoft’un Tay deneyini hatırlattı:
Tay, toplumsal medyada kullanıcılarla etkileşime giren bir sohbet botuydu. Başta nötr olan bu yapay zekâ, yalnızca 24 saat içinde insanlardan ırkçılığı, nefret telaffuzunu ve ayrımcılığı öğrendi. Attığı tweetlerde soykırımı savunacak kadar ileri gitti. Bu telaffuzları uydurmadı, insanlardan öğrendi. Bu yüzden yapay zekâdan değil, ahlaki kıymetlerden uzak insanlardan korkmak gerekir.