ChatGPT’ye sordu, sıhhatinden oldu! İşte sebebi…
ABD’de yaşayan 60 yaşındaki bir adam, sıhhatine ziyan verdiğini düşündüğü sofra tuzunu hayatından çıkarmaya karar verdi.
İnternette yaptığı araştırmalardan sonra soluğu tanınan yapay zeka sohbet botu ChatGPT’de aldı.
"Klorürün yerine ne kullanılabilir?" sorusuna aldığı cevapta, dikkatini sodyum bromür çekti.
20. yüzyılın başlarında sakinleştirici olarak kullanılan bu maddeyi üç ay boyunca yemeklerine eklemeye başladı.
HASTANELİK OLDU
Başlarda her şey olağan görünse de, vakitle tuhaf belirtiler ortaya çıktı.
Paronaya, halüsinasyonlar ve davranış bozuklukları giderek arttı.
Komşusunun kendisini zehirlediğini düşünerek hastaneye başvurduğunda, tabipler “bromizm” yani bromür toksisitesi teşhisi koydu.
Annals of Internal Medicine mecmuasında yayımlanan hadiseyi inceleyen uzmanlar, ChatGPT’nin verdiği cevapta rastgele bir sıhhat ihtarının yer almadığını belirterek, yapay zekâdan alınan tıbbi tavsiyelerin hayati riskler taşıyabileceği ikazında bulundu.
CHATGPT'DEN AÇIKLAMA
Şirket, Fox News'e yaptığı açıklamada, hizmet kurallarında botun rastgele bir sıhhat probleminin tedavisinde kullanılmaması gerektiğinin belirtildiğini belirtti.
Açıklamada, "Riskleri azaltmak için çalışan güvenlik gruplarımız var ve yapay zeka sistemlerimizi, insanları profesyonel rehberlik almaya teşvik edecek biçimde eğittik" denildi.
Kaynak: ,