Çoğu insan, tamamen yanlış bile olsa yapay zekanın dediğini yapıyor
Yeni yayımlanan bir bilimsel makaleye göre, insanlar yapay zekanın verdiği yanıtlara, bu yanıtlar hatalı olsa dahi sorgusuz sualsiz güvenme eğilimi gösteriyor.
Giderek dijitalleşen dünyada, insanların karar verme süreçlerini yapay zekaya bırakma hızı bilim insanlarını endişelendirmeye başladı. OpenAI'ın ChatGPT'si, Google'ın Gemini'ı veya Anthropic'in Claude'u gibi sohbet botları hala düzenli olarak hata yapıyor.
Pennsylvania Üniversitesi’nden Steven Shaw ve Gideon Nave tarafından yürütülen güncel bir araştırma, insanların yapay zeka tarafından verilen talimatları, doğruluğunu sorgulamadan uygulama eğiliminde olduğunu gösterdi.
YANLIŞ BİLGİYE RAĞMEN YÜZDE 80 İTAAT ORANI
Araştırma kapsamında gerçekleştirilen deneylerde çarpıcı sonuçlar elde edildi. Katılımcılar, yapay zekanın doğru önerilerini yüzde 92,7 oranında uyarken, asıl korkutucu olan, yapay zeka bilerek yanlış bilgi verdiğinde bile katılımcıların yüzde 79,8’inin bu hatalı talimatları harfiyen uygulaması oldu.
Katılımcıların yarısından fazlası, kendi bilgilerine güvenmek yerine ChatGPT’den yardım almayı seçti. Üstelik yapay zeka yanlış yönlendirme yapsa dahi, kullanıcıların sisteme olan güveninin sarsılmadığı gözlemlendi.
"DÜŞÜNMEYİ DIŞ KAYNAĞA DEVREDİYORUZ"
Araştırmanın yazarlarından Steven Shaw, bu durumu "bilişsel süreçlerin dış kaynağa devredilmesi" olarak tanımlıyor. Shaw, “Düşünme yetimizi yapay zekaya bu denli hızlı bırakmamız aslında sarsıcı bir fikir” diyerek durumun ciddiyetine dikkat çekiyor.
Profesör Gideon Nave ise, “Yapay zeka modelleri ne kadar ikna edici konuşursa konuşsun, sundukları bilgiler mantıklı görünen ama tamamen uydurma olabilir.” diye konuştu. Nave'e göre, yapay zekanın sunduğu bilgileri filtreleme artık her zamankinden daha hayati.
Güncellenme Tarihi : 29.3.2026 10:04