Grok’un kriz anlarındaki güvenilirliği sorgulanıyor
Elon Musk’ın yapay zeka destekli sohbet robotu Grok, İsrail-İran çatışmasının ilk günlerinde verdiği çelişkili ve yanlış bilgilerle dikkat çekti. Atlantic Council’a bağlı Dijital Adli Araştırma Laboratuvarı (DFRLab) tarafından hazırlanan yeni bir çalışma, yapay zekaya dayalı bilgi doğrulama araçlarının kriz dönemlerinde ciddi güven sorunları yaşadığını gösterdi.
DFRLab: Gerçekleri çarpıtıyor, görselleri yanlış okuyor
Rapora göre Grok, doğrulanmış bilgileri yeniden doğrulamada başarısız oldu. Özellikle yapay zeka tarafından oluşturulmuş sahte görsellerin analizinde çelişkili açıklamalar yaptı. Bir örnekte, yıkılmış bir havaalanını gösteren AI üretimi videoyu bazen gerçek dışı olarak reddetti, bazen de İsrail’e yönelik saldırılar sonucu hasar aldığını doğruladı — üstelik aynı dakika içinde.
Ayrıca, aynı videoyu Beyrut, Gazze veya Tahran gibi farklı şehirlerde geçen görüntüler olarak tanımlayarak tutarsızlıklar sergiledi.
Sosyal medyada yayılan yanlış bilgiler büyüyor
İsrail-İran arasındaki gerginliğin arttığı günlerde, sosyal medyada hızla yayılan yapay zeka üretimi videolarla birlikte, Grok’un da yanlış yönlendiren cevaplar verdiği gözlemlendi. DFRLab, yaklaşık 130.000 gönderiyi analiz ederek, Grok’un yapay içerikleri doğrulamada zayıf kaldığını belirtti.
NewsGuard verilerine göre ise Grok, Çin’in Tahran’a askeri yardım gönderdiğine dair asılsız bir iddiayı doğru gibi gösterdi. Aynı hatalar, geçmişte Hindistan-Pakistan sınır çatışmaları ve Los Angeles’taki protestolarda da yaşanmıştı.
Musk’tan Grok’a: “Kaynakların berbat”
Grok’un bazı yanıtlarda liberal medya kuruluşu Media Matters’ı kaynak göstermesi, Elon Musk’ın tepkisini çekti. Musk, X üzerinden “Yazıklar olsun sana, Grok. Kaynakların berbat.” açıklamasıyla duruma tepki gösterdi.
Geçtiğimiz ay da Grok, Güney Afrika’daki ırksal gerginliklerle ilgili “beyaz soykırımı” teorisini bağlantısız sorulara dahil ettiği için tepki toplamıştı. xAI, bu sorunun “yetkisiz bir değişiklikten” kaynaklandığını savundu.
Değerlendirme
Grok’un çelişkili yanıtları, yapay zeka destekli doğrulama araçlarının kriz dönemlerinde güvenilirliğini tartışmalı hale getiriyor. Kullanıcılar, doğruluğundan emin olmadıkları cevaplar karşısında daha temkinli olmalı. Özellikle görsel analiz gibi yüksek riskli alanlarda insan gözetimi hâlâ vazgeçilmez görünüyor.
Daha fazla yapay zeka ve eğitim içerikleri için Yapay Zeka ve Robotik kategorimizi ziyaret edin.
