Google'ın Yapay Zeka Özetleri Doğruluk ve Güvenilirlik Sorunları Yaratıyor
Google'ın arama sonuçlarında kullandığı yapay zeka özetleri, kaynak güvenilirliği konusunda eleştiriliyor. Analiz, sistemin hata payının büyük olduğunu ve kullanıcıların sadece %8'inin bu yanıtları kontrol ettiğini ortaya koyuyor.
Google'ın arama sonuçlarına entegre ettiği yapay zeka özetleri, ilk bakışta güvenilir görünse de doğruluk konusunda soru işaretleri yaratıyor. The New York Times tarafından haberleştirilen bir analize göre, bu özetler her 10 sonucun 9'unda doğru kaynaklara dayalı olsa da, sistemin ölçeği düşünüldüğünde hata payı ciddi bir sorun oluşturuyor. Google'ın 2026'da 5 trilyondan fazla arama işleyeceği öngörülüyor ve Popular Science'a göre bu, her saat on milyonlarca hatalı yanıt anlamına geliyor.
Analiz, özetlerin güvenilirliğini değerlendirmenin zor olduğunu ve aynı sorguda yanlış yanıtların doğru özetlerle değişebileceğini gösteriyor. Açık kaynak yapay zeka şirketi Oumi'nin analizi, kaynakların sorunlu olabileceğini ortaya koyuyor; Facebook ve Reddit gibi platformlar sık referans alınıyor ve hatalı yanıtlarda bu sitelere daha fazla atıf yapılıyor. Gemini modellerinin karşılaştırılmasında, Gemini 3'ün doğruluk oranı yüzde 91'e ulaşsa da, temelsiz yanıt oranı yüzde 56'ya yükseldi, bu da bilgilerin kaynaklarla desteklenmediği anlamına geliyor.
Sistem manipülasyona açık; kötü niyetli kişiler yanlış bilgileri yayabilir. Google sözcüsü Ned Adriance, güvenlik mekanizmalarının spam içeriği engellediğini savunsa da, araştırmalar kullanıcıların yalnızca yüzde 8'inin yapay zeka yanıtlarını kontrol ettiğini gösteriyor. Uzmanlar, yapay zekaya aşırı güven riskine dikkat çekerek, AI Overview gibi araçların temkinle kullanılması gerektiğini vurguluyor. Google da kullanıcıları yanıtları kontrol etmeye çağırıyor.