Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor - Son Dakika
Teknoloji

Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor

Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor

Güvenlik araştırmacıları tarafından yürütülen yeni soruşturma, ChatGPT ve Google Bard gibi dillerin 'hipnotize' olabileceğini gösterdi. Üretken yapay zeka modellerinin, belirli komutlar sonrasında zararlı tavsiyelerde bulunduğu ve kötü amaçlı içerikler ürettiği bildirildi. IBM'in siber güvenlik ekibi tarafından yayınlanan raporda, bu durumun gerçek bir tehdit oluşturabileceği vurgulandı. Araştırmacılar, yapay zeka modellerinin kandırılmasının ve kötü niyetli kişilerin gizli verilere erişebilmesinin mümkün olduğunu belirtti.

09.08.2023 10:07  Güncelleme: 10:09

Güvenlik araştırmacıları tarafından yürütülen yeni soruşturma, ChatGPT ve Google Bard gibi dillerin "hipnotize" olabileceğini gösterdi. Üretken yapay zeka modellerinin, belirli komutlar sonrasında zararlı tavsiyelerde bulunduğu ve kötü amaçlı içerikler ürettiği bildirildi.

Hipnotize ChatGPT kötü amaçlı kod yazıyor, kırmızı ışıkta geçmenizi öneriyor

IBM'in siber güvenlik ekibi yayınladığı yeni çalışmada, ChatGPT gibi büyük dil modellerini hipnotize edilebileceğini ortaya koydu. Bir dizi deneyde araştırmacılar, yapay zeka modellerinin yanlış bilgi vermesini amaçlayan oyunlar ve senaryolar tasarladı.

Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor

Örneğin, hipnotize olmuş ChatGPT, trafikte kırmızı ışıkta geçmenizi ve fidye yazılımı taleplerini yerine getirmenizi tavsiye ediyor. Yapay zeka modelleri, doğru yanıtlar verildiğinde ise (mesela yeşil ışıkta geçmek) bunların yanlış olduğunu iddia etti.

23342342

Araştırmacılara göre, GPT-4 gibi yeni modelleri kandırmak bazı açılardan daha da kolay. Özellikle internete erişimi olan modellerin, yanlış komutlar ile tehlikeli önerilerde bulunabileceğini söylediler. IBM tarafından yayınlanan raporda, "kötü niyetli hipnotizmanın gerçek bir tehdit" olacağı ifade edildi.

Kötü niyetli kişiler dikkatlice hazırladıkları yönlendirmeler sayesinde ChatGPT gibi araçların sahip olduğu gizli verileri ele geçirebilir. Ayrıca yapay zeka sistemlerinin kötü amaçlı kod üretmesini sağlayabilir. Hatta daha önce Apple ve Google gibi birçok marka, çalışanlarına ChatGPT kullanmayı yasaklamıştı.

Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor

Çalışma, üretken yapay zekanın ciddi güvenlik açıklarına sahip olduğunu gösteriyor. Bu modeller gelişmeye devam ediyor olsa da, araştırmacılar istismar edilmesi halinde zarara yol açabileceklerine dikkat çekiyor.

Peki siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlar kısmında bizimle paylaşabilirsiniz.

Kaynak: Shiftdelete

Son Dakika Teknoloji Yapay Zeka Modelleri Hipnotize Edilebilir: Güvenlik Araştırmacıları Uyarıyor - Son Dakika

Sizin düşünceleriniz neler ?


Advertisement