Kaspersky, deepfake sahtekarlığının nasıl anlaşılacağını açıkladı - Son Dakika

Kaspersky, deepfake sahtekarlığının nasıl anlaşılacağını açıkladı

22.06.2022 11:03
Kaspersky, deepfake sahtekarlığının nasıl anlaşılacağını açıkladı

Kaspersky uzmanları, "deepfake" sahtekarlığının ne olduğunu ve kullanıcıların kendilerini nasıl koruyabileceklerini açıkladı.

Kaspersky uzmanları, "deepfake" sahtekarlığının ne olduğunu ve kullanıcıların kendilerini nasıl koruyabileceklerini açıkladı.

Şirket açıklamasına göre, yakın zaman önce Google, GPU'lardan yardım alan ücretsiz bilgi işlem hizmeti Google Colaboratory'deki "deepfake" algoritmalarını yasakladı. "Deepfake"leri düzenleyen, bir kişi veya teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen yasaları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve olası AB yapay zeka düzenlemesinin bu özel teknoloji hakkında madde içermesi bekleniyor.

Kaspersky uzmanları, "deepfake" sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıkladı:

"Deepfake' genellikle insanlara dair özellikleri konu alan ve derin sinir ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya türlerini ifade ediyor. Bunlar video, fotoğraf veya ses kaydı olabiliyor. Geleneksel görüntü düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir sahte parça oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor. Başlangıçta bu terim Reddit'te popülerlik kazanmış belirli bir yazılım parçasına atıfta bulunuyordu. Yazılım, bir kişinin yüzünü başka kişinin bulunduğu bir videoya yerleştirebiliyordu ve ünlülerin taklitleriyle rıza dışı uygunsuz görüntüleri oluşturmak için kullanıldı. Tahminlere göre tüm 'deepfake' sahtekarlıkların yüzde 96'sı uygunsuz görüntülerden oluşuyor. 'Deepfake'in kötüye kullanımı, itibar gaspı ve kamuyu önünde utandırma gibi kullanımlara dair endişeleri gündeme getiriyor. Bu teknoloji siber suçlulara da yardımcı olabiliyor. İngiltere ve Hong Kong'daki en az 2 vakada, ilgili şirketlerin yöneticisi gibi davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış 'deepfake' ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan 'deepfake' uygulamaları tarafından kandırılabileceğini ve yeni saldırı vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini ciddi bir sorun haline getirdiğini gösteriyor.

Diğer bir sorun da 'deepfake' sahtekarlıklarının, kötü amaçlarla kullanılabildikleri için ses ve video içeriğine olan güveni sarsması. Örneğin, yakın tarihli bir vakada, kripto para birimi dolandırıcılığını desteklemek için Elon Musk ile yapılan sahte bir röportaj kullanıldı. Europol gibi çeşitli uzmanlar ve kurumlar, 'deepfake' görüntülerinin artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor. Haberlerin hepsi gerçek haber değil. Görüntü manipülasyonu, görüntülemenin kendisi kadar eski bir konu. CGI onlarca yıldır piyasada ve her ikisi de 'deepfake' gibi geniş bir kullanım alanı buldu. Örneğin, Kendrick Lamar'ın yakın tarihli Heart Part 5 videosunda, rapçinin yüzünü Kanye West gibi diğer ünlü ünlülere dönüştürmek için 'deepfake' teknolojisi kullanıldı. Top Gun: Maverick filminde oyuncu sesini kaybettikten sonra Val Kilmer'in karakterini seslendirmek için bir algoritmadan yardım alındı. Sahte Tom Cruise'un oynadığı viral bir TikTok serisi oluşturmak için de yine 'deepfake' algoritmaları kullanıldı. Birkaç girişim, örneğin, gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor."

"Yeni bir dezenformasyon aracı olarak algılanıyor"

Bir "deepfake"in nasıl tespit edileceğiyle ilgili Kaspersky şunları öneriyor:

"Tom Cruise'un yer aldığı örneklerdeki gibi inandırıcı 'deepfake' örnekleri hala çok fazla uzmanlık, çaba ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, kötü işlenmiş saçlar, uyumsuz yüz şekilleri, çok az göz kırpma veya hiç kırpmama, ten rengi uyumsuzlukları gibi unsurlarla fark edilebiliyor. Giysilerin işlenmesindeki hatalar veya yüzün üzerinden geçen bir el de amatör bir 'deepfake' çalışmasını ele verebiliyor.

Ünlü veya halka açık bir kişinin çılgın iddialar veya gerçek olamayacak kadar iyi teklifler yaptığına rastlanılırsa video ikna edici olsa bile gerekli özen gösterilmeli ve bilgileri saygın kaynaklardan kontrol edilmelidir. Dolandırıcıların 'deepfake' eksikliklerini gizlemek için videoları kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en iyi strateji videoya bakarak ipucu aramak değil, sağduyu ile gerçekleri kontrol etme becerilerini kullanmaktır. Güvenilir bir güvenlik çözümü, yüksek kaliteli bir 'deepfake' sahtekarlığının kullanıcıyı kötü amaçlı dosyaları veya programları indirmeye, şüpheli bağlantıları veya kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada destek sağlayabilir."

Açıklamada görüşlerine yer verilen Kaspersky Veri Bilimcisi Vladislav Tushkanov, "Deepfake, etkileri gerçekten kavrayabileceğimizden ve yönetebileceğimizden daha hızlı gelişen bir teknolojinin en iyi örneğini simgeliyor. Bu nedenle toplum olarak kişilere duyduğumuz güvene meydan okuyan yeni bir dezenformasyon aracı olarak algılanıyor." ifadelerini kullandı.

YORUMLAR
500
Havalimanı görevlisinin çaldığı valizi AirTag buldu! Havalimanı görevlisinin çaldığı valizi AirTag buldu! New York borsası düşüşle kapandı New York borsası düşüşle kapandı
Kaynak: AA

Son Dakika Ekonomi Kaspersky, deepfake sahtekarlığının nasıl anlaşılacağını açıkladı - Son Dakika

Bu haber AA tarafından hazırlanmış olup habere Sondakika.com tarafından hiçbir editöryal müdahalede bulunulmamıştır. AA tarafından hazırlanan bütün haberler sitemizde hazırlandığı şekliyle otomatik servis edilmektedir. Bu nedenle haberin hukuki muhatabı AA kurumudur.

Advertisement