Google, makine öğrenmesi "framework"ü TensorFlow için, geliştiricilerin yapay zeka modellerinin gizliliğini bir kaç satır kodla geliştirecek yeni bir modülünü duyurudu.
TensorFlow, makine öğrenmesi uygulamaları oluşturmak için en popüler araçlardan biridir ve dünyanın dört bir yanındaki geliştiriciler tarafından metin, ses ve görüntü tanıma algoritmaları gibi programlar oluşturmak için kullanılır. TensorFlow Privacy'nin tanıtımıyla birlikte, bu geliştiriciler kullanıcıların verilerini "diferansiyel gizlilik" olarak bilinen istatistiksel bir teknikle koruyabilecekler.
Yapay zeka araçları veri aktarımı yaptığında gizlilik daha çok önem kazanıyor
Google ürün yöneticisi Carey Radebaugh, bu aracı tanıtmanın Google'ın sorumlu AI geliştirme konusundaki prensiplerine uygun olduğunu bildirdi. Radebaugh, "TensorFlow'da diferansiyel gizlilik gibi bir şey elde edemezsek, Google'ın içindeki ve dışındaki ekiplerin bunu kullanmasının kolay olmayacağını biliyoruz. Öyleyse bizim için TensorFlow'a dahil etmek, kaynağını açmak ve çevresinde bu topluluğu oluşturmaya başlamak önemlidir" diyor.
Diferansiyel gizliliğin mekaniği biraz karmaşıktır, ancak aslında kullanıcı verileri üzerinde eğitilmiş AI modellerinin kişisel olarak tanımlanabilir bilgileri kodlayamadığı anlamına gelen matematiksel bir yaklaşımdır. AI modelleri oluşturmak için gereken kişisel bilgileri korumanın yaygın bir yolunu da Apple, AI hizmetleri için iOS 10 ile sunmuştur ve Google, Gmail'in "Smart Reply"(Akıllı Yanıtı) gibi bir dizi AI özelliği için kullanır.
Bu tür hizmetlerin yarattığı gizlilik tehlikelerini anlamak için, Smart Reply'ın önerilen yanıtları vermek için bir milyardan fazla Gmail kullanıcısından toplanan verilere nasıl güvendiğini düşünün. Bu veriler açık bir şekilde son derece kişisel bilgileri (temel olarak bir e-postaya yazdığınız herhangi bir şeyi) içerir ve Smart Reply, örneğin başka bir kullanıcının yazdığı bir kelimeyi, bir e-postaya cevap önererek kullanıcıyı da su yüzüne çıkarsaydı, bu bir felaket olurdu.
Google, Smart Reply özelliğinin kişisel bilgileri ortaya çıkarmamasından emin olmak için diferansiyel gizlilik kullanmaktadır.
Google'da 20 yıldır veri gizliliği alanında çalışan araştırmacı bilim insanı Erfar Erlingsson, "Diferansiyel gizlilik, bu olasılığı "matematiksel kesinlik ile" ortadan kaldırmaktadır. Bu verilerin toplam anlamını değiştirmeden, tanımlanabilir aykırı değerleri veri kümelerinden kaldıran bir tekniktir. Herhangi bir kişinin (verilerinden) bağımsız olan bir sonucu var, ancak bu yine de iyi bir sonuçtur." diyor.
Yine de, diferansiyel gizliliği kullanmanın bazı olumsuzlukları vardır. Erlingsson, "Aykırılıkları maskeleyerek, özellikle çeşitli veri kümelerindeki alakalı veya ilginç verileri kaldırabilir. Diferansiyel gizlilik, kelimenin tam anlamıyla sistemin veri kümesinde yalnızca bir kez gerçekleşen herhangi bir şeyi öğrenmesi imkansızdır ve bu nedenle bu dezavantaja sahipsiniz. Belirli bir türden daha fazla veriye ulaşmanız gerekiyor mu? Veri kümesindeki bu benzersiz özellikler ne kadar alakalı veya faydalı?" diye açıklama getiriyor.
Ancak Google, TensorFlow Privacy'yi yayınlayarak dünyadaki daha fazla AI geliştiricisinin bu tekniği kullanmaya başlayacağını ve bu sorunların düzeltilebileceğini umuyor. Radebaugh, "Bu değişimin farkına varmayı kolaylaştırmak için yapılacak işler var" diyor.
Sonuçta, Google, daha fazla beyin gücüne sahibi olmanın daha iyi olduğunu ve yeni açık kaynak kodlu araçların yayınlanmasının mevcut yetenek havuzunu geliştirdiğini söylüyor. Ayrıca Erlingsson, "Sadece "dört veya beş satır kod ve bazı hiper-parametre ayarlama" kullanarak bir AI modeline diferansiyel gizlilik ekleyebilmek, kendi başına ileriye doğru büyük bir adımdır. Bu, sadece birkaç ay önce yaşadıklarımız için çok farklı bir dünya. Bu yüzden gurur duyuyoruz." diyor.
Son Dakika › Teknoloji › Google, Yapay Zeka Geliştiricilerinin Verileri Gizli Tutmasını Kolaylaştırıyor - Son Dakika
Masaüstü bildirimlerimize izin vererek en son haberleri, analizleri ve derinlemesine içerikleri hemen öğrenin.
Sizin düşünceleriniz neler ?