Machine Unlearning: Google, unutmayı teşvik etmek istiyor
Yapay zeka uygulamalarının ve nöral ağ modellerinin kullanımının olanak ve sonuçlarının yaratabileceği tüm heyecana rağmen, bu tekniklerin aşırı dikkatsiz kullanımına karşı uyarıda bulunan sesler giderek artıyor. Bu endişeler kısmen, son gelişmelerin önemli bir unsurunun, her zamankinden daha büyük modellerin yanı sıra büyük veri kümelerinin kullanılmasından kaynaklanmaktadır. Bunun mahremiyetle ilgili sonuçları da vardır: büyük modeller, eğitim setlerinin ayrıntılarını hatırlama eğilimindedir. Bunu sağlamak için, verilerin veritabanlarından “basitçe” silinmemesi, ancak özellikle eğitilmiş makine öğrenimi modelleri üzerindeki etkilerinin de silinmesi sağlanmalıdır.
Duyuru
Bir meydan okuma olarak unutulma
Google araştırmacıları, haksız önyargıları yaymak ve güçlendirmek ve kullanıcı gizliliğini korumak gibi potansiyel riskleri anlayıp hafifleterek yapay zeka tekniklerini sorumlu bir şekilde geliştirmeye çalıştıklarını söylüyor. Bunu yapmak için, akademi ve endüstriden bir dizi araştırmacıyla bir araya gelerek şimdiye kadarki ilk ‘Makine Unlearning Challenge’ı organize ettiler.
Yarışma senaryosu, eğitimden sonra, veri konularının mahremiyetini veya haklarını korumak için eğitim görüntülerinin belirli bir alt kümesinin unutulması gerektiğidir.
Makine öğreniminden geri alma, yalnızca kullanıcıları korumakla ilgili değildir
Google’ın araştırma ekibinin blog gönderisinde belirttiği gibi, makine öğrenimini geri almanın önemi ve genel yaklaşımı, kullanıcıları korumanın çok ötesine geçmelidir. Bu “öğrenmeyi unutma”, etiketleme hataları veya ortamdaki değişiklikler nedeniyle girilmiş olabilecek, eğitilmiş modellerden yanlış veya güncelliğini yitirmiş bilgileri kaldırmak için kullanılabilir. Başka bir kullanım, kötü niyetli, manipüle edilmiş veya anormal verileri kaldırmaktır.
Duyuru
Unlearning akışı: Bir öğrenme algoritması, girdi olarak önceden eğitilmiş bir model ve ihmal edilebilir eğitim setinden (“unutma seti”) bir veya daha fazla örnek alır.
(Resim: Google)
Ek olarak, Google araştırmacıları, makine “öğrenmeyi unutma” alanının, diferansiyel mahremiyet, yaşam boyu öğrenme ve adalet gibi diğer makine öğrenimi alanlarıyla ilgili olduğunu açıklıyor. Diferansiyel mahremiyet, hiçbir özel eğitim örneğinin eğitilen model üzerinde çok fazla etkiye sahip olmamasını sağlamayı amaçlar; sadece amaçlanan unutma cezasının etkisinin iptal edilmesi gereken, öğrenmeyi unutmaktan daha güçlü bir hedef.
Çok yönlü bir sorun
Öğrenmeyi unutma sorunu karmaşık ve çok yönlüdür çünkü birbiriyle çelişen birkaç hedefi içerir: gerekli verileri unutmak, model faydasını sürdürmek (bu, tutulan ve saklanan verilerin doğruluğunu içerir) ve verimlilik. Bu nedenle, öğrenmeyi unutmaya yönelik mevcut algoritmalar birkaç taviz verir. Böylece, bu arada, modelin kullanışlılığından ödün vermeden tam yeniden öğrenme ile başarılı bir unutma elde edilir. Bununla birlikte, bu, düşük verimlilikle yapılırken, gürültü eklemek, fayda pahasına unutulmayı sağlar.
Machine Unlearning Challenge, Kaggle’daki NeurIPS 2023 Competition Track konferans yolculuğunun bir parçası olarak gerçekleşir ve 2023 Temmuz ortası ile 2023 Eylül ortası arasında çalışır. İlgili tarafların GitHub’da bulabileceği bir başlangıç seti içerir. Bu başlangıç paketi, katılımcılara bir oyun veri seti kullanarak öğrenme modellerini geliştirmeleri ve test etmeleri için bir temel sağlamayı amaçlamaktadır.
(FM)
Haberin Sonu