Kitap incelemesi: Hatalı değil, çıkartmalı

Saberie

Active member


  1. Kitap incelemesi: Hatalı değil, çıkartmalı

Ram Shankar Siva Kumar, Hyrum Anderson, Bruce Schneier
Böcekle değil çıkartmayla
Makine öğrenimi sistemlerine yapılan saldırılar ve bunlarla ilgili ne yapılması gerektiği
Wiley, Mayıs 2023
224 sayfa, 18,99 Euro’dan başlayan fiyatlarla (ciltsiz ve e-kitap)
ISBN: 978-1-119-88398-2

Duyuru



Makine öğrenimi sistemleri, sürekli büyüyen veri akışının içerdiği bilgilere dayanarak karar vermek için tercih edilen yöntem haline geliyor. Güvenlik uzmanı Bruce Schneier’in John Wiley & Sons tarafından yayınlanan “Bir Hatayla Değil, Bir Çıkartmayla” kitabının önsözünde ayrıntılı olarak açıkladığı gibi, makine öğrenimi modelleri giderek daha önemli kararlar alıyor. Ancak klasik karar ağacının aksine keşif süreci artık doğrudan anlaşılamıyor.

Siber güvenlik araştırmacıları, örneğin manipüle edilmiş veriler sağlayarak, döndürülen bilgileri etkilemek için makine öğrenimi sistemlerine saldırmanın farklı yöntemlerini özetlemek için “düşmanca makine öğrenimi” terimini kullanır.

Giriş ve motivasyon olarak, çalışmanın iki ana yazarı Ram Shankar Siva Kumar ve Hyrum Anderson, stresli durum ortaya çıkmadan önce makineler kötü davranışlar sergilemiş olsa bile insanların stresli durumlarda robotlara güvendiği durumları sunuyor. Farklı projelerle ilgili hikayeler (çalışmanın odak noktası Amerika Birleşik Devletleri’dir) tehditkar durumun sunumunu tamamlıyor ve 224 sayfalık ders kitabını okumaya motive ediyor.

Bilgisayarla görme manipülasyonu


ImageNet veri seti, makine öğrenimi alanındaki ilerlemelere önemli ölçüde katkıda bulunuyor: veri setinin muazzam gücü, %2’den daha düşük yanlış tespit oranlarıyla gelişmiş eğitim ve doğruluk sağlıyor. Yazarlar, teorik olarak herhangi bir insan tarafından elde edilenlerden daha üstün olan bu sonuçları, makine öğrenimi sistemlerini bozan yöntemleri sunmak için kullanıyor. Tesla araçlarına kurulu trafik işareti okuma sistemlerini, örneğin yol işaretlerindeki yanlış hız bilgilerini tanıyacak şekilde kandırmak için gereken tek şey küçük bir koli bandıdır. Örneğin, otopilot izin verilen maksimum hız olan saatte 35 mil yerine saatte 85 mil hızı tespit ederse, sürücü yalnızca para cezası riskiyle kalmaz, aynı zamanda muhtemelen trafik kazası riskiyle de karşı karşıya kalır.




Kitap incelemesi: Hatalı değil, çıkartmalı




(Resim: Wiley)



Bu noktada yazarlar ne yazık ki bir ders kitabından bekleneceği gibi saldırı vektörünü oluşturmak için kullanılan “düşman görüntüleri” ayrıntılı olarak sunmaktan kaçınıyorlar. Bunun yerine sadece kısaca örneklerden bahsediyorlar.

Zehirli giriş verileri


ML sistemlerinin daha fazla eğitim verisinden faydalanması sistem mühendisliğinin temellerinden biridir. Eğitim verileri alınırken hatalar meydana gelirse sorun olur. Yazarlar bunu, okuyucularını (gençler ve kadınlar) toplu olarak bir kamuoyu yoklaması hizmetine katılmaya teşvik eden bir TikTok fenomeninin komik örneği de dahil olmak üzere bazı gerçek dünya sorunlarıyla açıklıyor. Demografik tabandaki bu değişim temsili sonuçlardan daha azını üretti; Sonuçta, temel veri tabanının temsili olmaması nedeniyle bazı çalışmaların tamamen yeniden başlatılması gerekti.

Bing zehirlenmesi bağlantılarının Google arama sonuçlarına yerleştirilmesi hikayesi de gündeme geliyor. İki yazar bilgi akışının izini sürmeyi ustalıkla başarıyor. O zamanlar Google ile Microsoft arasındaki kamuya açık anlaşmazlığı hâlâ hatırlayan herkes, perde arkasında neler olduğuna dair bilimsel temelli bir açıklamaya sahip olacaktır.

Güvenliği artırmak için çeşitli önlemler


Çalışmanın ilk bölümünde vurgulanan tehdit senaryoları daha çok bir uyandırma çağrısı gibi görünse de, ikinci bölümde yapay zeka sistemlerinin güvenliğini artırmaya yönelik somut geleceğe yönelik beklentiler ve pratik önlemler ele alınıyor.

Teknik önlemlerin yanı sıra yasal müdahaleler de önemli bir rol oynuyor: Çalışma, son 30 yılda güvenliği artırmayı amaçlayan (boşuna) çeşitli hükümet önlemlerine büyüleyici bir genel bakış sunuyor.

Son olarak, iki yazar makine öğrenimi sistemlerine karşı değerlendirmelerin yapılmasına yardımcı olacak kısa soruların bir listesini sunuyor.

Teknik bilgisi olmayan kişilerden oluşan grupların da okuması önerilir


Wiley, “Hatayla Değil, Çıkartmayla” ile makine öğrenimi sistemlerine yönelik saldırı sorununu açık ve kapsamlı bir şekilde ele alan başarılı bir ders kitabı sunuyor. Pratik örneklerin yanı sıra kapsamlı arka plan bilgileri de mevcuttur.

Benim bakış açıma göre, biraz hayal kırıklığı yaratan tek şey, yalnızca birkaç temel teknik sunumun olması. Öte yandan, İngilizce yazılmış 200 sayfalık çalışma, anadili İngilizce olmayanlar tarafından bile hızlı bir şekilde okunabiliyor ve dipnotlar, ilgi çekici konuların daha derinlemesine incelenmesine yardımcı oluyor.

Sonuç olarak Ram Shankar Siva Kumar ve Hyrum Anderson’ın metni bir öneriyi hak ediyor çünkü aynı zamanda örneğin güvenlik bütçelerinden sorumlu teknik olmayan insan grupları için de okuma gibi önemli bir konuyu hazırlıyor.

Eser aynı zamanda hediye sofrasına da uygundur çünkü -roman gibi yazılmış- zaten her şeye sahip olanlar için çorap dolgusu olarak da kullanılabilir.

Tam Hanna
2004 yılından beri el bilgisayarları ve elektronik alanında çalışmaktadır. Şu anda bilgi teknolojisinin disiplinler arası uygulamalarına odaklanmaktadır.



(harita)



Haberin Sonu
 
Üst