İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Saberie

Active member


  1. İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Stable Atıf, görüntülerin orijinal kaynağını belirlemek için tasarlanmış yeni bir araçtır. Yayıncılarına göre, yapay zeka tarafından oluşturulan görüntülerin içeriğine özellikle benzer olması gereken görüntüleri buluyor. Bunu yapmak için algoritma, bildiğimiz kadarıyla, eğitim veri setinden çıkan çıktıyla en yakından eşleşen görüntüleri seçer. SSS’ye göre amaç, görüntüleme makinelerini oluşturmak için çalışmaları kullanılan sanatçıları doğru bir şekilde tanımaktır. Araç şu anda benzer görselleri bulabiliyor ancak bunları henüz bir sanatçıya veya içerik oluşturucuya atayamıyor.


Sanatçılar adına: eserlere göndermeler


Sanatçılar, reprodüksiyon telif haklarını almak için eserlerinden düzgün bir şekilde alıntı yapılmasına bağlı olarak geçimlerini sağlıyorlar, iki geliştirici Jeff Huber ve Anton Troynikov web sitesindeki motivasyonlarını açıklıyor: Yapay zeka insanlara hizmet etmeli, onları yabancılaştırmamalı . Aracın arkasında, yapay zekayı anlaşılır kılmak isteyen Chroma adlı Kaliforniya merkezli bir yapay zeka girişimi var. Kendi ifadelerine göre, ikisi görüntülerin haklarını tescil etmekle veya modellerini görüntülerle eğitmekle değil, görüntülerin atanması için bilgi sağlamakla ilgileniyor.

Araçla arşivlenen belgelerin web bağlantısı çalışmıyor, ancak bir Twitter sayfası var ve Huber ve Troynikov profillerini birbirine bağladı. Bunları Discord’da da bulabilirsiniz. Geliştiricilerin kendilerinin de belirttiği gibi, aracın 1. sürümü tamamen kararlı çalışmıyor gibi görünüyor: eğitim süreci “gürültülü” ve eğitim materyalleri bazı hatalar ve gereksiz bilgiler içeriyor. İkili, bizi izlemeye devam etmek ve “her tür üretken model için” kaynak malzeme özelliğini geliştirmek istiyor. Zaten takviye arıyorlar. Kararlı Atıf web sitesinde denenebilir, araç beta aşamasındadır.


AI, eğitim veri setinin görüntülerini aynı şekilde “tükürüyor” mu?


Bununla birlikte, bu yöntem teknik olarak oldukça sorgulanabilir bir varsayıma dayanmaktadır: AI oluşturucuları tarafından oluşturulan görüntüler genellikle yenidir ve eğitim veri setinde aynı biçimde mevcut değildir. Google ve DeepMind tarafından UC Berkeley, Princeton ve ETH Zürih’teki araştırmacılarla işbirliği içinde finanse edilen bir çalışma, araştırmacıların Stable Diffusion ve Google Imagen gibi şablonlardan bazı resimler almak için metin önerilerini kullanabildikleri için Şubat ayı başlarında heyecan yarattı. eğitim veri setindeki veriler çok benzer görünüyor (MIT Technology Review, “AI gerçek insanların resimlerini ve telif hakkıyla korunan içeriği tükürüyor” – görünüşe göre bazen öyle olduğunu bildirmişti).

Tablonun altına düşen, en azından Twitter’daki kısa versiyonda, “çok benzer” olarak tanımlanabilecek görüntülerin oranının ne kadar inanılmaz derecede küçük olduğudur. Kararlı yayılma için, araştırmacılar, eğitim veri setindeki orijinal görüntülere en azından çok benzeyen, oluşturulan 175 milyon test görüntüsünden 109’unu bulabildiler (gösterilen örnekler aynı değil, sadece neredeyse: “yakın kopyalar”). Bu nedenle bir Twitter kullanıcısı, eğitim veri setinden görüntülerin hedeflenen yeniden oluşturulmasının haklı olarak yorumunu yapmaktadır. kazanmak piyangoyu kazanmak kadar zor. Makalede açıklanan yöntemin (“Difüzyon modellerinden eğitim verilerinin çıkarılması”) gerçekten de devam eden telif hakkı davalarında başarılı bir şekilde kullanılıp kullanılmayacağını göreceğiz.


Görsel olarak bile aynı elmayı asla iki kez ısırmayız.


Görüntü oluşturucular mevcut görüntüleri kopyalamaz veya iki veya üç modeli yeni bir şeyde birleştirmez, ancak milyonlarca görüntüden oluşan veritabanının tamamı eğitim için kullanıldı ve böylece modelin davranışını ve doğasını ve ağırlık modeli aracılığıyla soyut bir biçimde yeteneğini belirledi. metin özelliklerini görsel olarak uygulamak için. Süreç, insan imaj algısına benzer şekilde çağrışımsal görünmektedir. “Elma” gibi bir terimi olan bir şeyi düşündüğümüzde, kafamızda net bir resim vardır, ancak standart bir model yoktur. Akla gelen görüntü, deneyimlerimize ve şimdiye kadar neleri ve ne kadar gördüğümüze bağlıdır.




Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut


“Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut” – Lexica.art


Birisi bizden “boyalı bir elma”, “denizin dibindeki bir elma”, “uçan bir elma bardağı” veya belki de bir “edebi elma” hayal etmemizi isterse, sayısız çağrışım somut hale gelir: Biri New York Büyük Elma’yı görür, başka bir Paris yargısı ve Truva savaşı (mitte biraz çekişme ile, savaş çitin içinden çıkar). Sanatseverler belki de tuval üzerine Magritte usulü bir elma hayal edeceklerdir. Hayal gücünün sınırı yoktur. Her halükarda onu kelimelerle, resimlerle veya yazıyla çoğaltmak istesek, artık aklımıza gelen görüntü olmayacak ve daha önce içinden geçip gitmiş olsalar bile iki kişinin zihninde aynı görüntü olmayacaktı. bir parça elmalı turta ile bir kafe seansında bir sanat sergisi ve ardından Naschmarkt’ta iki kilo elma satın alınması.

İnsan ve makine arasındaki ilişkisel bağlantı


Yapay zeka, fiziksellik eksikliği nedeniyle dünyanın şehvetli deneyiminden yoksun olmasına ve girdileri/çıktıları ve eğitim materyalinin işlenmesi daha az duyusal olmasına rağmen, üretken bir yapay zeka sistemi içinde benzer şekilde ilişkisel olmalıdır. Sonuç olarak, bilgi, sembolik bağlantılar ve öğrenilmiş bağlantılar, yapay zeka tarafından oluşturulan her bir görüntüye, insanların onları oluşturacağı ve bunları zaten mevcut görüntülerde ve görüntü açıklamalarında oluşturmuş olduğu gibi akar. Potansiyel olarak tüm eğitim veri setinden ve neredeyse sonsuz olası kombinasyon havuzundan. Hiçbir istem yeniden girildiğinde aynı sonucu vermez (en azından düz metin istemi bunun için yeterli değildir). Bilgisayar tarafından üretilmiş bir görüntüye “özellikle” benzeyen bazı görüntülerin tamamen harici terimlerle tanımlanması mümkündür. Ancak kendi içinde benzerlik, makine tarafından oluşturulan görüntünün kısmi yazarlığının kanıtı değildir.

Editörler, iki Stable araştırmacısı ile bir arka plan tartışmasında buldular: Difüzyon Projesi. Bu, bazı görüntülerin eğitim veri setinde çok sayıda bulunması ve bu nedenle modele daha fazla basılması durumunda gerçekleşebilir, ancak bu istenmeyen bir davranış olur ve model oluşturma sırasında araştırma ekipleri, bu tür aykırı değerleri önlemek için kopyaları hedefli bir şekilde filtreler. DALL E, Stable Diffusion veya Google Imagen gibi görüntü sentezi yapay zeka sistemleri, eğitim veri kümesinden görüntüleri seçmez ve ardından bunları yeni görüntülerde birleştirmez. Artık popüler olan modeller, internette ücretsiz olarak bulunabilen ve genellikle insan yapımı olan modellerle büyük görüntü veritabanları kullanılarak eğitiliyor. Örneğin, stili taklit etmede oldukça iyidirler. Ancak, örneğin stil korunamaz.

Kaynakların çıktıya atanması kolayca mümkün olsaydı, yeniden kullanım ve daha fazla kullanım, çıktıyı görüntü veritabanlarıyla karşılaştırarak kolayca tanımlanabilir ve hatta belki de bir “kalıp”ın çıktıyı ne ölçüde etkilediği tam olarak ölçülebilirdi. Bununla birlikte, AI modelleri orijinal görüntülere erişmez ve bunları daha fazla değiştirmez (kullanıcı tarafından yüklenen bir görüntüyü daha fazla değiştirmek için kullanılan iç boyama veya dış boyama gibi bir mod dışında). Bunun yerine, eğitim sürecinde, görüntü-metin çiftlerini ve pürüzsüz gürültü azaltma ve gürültü gidermeyi kullanarak bir metin girişiyle eşleşen yeni görüntülerin nasıl oluşturulacağını öğrenirler. Buna karşılık, benzer fikirleri veya tarzları ifade ederler. Eğitim veri setindeki bireysel sanatçıların, eserlerinin veya sadece bireysel görüntülerin oranının üretilen çıktıda ne ölçüde ölçülebileceği bu nedenle oldukça açıktır ve optik ‘benzerlik’ ile çözülemez.

babalık anlaşmazlığı


Bu nedenle yapay zeka tarafından üretilen eserlerin yazarlığı kolay bir soru değil ve yine de pek çok tartışmaya neden olacak: Yapay zeka görüntü oluşturucular, görüntü içeriğini ve anlambilimden dilbilimsel terimlere bağlantıları öğrenmek için yukarı akış oluşumunda insanlar tarafından oluşturulan görüntülere hala ihtiyaç duyuyor. Eğitim verileriniz, genellikle yazarları tarafından bu formda ve bu amaç için tasarlanmayan internetten alınır. Bu nedenle sanatçılar, çalışmalarının benzer görüntüleri otomatik olarak üretebilen sistemleri eğitmek için izinsiz kullanılmasını eleştiriyor.

Model çıktısı için telif ücreti talep etmek için, mevcut tahsis sistemlerinde çalışmalarının çıktı görüntüsüne ne ölçüde katkıda bulunduğunu ve hala “içerildiğini” gösterebilmelidirler. AI sanatında çalışmalarını yeniden keşfettiklerini düşünen insanlar, telif hakkı alınmış ve ticari markalı bazı çalışmaların model eğitim verilerine akmış olabileceğini söylüyor. Birinci sınıf davalar başladı ve Getty Images, Alman araştırmacılar tarafından oluşturulan Stable Diffusion açık kaynak modelinin baş yatırımcısı Stability AI’ye dava açıyor.

ayrıca oku

Daha fazla göster



daha az göster



Açıklanabilirlik: Üretken Yapay Zekaya Yeni Yaklaşımlar


Ancak benzer görünen bir modelin çıktısından kullanılabilecek modelleri çıkarmak o kadar kolay değil. Araçlar ve bireysel çalışmalar şimdi ortaya çıksa bile, en benzer görüntüler hiçbir zaman çıktı için tek ilham kaynağı olmadığından, temel soru şu an için açık kalır. Yapay zeka modelleri için çıktı kaynaklarını bulmak ve tanımlamak için şu anda çeşitli yaklaşımlar uygulanmaktadır. Gibi metinler oluşturan AI ürünleri için bile ChatGPT ile çıktının açıklanabilirliği önemli bir rol oynar (çünkü modeller halüsinasyon görüyor) ve devam eden araştırmalar, artık günlük hayata girmeye başlayan yapay zekayı daha anlaşılır, daha adil ve daha güvenli hale getirmeye yönelik ilk heyecan verici yaklaşımları sunuyor.

Nihayetinde, üretici yapay zeka, modellerin eğitim verilerinin bir kısmını ezbere öğrenip öğrenmedikleri veya eğitim yoluyla kendi dünya modellerini oluşturup oluşturmadıkları sorusundan başka bir şey değildir. Bu soruyla ilgileniyorsanız, buradan okuyabilirsiniz, örneğin: “Stokastik papağan mı yoksa dünya modeli mi? Büyük dil modellerini nasıl öğrenirler?“.


(onun)



Haberin Sonu
 
Üst