OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri
2020 yılında piyasaya sürülen Fransız startup Imatag, SynthID’ye benzer şekilde görüntülerin yeniden boyutlandırılmasından, kırpılmasından, düzenlenmesinden veya sıkıştırılmasından etkilenmediğini iddia ettiği bir filigran aracı sunuyor [classifier] aletler

Agarwal, “Bir eserin bir sanatçı tarafından yapılmış olarak mı görüldüğü, yoksa sahte ve yanıltıcı mı olduğu gibi, alabileceği kararların fotoğrafları önemli ölçüde etkileyebileceği göz önüne alındığında, bir şekilde güvenilmez bir araç ortaya koyma sorunu var” dedi Resim Kredisi: OpenAI

Agarwal, “Bu noktada, bu görüntünün yapay zeka tarafından üretilmiş bir şey olduğu düşünülmeli mi, düşünülmemeli mi?” dedi

Sorun şu ki, endüstri henüz tek bir filigran veya tespit standardı etrafında birleşmemiştir Belki de hedef %100’dür; Agarwal söylemedi OpenAI, AI tarafından yazılan metin dedektörünü, geniş çapta eleştirilen “düşük doğruluk oranı” nedeniyle çekti

Agarwal, OpenAI’nin aynı zamanda yapay zeka tarafından oluşturulan bir görüntünün tam olarak neyin oluşturduğuna dair felsefi soruya takılıp kaldığını ima ediyor AI, yeniden boyutlandırma ve diğer düzenlemelerde hayatta kalan filigranları uygulamak için bir yapay zeka modeli kullanıyor Peki ya DALL-E 3’ten alınan, birkaç tur düzenlemeden geçen, diğer görüntülerle birleştirilen ve ardından birkaç işlem sonrası filtreden geçirilen bir görüntüye ne dersiniz? Daha az net Ancak girişim yakın zamanda bir karar vermeye yakın değil ”

OpenAI’nin isteksizliği, yalnızca OpenAI modellerinden değil, aynı zamanda üçüncü taraf sağlayıcılar tarafından piyasaya sürülen metin oluşturma modellerinden de yapay zeka tarafından oluşturulan metni tespit etmek için tasarlanan önceki genel sınıflandırma aracıyla ilgili tartışmalara bağlı olabilir OpenAI’nin baş teknoloji sorumlusu Mira Murati, söz konusu bu hafta The Wall Street Journal’ın Tech Live konferansında, sınıflandırıcının DALL-E 3 kullanılarak değiştirilmemiş bir fotoğrafın oluşturulup oluşturulmadığını belirlemede “%99” güvenilir olduğu açıklandı DALL-E 3 tarafından sıfırdan oluşturulan sanat eserleri elbette bu kategoriye giriyor

DeepMind yakın zamanda AI tarafından oluşturulan görüntüleri insan gözüyle algılanamayacak ancak özel bir dedektör tarafından tespit edilebilecek şekilde işaretlemek için SynthID adında bir özellik önerdi

OpenAI’nin araç için hedeflenen doğruluğu olağanüstü derecede yüksek görünüyor “Şu anda bu sorunun cevabını bulmaya çalışıyoruz ve bu durumdan önemli ölçüde etkilenecek sanatçılardan ve insanlardan haber almayı gerçekten istiyoruz

DALL-E 3 tarafından oluşturulan bir görüntü

Agarwal’a OpenAI’nin görüntü sınıflandırıcısının OpenAI olmayan diğer üretken araçlarla oluşturulan görüntüleri tespit etmeyi destekleyip desteklemeyeceğini sordum Başka bir firma olan Steg ”

Yalnızca OpenAI değil, birçok kuruluş yapay zeka gibi üretken medya için filigran ekleme ve tespit tekniklerini araştırıyor derin sahtekarlıklar çoğalmak

“Şu anda bunun nedenlerinden biri [the classifier is] Agarwal, DALL-E 3’e özgü olmasının nedeninin teknik olarak çok daha kolay takip edilebilir bir sorun olması olduğunu söyledi olmayacak yenilebilir



genel-24

Bu hafta TechCrunch ile bir telefon görüşmesinde konuşan, güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal’a göre bu böyle “[A general detector] şu anda yaptığımız bir şey değil… Ama nereye bağlı [the classifier tool] giderse, bunu asla yapmayacağımızı söylemiyorum

TechCrunch ile paylaşılan bir OpenAI blog yazısı taslağı şu ilginç bilgiyi ortaya çıkardı:

“[The classifier] %95’in üzerinde doğru kalır [an] görüntü, kırpma, yeniden boyutlandırma, JPEG sıkıştırma veya gerçek görüntülerden alınan metin veya kesiklerin, oluşturulan görüntünün küçük bölümleri üzerine bindirilmesi gibi yaygın türde değişikliklere maruz kalmıştır Öyle olsa bile, filigranların ve hatta dedektörlerin işe yarayacağının garantisi yoktur


OpenAI, bir görüntünün OpenAI’nin üretken yapay zeka sanat modeli olan DALL-E 3 ile yapılıp yapılmadığını belirleyebilecek bir aracın ne zaman yayınlanacağını “oldukça kapsamlı tartıştı ve tartıştı” Kendisi bunu taahhüt etmedi ancak görüntü sınıflandırma aracının bugünkü algısına bağlı olarak bunun OpenAI’nin keşfetmeyi düşüneceği bir yol olduğunu söyledi Sınıflandırma aracının doğruluğu “gerçekten iyi” olsa da – en azından kendi tahminine göre – OpenAI’nin kalite eşiğini karşılamadığını söyledi