Yapay zeka tarafından oluşturulan görüntüler, sahte içeriği orijinal olarak algılamanız konusunda sizi aldatabilir. Bu nedenle ChatGPT'nin geliştiricisi OpenAI, bir görüntünün kendi geliştirdikleri görüntü oluşturmaya yönelik tek algoritma olan DALL-E 3'ten kaynaklanıp kaynaklanmadığını belirleyebilecek bir araç yarattı.

Salı günü OpenAI, kullanıcılara temel ve ayarlanmış modellerden oluşan bir görüntü algılama aracını test etme şansı verdi. Amaç, kendi kendine performans gösteren araştırmacıları endişe vericiliği, kullanışlılığı, uygulanabileceği yolları ve yapay zeka tarafından oluşturulan içeriğe neden olabilecek faktörleri incelemeye teşvik etmektir.

Aracın başarı oranı ve testi

OpenAI, aracı dahili olarak test etti ve bazı yönlerden cesaret vericiyken diğer taraftan oldukça hayal kırıklığı yarattı. DALL-E 3 ile üretilen görseller değerlendirildiğinde %98 oranında doğru render elde edildi. Ek olarak, DALL-E 3 tarafından oluşturulmamış resimler analiz edilirken sistem bunları yalnızca %0,5 oranında yanlışlıkla DALL-E 3'e atfediyordu.

OpenAI, bir görselin modifikasyonunu biraz anlamlı bir farkla bulamadı. Dahili ekip, DALL-E 3 tarafından oluşturulan görüntüyü sıkıştırarak, kırparak ve doygunluk değişiklikleri uygulayarak aracı test etti ve aracın hala iyi bir başarı düzeyi elde edebildiğini gözlemledi.

Zorluklar ve sınırlamalar

Ne yazık ki araç, yoğun şekilde işlenmiş resimlerde pek etkili olmadı. OpenAI'nin bu makaledeki ifadesi, açıkladıkları durumlarda kaç değişiklik yaptıkları konusunda net değil ve "diğer değişikliklerin performansı düşürebileceğini" söylüyorlar.

Araştırmacı Sandhini Agarwal, The Wall Street Journal'a verdiği röportajda aracın görsel tonunu değiştirme gibi durumlarda daha az etkili olduğunu ve abonelik gerektiğini söyledi. Agarwal'ın da belirttiği gibi bu tür sorunların üstesinden gelmek için OpenAI sisteme harici test uzmanları getirecek.

Üstelik dahili testler, aracın diğer şirketlerin yapay zeka modelleriyle oluşturulan görüntüleri analiz etme becerisini de sorguladı. Bu tür durumlarda OpenAI'nin aracı, kendisi dışındaki modellere göre görüntülerin yalnızca %5 veya %10'unu tanıyabiliyor. Agarwal, Journal'a bu tür görüntülerdeki renk tonu geçişleri gibi değişikliklerin de verimliliği önemli ölçüde azalttığını söyledi.

Yapay zeka yapımı görüntüler sadece yapay değil aynı zamanda bu seçim yılında da sorun teşkil ediyor. Bir ülke içindeki ve dışındaki mağdur gruplar, bu tür fotoğrafları, aday bir politikacıyı veya savunulan bir davayı lekelemek için kolaylıkla kullanabilir. Yapay zeka görüntü oluşturucularının gelişmeye devam ettiği günümüzde, gerçeklik ile fantezi arasındaki çizgiyi belirlemek her zamankinden daha zor.

Endüstrinin benimsenmesi

Öte yandan OpenAI, şirketlerin Kullanıcı Değeri Organizasyonu'na (UVG) üye olmasıyla birlikte yapay zeka görüntü meta verilerine filigran eklemeyi amaçlıyor. C2PA, filigranlama olarak bilinen süreçte içeriğin kaynağını ve orijinalliğini ortaya çıkarmak için teknik standartlarla gelen bir teknoloji endüstrisi girişimine aittir. Facebook devi Meta, bu ayın başlarında yapay zekasının bu Mayıs ayından itibaren C2PA standardına göre etiketleneceğini söyledi.