Savcılar ve güvenlik grupları, çocuklara yönelik cinsel içerikli AI deepfake'lerinin çok büyük hacminin, ABD'deki kolluk kuvvetlerinin gerçek hayatta zor durumdaki çocukları sahte olanlardan ayırmasını zorlaştırdığı konusunda uyardı. Guardian'ın haberine göre, görüntüler o kadar gerçekçi ki gerçek çocukların istismara uğrayıp uğramadığını bilmek zorlaşıyor.

Ayrıca okuyun: ChatGPT destekli oyuncak ayı Poe, çocuklara uyku öncesi hikayeleri okuyor

Minnesota merkezli kar amacı gütmeyen çocuk güvenliği kuruluşu Zero Abuse Project'in kıdemli avukatı Kristina Korobov, grubun cinsel istismara uğramamış yapay zeka kullanılarak yapılmış gerçek çocukların görüntülerine ilişkin raporları fark etmeye başladığını söylüyor. “Ama şimdi yüzleri istismara uğrayan bir çocuğa bakıyor” diyor.

Adalet Bakanlığı savcısı yapay zeka nedeniyle 'boğuluyoruz' dedi

Guardian'a göre Korobov, "Bazen bir video veya görüntüdeki yatak takımını veya arka planı, faili veya geldiği diziyi tanıyoruz, ancak şimdi üzerinde başka bir çocuğun yüzü var" dedi.

Yapay zeka modelleri, her gün gerçek hayattaki fotoğraflara benzeyen binlerce resim ve videoyu seri olarak üretme kapasitesine sahiptir. Rapora göre bu, yırtıcıların teknolojiyi karanlık ağ ve ana akım internetteki hoş olmayan içerikleri iletmek için kullanmasını kolaylaştırdı.

Yetkililer için durum bir kabusa dönüştü. ABD Adalet Bakanlığı (DoJ) savcısı şunları söyledi: "Kolluk kuvvetleri açısından bakıldığında, çocuklara karşı suçlar kaynak sıkıntısı çeken alanlardan biri ve yapay zekadan gelen içerikte bir patlama yaşanacak." dedi ve şunu ekledi:

 

"Zaten bu şeylerin içinde boğuluyoruz."

 

ABD Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC), 2023'te çevrimiçi çocuk istismarı raporlarının %12 artarak 36,2 milyona yükseldiğini söylüyor. Raporların çoğu, cinsel istismara uğrayan çocukların gerçek hayattaki fotoğraf ve videolarının dolaşımıyla ilgili olsa da, merkez aynı zamanda çocukların cinsel istismarını içeren yapay zeka derin sahte görselleri veya videoları hakkında da 4.700 rapor aldı.

NCMEC, avcıların yapay zekayı kullandığı en yaygın yöntemlerden bazılarının, mevcut çevrimiçi görüntüleri açık hale getirecek şekilde düzenlemeyi içerdiğini söyledi. Suçlular aynı zamanda çocukları istismar için nasıl işe alacaklarına dair grafik talimatlar veren üretken yapay zeka sohbet robotlarından da yararlanıyor.

Mevcut yasalar yapay zeka derin sahtekarlıkları konusunda yeterince ileri gitmiyor

Neyin suç sayılabileceği konusunda bir boşluk var gibi görünüyor. Pek çok yargı bölgesinde, çocukları cinsel olarak nesneleştiren görsellere sahip olmak suçtur ancak yasalar, yapay zeka tarafından oluşturulan görselleri kapsayacak şekilde henüz ilerlememiştir.

Adalet Bakanlığı savcısı, "Federal sistemde dava açarken" dedi, "Yapay zeka, dava edebileceğimiz durumu değiştirmez, ancak onun gerçek bir çocuk olduğunu kanıtlamanız gereken birçok eyalet var." Savcı şunu ekledi:

 

“Görüntülerin meşruluğu konusunda tartışmak, duruşmalarda sorunlara yol açacaktır. Eğer bir savunma avukatı olsaydım, tam olarak bunu savunurdum."

 

Kanunlar çıkarılsa bile suçluları yakalamak için gerekli teknolojiye hâlâ ihtiyaç duyulacak ve şu anda ortada büyük bir boşluk var. Çocuk güvenliği grupları, polis departmanlarının taleplerle dolup taşabileceği konusunda uyardı.

Ayrıca okuyun: BM şefi yapay zekanın nükleer savaşı daha muhtemel hale getirdiği konusunda uyardı

Guardian raporuna göre, AI ile oluşturulan müstehcen çocuk görselleri, 2022 civarında çevrimiçi ortamda artmaya başladı ve bu, OpenAI tarafından ChatGPT'nin piyasaya sürülmesiyle aynı zamana denk geldi.

NCMEC, yapay zeka şirketlerini istismar amaçlı içeriğin üretilmesini ve yayılmasını önlemek için yeterince çaba göstermemekle suçluyor. Geçen yıl yalnızca beş yapay zeka firması Merkeze gönüllü olarak rapor sundu. Karşılaştırıldığında, sosyal medya platformlarının %70'inin raporlarını paylaştığı belirtildi.