Banyaknya video palsu (deepfake) AI yang eksplisit secara seksual terhadap anak-anak menyulitkan penegak hukum di A.S. untuk membedakan anak-anak yang berada dalam kesulitan di kehidupan nyata dari anak-anak palsu, demikian peringatan dari jaksa dan kelompok keselamatan. Mereka mengatakan gambar-gambar tersebut sangat nyata sehingga sulit untuk mengetahui apakah anak-anak tersebut benar-benar mengalami pelecehan atau tidak, lapor Guardian.

Baca juga: Boneka beruang bertenaga ChatGPT, Poe, membacakan cerita pengantar tidur untuk anak-anak

Kristina Korobov, pengacara senior di organisasi nirlaba keselamatan anak yang berbasis di Minnesota, Zero Abuse Project, mengatakan kelompok tersebut mulai memperhatikan laporan gambar anak-anak asli yang dibuat menggunakan AI, namun tidak mengalami pelecehan seksual. “Tetapi sekarang wajah mereka tertuju pada seorang anak yang dianiaya,” katanya.

Jaksa DoJ mengatakan 'kita tenggelam' karena AI

“Kadang-kadang, kita mengenali latar belakang atau latar belakang video atau gambar, pelakunya, atau serialnya, tapi sekarang ada wajah anak lain yang terpampang di sana,” kata Korobov, menurut Guardian.

Model AI mampu menghasilkan ribuan gambar dan video yang mirip dengan foto di kehidupan nyata setiap harinya. Menurut laporan tersebut, hal ini memudahkan predator untuk menggunakan teknologi tersebut untuk mengomunikasikan konten buruk di web gelap dan internet arus utama.

Bagi pihak berwenang, hal ini telah menjadi mimpi buruk. “Dari perspektif penegakan hukum, kejahatan terhadap anak-anak adalah salah satu bidang yang paling kekurangan sumber daya, dan akan terjadi ledakan konten dari AI,” kata jaksa Departemen Kehakiman AS (DoJ), sambil menambahkan:

 

“Kami baru saja tenggelam dalam hal ini.”

 

Pusat Nasional untuk Anak Hilang dan Tereksploitasi di AS (NCMEC) mengatakan bahwa, pada tahun 2023, laporan pelecehan anak secara online meningkat sebesar 12% menjadi 36,2 juta. Meskipun sebagian besar laporan terkait dengan peredaran foto dan video kehidupan nyata dari anak-anak yang mengalami pelecehan seksual, pusat tersebut juga menerima 4.700 laporan gambar atau video deepfake AI yang melibatkan eksploitasi seksual terhadap anak-anak.

NCMEC mengatakan beberapa cara paling umum yang dilakukan predator dalam menggunakan AI adalah dengan mengedit gambar online yang ada agar terlihat eksplisit. Penjahat juga memanfaatkan chatbot kecerdasan buatan generatif yang memberikan instruksi grafis tentang cara merekrut anak-anak untuk melakukan pelecehan.

Undang-undang yang ada saat ini belum cukup mengatur deepfake AI

Tampaknya ada kesenjangan dalam hal apa yang bisa dianggap sebagai kejahatan. Di banyak wilayah hukum, kepemilikan gambar yang mengobjektifikasi anak-anak secara seksual merupakan sebuah kejahatan, namun undang-undang belum berkembang untuk memasukkan gambar-gambar yang dihasilkan oleh AI.

“Saat menuntut kasus dalam sistem federal,” kata jaksa penuntut DoJ, “AI tidak mengubah apa yang bisa kita tuntut, namun ada banyak negara bagian di mana Anda harus bisa membuktikan bahwa itu adalah anak sungguhan.” Jaksa menambahkan:

 

“Pertengkaran mengenai keabsahan gambar akan menimbulkan masalah di persidangan. Jika saya seorang pengacara pembela, itulah yang akan saya bantah.”

 

Sekalipun undang-undang tersebut disahkan, teknologi yang mendukung masih diperlukan untuk menangkap penjahat, dan saat ini terdapat kesenjangan yang besar. Kelompok keselamatan anak memperingatkan bahwa departemen kepolisian kemungkinan besar akan dibanjiri permintaan.

Baca juga: Sekjen PBB Peringatkan AI Bikin Perang Nuklir Lebih Mungkin Terjadi

Gambar seksual eksplisit anak-anak yang dihasilkan dengan AI mulai meningkatkan jejak mereka secara online sekitar tahun 2022, bertepatan dengan dirilisnya ChatGPT oleh OpenAI, menurut laporan Guardian.

NCMEC menuduh perusahaan AI tidak berbuat cukup untuk mencegah pembuatan dan penyebaran konten eksploitatif. Tahun lalu, hanya lima perusahaan AI yang secara sukarela menyerahkan laporan ke Pusat tersebut. Sebagai perbandingan, 70% platform media sosial membagikan laporan mereka, katanya.