Microsoft bermitra dengan StopNCII untuk memerangi gambar deepfake

AI generatif telah menjadi alat yang mudah didapat, dan gambar-gambar pornografi palsu telah tersebar luas, sehingga sangat mengancam privasi dan keamanan pribadi bahkan girl group Korea pun telah menjadi korbannya.

Untuk memerangi gambar pornografi non-konsensual, raksasa teknologi Microsoft (Microsoft) mengumumkan bahwa mereka akan bekerja sama dengan platform perlindungan privasi StopNCII untuk menghapus gambar porno ini dari mesin pencari Bing. Gelombang pertama operasi pengujian telah memproses lebih dari 260,000 gambar .

Korban dapat menggunakan alat StopNCII di ponsel, komputer, atau perangkat lain mereka untuk menghasilkan sidik jari digital untuk gambar pornografi, baik asli maupun palsu. Ini bertindak seperti tag digital unik yang dapat digunakan oleh mitra (seperti Bing) untuk membandingkan gambar di platform dan, jika ditemukan materi yang cocok, dapat dihapus atau dicegah penyebarannya sesuai dengan kebijakan masing-masing.

Menurut media asing "Engadget", banyak perusahaan teknologi yang sudah menjalin kerja sama dengan StopNCII. Selain Microsoft, ada juga Facebook, Instagram, dan Threads milik Meta. Serta TikTok, Bumble, Reddit, Snap, Niantic, OnlyFans, PornHub, dan platform lainnya.

Google tidak ada dalam daftar mitra?

Sebagai mesin pencari terpopuler, Google juga telah meluncurkan alatnya sendiri untuk melaporkan dan menghapus gambar pornografi. Namun menurut investigasi media asing "Wired", Google masih dikritik oleh mantan karyawan dan korban karena tidak bekerja sama dengan StopNCII.

Pasalnya, sejak tahun 2020, pengguna Google di Korea Selatan telah melaporkan total 170.000 pencarian dan link YouTube untuk konten tidak senonoh.

Kegagalan Google untuk berintegrasi dengan alat StopNCII juga dapat memberikan beban tambahan pada korban, memaksa mereka untuk menangani masalah privasi dengan cara yang lebih kompleks dan terfragmentasi.

Pemerintah mengejar gambar-gambar pornografi palsu

"TechCrunch" menyatakan bahwa alat StopNCII hanya cocok untuk orang dewasa yang berusia di atas 18 tahun. Namun, masalah gambar pornografi deepfake AI sangat umum, dan platform seperti "situs membuka baju" mulai menimbulkan masalah bagi siswa sekolah menengah.

Sayangnya, Amerika Serikat saat ini tidak memiliki undang-undang yang secara khusus menargetkan akuntabilitas pornografi deepfake AI, sehingga negara tersebut kini bergantung pada peraturan negara bagian dan lokal untuk menangani masalah ini.

Meski begitu, pemerintah AS telah mulai mengambil beberapa langkah pada tahun ini. Misalnya, Kantor Hak Cipta AS telah menyerukan pemberlakuan undang-undang baru yang relevan, dan sekelompok senator juga mengusulkan rancangan undang-undang "TANPA PALSU" pada bulan Juli untuk melindungi korban gambar palsu. Pada bulan Agustus, pemerintah San Francisco mengajukan gugatan terhadap 18 situs web dan aplikasi karena secara ilegal menghasilkan foto telanjang tanpa persetujuan.

Selain Amerika Serikat, Korea Selatan, dimana masalah gambar pornografi deepfake sangat serius, juga telah memerintahkan tindakan keras terhadap kejahatan terkait. Menurut Kantor Berita Yonhap, polisi akan meluncurkan operasi tujuh bulan untuk secara aktif melacak mereka yang melakukan tindakan tersebut memproduksi dan mendistribusikan gambar-gambar tersebut, terutama mereka yang memproduksi dan mendistribusikan gambar-gambar tersebut. Targetnya adalah mereka yang mengeksploitasi anak-anak dan remaja.

Sumber: TechCrunch, Engadget, Microsoft Blog

Cakupan lebih banyak
“Konten pornografi ilegal” yang dihasilkan AI menarik 200 juta penayangan, pemerintah San Francisco mengajukan gugatan
Jangan kecanduan AI! Dokumen risiko GPT-4o memperingatkan: Pengguna mungkin mengembangkan "keterikatan emosional" pada fungsi suara