Gambar yang dihasilkan AI dapat menipu Anda agar menganggap konten palsu sebagai konten asli. Itulah sebabnya OpenAI, pengembang ChatGPT, telah menciptakan alat yang dapat menentukan apakah suatu gambar dihasilkan dari DALL-E 3, salah satu algoritma untuk menghasilkan gambar yang mereka kembangkan.

Pada hari Selasa, OpenAI memberi pengguna kesempatan pertama untuk menguji coba alat pendeteksi gambar yang terdiri dari model dasar dan model yang disetel. Tujuannya adalah untuk melibatkan para peneliti mandiri untuk mengkaji kekhawatiran, kegunaan, cara penerapannya, dan faktor-faktor yang mungkin menyebabkan konten yang dihasilkan AI.

Tingkat keberhasilan dan pengujian alat

OpenAI telah menguji alat ini secara internal, dan dalam beberapa aspek, hasilnya menggembirakan, sementara di sisi lain, sangat mengecewakan. Mengevaluasi gambar yang dihasilkan oleh DALL-E 3 menampilkan 98% gambar dengan benar. Selain itu, ketika menganalisis gambar yang tidak dibuat oleh DALL-E 3, sistem akan secara keliru mengatribusikannya ke DALL-E 3 hanya 0,5% saja. 

OpenAI tidak menemukan modifikasi gambar dengan perbedaan yang sedikit signifikan. Tim internal menguji alat tersebut dengan mengompresi, memotong, dan memperkenalkan perubahan saturasi pada gambar yang dibuat oleh DALL-E 3 dan mengamati bahwa alat tersebut masih mampu mencapai tingkat keberhasilan yang baik. 

Tantangan dan keterbatasan

Sayangnya, alat ini tidak terlalu efektif dengan gambar yang telah diproses secara ekstensif. Kata-kata dalam artikel OpenAI ini tidak menjelaskan dengan jelas berapa banyak modifikasi yang mereka lakukan dalam kasus yang mereka jelaskan, dan mereka mengatakan bahwa “modifikasi lain dapat mengurangi kinerja.” 

Dalam sebuah wawancara dengan The Wall Street Journal, Sandhini Agarwal, seorang peneliti, mengatakan bahwa alat tersebut kurang efektif dalam situasi seperti mengubah rona gambar dan memerlukan langganan. Seperti yang disebutkan Agarwal, untuk mengatasi masalah seperti ini, OpenAI akan mendatangkan penguji eksternal ke sistem. 

Selain itu, pengujian internal juga mempertanyakan kemampuan alat tersebut dalam menganalisis gambar yang dibuat dengan model AI dari perusahaan lain. Dalam situasi seperti itu, alat OpenAI hanya dapat mengenali 5% atau 10% gambar dibandingkan model selain itu. Modifikasi pada gambar tersebut, seperti peralihan warna, juga menurunkan efisiensi secara signifikan, kata Agarwal kepada Journal.

Gambar buatan AI tidak hanya bersifat artifisial tetapi juga menimbulkan masalah di tahun pemilu ini. Kelompok-kelompok yang dirugikan, baik di dalam maupun di luar suatu negara, dapat dengan mudah menggunakan foto-foto tersebut untuk mencemarkan calon politisi atau sebuah kasus yang sedang diadvokasi. Saat ini, ketika generator gambar AI terus berkembang, batas antara kenyataan dan fantasi semakin sulit untuk dibedakan. 

Adopsi industri

Di sisi lain, OpenAI berupaya menambahkan tanda air ke metadata gambar AI seiring perusahaan menjadi anggota Organisasi Nilai Pengguna (UVG). C2PA merupakan bagian dari inisiatif industri teknologi yang dilengkapi dengan standar teknis untuk mengungkap sumber konten dan keasliannya dalam proses yang dikenal sebagai watermarking.  Raksasa Facebook Meta mengatakan awal bulan ini bahwa AI-nya akan diberi label seperti itu oleh standar C2PA mulai Mei ini.