Gambar yang dihasilkan AI dapat menipu Anda hingga menganggap konten palsu sebagai konten asli. Itulah sebabnya OpenAI, pengembang ChatGPT, telah menciptakan alat yang dapat menentukan apakah suatu gambar merupakan hasil dari DALL-E 3, satu-satunya algoritma untuk pembuatan gambar yang mereka kembangkan.

Pada hari Selasa, OpenAI memberikan kesempatan pertama kepada pengguna untuk menguji coba alat deteksi gambar yang terdiri dari model dasar dan model yang telah disesuaikan. Tujuannya adalah untuk melibatkan peneliti yang bekerja sendiri untuk memeriksa tingkat kekhawatiran, kegunaan, cara penerapannya, dan faktor-faktor yang dapat menyebabkan konten yang dihasilkan AI.

Tingkat keberhasilan dan pengujian alat

OpenAI telah menguji alat tersebut secara internal, dan dalam beberapa aspek, hasilnya menggembirakan, sementara di sisi lain, hasilnya sangat mengecewakan. Mengevaluasi gambar yang dihasilkan oleh DALL-E 3 menghasilkan 98% gambar dengan benar. Selain itu, ketika menganalisis gambar yang tidak dibuat oleh DALL-E 3, sistem akan secara keliru mengaitkannya dengan DALL-E 3 hanya 0,5% dari waktu.

OpenAI tidak menemukan modifikasi gambar dengan sedikit perbedaan yang signifikan. Tim internal menguji alat tersebut dengan mengompresi, memotong, dan memasukkan perubahan saturasi ke gambar yang dibuat oleh DALL-E 3 dan mengamati bahwa alat tersebut masih mampu mencapai tingkat keberhasilan yang baik.

Tantangan dan keterbatasan

Sayangnya, alat tersebut tidak terlalu efektif untuk gambar yang telah diproses secara ekstensif. Kata-kata dalam artikel OpenAI ini tidak menjelaskan dengan jelas berapa banyak modifikasi yang mereka buat dalam kasus yang mereka gambarkan, dan mereka mengatakan bahwa "modifikasi lain dapat mengurangi kinerja."

Dalam wawancara dengan The Wall Street Journal, Sandhini Agarwal, seorang peneliti, mengatakan bahwa alat tersebut kurang efektif dalam situasi seperti mengubah warna gambar dan memerlukan langganan. Seperti yang disebutkan Agarwal, untuk mengatasi masalah seperti ini, OpenAI akan mendatangkan penguji eksternal ke sistem.

Selain itu, pengujian internal juga mempertanyakan kemampuan alat tersebut untuk menganalisis gambar yang dibuat dengan model AI dari perusahaan lain. Dalam situasi seperti itu, alat oleh OpenAI hanya dapat mengenali 5% atau 10% gambar dibandingkan dengan model lain. Modifikasi seperti itu pada gambar tersebut, seperti perubahan warna, juga secara signifikan menurunkan efisiensi, kata Agarwal kepada Journal.

Gambar yang dibuat dengan AI tidak hanya bersifat artifisial tetapi juga menimbulkan masalah dalam pemilihan tahun ini. Kelompok yang dirugikan, baik di dalam maupun di luar suatu negara, dapat dengan mudah menggunakan foto tersebut untuk mencemarkan nama baik calon politisi atau kasus yang diperjuangkan. Saat ini, ketika generator gambar AI terus berkembang, batas antara kenyataan dan fantasi semakin sulit dibedakan dari sebelumnya.

Adopsi industri

Di sisi lain, OpenAI berupaya menambahkan tanda air ke metadata gambar AI saat perusahaan menjadi anggota User Value Organization (UVG). C2PA merupakan bagian dari inisiatif industri teknologi yang disertai standar teknis untuk mengungkap sumber konten dan keasliannya dalam proses yang dikenal sebagai watermarking. Raksasa Facebook Meta mengatakan awal bulan ini bahwa AI-nya akan diberi label demikian oleh standar C2PA mulai bulan Mei ini.