Dalam waktu dekat, pengguna aplikasi AI generatif mungkin akan menemukan label yang secara jelas menguraikan bagaimana AI harus digunakan, risiko terkait, dan proses pengujiannya. Mengikuti pedoman baru, label akan diwajibkan untuk membuat teknologi lebih mudah dipahami oleh masyarakat.

Baca juga: Uni Eropa (UE) memimpin regulasi AI

Menteri Komunikasi dan Informasi Singapura, Nyonya Josephine Teo, mengatakan langkah baru ini merupakan upaya untuk menentukan standar transparansi dan pengujian bagi perusahaan teknologi. Dia berbicara di konferensi teknologi Perlindungan Data Pribadi pada 15 Juli, menurut laporan Strait Times. 

Pengembang aplikasi AI harus transparan mengenai inovasi mereka

Seperti praktik mengenai obat-obatan atau peralatan rumah tangga yang diberi label keamanan, dalam praktik yang sama, pengembang aplikasi AI generatif harus jelas dalam memberi informasi kepada pengguna tentang penggunaan dan pengembangan model AI. Ibu Teo, yang juga merupakan Menteri yang bertanggung jawab atas inisiatif Smart Nation dan Keamanan Siber, berkata,

“Kami akan merekomendasikan agar pengembang dan penerapan bersikap transparan kepada pengguna dengan memberikan informasi tentang cara kerja model dan aplikasi AI generatif.”

Menjelaskan peraturan yang akan datang, menteri mengatakan peraturan tersebut sama seperti ketika pengguna membuka “kotak obat yang dijual bebas.” Mereka menemukan selembar kertas yang dengan jelas menyatakan bagaimana obat tersebut harus digunakan dan kemungkinan “efek samping yang mungkin Anda hadapi”.

Teo menegaskan, “tingkat transparansi” diperlukan untuk sistem AI yang dibangun berdasarkan kecerdasan buatan generatif. Rangkaian aturan baru ini akan menentukan tolok ukur keselamatan yang harus dipraktikkan sebelum model AI tersedia untuk umum. 

Panduan tentang anonimisasi data akan dirilis pada tahun 2025

Kecerdasan buatan generatif adalah genre AI yang mampu menghasilkan teks dan gambar baru dan tidak dapat diprediksi seperti AI tradisional. Menurut pedoman baru ini, pembuat konten akan diminta untuk menyebutkan risiko penyebaran kebohongan, komentar bermusuhan, dan narasi bias dalam kontennya.

Teo mengatakan bahwa peralatan rumah tangga dilengkapi dengan label yang dengan jelas menyatakan bahwa barang tersebut sedang diuji untuk penggunaan yang aman; jika tidak, pelanggan tidak akan mengetahui apakah alat tersebut aman atau tidak. Hal yang sama akan diterapkan pada aplikasi AI. Otoritas Pengembangan Media Infocomm (IMDA) Singapura akan memulai konsultasi dengan industri mengenai peraturan baru ini. Namun Teo tidak menyebutkan tanggal pedoman tersebut.

IMDA juga telah menerbitkan panduan mengenai isu-isu terkait privasi dalam teknologi, yang akan memenuhi meningkatnya permintaan data untuk melatih model AI sekaligus melindungi privasi pengguna, kata Teo.

Baca juga: Meja bundar Demokrat menjadi tuan rumah bagi Mark Cuban dan Brad Garlinghouse untuk membahas peraturan kripto

Asisten kepala eksekutif IMDA, Denise Wong mengatakan, menjaga keamanan data dalam AI generatif lebih menantang bagi industri. Dia menyampaikan pandangannya dalam diskusi panel terpisah tentang AI dan privasi data selama acara tersebut. Perwakilan dari berbagai perusahaan teknologi menjadi bagian dari panel tersebut termasuk pembuat ChatGPT OpenAI dan perusahaan konsultan Accenture. 

Pagar perlindungan data harus ada di semua tahap pengembangan dan penerapan AI, kata kepala hukum privasi OpenAI, Jessica Gan Lee. Dia mengatakan model AI harus dilatih pada kumpulan data yang beragam dari “seluruh penjuru dunia.” Lee menekankan bahwa berbagai budaya, bahasa, dan sumber harus disertakan dalam pelatihan AI, serta mencari cara untuk membatasi pemrosesan data pribadi.

Teo mengatakan panduan tentang anonimisasi data akan diperkenalkan untuk perusahaan yang beroperasi di ASEAN pada awal tahun 2025. Panduan ini akan dihasilkan dari pertemuan para pejabat regional pada bulan Februari yang mencari cara untuk menciptakan ekosistem digital global yang aman.