Uni Eropa tengah mengambil langkah maju dalam membentuk masa depan kecerdasan buatan dengan mengembangkan “Kode Praktik AI Tujuan Umum” pertama untuk model AI berdasarkan Undang-Undang AI.

Menurut pengumuman pada tanggal 30 September, inisiatif tersebut dipelopori oleh Kantor AI Eropa dan menyatukan ratusan pakar global dari kalangan akademisi, industri, dan masyarakat sipil untuk secara kolaboratif menyusun kerangka kerja yang akan membahas isu-isu utama seperti transparansi, hak cipta, penilaian risiko, dan tata kelola internal.

Hampir 1.000 orang berpartisipasi dalam membentuk masa depan AI di Uni Eropa

Sidang pleno kick-off, yang diadakan secara daring dengan hampir 1.000 peserta, menandai dimulainya proses selama berbulan-bulan yang akan diakhiri dengan draf akhir pada bulan April 2025.

Kode Praktik ini ditetapkan menjadi landasan penerapan Undang-Undang AI pada model AI tujuan umum seperti model bahasa besar (LLM) dan sistem AI yang terintegrasi di berbagai sektor.

Sesi ini juga memperkenalkan empat kelompok kerja, yang dipimpin oleh ketua dan wakil ketua industri terkemuka, yang akan mendorong pengembangan Kode Praktik.

Ini termasuk pakar terkemuka seperti Nuria Oliver, peneliti kecerdasan buatan, dan Alexander Peukert, spesialis hukum hak cipta asal Jerman. Kelompok ini akan berfokus pada transparansi dan hak cipta, identifikasi risiko, mitigasi risiko teknis, dan manajemen risiko internal.

Menurut Kantor AI Eropa, kelompok kerja ini akan bertemu antara Oktober 2024 dan April 2025 untuk merancang ketentuan, mengumpulkan masukan pemangku kepentingan, dan menyempurnakan Kode Praktik melalui konsultasi berkelanjutan.

Menyiapkan panggung untuk tata kelola AI global


Undang-Undang AI Uni Eropa, yang disahkan oleh Parlemen Eropa pada bulan Maret 2024, merupakan undang-undang penting yang berupaya mengatur teknologi di seluruh blok.

Dokumen ini dibuat untuk menetapkan pendekatan berbasis risiko terhadap tata kelola AI. Dokumen ini mengkategorikan sistem ke dalam berbagai tingkat risiko — mulai dari risiko minimal hingga risiko yang tidak dapat diterima — dan mewajibkan langkah-langkah kepatuhan tertentu.

Undang-undang ini khususnya relevan dengan model AI tujuan umum karena penerapannya yang luas dan potensi dampak sosial yang signifikan, sehingga sering kali menempatkannya dalam kategori berisiko tinggi sebagaimana diuraikan dalam undang-undang.

Namun, beberapa perusahaan AI besar, termasuk Meta, mengkritik peraturan tersebut karena terlalu ketat, dengan alasan bahwa peraturan tersebut dapat menghambat inovasi. Sebagai tanggapan, pendekatan kolaboratif UE dalam menyusun Kode Etik bertujuan untuk menyeimbangkan keselamatan dan etika dengan mendorong inovasi.

Konsultasi multi-pemangku kepentingan telah mengumpulkan lebih dari 430 masukan, yang akan membantu memengaruhi penulisan kode.

Sasaran Uni Eropa adalah bahwa pada bulan April tahun berikutnya, puncak dari upaya ini akan menjadi preseden tentang bagaimana model AI serbaguna dapat dikembangkan, diterapkan, dan dikelola secara bertanggung jawab, dengan penekanan kuat pada upaya meminimalkan risiko dan memaksimalkan manfaat sosial.

Karena lanskap AI global berkembang pesat, upaya ini kemungkinan akan memengaruhi kebijakan AI di seluruh dunia, terutama karena semakin banyak negara yang mencontoh UE untuk mendapatkan panduan dalam mengatur teknologi baru.

Majalah: Sistem AI canggih sudah ‘sadar diri’ — pendiri ASI Alliance