Menurut Cointelegraph, Uni Eropa tengah memajukan upayanya untuk membentuk masa depan kecerdasan buatan dengan menciptakan 'Kode Praktik AI Serba Guna' pertama di bawah Undang-Undang AI-nya. Inisiatif ini, yang dipimpin oleh Kantor AI Eropa, melibatkan ratusan pakar global dari akademisi, industri, dan masyarakat sipil untuk secara kolaboratif menyusun kerangka kerja yang membahas isu-isu utama seperti transparansi, hak cipta, penilaian risiko, dan tata kelola internal.

Proses ini dimulai dengan sesi pleno daring pada tanggal 30 September, yang dihadiri oleh hampir 1.000 peserta. Ini menandai dimulainya upaya selama berbulan-bulan yang akan berpuncak pada draf akhir pada bulan April 2025. Kode Etik ini bertujuan untuk menjadi landasan penerapan Undang-Undang AI pada model AI untuk keperluan umum, termasuk model bahasa besar (LLM) dan sistem AI yang digunakan di berbagai sektor.

Empat kelompok kerja, yang dipimpin oleh para ketua dan wakil ketua industri terkemuka, telah diperkenalkan untuk mendorong pengembangan Kode Etik. Kelompok-kelompok ini mencakup para ahli seperti Nuria Oliver, seorang peneliti kecerdasan buatan, dan Alexander Peukert, seorang spesialis hukum hak cipta Jerman. Mereka akan fokus pada transparansi dan hak cipta, identifikasi risiko, mitigasi risiko teknis, dan manajemen risiko internal. Kantor AI Eropa menyatakan bahwa kelompok-kelompok ini akan bertemu antara Oktober 2024 dan April 2025 untuk menyusun ketentuan, mengumpulkan masukan dari para pemangku kepentingan, dan menyempurnakan Kode Etik melalui konsultasi yang berkelanjutan.

Undang-Undang AI Uni Eropa, yang disahkan oleh Parlemen Eropa pada bulan Maret 2024, merupakan undang-undang penting yang bertujuan untuk mengatur teknologi AI di seluruh blok. Undang-undang ini menetapkan pendekatan berbasis risiko terhadap tata kelola AI, mengkategorikan sistem ke dalam berbagai tingkat risiko, dan mewajibkan langkah-langkah kepatuhan tertentu. Undang-undang ini khususnya relevan dengan model AI untuk keperluan umum karena penerapannya yang luas dan potensi dampak sosial yang signifikan, yang sering kali menempatkannya dalam kategori berisiko tinggi.

Namun, beberapa perusahaan AI besar, termasuk Meta, mengkritik peraturan tersebut karena terlalu ketat, dengan alasan bahwa peraturan tersebut dapat menghambat inovasi. Sebagai tanggapan, pendekatan kolaboratif UE dalam menyusun Kode Etik bertujuan untuk menyeimbangkan keselamatan dan etika dengan mendorong inovasi. Konsultasi multi-pemangku kepentingan telah mengumpulkan lebih dari 430 masukan, yang akan membantu membentuk penulisan kode tersebut.

Uni Eropa bermaksud untuk menetapkan preseden bagi pengembangan, penerapan, dan pengelolaan model AI serbaguna yang bertanggung jawab paling lambat April 2025, dengan menekankan upaya meminimalkan risiko dan memaksimalkan manfaat sosial. Seiring dengan perkembangan lanskap AI global, upaya ini kemungkinan akan memengaruhi kebijakan AI di seluruh dunia, dengan lebih banyak negara yang meminta arahan Uni Eropa dalam mengatur teknologi yang sedang berkembang.