TL;DR Ringkasan

  • OpenAI sedang meningkatkan kesadaran tentang risiko superintelligensi AI dan membentuk tim khusus untuk mengatasi kekhawatiran ini.

  • Perusahaan menekankan penyelarasan superintelligensi dengan nilai-nilai dan niat manusia serta membangun lembaga pemerintahan baru.

  • OpenAI mengakui bahwa menyelaraskan AGI menghadapi risiko signifikan dan mungkin memerlukan upaya kolektif dari umat manusia.

CEO OpenAI, Sam Altman, telah memulai kampanye global untuk meningkatkan kesadaran tentang potensi bahaya dari superintelligensi AI, di mana mesin melampaui kecerdasan manusia dan dapat menjadi tidak terkendali.

Menanggapi kekhawatiran ini, OpenAI baru-baru ini mengumumkan pembentukan tim khusus yang ditugaskan untuk mengembangkan metode untuk mengatasi risiko yang terkait dengan superintelligensi, yang mungkin muncul dalam dekade ini.

Perusahaan menekankan bahwa mengelola superintelligensi secara efektif memerlukan pembentukan lembaga pemerintahan baru dan menyelesaikan tantangan kritis dalam menyelaraskan superintelligensi dengan nilai-nilai dan niat manusia.

OpenAI mengakui bahwa menyelaraskan AGI (Kecerdasan Umum Buatan) menimbulkan risiko signifikan bagi umat manusia dan mungkin memerlukan upaya kolektif dari seluruh umat manusia, seperti yang dinyatakan dalam sebuah postingan blog yang dirilis tahun lalu.

Dikenal sebagai “Superalignment,” tim yang baru dibentuk ini terdiri dari peneliti dan insinyur terkemuka dalam pembelajaran mesin. Ilya Sutskever, salah satu pendiri dan kepala ilmuwan OpenAI, dan Jan Leike, kepala penyelarasan, memimpin usaha ini.

Untuk mengatasi tantangan teknis inti dari penyelarasan superintelligensi, OpenAI telah berkomitmen untuk mengalokasikan 20% dari sumber daya komputasi yang diperoleh sejauh ini untuk masalah penyelarasan. Perusahaan memperkirakan bahwa dalam waktu empat tahun, mereka akan menyelesaikan tantangan ini.

Tujuan utama dari tim superalignment adalah mengembangkan peneliti penyelarasan otomatis setara manusia. Ini mencakup menciptakan sistem AI yang dapat secara efektif menyelaraskan sistem AI superintelligent, mengungguli manusia dalam kecepatan dan ketepatan.

Untuk mencapai tonggak ini, tim akan fokus pada pengembangan metode pelatihan yang dapat diskalakan yang memanfaatkan sistem AI untuk mengevaluasi sistem AI lainnya. Mereka akan memvalidasi model yang dihasilkan dengan mengotomatiskan pencarian perilaku yang berpotensi bermasalah. Jalur penyelarasan juga akan menjalani pengujian stres yang ketat dengan secara sengaja melatih model yang tidak selaras untuk mengukur deteksi mereka.

Upaya OpenAI untuk mengatasi risiko superintelligensi menandai langkah maju yang signifikan dalam mengejar pengembangan AI yang bertanggung jawab dan selaras. Dengan mengumpulkan tim peneliti terkemuka dan mengkomitmenkan sumber daya komputasi yang substansial, perusahaan menunjukkan komitmennya untuk secara proaktif mengurangi risiko potensial yang terkait dengan munculnya superintelligensi. Saat mereka memulai perjalanan ambisius ini, OpenAI menetapkan preseden untuk kolaborasi dan persatuan dalam melindungi masa depan umat manusia di era AI.