Ilya Sutskever, salah satu pendiri dan mantan kepala ilmuwan OpenAI, bersama dengan mantan insinyur OpenAI Daniel Levy dan investor Daniel Gross, yang sebelumnya merupakan mitra di akselerator startup Y Combinator, telah meluncurkan Safe Superintelligence, Inc. Perusahaan yang berkantor pusat di Palo Alto dan Tel Aviv ini bertujuan untuk memajukan kecerdasan buatan (AI) dengan mengutamakan keselamatan dan kemampuan. Dalam pengumuman online pada tanggal 19 Juni, para pendiri menekankan komitmen mereka:

ā€œSejak awal, fokus kami tetap pada keamanan dan kemampuan AI. Fokus tunggal ini memastikan kami tidak terganggu oleh overhead manajemen atau siklus produk, sementara model bisnis kami melindungi keselamatan, keamanan, dan kemajuan dari tekanan komersial jangka pendek.ā€

Sutskever dan Gross telah lama menjadi pendukung keamanan AI.

Sutskever meninggalkan OpenAI pada tanggal 14 Mei, setelah terlibat dalam pemecatan CEO Sam Altman. Perannya di perusahaan tersebut menjadi tidak jelas setelah ia mengundurkan diri dari dewan direksi setelah Altman kembali. Tak lama setelah kepergian Sutskever, Daniel Levy, bersama dengan beberapa peneliti lainnya, juga meninggalkan OpenAI.

Sutskever dan Jan Leike bersama-sama memimpin tim Superalignment OpenAI, yang dibentuk pada bulan Juli 2023 untuk mengeksplorasi metode dalam memandu dan mengelola sistem AI yang lebih cerdas daripada manusia, yang dikenal sebagai kecerdasan umum buatan (AGI). Pada awalnya, OpenAI mengalokasikan 20% sumber daya komputasinya untuk mendukung tim Superalignment.

Pada bulan Mei, Leike juga meninggalkan OpenAI untuk memimpin tim di Anthropic, perusahaan rintisan AI yang didukung oleh Amazon. Setelah kepergian para peneliti utamanya, OpenAI membubarkan tim Superalignment. Greg Brockman, presiden perusahaan, membela protokol keselamatannya dalam sebuah posting terperinci di X.

Tokoh-tokoh terkemuka lainnya di industri teknologi juga menyampaikan kekhawatirannya

Mantan peneliti OpenAI, bersama dengan sejumlah ilmuwan, mengungkapkan kekhawatiran mendalam tentang lintasan masa depan AI. Vitalik Buterin, salah satu pendiri Ethereum, melabeli AGI sebagai "berisiko" di tengah perubahan staf baru-baru ini di OpenAI. Namun, ia juga mencatat bahwa "model semacam itu menimbulkan risiko kehancuran yang jauh lebih rendah dibandingkan dengan megalomania korporat dan aplikasi militer."

Sumber: Ilya Sutskever

CEO Tesla Elon Musk, yang sebelumnya merupakan pendukung OpenAI, dan salah satu pendiri Apple Steve Wozniak bergabung dengan lebih dari 2.600 pemimpin teknologi dan peneliti dalam menyerukan penghentian sementara pelatihan sistem AI selama enam bulan. Mereka menekankan perlunya manusia untuk merenungkan "risiko besar" yang ditimbulkan oleh teknologi ini.

Postingan Mantan Ilmuwan OpenAI Ilya Sutskever Memulai SSI untuk Keamanan AI muncul pertama kali di Baffic.