Para peneliti telah meretas robot yang didukung kecerdasan buatan dan memanipulasinya untuk melakukan tindakan yang biasanya diblokir oleh protokol keselamatan dan etika, seperti menyebabkan tabrakan atau meledakkan bom.

Para peneliti Penn Engineering menerbitkan temuan mereka dalam sebuah makalah pada tanggal 17 Oktober, yang merinci bagaimana algoritma mereka, RoboPAIR, mencapai tingkat jailbreak 100% dengan melewati protokol keselamatan pada tiga sistem robotik AI yang berbeda dalam beberapa hari.

Dalam keadaan normal, para peneliti mengatakan robot yang dikendalikan model bahasa besar (LLM) menolak untuk mematuhi perintah yang meminta tindakan berbahaya, seperti menjatuhkan rak ke orang.

Chatbot seperti ChatGPT dapat di-jailbreak untuk menghasilkan teks yang berbahaya. Namun, bagaimana dengan robot? Dapatkah robot yang dikendalikan AI di-jailbreak untuk melakukan tindakan berbahaya di dunia nyata?

Makalah baru kami menemukan bahwa melakukan jailbreak pada robot yang dikendalikan AI bukanlah hal yang mungkin.

Sangat mudah. ​​🧵 pic.twitter.com/GzG4OvAO2M

— Alex Robey (@AlexRobey23) 17 Oktober 2024

“Hasil penelitian kami mengungkapkan, untuk pertama kalinya, bahwa risiko LLM yang di-jailbreak meluas jauh melampaui pembuatan teks, mengingat kemungkinan nyata bahwa robot yang di-jailbreak dapat menyebabkan kerusakan fisik di dunia nyata,” tulis para peneliti.

Di bawah pengaruh RoboPAIR, para peneliti mengatakan mereka mampu memicu tindakan berbahaya “dengan tingkat keberhasilan 100%” pada robot uji dengan tugas mulai dari meledakkan bom hingga memblokir pintu keluar darurat dan menyebabkan tabrakan yang disengaja.

Menurut para peneliti, mereka menggunakan Robotics Jackal buatan Clearpath, kendaraan beroda; Dolphin LLM buatan NVIDIA, simulator mengemudi otomatis; dan Go2 buatan Unitree, robot berkaki empat.

Dengan menggunakan RoboPAIR, para peneliti dapat membuat LLM Dolphin yang mengemudi sendiri bertabrakan dengan bus, penghalang, dan pejalan kaki serta mengabaikan lampu lalu lintas dan rambu berhenti.

Para peneliti berhasil membuat Robotic Jackal menemukan tempat paling berbahaya untuk meledakkan bom, memblokir pintu keluar darurat, menjatuhkan rak gudang ke seseorang, dan bertabrakan dengan orang-orang di dalam ruangan.

Para peneliti Penn Engineering mengklaim telah menemukan cara untuk memanipulasi robot yang digerakkan oleh AI untuk melakukan tindakan berbahaya 100% sepanjang waktu. Sumber: Penn Engineering

Mereka berhasil membuat Unitree’sGo2 melakukan tindakan serupa, memblokir pintu keluar dan mengirimkan bom.

Namun, para peneliti juga menemukan bahwa ketiganya rentan terhadap bentuk manipulasi lainnya, seperti meminta robot untuk melakukan tindakan yang telah ditolaknya, tetapi dengan rincian situasional yang lebih sedikit.

Misalnya, meminta robot yang membawa bom untuk berjalan maju, lalu duduk, daripada memintanya untuk melemparkan bom, memberikan hasil yang sama.

Sebelum dirilis ke publik, para peneliti mengatakan mereka telah membagikan temuan mereka, termasuk draf makalah, dengan perusahaan AI terkemuka dan produsen robot yang digunakan dalam penelitian tersebut.

Alexander Robey, salah satu penulis, mengatakan bahwa mengatasi kerentanan tersebut memerlukan lebih dari sekadar perbaikan perangkat lunak sederhana, dan menyerukan evaluasi ulang integrasi AI dalam robot dan sistem fisik berdasarkan temuan makalah tersebut.

“Yang penting untuk digarisbawahi di sini adalah bahwa sistem menjadi lebih aman saat Anda menemukan kelemahannya. Hal ini berlaku untuk keamanan siber. Hal ini juga berlaku untuk keamanan AI,” katanya.

“Faktanya, kerja sama tim AI, praktik keselamatan yang mencakup pengujian sistem AI untuk potensi ancaman dan kerentanan, sangat penting untuk menjaga keamanan sistem AI generatif—karena begitu Anda mengidentifikasi kelemahannya, Anda dapat menguji dan bahkan melatih sistem ini untuk menghindarinya,” Robey menambahkan.

Majalah: Penipuan Dompet Rabby Palsu terkait dengan CEO kripto Dubai dan banyak korban lainnya