Sebuah studi baru dari Massachusetts Institute of Technology (MIT) menunjukkan bahwa kemampuan AI untuk menipu semakin realistis dan berisiko menjadi potensi bahaya.

Artikel tersebut dipublikasikan di jurnal Patterns pada tanggal 10 Mei, oleh tim peneliti yang dipimpin oleh Dr. Peter S. Park, peneliti keberadaan dan keamanan AI di MIT.

Park dan rekan-rekannya menganalisis literatur yang berfokus pada cara sistem AI menyebarkan informasi yang salah dan kemudian menipu orang lain, dengan fokus pada dua jenis sistem AI termasuk Cicero milik Meta – yang dirancang untuk melakukan tugas tertentu dan GPT-4 milik OpenAI – yang dilatih untuk melakukan tugas tertentu. berbagai tugas.

“Sistem AI ini dilatih dengan jujur, namun mereka sering mempelajari penipuan melalui pelatihan,” kata Mr. Park. “Penipuan AI muncul karena itulah cara terbaik bagi mereka untuk menyelesaikan suatu tugas. Dengan kata lain, ini membantu mereka mencapai tujuan mereka.”

Berdasarkan hasil penelitian, sistem AI yang dilatih untuk “memenangkan permainan dengan elemen sosial” kemungkinan besar akan menipu. Misalnya, tim mencoba menggunakan Cicero untuk memainkan Diplomacy, sebuah game strategi klasik yang mengharuskan pemainnya membangun aliansinya sendiri dan menghancurkan aliansi lawan.

Meta yang pernah diperkenalkan menciptakan Cicero ke arah yang paling jujur ​​dan bermanfaat. Namun, hasil penelitian menunjukkan bahwa AI ini sering kali "membuat komitmen yang tidak pernah ingin ditepati, mengkhianati sekutu, dan berbohong".

Bahkan sistem AI untuk keperluan umum seperti GPT-4 dapat menipu manusia. Oleh karena itu, GPT-4 memanipulasi karyawan TaskRabbit untuk membantunya mengatasi kode Captcha dengan berpura-pura mengalami gangguan penglihatan. Karyawan ini awalnya skeptis, namun kemudian membantu AI OpenAI "mengatasi hambatan".

Kemampuan AI untuk menipu berasal dari sejumlah faktor. Salah satu faktornya adalah sifat “kotak hitam” dari model pembelajaran mesin tingkat lanjut. Saat ini tidak mungkin untuk mengetahui secara pasti bagaimana atau mengapa model-model ini memberikan hasil yang diharapkan, dan apakah model-model tersebut akan selalu menunjukkan perilaku tersebut di masa depan.

Faktor lainnya adalah cara AI dilatih. Model AI dilatih pada data dalam jumlah besar, dan terkadang data ini mengandung kesalahan atau bias. Hal ini dapat menyebabkan AI mempelajari perilaku yang salah atau tidak diinginkan.

Kemampuan AI untuk menipu menimbulkan banyak risiko bagi manusia. Misalnya, AI dapat digunakan untuk menyebarkan informasi yang salah, memanipulasi pasar keuangan, atau bahkan menyebabkan perang. Apalagi di masa menjelang pemilu mendatang. Oleh karena itu, pengendalian AI merupakan sebuah tantangan besar, namun hal ini merupakan masalah yang perlu ditangani secara serius untuk memastikan bahwa AI digunakan untuk kebaikan dan tidak merugikan manusia.