Dalam beberapa tahun terakhir, perhatian moral dan praktis terfokus pada AI karena potensinya yang sangat besar, baik untuk manfaat maupun kerugian. Salah satu pemimpin industri, OpenAI, berdedikasi untuk menerapkan pedoman ketat untuk menghentikan penyalahgunaan model AI-nya.

Dedikasi ini sangat penting untuk mengidentifikasi dan menggagalkan operasi pengaruh terselubung (IO), yang merupakan upaya untuk mempengaruhi opini publik atau mempengaruhi hasil politik tanpa mengungkapkan identitas sebenarnya atau motivasi pihak-pihak yang terlibat. Dalam tiga bulan terakhir, OpenAI telah melakukan intervensi terhadap lima aktivitas tersebut, yang membuktikan komitmennya dalam mengurangi penyalahgunaan teknologi AI.

Kerusakan Tak Terduga dalam Operasi Pengaruh Terselubung Akhir-akhir ini

Pada tanggal 30 Mei 2024, OpenAI membuat sejarah dengan mengungkapkan kepada dunia bahwa mereka telah berhasil menggagalkan lima kampanye pengaruh terselubung yang datang dari Iran, Tiongkok, Rusia, dan bahkan perusahaan swasta Israel. Perusahaan tersebut menerbitkan laporan terbuka yang merinci investigasi mendalam yang mengungkap upaya jahat ini, yang bertujuan menggunakan model bahasa OpenAI yang canggih untuk melakukan penipuan di web.

CEO OpenAI, Sam Altman, menegaskan kembali dedikasi perusahaannya dalam menciptakan aplikasi intelijen yang andal dan aman. Dia juga menyatakan bahwa perusahaan berkomitmen untuk menerapkan peraturan yang menghentikan penyalahgunaan dan meningkatkan keterbukaan seputar informasi yang dihasilkan oleh AI, dengan fokus khusus pada mengidentifikasi dan mempengaruhi aktivitas pengaruh tersembunyi.

Operasi tertentu—yang dijuluki “Tata Bahasa Buruk” oleh analis OpenAI—berasal dari Rusia. Dalam upaya mengubah persepsi publik, individu di balik operasi ini menggunakan bot Telegram untuk menjalankan model OpenAI dan membuat komentar sosial singkat dalam bahasa Rusia dan Inggris. Komentar tersebut kemudian dibagikan di aplikasi chat ternama.

Foto: Komentar Telegram publik cocok dengan teks yang dihasilkan oleh jaringan ini. Laporan Ancaman Intel

Organisasi lain bernama “Doppelganger,” mengadopsi strategi yang lebih internasional, menggunakan AI OpenAI untuk membuat balasan dalam berbagai bahasa Uni Eropa.

Studi ini juga memberikan wawasan tentang sistem Tiongkok yang dikenal sebagai “Spamouflage,” yang memanfaatkan model OpenAI untuk berbagai aplikasi, termasuk pembuatan materi multibahasa untuk situs seperti X, Medium, dan Blogspot, serta penyelidikan informasi publik. aktivitas media sosial. Para peneliti bahkan menggunakan AI OpenAI untuk men-debug database dan kode pengelolaan situs web, khususnya domain yang sebelumnya dirahasiakan, yang mungkin merupakan hal yang paling memprihatinkan.

Foto: Tangkapan layar situs web openscum[.]com, menampilkan halaman berjudul “汉奸” (“pengkhianat”). Laporan Ancaman Intel

“Persatuan Media Virtual Internasional” (IUVM), sebuah organisasi Iran yang menggunakan AI OpenAI untuk membuat dan menafsirkan dokumen, berita, dan tag web berbentuk panjang, juga ditemukan oleh para analis organisasi tersebut.

Foto: Tag pada artikel yang diterbitkan oleh iuvmpress[.]co. Perhatikan dua tag pertama, yang menyertakan respons model. Laporan Ancaman Intel

Tanpa diduga, OpenAI juga mengganggu operasional bisnis Israel yang diberi nama “Zero Zeno.” Dengan menggunakan model OpenAI, STOIC membuat cerita dan balasan yang kemudian dibagikan di berbagai platform, seperti Facebook, Instagram, X, dan halaman perusahaan. Hal ini mungkin dilakukan sebagai upaya untuk mempengaruhi opini publik atau memajukan tujuan bisnis.

Foto: Komentar berbahasa Inggris yang dihasilkan oleh jaringan ini dan diposting di Instagram. Baik postingan asli maupun balasannya dihasilkan oleh kampanye ini. Laporan Ancaman Intel

Penelitian ini menyoroti bahwa berbagai topik tercakup dalam informasi yang didistribusikan oleh berbagai organisasi tersebut. Berbagai subjek ini menyoroti betapa mudahnya para pelaku ancaman ini beradaptasi dalam upaya mereka menggunakan model bahasa OpenAI untuk tujuan jahat mereka sendiri.

Namun OpenAI mengklaim bahwa meskipun mereka telah melakukan upaya terbaiknya, kampanye pengaruh rahasia ini tidak memperoleh banyak manfaat dari penggunaan layanannya untuk meningkatkan popularitas atau jangkauan. Saat mengevaluasi dampak IO, “Skala Breakout” dari Brookings Institution digunakan. Tak satu pun dari kelima inisiatif tersebut mendapat skor lebih dari 2, yang berarti bahwa aktivitas mereka dibatasi pada beberapa platform dan tidak secara signifikan menembus grup online yang sah.

Foto: Peneliti mengidentifikasi domain berikut terkait dengan kampanye ini. Laporan Ancaman Intel

Pemeriksaan Strategi Penyerang

Makalah dari OpenAI juga mengidentifikasi sejumlah pola signifikan dalam cara para pelaku ancaman ini mencoba menyalahgunakan model AI. Untuk menciptakan kesan partisipasi di media sosial, mereka semua menggunakan materi yang dihasilkan AI serta format yang lebih konvensional seperti surat tulisan tangan atau meme yang digunakan ulang. Selain itu, beberapa pelaku menunjukkan kemampuan adaptasi teknologi ini dengan menggunakan AI untuk meningkatkan produktivitas mereka dengan menganalisis postingan media sosial atau kode pemecahan masalah.

Menariknya, bisnis ini menyoroti manfaat yang diberikan AI dalam pertahanan terhadap serangan semacam ini. Langkah-langkah keamanan OpenAI, yang memprioritaskan penerapan AI yang etis, secara konsisten menimbulkan ketidaknyamanan bagi pelaku ancaman karena menolak menyediakan materi destruktif yang dimaksudkan. Studi tersebut, misalnya, merinci situasi di mana model perusahaan menolak menghasilkan teks atau grafik yang diinginkan, sehingga menghambat upaya operator untuk menyebarkan informasi yang salah atau propaganda.

Selain itu, untuk meningkatkan keterampilan pengenalan dan evaluasi serta mempercepat investigasi yang mungkin memakan waktu berminggu-minggu atau berbulan-bulan, OpenAI telah membangun alatnya sendiri yang didukung AI. Perusahaan ini telah menunjukkan bagaimana AI dapat memperkuat perlindungan terhadap penggunaan jahat dengan memanfaatkan teknologi yang ingin dilindungi.

OpenAI menekankan betapa pentingnya kerja sama bisnis dan pembagian intelijen sumber terbuka untuk menggagalkan operasi rahasia ini. Sebagai hasil dari studi sumber terbuka selama bertahun-tahun yang dilakukan oleh komunitas riset yang lebih besar, perusahaan ini berbagi indikator bahaya yang tepat dengan rekan-rekan di industri dan memperkuat gagasan bahwa memerangi misinformasi dan manipulasi online adalah upaya tim yang memerlukan kolaborasi antar industri.

Kursus Keamanan Masa Depan OpenAI

Dengan menggunakan strategi ini, OpenAI berupaya untuk memperkuat dampak gangguannya terhadap pelaku kejahatan, membatasi kapasitas mereka untuk memanfaatkan teknologi AI untuk aktivitas terlarang. Menurut makalah tersebut, “Distribusi penting: Seperti bentuk konten tradisional, materi yang dihasilkan AI harus didistribusikan jika ingin menjangkau audiens.”

Kesimpulannya, penelitian OpenAI menyoroti bahwa operasi pengaruh siluman ini masih dibatasi oleh variabel manusia, seperti kesalahan operator dan kesalahan pengambilan keputusan, meskipun OpenAI mengakui potensi ancaman yang ditimbulkan oleh penyalahgunaan teknologi AI. Makalah ini mencakup contoh-contoh operator yang secara tidak sengaja memposting sinyal penolakan dari model OpenAI di situs web dan media sosial mereka, sehingga mengungkap kelemahan dan batasan bahkan dalam upaya misinformasi paling canggih sekalipun.

Saat ini, pembongkaran lima kampanye pengaruh rahasia OpenAI merupakan bukti ketekunan dan komitmen perusahaan untuk menjaga integritas sistem kecerdasan buatannya. Namun, perjuangan melawan misinformasi dan manipulasi online masih jauh dari selesai, dan seiring dengan berkembangnya teknologi AI, kerja sama, kreativitas, dan kepedulian terhadap etika akan semakin dibutuhkan.

Pos OpenAI Mengekspos dan Menghentikan 5 Operasi Pengaruh Berbahaya yang Memanfaatkan Teknologi AI muncul pertama kali di Metaverse Post.