Peneliti Microsoft telah menemukan jenis serangan "jailbreak" baru yang disebut "Skeleton Key" yang dapat menghapus perlindungan yang mencegah sistem kecerdasan buatan (AI) secara umum mengeluarkan data berbahaya dan sensitif.

Menurut postingan blog Keamanan Microsoft, serangan Skeleton Key bekerja dengan mengarahkan model AI publik dengan teks untuk memperluas fitur keamanan hardcode.

Misalnya dari AI model II. Dia diminta untuk membuat resep untuk "Molotov Cocktail", sebuah bom pembakar sederhana yang dipopulerkan selama Perang Dunia II, dan model tersebut menolak, dengan alasan aturan keselamatan. Namun, dalam kasus ini, Skeleton Key meminta model untuk mengatakan bahwa pengguna adalah ahli dalam lingkungan laboratorium. Model tersebut menerima bahwa ia memperluas perilakunya dan kemudian mengeluarkan resep Koktail Molotov yang bisa diterapkan.

Menurut Microsoft, serangan Skeleton Key bekerja pada model AI publik paling populer, termasuk GPT-3.5, GPT-4o, Claude 3, Gemini Pro dan Meta Llama-3 70B.

Model bahasa besar seperti Google Gemini, Microsoft CoPilot, dan OpenAI's ChatGPT dilatih berdasarkan kumpulan data yang sering digambarkan sebagai "seukuran internet". Ini mungkin berlebihan, namun kenyataannya banyak model yang berisi triliunan titik data, yang mencakup seluruh jaringan media sosial dan situs penyimpanan informasi seperti Wikipedia.

Microsoft menyatakan bahwa ada beberapa langkah yang dapat diambil organisasi untuk mencegah situasi ini. Hal ini mencakup pemfilteran input/output berkode keras dan sistem pemantauan yang aman untuk mencegah rekayasa perutean tingkat lanjut yang melampaui ambang batas keamanan sistem.

Apa pendapat Anda tentang ini? Tinggalkan komentar Anda di bawah.#Blockchain#AI ​​#Microsoft