Seorang pakar keamanan siber mengungkapkan bahwa AI merupakan ancaman keamanan siber yang tidak aman bagi perusahaan yang menggunakannya sebagai layanan mereka, tidak hanya melalui serangan yang dilakukan oleh penjahat tetapi juga secara sah.

Kerentanan dunia maya AI

Meskipun ancaman yang ditimbulkan oleh pelaku kejahatan yang menggunakan AI untuk melancarkan serangan telah banyak dibahas, Peter Garraghan, CEO dan CTO Midgard, yang secara khusus menyediakan keamanan siber untuk AI, mengatakan kepada Verdict: “Masalah yang ada dalam pikiran saya adalah ancaman keamanan siber terhadap AI yang itulah yang menjadi topik pembicaraan.”

Bisa ditebak, penggunaan AI yang paling umum dan berisiko oleh perusahaan berkaitan dengan chatbots yang berfungsi sebagai layanan pelanggan dan yang nada dan datanya biasanya disesuaikan untuk organisasi yang mereka wakili. Di sinilah Dr. Garraghan, seorang profesor ilmu komputer di Universitas Lancaster yang berspesialisasi dalam keamanan dan sistem AI, memutuskan untuk menemukan Mindgard pada tahun 2022. “AI bukanlah sihir,” katanya. Ini hanyalah kombinasi pengkodean tambahan, data, dan perangkat keras. Mengingat ancaman dunia maya modern, semua ancaman ini juga dapat terwujud dalam AI.

Mari kita pikirkan seperti ini: misalkan penyerang menggunakan Proses yang dikenal sebagai injeksi SQL. Penyerang dapat menggunakan proses tersebut untuk mengeksploitasi kerentanan di bidang formulir web seperti login situs web atau formulir kontak. Cara lain untuk memanfaatkan penyerapan teleprompter adalah injeksi cepat, yang digunakan dalam aplikasi publik. Yang pertama dan terpenting, jika keamanan tidak terjamin secara memadai, alat AI dapat dikecoh hingga membocorkan kode sumber dan instruksi, IP perusahaan, atau data pelanggan. Kedua, alat AI dapat direkayasa ulang seperti aplikasi perangkat lunak lainnya untuk mengidentifikasi kelemahan.

Mengamankan sistem AI

Garraghan mengatakan mengenai gawatnya masalah ini: Di ​​masa depan, dalam beberapa tahun, faktor keamanan nasional mungkin akan muncul, atau orang-orang yang kehilangan haknya mungkin akan berada dalam risiko. Informasi baru ini tampak seperti peringatan: sebuah bisnis harus berhati-hati terhadap data yang dirilis.

Garraghan mengatakan, “Terlebih lagi, AI dapat berfungsi sebagai alat serangan siber yang dapat membocorkan data; model tersebut akan dapat memberikan data yang Anda minta dengan baik.” Memberikan contoh pada bulan Januari, platform media sosial sayap kanan Gab mencari tutorial yang secara tidak sengaja mengungkapkan instruksi mereka. Platform berbasis GPT, OpenAI, sebelumnya juga mengalami penyalahgunaan model.

Garraghan melanjutkan: “Informasi dapat diperoleh dari serangan VoIP yang tidak sah. Selain itu, AI dapat direkayasa ulang, dan sistem dapat dilewati atau diakali agar dapat mengakses sistem lain secara terbuka. Oleh karena itu, kebocoran informasi mungkin menjadi salah satu masalah utama yang terjadi di semua industri, termasuk yang mungkin dihadapi secara eksternal atau internal.” Ia juga menyebutkan risiko lain, seperti penghindaran model, yaitu model disesatkan atau sengaja dihindari dengan memalsukan data yang menipu.

Garraghan menunjukkan bahwa memasukkan perintah berbahaya atau mencemari data dengan solusi yang salah ke dalam trek audio adalah ancaman lainnya. Selain itu, ia mencatat bahwa dampak siber secara umum adalah kerusakan reputasi yang biasa dialami setelah serangan siber. Demikian pula, wilayah yang paling berisiko terkena dampak negatif serangan siber semacam ini adalah wilayah dengan risiko terbesar. Dengan banyaknya industri dan institusi yang beroperasi secara online, keselamatan publik dan kurangnya informasi rahasia yang bocor, misalnya, merupakan nilai-nilai penting yang harus diprioritaskan oleh sektor jasa keuangan dan kesehatan.

Garraghan berkata: Kaitannya di sini adalah semakin terstruktur dan terkendalinya industri Anda dan semakin banyak risiko yang Anda hadapi dari AI (dan juga dari pengalaman: semakin sedikit Anda menggunakan AI, semakin sedikit Anda mengadopsinya), semakin buruk AI Anda. Mungkin mereka bukan orang-orang yang malas. Misalnya, mereka mungkin sedang melalui tahap-tahap paling sulit dalam hidup mereka.

Langkah-langkah keamanan AI yang proaktif

AI akan menangani risiko-risiko tersebut di perusahaan tertentu, meskipun menurutnya hal itu memerlukan lapisan keamanan (karena AI dalam bisnis sudah membutuhkannya) untuk perlindungan pengguna. “Anda sudah memiliki alat keamanan siber yang khusus menangani berbagai sektor,” kata Garraghan. “Ini mungkin berupa alat manajemen postur keamanan, deteksi, alat respons, firewall, dan dukungan untuk desain pergeseran kiri, seperti pemindaian kode. Anda akan segera membutuhkan AI sejalan dengan transformasi digital.” Genre ini berspesialisasi secara eksklusif pada AI dan ML, sedangkan sistem seperti jaringan saraf hanya disebutkan sesekali

Anda memerlukan pemindai aplikasi jaringan saraf, sistem respons semua jenis jaringan saraf, pengujian keamanan, dan tim merah untuk kontrol yang lebih baik antar aplikasi, dan Anda memerlukan sistem respons semua jenis jaringan saraf. Lebih mudah untuk memperbaiki dan memulihkannya lebih awal daripada masalah runtime. Namun, praktik terbaik yang kami rekomendasikan kepada organisasi yang menggunakan model AI atau aplikasi dan layanan AI yang dibeli adalah sebelum memasuki tahap produksi, akan lebih mudah untuk memperbaiki semua masalah pada model. Kemudian, setelah masuk ke produksi, hanya masalah yang perlu diperbaiki yang dapat diidentifikasi.

Singkatnya, pendapat Garraghan adalah sebagai berikut: “Hal terpenting, jika keamanan siber dimulai dengan I, adalah dengan menukar aplikasi atau perangkat lunak dengan AI sebagai alatnya. TIDAK? Anda memerlukan keamanan aplikasi untuk mendeteksi ancaman. AI sebagai alat juga disertakan.”