Gelombang popularitas AI telah melanda baik mereka yang memiliki niat baik maupun mereka yang memiliki niat yang mungkin lebih jahat. Pakar keamanan memperingatkan bahwa penggunaan model seperti itu, pembuatan teks berbahaya, atau ‘hackbots’, kini populer di kalangan pelaku ancaman. Ini telah mencapai tingkat layanan turnkey dalam layanan berbasis langganan.

Penjahat dunia maya memanfaatkan alat AI

Di satu sisi, para pakar keamanan siber dengan cepat menyadari potensi alat yang didukung AI untuk melindungi sistem mereka dengan lebih baik. Para pelaku ancaman juga menunjukkan keinginan yang sama untuk memanfaatkan teknologi ini guna memanfaatkan celah keamanan yang ditinggalkan oleh pihak yang mereka serang. Selama beberapa tahun terakhir, terjadi peningkatan eksponensial dalam jumlah aplikasi AI yang digunakan oleh pelaku kejahatan, sehingga menarik perhatian tim keamanan untuk melakukan pendekatan yang memadai dalam menumpas ancaman terkait AI.

Di sisi lain, pakar keamanan siber Inggris juga mengindikasikan AI sebagai sebuah risiko baru yang muncul dan melibatkan hal-hal yang belum diketahui dan sifatnya yang terus berubah. NCSC memperkirakan tahun 2024, kuartal pertama, akan menjadi kuartal terbesar dan berhasil melampaui rekor tahun 2022 dan 2023. Para penjahat cerdik juga menggunakan model bahasa untuk rekayasa sosial, yang meminta selebriti ditempatkan dalam latar video atau audio menggunakan skema phishing. atau perangkat pengenalan suara. Vascut Jakkal, wakil presiden keamanan di Microsoft Corporation, menghadiri Konferensi RSA 2024. Masalahnya bukan pada kerusakan alat-alat ini tetapi semakin luasnya ketersediaan alat untuk memecahkan kata sandi, yang terkait 10 kali lipat dengan pertumbuhan terkait identitas. serangan.

Beberapa ahli menyimpulkan lebih lanjut bahwa chatbots menggunakan frasa unik untuk secara aktif mengembangkan malware. Memang benar, layanan publik seperti ChatGPT dan Gemini telah menerapkan perlindungan untuk mencegah penyalahgunaannya untuk tujuan jahat. Namun, peretas telah melewati banyak perlindungan melalui teknik rekayasa yang canggih dan cepat.

Hackbot-as-a-service: Tren kejahatan dunia maya yang semakin meningkat

Menurut penelitian terbaru, model bahasa yang terlihat secara publik biasanya gagal memanfaatkan kelemahan keamanan perangkat lunak. Namun, hanya GPT-4 OpenAI yang menunjukkan fitur-fitur menjanjikan, karena dapat menghasilkan executable untuk kelemahan yang diketahui. Pembatasan di atas sepertinya telah mendorong produksi prototipe chatbot berbahaya yang dirancang untuk membantu pelaku kejahatan dunia maya dalam melakukan aktivitas jahatnya. 

Mereka diiklankan di forum dan pasar web gelap, yang menawarkan kemampuan untuk merekrut dan mengeksploitasi penyerang, sehingga memicu model hackbot-as-a-service. Salah satu postingan blog terbaru yang diterbitkan oleh tim Trustwave SpiderLabs pada bulan Agustus 2023 menggambarkan peningkatan volume model bahasa berbahaya yang dihosting di beberapa papan pesan web tersembunyi untuk mendapatkan keuntungan.

Trustwave memposting model WormGPT pada bulan Juni 2021, salah satu model bahasa berbahaya yang diketahui oleh para peretas. Pendekatan ini dapat terjadi pada peralatan di mana bot menyuntikkan serangan cyber melalui struktur peretasan yang dihosting di web gelap. Dihasilkan pada Juli 2023, FraudGPT pertama kali ditemukan oleh peneliti ancaman di Netenrich sebelum mencapai Telegram.

Alat-alat ini memungkinkan penyerang merancang aset yang digunakan dalam serangan rekayasa sosial, seperti email phishing, deepfake, dan kloning suara. Namun, pembuatnya mengklaim bahwa nilai sebenarnya terletak pada eksploitasi kerentanan. Mereka memungkinkan peretas untuk memasukkan kode tentang kerentanan tertentu ke dalam model jahat ini, yang secara teoritis dapat menghasilkan beberapa eksploitasi bukti konsep (PoC) untuk dicoba oleh penyerang.

Produk-produk ini dijual di pasar rahasia web gelap di mana peretas dikenakan biaya lisensi bulanan untuk menggunakan hackbot, sama seperti ransomware yang dikirimkan dalam model ransomware-as-a-service (raas) yang terhubung langsung ke a kompleks ransomware yang dihadapi banyak perusahaan saat ini.

Meskipun WormGPT adalah model bahasa jahat berskala besar pertama yang diperkenalkan, model bahasa jahat dan tidak etis lainnya seperti BlackHatGPT, XXXGPT, dan WolfGPT segera menyusul, sehingga membentuk segmen pasar baru dari pasar gelap dunia maya.

Kemanjuran Hackbots: Hype atau Ancaman Asli?

Berbeda dengan penelitian yang dilakukan oleh Trustwave, yang dilakukan untuk menguji efisiensi alat yang direkomendasikan dengan membandingkan keluarannya satu sama lain versus keluaran yang dihasilkan oleh chatbot yang sah, temuan ini menunjukkan bahwa ChatGPT dapat dibuat secara efektif untuk membuat beberapa malware Python dengan petunjuk yang tepat. Untuk melakukannya, pesan harus dikirim ke masalah yang mengklaim kode tersebut adalah white hat sebelum diterapkan, dan keluaran kode juga memerlukan modifikasi tambahan.

ChatGPT mungkin dapat meneruskan pesan teks nyata untuk serangan phishing, namun perintah instruksinya harus sangat spesifik untuk efek ini. ChatGPT secara umum akan didasarkan pada ini hanya ketika pengguna meminta sesuatu yang salah. Oleh karena itu, chatbots ini dapat dilihat sebagai metode yang lebih sederhana bagi penjahat dunia maya atau AI untuk menyerang obrolan daripada bekerja keras untuk membuat halaman atau malware.

Meskipun industri ini masih baru dan ancamannya masih terus berubah, perusahaan harus benar-benar menyadari tingkat perlindungan yang mereka miliki saat ini. Karakteristik konten dan budaya yang dibanjiri sistem AI dapat disalahgunakan untuk menciptakan kesenjangan disinformasi yang hanya dapat dijembatani dengan menciptakan program keamanan AI dan alat manajemen identitas yang lebih kuat.

Legitimasi solusi untuk masalah yang berkembang ini masih diperdebatkan. Namun, jenis ransomware baru-baru ini menunjukkan bahwa penjahat dunia maya dapat menyamai, bahkan melebihi, kecepatan pengembangan pengembang perangkat lunak.