Sebuah perusahaan tak dikenal di Hangzhou, Tiongkok baru-baru ini menjadi korban serangan ransomware yang dilakukan menggunakan ChatGPT, yang menyebabkan penangkapan pertama di negara tersebut yang melibatkan chatbot AI.
Pihak berwenang Tiongkok mengungkapkan bahwa empat penjahat dunia maya ditahan akhir bulan lalu – dua di Beijing dan dua di Mongolia Dalam. Para tersangka mengaku memanfaatkan ChatGPT untuk mengoptimalkan kode ransomware, melakukan pemindaian jaringan, menyusup ke sistem, menyebarkan malware, dan memeras dana.
Serangan itu sendiri membuat jaringan perusahaan diblokir oleh ransomware, dengan penjahat menuntut pembayaran 20,000 cryptocurrency Tether untuk memulihkan akses.
Penggunaan ransomware meningkat
Ransomware telah menjadi salah satu ancaman siber paling serius yang dihadapi pemerintah, bisnis, dan individu di seluruh dunia. Perangkat lunak berbahaya ini mengenkripsi berkas dan sistem, sehingga tidak dapat diakses hingga permintaan tebusan dipenuhi.
Kerugian akibat ransomware diperkirakan mencapai $20 miliar secara global pada tahun 2021. Serangan meningkat sebesar 13% pada tahun itu di Tiongkok saja, tempat para penjahat dunia maya berhasil membawa kabur lebih dari $1,6 miliar dalam bentuk pembayaran pemerasan.
Penangkapan ini menandai pertama kalinya ChatGPT terlibat dalam kasus ransomware China. Namun, chatbot itu sendiri kemungkinan tidak terlibat langsung dalam serangan tersebut.
Sebaliknya, para terdakwa mengaku menggunakan kemampuan bahasa alami ChatGPT untuk mengoptimalkan kode malware mereka. Sifat percakapan AI memudahkan penyempurnaan program ransomware dengan memberikan umpan balik dan saran.
Akses ke ChatGPT terbatas di Tiongkok
Meski sangat populer di seluruh dunia, ChatGPT menghadapi sejumlah pembatasan di Tiongkok. OpenAI, pengembangnya, telah memblokir alamat IP Tiongkok daratan untuk mengakses chatbot tersebut.
Beberapa pengguna melewati batasan tersebut dengan menggunakan VPN yang terdaftar di luar Tiongkok. Namun, risiko hukum bagi perusahaan yang menyediakan layanan tersebut tidak jelas.
Pihak berwenang telah memperingatkan bahwa ChatGPT berpotensi "melakukan kejahatan dan menyebarkan rumor" jika aksesnya meluas. Namun, minat terhadap AI tersebut tetap tinggi, dengan perusahaan teknologi berlomba-lomba mengembangkan pesaing untuk produk unggulan OpenAI.
AI generatif juga memungkinkan deepfake yang meyakinkan, yang dihadapi oleh polisi Tiongkok musim panas ini dalam penindakan penipuan pinjaman. Dengan bahaya teknologi yang nyata, regulator di seluruh dunia menilai cara terbaik untuk menanggapinya.
Kekhawatiran seputar malware yang ditulis AI
ChatGPT terkenal karena nada bicaranya yang komunikatif dan responsnya yang fasih dan seperti manusia pada sebagian besar topik. Namun, keterampilan bahasanya yang canggih juga membuatnya sangat efektif untuk penggunaan jahat seperti mengoptimalkan malware.
Peneliti keamanan siber mengungkap betapa mudahnya ChatGPT membuat halaman phishing palsu, kode komputer berbahaya, dan ancaman lainnya. Dengan perintah sederhana, AI menghasilkan ransomware canggih yang dirancang untuk menghindari deteksi.
Dan chatbot seperti ChatGPT tidak pernah melupakan apa yang telah mereka pelajari. Pengetahuan yang terkumpul semakin meningkatkan keterampilan mereka dalam membuat kode malware, meretas sistem, dan menipu target.
Sifat generatif AI menimbulkan risiko yang lebih luas
Selain kerentanan perangkat lunak, chatbot AI juga menimbulkan risiko seputar misinformasi. Tulisan mereka yang meyakinkan seperti tulisan manusia dapat membanjiri jejaring sosial dan situs web dengan materi palsu yang tampaknya kredibel.
AI generatif juga memungkinkan terciptanya media audio/video deepfake dan suara kloning untuk tujuan penipuan. Penipuan peniruan identitas dan media selebriti palsu menimbulkan ancaman besar seiring kemajuan teknologi.
Ditambah lagi, masalah hukum dan etika masih ada di seputar kumpulan data pelatihan AI dan kepemilikannya. Sistem seperti ChatGPT menyerap banyak sekali buku, artikel, lagu, gambar, dan konten lain yang dilindungi hak cipta tanpa izin.
Seiring dengan pertumbuhan kemampuan AI generatif secara eksponensial, potensi bahayanya di tangan yang salah juga terus meningkat. Namun, regulasi yang cermat dan kewaspadaan keamanan siber dapat membantu mengurangi ancaman yang muncul.