Yapay zekanın popülerlik dalgası, hem iyi niyetli olanları hem de daha kötü niyetli olabilecekleri kasıp kavurdu. Güvenlik uzmanları, bu tür modellerin kullanılmasının, kötü amaçlı metin oluşturmanın veya "hackbot"ların artık tehdit aktörleri arasında meşhur olduğuna dikkat çekerek alarma geçiyor. Abonelik bazlı hizmetlerde anahtar teslim hizmet düzeyine ulaştı.

Siber suçlular yapay zeka araçlarından yararlanıyor

Bir yandan siber güvenlik uzmanları, yapay zeka destekli araçların sistemlerini daha iyi koruma potansiyelini hızla fark etti. Tehdit aktörleri de saldırdıkları kişilerin bıraktığı güvenlik açıklarından yararlanmak için bu teknolojileri kullanma konusunda aynı istekliliği gösterdi. Geçtiğimiz birkaç yılda, kötü aktörler tarafından kullanılan yapay zeka uygulamalarının sayısında katlanarak bir artış yaşandı ve bu da güvenlik ekiplerinin dikkatini yapay zeka ile ilgili tehditleri ortadan kaldırmak için yeterli bir yaklaşıma çekti.

Öte yandan İngiliz siber güvenlik uzmanları da yapay zekanın keşfedilmemiş sular ve onun sürekli değişen doğası nedeniyle ortaya çıkan yeni bir risk olduğunu belirtti. NCSC, ilk çeyrek olan 2024'ün 2022 ve 2023'ün en büyük çeyreği olacağını ve başarılı bir şekilde 2022 ve 2023'ün rekorlarını kıracağını tahmin ediyor. Akıllı suçlular aynı şekilde sosyal mühendislik için dil modellerini kullandılar ve ünlülerin kimlik avı düzenleri kullanarak bir video veya ses ortamına yerleştirilmesi çağrısında bulundular. veya ses tanıma cihazları. Microsoft Corporation'ın güvenlikten sorumlu başkan yardımcısı Vascut Jakkal, RSA Konferansı 2024'e katıldı. Sorun, bu araçların bozulması değil, kimlikle ilgili yazılımların büyümesiyle 10 kat bağlantılı olan şifre kırma için giderek yaygınlaşmasıdır. saldırılar.

Bazı uzmanlar ayrıca, sohbet robotlarının aktif olarak kötü amaçlı yazılım geliştirmek için benzersiz bir ifade kullandığı sonucuna varmıştır. Gerçekten de ChatGPT ve Gemini gibi kamuya açık hizmetler, bunların kötü amaçlarla kötüye kullanılmasını önlemek için önlemler uygulamaktadır. Ancak bilgisayar korsanları, gelişmiş ve hızlı mühendislik teknikleriyle birçok korumayı atladı.

Hizmet olarak Hackbot: Siber suçlarda büyüyen trend

Son araştırmalara göre, kamuya açık dil modelleri genellikle yazılım güvenliği zayıflıklarını kötüye kullanmakta başarısız oluyor. Ancak bilinen kusurlar için çalıştırılabilir dosyalar üretebildiği için yalnızca OpenAI'nin GPT-4'ü umut verici özellikler gösterdi. Yukarıdaki kısıtlamalar muhtemelen siber suç faillerinin kötü niyetli faaliyetlerini gerçekleştirmelerine yardımcı olmak için tasarlanmış prototip kötü amaçlı sohbet robotlarının üretimini teşvik etmiş gibi görünmektedir.

Saldırganları işe alma ve sömürme gücü sunan karanlık ağ forumlarında ve pazar yerlerinde reklamları yapılıyor ve bu da hizmet olarak hackbot modelini güçlendiriyor. Trustwave SpiderLabs ekibi tarafından Ağustos 2023'te yayınlanan son blog gönderilerinden biri, kâr amaçlı birden fazla gizli web mesaj panosunda barındırılan kötü amaçlı dil modellerinin artan hacmini gösteriyor.

Trustwave, bu bilgisayar korsanlarının bilinen kötü amaçlı dil modellerinden biri olan WormGPT modelini Haziran 2021'de yayınladı. Bu yaklaşım, botların karanlık ağda barındırılan bilgisayar korsanlığı yapıları tarafından siber saldırılar düzenlediği ekipmanlarda ortaya çıkabilir. Temmuz 2023'te oluşturulan FraudGPT, Telegram'a ulaşmadan önce ilk olarak Netenrich'teki tehdit araştırmacıları tarafından ortaya çıkarıldı.

Bu araçlar, saldırganların kimlik avı e-postaları, derin sahtekarlıklar ve ses klonlama gibi sosyal mühendislik saldırılarında kullanılan varlıkları tasarlamasına olanak tanır. Ancak yaratıcıları, gerçek değerlerinin güvenlik açıklarından yararlanmada yattığını iddia ediyor. Bilgisayar korsanlarının bu kötü amaçlı modellere belirli güvenlik açıklarıyla ilgili kod beslemesine olanak tanır; bu, teorik olarak bir saldırganın deneyebileceği çeşitli kavram kanıtlama (PoC) istismarları üretebilir.

Bu ürünler, korsanların hackbot'u kullanmak için aylık lisans ücreti aldığı karanlık ağın gizli pazarlarında satılıyor; tıpkı fidye yazılımının doğrudan bir hizmet olarak fidye yazılımı (raas) modelinde teslim edilmesi gibi. Bugün birçok şirketin karşılaştığı fidye yazılımı kompleksi.

WormGPT tanıtılan ilk büyük ölçekli kötü amaçlı dil modeli olsa da, BlackHatGPT, XXXGPT ve WolfGPT gibi diğer kötü amaçlı ve etik olmayan dil modelleri de kısa süre sonra onu takip ederek siber karaborsanın yeni bir pazar segmentini oluşturdu.

Hackbotların Etkisi: Aldatmaca mı, Gerçek Tehdit mi?

Trustwave tarafından önerilen araçların verimliliğini, çıktılarını meşru sohbet robotları tarafından oluşturulanlarla karşılaştırarak test etmek için yapılan araştırmanın aksine, bulgular ChatGPT'nin bazı Python kötü amaçlı yazılımlarını etkili bir şekilde oluşturmak için yapılabileceğini gösterdi. doğru istemler. Bunu yapmak için, kodun beyaz şapka olduğunu iddia eden mesajın dağıtımdan önce konuya gönderilmesi gerekiyordu ve kod çıktısında da ek değişiklikler yapılması gerekiyordu.

ChatGPT, kimlik avı saldırıları için gerçek metin mesajları iletebilir ancak talimat komutunun bu etkiye çok özel olması gerekir. ChatGPT genellikle yalnızca kullanıcılar yanlış bir şey talep ettiğinde buna dayalı olacaktır. Bu nedenle, bu sohbet robotları, siber suçluların veya yapay zekanın, bir sayfa veya kötü amaçlı yazılım oluşturmak için sıkıcı bir şekilde çalışmak yerine, sohbet edenlere saldırması için daha basit bir yöntem olarak görülebilir.

Bu sektör yeni olmasına ve tehditler hâlâ devam ediyor olmasına rağmen şirketlerin mevcut koruma düzeylerinin gerçekten farkında olması gerekiyor. Yapay zeka sistemlerinin dolup taştığı içerik ve kültürel özellikler, yalnızca daha güçlü yapay zeka güvenlik programları ve kimlik yönetimi araçları oluşturularak kapatılabilecek bir dezenformasyon açığı yaratmak için kötüye kullanılabilir.

Büyüyen soruna yönelik çözümlerin meşruiyeti hâlâ tartışılıyor. Ancak son zamanlardaki fidye yazılımı türleri, siber suçluların yazılım geliştiricilerin geliştirme hızına yetişebileceğini, hatta bu hızı geçemeyeceğini gösterdi.