人工智能的流行浪潮席捲了那些心懷善意的人,也席捲了那些意圖更爲險惡的人。安全專家敲響了警鐘,指出使用此類模型、惡意文本生成或“黑客機器人”現在在威脅行爲者中很常見。它已經達到了訂閱服務中交鑰匙服務的水平。

利用人工智能工具的網絡犯罪分子

一方面,網絡安全專家很快意識到人工智能工具可以更好地保護他們的系統。威脅行爲者也表現出同樣的渴望,希望利用這些技術來利用他們攻擊的對象留下的安全漏洞。在過去幾年中,邪惡行爲者使用的人工智能應用程序數量呈指數級增長,這引起了安全團隊的注意,他們開始尋找足夠的方法來降低與人工智能相關的威脅。

另一方面,英國網路安全專家也表示,人工智慧是一種新興的新風險,涉及未知領域及其不斷變化的性質。 NCSC 預測 2024 年第一季將是最大的,並成功打破了 2022 年和 2023 年的記錄。語音辨識設備。微軟公司安全副總裁 Vascut Jakkal 出席了 2024 年 RSA 大會。

一些專家進一步得出結論,聊天機器人使用獨特的短語來積極開發惡意軟體。事實上,ChatGPT 和 Gemini 等公開服務已經實施了保護措施,以防止其被濫用於惡意目的。然而,駭客透過複雜、快速的工程技術繞過了許多保護措施。

駭客機器人即服務:網路犯罪的成長趨勢

根據最近的研究,公開可見的語言模型通常無法利用軟體安全漏洞。然而,只有 OpenAI 的 GPT-4 顯示出有前途的功能,因為它可以針對已知缺陷產生可執行檔。上述限制似乎可能促進了典型惡意聊天機器人的產生,這些聊天機器人旨在幫助網路犯罪者進行惡意活動。

它們在暗網的論壇和市場上做廣告,這些論壇和市場提供了僱用和利用攻擊者的能力,從而推動了黑客機器人即服務的模式。 Trustwave SpiderLabs 團隊於 2023 年 8 月發布的最新部落格文章之一說明了為了盈利而託管在多個隱藏網路留言板上的惡意語言模型數量不斷增加。

Trustwave 於 2021 年 6 月發布了 WormGPT 模型,這是這些駭客已知的惡意語言模型之一。這種方法可能發生在機器人透過暗網託管的駭客結構注入網路攻擊的設備中。 FraudGPT 於 2023 年 7 月生成,在到達 Telegram 之前首先由 Netenrich 的威脅研究人員發現。

這些工具允許攻擊者設計用於社會工程攻擊的資產,例如網路釣魚電子郵件、深度偽造和語音克隆。然而,它們的創建者聲稱它們的真正價值在於利用漏洞。它們使駭客能夠將有關特定漏洞的程式碼輸入到這些惡意模型中,理論上可以產生多種概念驗證 (PoC) 漏洞供攻擊者嘗試。

這些產品在暗網的秘密市場中出售,駭客使用該駭客機器人需要每月支付許可費,就像勒索軟體以勒索軟體即服務 (raas) 模型提供,該模型直接連接到如今許多公司都面臨勒索軟體的複雜性。

雖然WormGPT是第一個大規模引入的惡意語言模型,但BlackHatGPT、XXXGPT和WolfGPT等其他惡意和不道德的語言模型很快也隨之而來,形成了網路黑市的新細分市場。

駭客機器人的功效:炒作還是真正的威脅?

Trustwave 所做的研究旨在透過比較推薦工具的輸出與合法聊天機器人產生的輸出來測試推薦工具的效率,研究結果表明,ChatGPT 可以有效地創建一些 Python 惡意軟體正確的提示。為此,必須在部署之前向事件發送訊息,聲稱該代碼是白帽代碼,並且代碼輸出也需要進行額外的修改。

ChatGPT 可能能夠傳遞用於網路釣魚攻擊的真實文字訊息,但指示命令應該非常具體地實現此效果。 ChatGPT 一般只有在使用者請求錯誤時才會基於此。因此,這些聊天機器人可以被視為網路犯罪分子或人工智慧攻擊聊天者的一種更簡單的方法,而不是繁瑣地創建頁面或惡意軟體。

雖然這個行業是新行業,而且威脅仍在不斷變化,但公司必須真正了解其當前的保護水平。人工智慧系統中充斥的內容和文化特徵可能會被濫用,造成虛假資訊差距,而這種差距只能透過創建更強大的人工智慧安全程式和身分管理工具來彌補。

日益嚴重的問題的解決方案的合法性仍在爭論中。然而,最近的勒索軟體病毒表明,網路犯罪分子的開發速度即使不能超過軟體開發人員的開發速度,也可以與軟體開發人員的速度相符。