以 ChatGPT 爲代表的生成式人工智能已成爲技術領域的變革者,吸引了全球各行各業的關注。儘管其變革潛力備受讚譽,但人們越來越擔心其黑暗應用。最近,在生成式人工智能語言能力的推動下,網絡釣魚攻擊激增,對網絡安全構成了重大威脅。Darktrace 的開創性研究揭示了威脅行爲者不斷演變的策略,暴露了傳統防禦機制的漏洞。

生成式人工智能時代的電子郵件網絡釣魚

隨着 ChatGPT 的普及,電子郵件釣魚攻擊的動態發生了明顯的變化。Darktrace 的全面分析表明,雖然攻擊的總體數量已經穩定下來,但所採用的策略卻變得更加複雜。傳統網絡釣魚方法的減少被“新型社會工程攻擊”激增 135% 所抵消,而生成式人工智能的廣泛採用也與之相吻合。

尤其令人擔憂的是,威脅行爲者越來越有能力大規模製作令人信服的個性化電子郵件。這種情況類似於收到一封來自可信來源(可能是主管)的電子郵件,其語言、標點和語氣無可挑剔——這要歸功於生成式人工智能。這一趨勢揭示了一個令人不安的可能性,即這些先進的工具正在成爲網絡犯罪分子的滋生地,使他們能夠以前所未有的效率部署有針對性的攻擊。

生成式人工智能如何擴大挑戰

在最近的一段時間內,Darktrace 在 5 月至 7 月之間的觀察揭示了網絡釣魚策略的細微變化。攻擊者現在轉向冒充內部 IT 團隊,這與過去模仿高級管理人員的趨勢不同。VIP 冒充有所減少,但電子郵件帳戶接管嘗試激增 52%,內部 IT 團隊冒充增加了 19%。

這種策略的轉變反映了威脅行爲者的適應性,他們能夠迅速利用新興趨勢。隨着員工在檢測高管冒充方面變得更加精明,攻擊者利用生成式人工智能來模擬 IT 部門的通信,而 IT 部門以前被認爲不太容易被冒充。逼真的語音深度僞造和語言複雜的電子郵件的興起表明攻擊者和防禦者之間即將展開一場軍備競賽。

人工智能如何防禦生成威脅

生成式人工智能雖然增加了網絡威脅的風險,但也有可能增強網絡安全防禦。防禦性人工智能與人類主導的網絡安全團隊相結合,可以充當抵禦不斷演變的威脅的堡壘。通過利用人工智能來理解業務細節和員工行爲,網絡安全團隊可以辨別出表明潛在攻擊的細微異常。

關鍵在於,不僅要將人工智能用作潛在的威脅載體,還要將其作爲網絡安全戰場上的戰略盟友。能夠適應、學習和理解組織通信模式複雜性的防禦性人工智能可以戰勝威脅行爲者所掌握的生成性人工智能。這證明了正在進行的網絡安全戰鬥中需要以人爲本的方法——在這場戰鬥中,如果明智地利用人工智能,它將成爲保護數字領域不可或缺的資產。

隨着生成式人工智能的不斷崛起,它所帶來的希望和危險都變得愈發清晰。網絡釣魚攻擊形勢的不斷變化凸顯了組織加強網絡安全措施的緊迫性。雖然生成式人工智能賦予了威脅行爲者力量,但防禦性人工智能與人類專業知識的明智結合提供了強大的網絡威脅防禦能力。在技術進步與安全問題之間的微妙舞蹈中,人類有責任負責任地運用人工智能,確保未來創新與受保護的數字領域和諧共存。