一位網路安全專家透露,對於使用人工智慧作爲服務的企業來說,人工智慧是一種不安全的網路安全威脅,不僅是透過犯罪分子的攻擊,而且是合法的攻擊。

人工智慧的網路漏洞

雖然不良行爲者利用人工智慧發動攻擊所造成的威脅已被廣泛討論,但專門爲人工智慧提供網路安全服務的Midgard 執行長兼首席技術長Peter Garraghan 告訴Verdict:「我想到的問題是人工智慧面臨的網路安全威脅,是這個主題的人。

可以預見的是,公司最常見且風險最高的 AI 用途是聊天機器人,它們充當客戶服務,其語氣和數據通常針對其所代表的組織進行定製。蘭卡斯特大學 (Lancaster University) 計算機科學教授、專門研究 AI 安全和系統的 Garraghan 博士決定在 2022 年創立 Mindgard。“AI 不是魔法,”他說。它只是額外的編碼、數據和硬件的組合。鑑於現代網絡威脅,所有這些威脅也可能體現在 AI 中。

讓我們這樣想:假設攻擊者使用一種稱爲 SQL 注入的過程。攻擊者可以使用該過程來利用 Web 表單字段(如網站登錄或聯繫表單)中的漏洞。提詞器攝取的另一種利用方式是提示注入,它用於公共應用程序。首先,如果安全性得不到充分保障,AI 工具實際上可能會被強迫泄露其源代碼和指令、公司 IP 或客戶數據。其次,AI 工具可以像其他軟件應用程序一樣進行逆向工程以識別缺陷。

保護人工智能系統

加拉漢談到了問題的嚴重性:“在可以預見的未來,幾年後,國家安全因素可能會出現,或者被剝奪權利的人們可能會面臨危險。”新的信息似乎是一個警告:企業應該警惕發佈的數據。

Garraghan 說:“更重要的是,人工智能可以成爲網絡攻擊工具,它可以泄露數據;該模型將能夠提供你如此好心請求的數據。”今年 1 月,右翼社交媒體平臺 Gab 舉了一個例子,尋找意外泄露其指令的教程。基於 GPT 的平臺 OpenAI 此前也曾濫用其模型。

Garraghan 繼續說道:“未經授權的 VoIP 攻擊可能會獲取信息。此外,人工智能可以被逆向工程,系統可以被繞過或被誘騙進入其他系統。因此,信息泄露可能是所有行業的主要領域之一,包括那些可能面臨外部或內部威脅的行業。”他還列舉了其他風險,例如模型規避,即通過僞造虛假數據誤導或故意規避模型。

Garraghan 指出,在音軌中插入惡意命令或用錯誤的解決方案污染數據是另一種威脅。此外,他指出,網絡攻擊後通常會遭受聲譽損害,這是網絡影響的普遍表現。同樣,這種網絡攻擊的負面影響風險最大的領域也是風險最高的領域。對於許多在線運營的行業和機構來說,公共安全和避免機密信息泄露是金融服務和醫療保健行業應優先考慮的重要價值。

Garraghan 說:這裏的聯繫是,你所在行業的結構越嚴密、控制力越強,你面臨的人工智能風險就越大(經驗也表明:你使用人工智能的次數越少,你採用的人工智能就越少),你的人工智能就越糟糕。也許他們並不是比較懶惰的人。例如,他們可能只是正在經歷人生中最艱難的階段。

主動的人工智能安全措施

人工智能將處理任何特定公司的風險,但他表示,爲了保護用戶,人工智能將需要多層安全措施(因爲商業領域的人工智能已經需要它們)。“你已經擁有專門針對不同領域的網絡安全工具,”Garraghan 說。“這些可能是安全態勢管理工具、檢測、響應工具、防火牆,以及對左移設計的支持,例如代碼掃描。你很快就會需要與數字化轉型相符的人工智能。”該類型專門研究人工智能和機器學習,而像神經網絡這樣的系統只是偶爾被提及

您將需要一個神經網絡應用程序掃描器、一個所有類型神經網絡的響應系統、安全測試和紅隊測試,以便更好地控制應用程序,並且您將需要一個所有類型神經網絡的響應系統。與運行時問題相比,儘早修復和補救這些問題更容易。但是,我們向使用 AI 模型或購買的 AI 應用程序和服務的組織推薦的最佳做法是,在投入生產之前,更容易修復模型中的所有問題。然後,在投入生產後,可能只會識別需要修復的問題。

簡而言之,Garraghan 的觀點如下:“如果網絡安全始於‘我’,那麼最重要的事情就是用人工智能作爲工具來取代應用程序或軟件。不是嗎?你需要應用程序安全來檢測威脅。人工智能作爲一種工具也包括在內。”