3 月 28 日,微軟宣佈在 Azure AI Studio 雲端服務中添加許多安全功能,以最大程度地減少用戶爲異常或不當活動建立 AI 聊天機器人模型的可能性。

Azure AI Studio 是一個基於 Web 的視覺化開發環境,可讓使用者快速輕鬆地訓練和部署人工智慧 (AI) 模型。

主要的附加功能包括提示屏蔽,它有助於防止「越獄」——用戶故意提出特殊請求,以便人工智慧返回不良結果。例如,騙子可以使用「越獄」來竊取資料或控制系統。

當 Azure AI Studio 檢測到可能提供虛假或誤導性信息的 AI 樣本時,它很快就會顯示警告。

作爲OpenAI最大的投資者和戰略合作伙伴,微軟致力於推動安全、負責任的AI技術的發展。這些努力是確保整個人工智能行業安全的更大戰略的一部分。

然而,微軟負責人工智能的產品經理莎拉·伯德表示,隨着這項技術的普及,特別是大型語言模型和一般人工智能產品仍然能夠被操縱的風險將會增加。爲了確保安全,需要全面的人工智能安全策略,而不僅僅是依賴模型本身。

Azure AI Studio 的安全增強表明 Microsoft 正在主動響應 AI 相關的安全威脅。這是避免人工智能濫用並保持未來人工智能交互完整性的必要舉措。