在不久的將來,生成式人工智慧應用程式的用戶可能會找到清晰概述人工智慧應如何使用、相關風險及其測試過程的標籤。根據新的指導方針,標籤將成為強制性的,以使大眾更容易理解該技術。

另請閱讀:歐盟 (EU) 在人工智慧監管方面處於領先地位

新加坡通訊和資訊部長 Josephine Teo 女士表示,新措施旨在為科技公司製定透明度和測試標準。據海峽時報報道,她在 7 月 15 日的個人資料保護技術會議上發表講話。 

人工智慧應用程式開發人員應該對其創新保持透明

就像藥品或家用電器如何貼上安全標籤的做法一樣,在同樣的做法中,生成式人工智慧應用程式的開發人員必須明確告知用戶人工智慧模型的使用和開發。同時兼任智慧國家及網路安全計畫部長的張女士表示:

“我們將建議開發人員和部署人員通過提供有關生成式人工智慧模型和應用程式如何工作的信息,對用戶保持透明。”

這位部長在解釋即將出台的規則時表示,這些規則與用戶打開「一盒非處方藥」是一樣的。他們找到了一張紙,上面清楚地說明了應該如何使用該藥物以及可能出現的「您可能面臨的副作用」。

Teo 斷言,基於產生人工智慧的人工智慧系統需要「這種程度的透明度」。這套新規則將定義在向大眾提供人工智慧模型之前應實施的安全基準。 

資料匿名化指引將於 2025 年發布

生成式人工智慧是人工智慧的一種類型,能夠產生新的文字和圖像,並且不像傳統人工智慧那樣可預測。根據新的指導方針,創作者將被要求提及在內容中傳播謊言、敵意評論和偏見敘述的風險。

Teo 表示,家用電器都帶有標籤,清楚地表明該產品正在接受安全使用測試。否則,客戶將不知道該設備是否安全。人工智慧應用也將採取同樣的做法。新加坡資訊通信媒體發展局(IMDA)將開始就新規則與業界進行諮詢。不過,Teo 並沒有提及該指南的發布日期。

Teo 表示,IMDA 也發布了一份關於技術中隱私相關問題的指南,這將滿足對訓練 AI 模型的資料日益增長的需求,同時保護用戶的隱私。

另請閱讀:馬克庫班和布拉德加林豪斯主持的民主黨圓桌會議討論加密貨幣法規

IMDA 助理執行長 Denise Wong 表示,在生成型人工智慧中保持資料安全對產業來說更具挑戰性。她在活動期間關於人工智慧和資料隱私的單獨小組討論中發表了自己的觀點。來自不同科技公司的代表參加了該小組,其中包括 ChatGPT 製造商 OpenAI 和顧問公司 Accenture。 

OpenAI 隱私法律負責人 Jessica Gan Lee 表示,人工智慧開發和部署的各個階段都應該建立資料保護護欄。她表示,人工智慧模型應該在來自「世界各個角落」的不同資料集上進行訓練。 Lee 強調,人工智慧培訓應包含多種文化、語言和來源,同時尋找限制個人資料處理的方法。

Teo 表示,將於 2025 年初為在東協營運的公司推出資料匿名指南。