新加坡網絡安全局 (CSA) 制定了新的技術指南,以維護人工智能 (AI) 系統的安全環境。新加坡政府正在與行業合作伙伴密切合作,以解決圍繞人工智能的安全性和道德使用問題。

另請閱讀:黑客竊取人工智能設計細節,OpenAI 面臨數據泄露

新指南重點關注幾個關鍵方面。首先,風險評估將發揮重要作用。識別人工智能系統中可能存在的弱點對於防止被利用至關重要。通過全面評估風險,新加坡旨在瞭解人工智能系統面臨的具體威脅,並實施有針對性的措施以儘量減少這些威脅。

其次,資料保護是 CSA 指南的重要組成部分。除非資料受到保護以防止未經授權的進入或侵犯,否則對人工智慧系統的信任就無法維持。該指南將實施嚴格的資料保護措施,確保人工智慧系統中使用的所有資料保持安全。

另請閱讀:韓國機器人明顯的“自殺”正在接受調查

此外,維護人工智慧系統的完整性也很重要。定期更新和強大的安全措施將確保這些系統正常運作且不會受到損害。該指南將包括持續監控和更新人工智慧系統的協議,以維護其完整性。

新加坡處理道德議題並促進合作

道德考慮是另一個重點。該指南將解決人工智慧系統中的偏見、公平和透明度等問題。確保人工智慧技術的使用符合道德規範對於防止歧視和建立公眾信任至關重要。這些準則將促進公平和透明度,確保人工智慧系統的運作不帶偏見,並且其決策過程清晰易懂。

另請閱讀:上海主辦2024年世界人工智慧大會

協作也是該倡議的一個重點。新加坡正在與行業學術界、專家和國際機構合作,以確保其指南符合世界最佳標準和實踐。此次合作旨在促進創新,同時維持高安全和道德標準。

克里斯·穆里蒂 (Chris Murithi) 的《加密城》報道。