新加坡网络安全局 (CSA) 制定了新的技术指南,以维护人工智能 (AI) 系统的安全环境。新加坡政府正在与行业合作伙伴密切合作,以解决围绕人工智能的安全性和道德使用问题。

另请阅读:黑客窃取人工智能设计细节,OpenAI 面临数据泄露

新指南重点关注几个关键方面。首先,风险评估将发挥重要作用。识别人工智能系统中可能存在的弱点对于防止被利用至关重要。通过全面评估风险,新加坡旨在了解人工智能系统面临的具体威胁,并实施有针对性的措施以尽量减少这些威胁。

其次,资料保护是 CSA 指南的重要组成部分。除非资料受到保护以防止未经授权的进入或侵犯,否则对人工智慧系统的信任就无法维持。该指南将实施严格的资料保护措施,确保人工智慧系统中使用的所有资料保持安全。

另请阅读:韩国机器人明显的“自杀”正在接受调查

此外,维护人工智慧系统的完整性也很重要。定期更新和强大的安全措施将确保这些系统正常运作且不会受到损害。该指南将包括持续监控和更新人工智慧系统的协议,以维护其完整性。

新加坡处理道德议题并促进合作

道德考虑是另一个重点。该指南将解决人工智慧系统中的偏见、公平和透明度等问题。确保人工智慧技术的使用符合道德规范对于防止歧视和建立公众信任至关重要。这些准则将促进公平和透明度,确保人工智慧系统的运作不带偏见,并且其决策过程清晰易懂。

另请阅读:上海主办2024年世界人工智慧大会

协作也是该倡议的一个重点。新加坡正在与行业学术界、专家和国际机构合作,以确保其指南符合世界最佳标准和实践。此次合作旨在促进创新,同时维持高安全和道德标准。

克里斯·穆里蒂 (Chris Murithi) 的《加密城》报道。