欧盟已采取大胆举措,确保形成一个负责人工智能安全、清晰和合乎道德使用的整个监管体系。实施后者的新《欧洲人工智能法案》在人工智能全球治理领域具有重要意义,它提供了一个全面的监管框架,包括控制人工智能发展及其在欧盟内部使用的复杂措施。

欧盟人工智能法案规定

欧盟人工智能法案旨在解决众多必须解决的问题,包括控制潜在危险、保护私人生活和确保良好的环境。该法案的基础是基于风险的战略,根据风险级别实施具体的规则和法规。

该法案将禁止人工智能风险应用,并要求实施透明度规则以确保此类人工智能的责任。此外,任何有风险的人工智能在推出之前都应进行风险评估。

然而,欧盟优先考虑人工智能应用,强调人类监督因素,这需要防止不良后果并保证人们所需服务的安全。

通过这项法律,人工智能领导者将对他们的系统承担个人责任,这将阻止他们将人工智能用于危害他人生命或歧视等不良目的。

密切关注人工智能与欧盟规则

Melih Yonet 是基于人工智能的顶级 EHS(环境健康与安全)平台 Intenseye 的法律主管,他认识到人工智能安全和隐私在科技时代的重要性。

Yonet 强调了一个不争的事实,即人工智能解决方案需要在其中嵌入隐私设计原则,而利用假名化和 3D 匿名化等技术无疑是在降低风险和确保遵守监管要求方面实现该目标的一种方式。

除此之外,他还指出,关键优先事项之一是设计对人工智能系统的信任,他将其定义为创新、生产力和安全文化的驱动力。

无论是解决心理痛苦还是维护正义感,减轻伤害和建立责任都是康复司法的核心。

欧盟人工智能法规防止滥用

除了欧盟的人工智能法规外,其规则还包括人工智能算法可能被滥用的问题。这样,就有机会对个人和社会造成巨大的损害。

该法案旨在遏制偏见并确保人工智能技术不会对社会构成任何威胁。因此,它规定了一切可以防止负面结果的责任,并确保以一切必要的谨慎态度部署人工智能。Yonet 声称,将人工智能生成的内容与现实分开,以及人工智能使用的道德规范,是最大限度地减少错误信息和保持以人工智能为中心的流程透明度的关键因素。