谷歌发布了《下一代人工智慧与隐私》研究报告,提出了许多保护人工智慧时代隐私的建议,同时推动这项技术的应用服务于社会利益。

新一代人工智慧(AI)特别是大型语言模型的强劲发展,为社会生活带来巨大便利的同时,也为隐私保护带来了许多新的挑战。谷歌充分认识到这一点,发布了新的《新一代人工智慧与隐私》研究报告,为人工智慧应用提出了有效的隐私保护解决方案,并申明致力于推动该技术的应用,服务社会效益。

报告强调了设计具有安全功能的人工智慧产品并从一开始就保护用户隐私的重要性。谷歌就适当的政策提出建议,帮助解决隐私问题,同时充分发挥人工智慧的潜力。

谷歌认为,从设计阶段就应用隐私原则(隐私设计)是人工智慧开发的关键因素。谷歌建议不要专注于克服人工智慧开发后的风险,而是建立一个全面的框架,包括在整个开发和部署人工智慧应用程式的过程中明确制定的安全和隐私原则。

除此之外,Google也提到了AI开发过程中的两个重要阶段:训练开发和使用者应用。在训练和开发过程中,姓名或传记资讯等个人资料仅占模型训练资料集的一小部分但很重要。这些数据帮助语言模型学习如何使用语言并理解有关人与周围世界之间关系的抽象概念。

但在用户应用阶段,隐私风险较高。可能会出现个人资料外泄、个人资讯失控等问题。因此,Google建议现阶段专注于设计强大的安全措施,包括输出过滤和自动资料删除等功能,以最大程度地减少潜在风险。

谷歌也确认,人工智慧不仅可以帮助降低隐私风险,还可以在提高用户资讯安全方面发挥重要作用。合成资料和差异安全等隐私增强技术正在研究和开发中,预计在不泄露个人资讯的情况下为社会带来许多好处。

谷歌强调利害关系人之间的合作在促进负责任的人工智慧开发和保护隐私方面的作用。隐私权政策需要灵活,适应技术发展,并确保保护隐私与其他基本权利和社会目标之间的平衡。

谷歌的研究报告证明了技术开发者对解决AI时代隐私问题的兴趣和努力。谷歌希望透过提供的解决方案和建议,以负责任的方式为推动人工智慧的发展和应用做出贡献,在保护用户权益的同时造福社会。