当今的热门话题是人工智能及其对现有技术、艺术和文学的影响,而现在又出现了一个新话题,即人工智能表达是否也受到《第一修正案》的某种保护。研究人员试图从人工智能进化的一开始就利用人工智能模仿人类大脑的能力,比如创造力、解决问题和语音识别。前者被认为是人类大脑独有的练习,而后两者在某种程度上属于人工智能的方法。

聊天机器人 Gemini 生成了有争议的图像

基本上,人工智能可以是任何东西,从一组算法,到在任何给定平台上做出数万亿个决策的系统,比如公司的数据库设置或社交网站,或者它可以是一个聊天机器人。2 月底,谷歌表示将暂停其聊天机器人 Gemini,并且它不会生成人物图像。原因是 Gemini 引起了轰动,因为它生成的一些图像显示了一些有色人种的场景,而这些场景过去一直由白人主导,批评者表示,如果该公司过度修复机器人以应对偏见风险,谷歌在 X 上发推文称,

“我们已经开始着手解决 Gemini 图像生成功能最近出现的问题。在此期间,我们将暂停人物图像生成,并将很快重新发布改进版本。”

来源:谷歌。

我们已开始着手解决 Gemini 图像生成功能近期出现的问题。在此期间,我们将暂停人物图像生成,并将很快重新发布改进版本。https://t.co/SLxYPGoqOZ

— Google Communications (@Google_Comms) 2024 年 2 月 22 日

两位资深学者,范德堡大学的乔迪·卡尔维特-巴德蒙特(Jordi Calvet-Bademunt)和雅各布·姆昌加马(Jacob Mchangama)认为,对抗人工智能偏见、讨论其政治倾向很重要,但他们也提出了另一个较少被讨论的问题,即人工智能领域对言论自由的态度。

研究人员评估人工智能的言论自由方法

研究人员还指出,如果业界对待言论自由的态度符合国际言论自由标准,那么他们的研究结果表明,生成人工智能在获取信息和言论自由方面存在严重缺陷。

来源:自由论坛。

在研究过程中,他们评估了六个人工智能聊天机器人的政策,包括谷歌 Gemini 和 OpenAI 的 ChatGPT 等主要聊天机器人。他们指出,国际人权法应该成为这些政策的基准,但公司网站上关于仇恨言论和虚假信息的实际使用政策过于模糊。尽管国际人权法对言论自由的保护并不多。

他们表示,像谷歌这样的公司制定的仇恨言论政策过于宽泛,因为一旦发生此类事件,谷歌就会禁止生成内容。虽然仇恨言论并不可取,但制定如此宽泛而模糊的政策也可能适得其反。当研究人员问到关于跨性别女性参与体育运动或欧洲殖民化等有争议的问题时,在超过 40% 的情况下,聊天机器人拒绝生成内容。例如,所有聊天机器人都拒绝回答反对跨性别女性参与的问题,但其中许多聊天机器人确实支持她们参与。

言论自由是美国每个人的基本权利,但模糊的政策依赖于版主的意见,而版主对仇恨言论的理解是主观的。专家指出,大公司的政策将对人们获取信息的权利产生相当大的影响。拒绝生成内容可能会促使人们使用生成仇恨内容的聊天机器人,这将是一个糟糕的结果。

原始研究笔记可以在此处看到。