前谷歌首席执行官埃里克·施密特警告人工智能开发者要控制其发展上限。他还强调了美国在与中国的人工智能竞赛中获胜的重要性。
施密特周日在与乔治·斯蒂芬诺普洛斯一起参加美国广播公司新闻频道《本周》节目时警告称,人工智能系统有可能独立运行,甚至自我改进。
施密特说:“我们很快就能让计算机自行运行,决定它们想做什么。”
施密特:人工智能不应不受控制
施密特重申了先进人工智能不受控制发展的风险,并指出具有自我完善能力的系统会带来重大危险。
这位谷歌前首席执行官表示:“当系统能够自我改进时,我们需要认真考虑拔掉它。”
当斯蒂芬诺普洛斯问施密特,这样的人工智能系统是否可以抵抗关闭它们的努力时,施密特回答说:“嗯,从理论上讲,我们最好有人来掌管插头——打个比方。”
尽管人们对人工智能生存风险的担忧日益加剧,但一些专家认为这种担忧被夸大了。伦敦帝国理工学院研究副教务长尼克·詹宁斯教授就是驳斥世界末日预言的人之一。
詹宁斯认为,虽然人工智能可以在特定任务上表现出色,但在各个领域创建具有类人智能的系统仍然远远超出了科学家目前的能力。
“开发能够出色完成单一任务的人工智能是可以实现的,”詹宁斯解释道。“但打造能够在多个领域反映人类智能的通用人工智能并不是我们近期可以期待的事情。”
对人工智能威胁的不同看法
与此同时,领先的人工智能研究人员仍对此表示担忧,他们警告称,目标不明确和安全措施不足会带来危险。加州大学伯克利分校教授斯图尔特·拉塞尔和博士后学者迈克尔·科恩认为,如果不加以控制,强大的人工智能系统最终可能会对人类的生存构成威胁。
在《科学杂志》发表的一篇见解论文中,拉塞尔和科恩呼吁对人工智能的发展进行更严格的监管。他们强调,科技公司在将人工智能系统投入市场之前,需要证明其安全性。他们认为,如果没有明确的目标和强有力的保障措施,先进的人工智能系统可能会损害人类的利益。
拉塞尔和科恩写道:“如果这些人工智能的目标与人类的目标相冲突,那么就可能带来灾难。”他们认为,科技公司应该负责确保其系统的安全,并确定人工智能绝不能跨越的关键“红线”。
关于人工智能安全性的争论愈演愈烈
人工智能的快速发展已经带来了挑战,包括虚假信息的传播、社会两极分化和算法偏见。对安全和监管的担忧尚未跟上技术发展的步伐。
施密特的言论反映出行业领袖们对应对这些挑战的迫切需求。埃隆·马斯克等专家长期以来一直呼吁制定先发制人的法规来降低人工智能的风险。
马斯克曾将人工智能描述为“我们作为一个文明所面临的最大风险”,他警告称,当局几乎没有采取任何措施来应对其危险。同样,物理学家斯蒂芬霍金担心,达到奇点,即机器超越人类智能的临界点,可能会让人类无法控制先进的人工智能系统。
霍金在采访中表示,如果没有监管,人工智能可能会成为“人类遇到的最好的事情,也可能是最糟糕的事情”。
中美人工智能竞争加剧
施密特指出,尽管美国之前在人工智能发展方面领先于中国,但在过去六个月中,差距已显著缩小。“中国以惊人的方式赶上来了,”他说,并将当前局势描述为两个超级大国之间的一场高风险竞赛。
“也许在未来一两年内,系统可以开始进行自己的研究。他们被称为人工智能科学家,而不是人类科学家。因此,你将从拥有 1,000 名人类科学家发展到拥有 100 万名人工智能科学家。我认为这会增加坡度,当你以这种速度前进时,你的竞争对手很难赶上你,”他评论道。
施密特认为,即将上任的特朗普政府将优先考虑美国在人工智能领域的竞争力,他认为这是一个积极的举措。“只要人类价值观得到维护,”他说,“我们就没问题。”
一个循序渐进的系统,帮助您在 90 天内开启您的 Web3 职业生涯并获得高薪加密工作。