作家、哲学家和历史学教授尤瓦尔·诺亚·哈拉里在国际清算银行 (BIS) 创新峰会上向听众表示,金融系统中人工智能的无节制使用可能导致可怕的后果。他说,需要强有力的机构来控制人工智能。

哈拉里认为,金融体系创造了信任。金钱、债券和其他金融工具让数百万陌生人能够共同努力实现共同目标。但他表示,金融监管并未得到任何努力,让“人类”能够理解:

“也许只有 1% 的人口了解金融体系的运作方式。当这个数字降为零时会发生什么?”

哈拉瑞指出,2007-2008 年金融危机就是由于难以理解的金融创新造成的。监管者无法充分理解新的金融产品,因此无法对其进行监管。

相关:去中心化人工智能是实现更公正的人工智能算法的关键——孙正义联合创始人

人工智能是一种外星智能,才刚刚开始进化。它无法像人类那样推理,可以轻易创造出超出人类想象的金融设备,将权力从政客和监管者手中转移到算法上。信任关系将建立在人工智能系统之间,而不是人与人之间,在金融危机中,政客和监管者将被迫信任人工智能。

尤瓦尔·赫拉利在 BIS 创新峰会上远程向观众发表演讲。来源:YouTube

信任关系的破坏可能导致社会不稳定。哈拉里指出,人们对政客和机构的信任已经在下降,并补充道:

“我们需要防止人工智能变得完全不可理解。[…]我们需要理解它和规范它的能力。”

赫拉利继续说道,监管不应留给天才或“魅力领袖”。只有机构才能“让人类了解情况”。

资料来源:尤瓦尔·赫拉利

即便如此,危险仍然存在。改变世界的创新往往只有在一系列失败的尝试之后才会成功。哈拉里将帝国主义、共产主义和纳粹主义描述为建立工业化社会的失败尝试——造成了数千万受害者。与此同时,人工智能能够想出如何使用自己的想法。

哈拉瑞表示,监管机构需要致力于建立人与人之间的更多信任,以确保未来金融体系的稳定和人性化。

杂志:Web3 到底是什么?