著名人工智能专家杰弗里·希顿表示,人工智能技术的快速发展可能在未来30年内导致人类灭绝。根据《卫报》的报道,希顿因其人工智能研究获得诺贝尔物理学奖,他估计这一灾难性结果的概率为10%到20%。
**不受控制的人工智能风险**
希顿强调,人工智能发展的速度远远超过预期,超越人类智慧的人工智能系统的出现可能难以控制。他呼吁各国政府加强对人工智能技术的监管,认为仅凭企业的利润驱动动机无法保证安全的人工智能发展。
**专家预测与对比观点**
许多领域的专家预测,在未来20年内,将出现比人类更聪明的人工智能系统,这对人类构成了重大威胁。然而,并非所有专家都分享希顿的担忧。Meta的首席科学家、被称为“人工智能教父”的扬·勒宽认为,人工智能最终可能会拯救人类免于灭绝。
**谨慎与监管的必要性**
随着人工智能技术以空前的速度不断发展,希顿的警告提醒我们需要谨慎和监管。虽然人工智能的潜在好处是巨大的,但与不受控制的发展相关的风险必须得到仔细考虑和解决。
来源:Panewslab.com
文章《“人工智能教父”警告快速人工智能下的人类灭绝风险》首次出现在CoinBuzzFeed上。