Anthropic的CEO Dario Amodei最近提到,人工智慧公司應該接受強制性的測試要求。這也適用於他自己的公司Anthropic。目標是確保這些技術在發布之前對公眾是安全的。
Amodei最近在舊金山舉行的由美國商務部和國務院召開的人工智慧安全峰會上回答了一個問題。在他的回應中,這位CEO表示:“我認為我們絕對必須使測試成為強制性的,但我們也需要非常小心我們如何進行。”
這些言論隨著英國和美國人工智慧安全機構發布的報告而出現,該報告包含了他們對Anthropic的Claude 3.5 Sonnet模型測試的結果。這些測試涵蓋了包括生物和網絡安全應用在內的各種類別。此前,OpenAI和Anthropic均同意將其模型提交給政府機構。
像Anthropic這樣的大公司遵循自我施加的安全指導方針
Amodei提到,大公司自願同意某些自我施加的指導方針。這包括OpenAI的準備框架和Anthropic的負責任擴展政策。然而,他進一步補充說,還需要更多的工作來確保安全。
“沒有什麼可以真正驗證或確保這些公司真的遵循這些計劃的字面意義和精神。他們只是說他們會這樣做,”Amodei說。他還補充道,“我認為,公眾的關注以及員工的關心創造了一些壓力,但我最終認為這還不夠。”
Amodei認為,強大的人工智慧系統有能力超越最聰明的人類。他還認為這些系統可以在2026年之前問世。他補充說,人工智慧公司仍在測試某些災難性危害和生物威脅,這些目前都不是真實的。然而,這些假設的測試可以更快地成為現實。
他還警告說,測試人工智慧系統的要求應該是靈活的,考慮到技術正在不斷演變。用他的話來說,這是一個非常困難的“社會政治問題”。
一個逐步系統,幫助你在90天內啟動你的Web3職業並獲得高薪加密工作。