Cover Image

TetherのCEOであるPaolo Ardoino氏は最近、Xソーシャルメディアネットワークに参加し、集中型大規模言語モデル(LLM)の落とし穴について警告した。

アルドイノ氏は、大手生成AI企業であるOpenAIが2023年初頭に大規模なセキュリティ侵害に遭ったという報道を指摘し、この事件を「恐ろしい」と表現した。

ニューヨーク・タイムズの最近の報道によると、OpenAIは、一部の機密情報が漏洩したにもかかわらず、侵害を公表しないことを選択したという。

カード

元OpenAI研究者のレオポルド・アシェンブレンナー氏は、同社のセキュリティ対策が不十分で、外国政府とつながりのある悪意ある人物に脆弱になる可能性があると批判した。アシェンブレンナー氏は、AIリーダーが政治的理由で彼との関係を断つことを選んだと主張した。しかし、同社は、前述の事件が研究者の解雇の理由ではないと否定し、彼がOpenAIに雇用される前にも侵害が明らかになっていたと付け加えた。

それでも、OpenAIは自社の現在の技術に国家安全保障上のリスクはないと主張しているにもかかわらず、同社の秘密が中国の手に渡ってしまうのではないかと懸念する声もある。

カード

セキュリティインシデント以外にも、集中型AIモデルは非倫理的なデータ使用や検閲に対する批判にも直面している。テザーの責任者は、ローカルAIモデルの力を解き放つことが、プライバシーの懸念に対処し、回復力と独立性を確保する「唯一の方法」だと考えている。

「ローカルで実行可能なAIモデルは、人々のプライバシーを保護し、回復力と独立性を確保する唯一の方法です」とアルドイノ氏はXソーシャルメディアネットワークへの投稿で述べた。

彼は、現代のスマートフォンやラップトップは、一般的なLLMを微調整するのに十分なパワーを持っていると付け加えた。