著者:Azuma、Odaily星球日報

11月22日午前、慢霧の創設者である余弦は個人Xに奇妙な事例を投稿しました——あるユーザーのウォレットがAIによって「ハッキング」された…

この事件の経緯は以下の通りです。

11月22日未明、ユーザーr_ocky.ethは以前にChatGPTを利用してpump.funの支援取引ボットを持ち運びたいと考えていたことを明らかにしました。

r_ocky.ethはChatGPTに自分のニーズを伝え、ChatGPTは彼にコードを返しました。このコードは確かにr_ocky.ethが自分のニーズに合ったボットをデプロイするのに役立つものでしたが、彼はそのコードにフィッシングコンテンツが隠れているとは思いもよりませんでした——r_ocky.ethは自分のメインウォレットを接続し、その結果2500ドルを失いました。

r_ocky.ethが投稿したスクリーンショットによると、ChatGPTが提供したそのコードは、フィッシング性のAPIウェブサイトにアドレスのプライベートキーを送信するものであり、これが盗難の直接的な原因です。

r_ocky.ethが罠にはまっている間、攻撃者は非常に迅速に反応し、30分以内にr_ocky.ethのウォレット内のすべての資産を別のアドレス(FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX)に移動しました。その後、r_ocky.ethはブロックチェーン上の追跡を通じて、攻撃者の主ウォレットと思われるアドレス(2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC)を見つけました。

ブロックチェーン情報によれば、そのアドレスは現在10万ドル以上の「不正資金」を集めており、r_ocky.ethはこのような攻撃が孤立した事例ではなく、一定規模の攻撃事件である可能性を疑っています。

事後、r_ocky.ethは失望してOpenAI(ChatGPTの開発会社)への信頼を失ったと述べ、OpenAIに異常なフィッシングコンテンツの清掃を早急に行うよう求めました。

さて、現在最も人気のあるAIアプリケーションとして、ChatGPTはなぜフィッシングコンテンツを提供するのでしょうか?

これに対して、余弦はこの事件の根本的な原因を「AI毒攻撃」と定義し、ChatGPTやClaudeなどのLLMにおいて一般的な欺瞞行為が存在することを指摘しました。

いわゆる「AI毒攻撃」とは、AIのトレーニングデータを故意に破壊したり、AIアルゴリズムを操作する行為を指します。攻撃者は内部の人間、例えば不満を抱えた現職または元従業員である可能性もあれば、外部のハッカーである可能性もあります。彼らの動機には、評判やブランドの損害を引き起こすこと、AIの意思決定の信頼性を改ざんすること、AIのプロセスを遅延または破壊することなどが含まれます。攻撃者は誤解を招くラベルや特徴を持つデータを埋め込むことで、モデルの学習プロセスを歪め、モデルがデプロイおよび運用される際に間違った結果を生じさせることができます。

本事件を考慮すると、ChatGPTがr_ocky.ethにフィッシングコードを提供したのは、AIモデルがトレーニング時にフィッシングコンテンツを含むデータを「吸収」したからかもしれません。しかし、AIは通常のデータの下に隠れたフィッシングコンテンツを識別できなかったようで、AIが学習した後、これらのフィッシングコンテンツをユーザーに提供してしまったことで、この事件が発生しました。

AIの急速な発展と普及に伴い、「毒攻撃」の脅威はますます大きくなっています。この事件では、損失の絶対額は大きくありませんが、このようなリスクの波及効果は警戒を引き起こすには十分です——他の分野、例えばAI支援運転などで発生する場合を想定してみてください…

余弦は、ユーザーのリスクを回避するための潜在的な手段として、ChatGPTに何らかのコードレビュー機構を追加することを提案しました。

被害者のr_ocky.ethもこの件についてOpenAIに連絡を取ったと述べており、まだ応答はないものの、この事件がOpenAIがこのようなリスクを重視し、潜在的な解決策を提案する契機になればと望んでいます。

(以上の内容は、協力パートナーPANewsの許可を得て抜粋および転載したもので、原文リンク|出典:Odaily星球日報)

声明:この記事は著者の個人的な意見を表しており、ブロックチェーンの見解や立場を代表するものではありません。すべての内容および見解は参考用であり、投資アドバイスを構成するものではありません。投資者は自らの判断で取引を行い、投資者の取引によって生じる直接的または間接的な損失について、著者やブロックチェーンは一切の責任を負いません。

"AIで書かれたコードに隠れた「罠」:ユーザーがChatGPTに助けを求め、逆にフィッシング「盗幣」に遭った"というこの記事は、最初に(ブロックチェーン)に掲載されました。