Cointelegraphによると、AIを利用したディープフェイク詐欺はますます蔓延しており、セキュリティ企業はこの攻撃方法が動画や音声を超えて広がる可能性があると警告している。9月4日、ソフトウェア会社Gen Digitalは、AIを利用したディープフェイク詐欺を使用して仮想通貨保有者を騙し取る悪意のある行為者が2024年第2四半期に活動を活発化させていると報告した。同社は、「CryptoCore」と呼ばれる詐欺師グループがすでにAIディープフェイクを使用して500万ドル以上の仮想通貨を詐取していることを明らかにした。
仮想通貨業界の他の攻撃に比べればその額は少ないように思えるかもしれないが、セキュリティ専門家はAIディープフェイク攻撃がさらに拡大し、デジタル資産の安全を脅かす可能性があると考えている。Web3セキュリティ企業CertiKは、AIを利用したディープフェイク詐欺はより巧妙になると考えている。CertiKの広報担当者は、攻撃ベクトルは顔認識を使用するウォレットを騙してハッカーにアクセスさせるために使われる可能性があると説明した。広報担当者は、AI駆動の脅威に対する顔認識ソリューションの堅牢性を評価することと、これらの攻撃の仕組みについて仮想通貨コミュニティ内での認識を高めることの重要性を強調した。
サイバーセキュリティ企業ノートンのセキュリティ伝道師、ルイス・コロンズ氏は、AIを利用した攻撃は、ハッカーにとって大きな金銭的報酬とリスクの低さから、今後も仮想通貨保有者をターゲットにし続けるだろうと考えている。コロンズ氏は、仮想通貨取引は高額であることが多く、匿名で行うことができるため、サイバー犯罪者にとって魅力的なターゲットになっていると指摘した。また、仮想通貨分野における規制の欠如により、サイバー犯罪者にとって法的責任が少なくなり、攻撃の機会が増えると指摘した。
セキュリティ専門家は、ユーザーがAIを利用したディープフェイク攻撃から身を守る方法があると考えている。CertiKによると、教育は良い出発点だという。CertiKのエンジニアは、脅威とそれに対抗するために利用できるツールやサービスを知ることの重要性を説明した。一方的なリクエストに注意し、機密性の高いアカウントに対して多要素認証を有効にすると、このような詐欺に対する保護がさらに強化される。Corrons氏はまた、不自然な目の動き、表情、体の動き、感情の欠如、顔の変形、画像のつなぎ目、不自然な体の形、ずれ、音声の不一致などの「危険信号」を探して、AIディープフェイクを見ているかどうかを判断することを提案した。