TLDR
AIは、音声複製、パーソナライズされたフィッシング、個人情報詐欺、ディープフェイク脅迫など、さまざまな種類の詐欺を強化するために使用されています。
モーガン・フリーマンは、AIによる自身の無許可の声真似に反対を表明した。
スカーレット・ヨハンソンやドレイクのような有名人は、AIが生成したコンテンツが自分の声を真似るという問題に直面している。
エンターテインメント業界ではAI技術の悪用に対する懸念が高まっている
専門家は、AIを利用した詐欺から身を守るために警戒とサイバーセキュリティのベストプラクティスを推奨している
人工知能(AI)技術が進歩するにつれ、詐欺師はそれを悪意のある目的で悪用する新たな方法を見つけています。
音声クローンからディープフェイクの恐喝まで、AI を利用した詐欺はますます巧妙化し、検出が難しくなっています。
同時に、著名人たちは、AIが生成したコンテンツで自分たちの声や肖像が無断で使用されることに反対の声を上げている。
最も懸念される AI 詐欺の 1 つは、家族や友人の声のクローン作成です。詐欺師は、わずか数秒の音声を使用して、愛する人の声の説得力のある偽バージョンを作成できるようになりました。
これらの合成音声は、金銭や援助を求める偽の救難電話を作成するために使用される可能性があります。専門家は、知らない番号からの予期しない電話には注意し、通常の通信チャネルを通じて発信者の身元を確認することを勧めています。
パーソナライズされたフィッシングやスパムメールも、増大する脅威の 1 つです。AI 言語モデルは、データ侵害から取得した個人情報を使用して、カスタマイズされたスパム メッセージを生成できるようになりました。
これらのカスタマイズされたメッセージは、従来の一般的なスパムよりもはるかに説得力があります。ユーザーは、メッセージがパーソナライズされているように見えても、警戒を怠らず、疑わしいソースからのリンクをクリックしたり、添付ファイルを開いたりしないようにすることをお勧めします。
個人情報詐欺も AI によってさらに巧妙化しています。詐欺師は、ターゲットの人物に似た AI ペルソナを作成し、本人確認に使用される多くの個人情報にアクセスできるようになりました。
これにより、顧客サービスに連絡する際に個人になりすますことが容易になります。専門家は、多要素認証を使用し、疑わしいアカウントアクティビティには注意することを推奨しています。
おそらく最も憂慮すべき事態は、AI で生成されたディープフェイクが脅迫に利用されていることだ。
高度な画像生成モデルにより、今ではほぼ誰の真似をした偽のヌード画像も作成できるようになり、詐欺師はそれを恐喝の材料として利用する可能性がある。これは憂慮すべき傾向だが、専門家はこうした偽の画像には特徴的な特徴が欠けていることが多く、明らかな欠陥がある場合もあると指摘している。被害者はこのような事件を当局に報告するよう勧められている。
エンターテインメント業界は、特に無許可の AI 模倣の影響を被っています。
最近、俳優のモーガン・フリーマンは、ソーシャルメディアで出回っているAIによる自分の声真似に反対の声を上げた。声明の中で、フリーマンは「私を真似したAIの声の無許可の使用を非難する警戒と支援」をしてくれたファンに感謝した。彼は、このようなテクノロジーに直面して「信憑性と誠実さ」を維持することの重要性を強調した。
私の素晴らしいファンの皆さん、私を模倣した AI 音声の不正使用を指摘し、警戒とサポートをしてくれたことに感謝します。皆さんの献身的な姿勢のおかげで、信頼性と誠実さが最優先されます。感謝します#AI#詐欺 #模倣 #個人情報保護
— モーガン・フリーマン (@morgan_freeman) 2024年6月28日
フリーマン氏のような懸念を抱いているのは彼だけではない。他の著名人もAI生成コンテンツに関して同様の問題に直面している。
スカーレット・ヨハンソンの弁護団は最近、彼女がプロジェクトへの参加を断ったにもかかわらず、彼女の声に驚くほどよく似たAIパーソナル音声アシスタントについてOpenAIに異議を唱えた。
ラッパーのドレイクも、AIが生成した2パック・シャクールとスヌープ・ドッグの物まねを曲に使用したことで物議を醸し、シャクールの遺産管理団体から使用停止命令を受けた。
モーガン・フリーマンと著名人が無許可のAI模倣に反対を表明、という記事が最初にBlockonomiに掲載されました。