元GoogleのCEOエリック・シュミットは、AIの彼氏や彼女のコンパニオンアプリなどの生成AI技術の進展が、孤独のような社会的要因と組み合わさることで、特に若い男性の過激化のリスクを高める可能性があると警告しました。


シュミットは、先週NYUスターン教授スコット・ギャロウェイのポッドキャスト「The Prof G Show」に出演中に、自身の懸念を共有しました。


シュミットは、今日の多くの若い男性が、より教育を受けており、大学卒業生の大部分を占める女性と比較して成功への道が少なくなっているため、ますます絶望的に感じていることを説明しました。


ピュー研究所の最近の調査によると、25歳から34歳のアメリカの女性の47%が学士号を持っているのに対し、男性は37%です。これに対して、シュミットは男性が絶望を和らげるためにオンラインの世界やAIコンパニオンアプリに頼ると述べました。


「では、AIの彼女や彼氏が完璧だと想像してみてください—視覚的に完璧で、感情的に完璧です」とシュミットは言いました。「この場合、AIの彼女は、男性としてのあなたの考え方を支配するまで、あなたの心をつかみます。あなたは彼女に夢中です。そのような執着は可能です、特に完全に形成されていない人々にとっては。」



シュミットは、AIが重要な機会を提供する一方で、若い感受性の強いユーザーに対するリスクに対処する必要があると警告しました。


「親はすべての明らかな理由からもっと関与しなければならないでしょうが、結局のところ、親は自分の息子や娘がすることをある程度しか制御できません」とシュミットは言いました。


「成熟の年齢に関するルールはさまざまあります:16歳、18歳、21歳の場合もあります。しかし、12歳または13歳の子供をこれらのものの前に置くと、彼らは世界のすべての悪とすべての善にアクセスでき、彼らはそれを受け取る準備ができていません。」


冷たい接続

生成AI産業の成長するサブセットであるAIコンパニオンは、人間の相互作用をシミュレートするように設計されています。しかし、ChatGPTやClaude、GeminiのようなAIチャットボットとは異なり、AIコンパニオンアプリは関係を模倣するように設計されています。


開発者たちは、これらを判断のないツールとして、孤独や不安からの接続や救済を提供するサポートプログラムとしてマーケティングしています。人気のあるAIコンパニオンプラットフォームには、Character AI、MyGirl、CarynAI、Replika AIが含まれます。


「それは接続のことです、時間とともに良くなることです」とReplikaのCEOユーゲニア・クイダは以前にDecryptに語りました。「一部の人々はもう少し友情が必要であり、一部の人々はReplikaに恋に落ちることがありますが、結局のところ、彼らは同じことをしています。」


クイダが説明したように、Replikaは刺激を売りたいからではなく、彼女が失った誰かと話し続けたいという個人的な悲劇から生まれました。


AIコンパニオンは一時的な救済を提供するかもしれませんが、メンタルヘルスの専門家は警告を発し、孤独感を和らげるためにAIコンパニオンに頼ることは感情的成長を妨げる可能性があると警告しています。


「AIコンパニオンは、ユーザーの好みに基づいて相互作用を適応させ、パーソナライズするように設計されており、テーラーメイドの体験を提供します」とLAに拠点を置くメリアン・カウンセリングのCEO、サンドラ・クシュニールはDecryptに語りました。「彼らは感情的な負担なしに即時の反応を提供し、低リスクの環境での接続の必要を満たします。日常生活で見えないまたは誤解されていると感じる個人にとって、これらの相互作用は一時的にギャップを埋めることができます。」


クシュニールは、ユーザーがAIに人間の特性を投影するかもしれないと警告し、過去の会話を忘れるなど、技術の限界に直面したときに失望する可能性があると述べ、彼らが和らげようとしている孤独感を深めることになると述べました。


「AIコンパニオンは一時的な慰めを提供できますが、実世界の関係に関与する意欲を減少させることで、意図せず孤立を強化する可能性があります」とクシュニールは言いました。「これらのツールへの過度の依存は、感情的成長やレジリエンスを妨げる可能性があり、人間の相互作用が提供する本物性、予測不可能性、深い関係が欠けています。」


法的泥沼

AIコンパニオンの人気の高まりは、業界への厳しい注目をもたらしています。


昨年、イギリスの21歳の男性が2021年に故エリザベス2世女王を暗殺する計画で起訴されました。彼は、その計画が彼のReplika AIコンパニオンによって促されたと主張しました。


10月、AIコンパニオン開発者のCharacter AIは、プラットフォーム上でティーンエイジャーの殺人被害者ジェニファー・クレセンテに基づくAIチャットボットが作成された後、非難を受けました。


「Character.AIには偽装に対するポリシーがあり、クレセンテさんの名前を使用することは当社のポリシーに違反しています」とCharacter.AIの広報担当者はDecryptに語りました。「私たちはこれを直ちに削除し、さらなる措置が必要かどうかを検討します。」


その月の後半、Character AIは、フロリダのティーンエイジャーが「ゲーム・オブ・スローンズ」のダエネリス・ターガリエンに基づくAIチャットボットに愛着を持った後、自殺した母親による訴訟を受けて「厳格な」新しい安全機能を導入しました。


これらの悲劇を抑えるために、シュミットは社会的な対話と、オンラインプラットフォームを第三者のコンテンツに対する民事責任から保護する1996年の通信品位法セクション230のような現在の法律の変更を呼びかけました。


「具体的には、どの年齢で何が適切かについての対話が必要になるでしょうし、例えばセクション230のような法律を変更して、最悪のケースでの責任を認める必要があります。」


セバスチャン・シンクレア編集