Google は、AI 検索結果から誤った潜在的に危険な回答を排除することに取り組んでいます。ただし、新しい「AI 概要」機能では、ソーシャル メディアや風刺サイト上のジョークや風刺が事実として誤って表示されることがあります。

Googleが最近発表した人工知能の検索結果は多くの注目を集めたが、それは期待されたような前向きな理由ではなかった。テクノロジー巨人は先週、新たに開始した「ジェミニ時代」戦略の一環として、一連の新しい人工知能ツールを発表した。これに伴い、同社の特徴的な Web 検索サービスも大幅に変更され、検索結果内の質問に対する回答が Web サイトのリンクの上部に直接自然言語で表示されるようになりました。

Googleのアップデートにより検索技術はより高度になり、より複雑なユーザーの質問に対応できるようになったものの、いくつかの懸念も生じている。たとえば、AI が検索結果を処理する際、誤った情報や誤解を招く情報がユーザーに提示されることがあります。これは、優生学などのデリケートなトピックに関しては特に問題となります。優生学は歴史を通じていくつかの非人道的な政策に誤って利用されてきたため、その情報の正確性と機密性は特に重要です。

また、AIは毒キノコと無毒キノコの区別など、特定のものを識別する精度も不十分だ。これは、AI 検索ツールを使用する場合、健康と安全関連のクエリには特に注意し、可能な場合は専門家の確認を求める必要があることを思い出させます。

Google AI が「AI の概要」の回答を提供する際、ユーモアや風刺を目的とした Reddit などのソーシャル メディアのコンテンツを参照することがあります。その結果、明らかに間違った回答や意味不明な回答がユーザーに提供されることになります。

たとえば、一部のユーザーは、うつ病に対処する方法を尋ねると、Google AI が実際に「ゴールデン ゲート ブリッジから飛び降りる」ことを提案したと報告しました。他の回答では、下を向いていない限り、人は空中に留まることができる反重力能力をバカバカしく裏付けています。

これらの例は、AI による検索結果の提供は進歩しているものの、精度と信頼性の点ではまだ不足があり、さらなる改善が必要であることを示しています。

Google と Reddit の協力の本来の目的は、ユーザーが興味のあるコミュニティやディスカッションを見つけて参加しやすくすることです。ただし、このコラボレーションは、特に AI が Reddit のコンテンツを処理する場合に、いくつかのリスクにもさらされました。 AI には情報の真偽や文脈を識別する十分な能力がない可能性があるため、Reddit からの情報を無差別に採用したり引用したりする可能性があります。このように情報が無差別に採用されると、誤解を招くような、あるいはばかばかしい提案が検索結果に表示される可能性があります。

たとえば、AI はかつて、子供たちは 1 日に少なくとも 1 つの小さな石を食べるべきであるという不適切な提案をし、その提案をカリフォルニア大学バークレー校の地質学者からのものであると誤ってラベル付けしました。この例は、AI がオンライン情報を処理する際に情報の信頼性と適切性を無視し、それによって誤解を招く可能性があることを示しています。

Googleは明らかにばかばかしい回答を削除または修正しましたが、AI生成モデルは時々不正確または架空の回答を生成することがあります。これは「幻覚」として知られる現象です。 AI が事実ではないものを作成しているため、これらの「幻覚」は虚偽の発言とみなされる可能性があります。

一方、Google AIはかつて、ピザからチーズが滑り落ちないように接着剤を使うことを誤って推奨したが、これはRedditでの10年前のコメントに端を発した提案だった。

OpenAI の ChatGPT モデルは、法学教授のジョナサン・ターリー氏が参加しなかった旅行に基づいて性的暴行を告発するなど、事実を捏造することで知られています。この事件は、AI が情報を処理する際に自信過剰になり、インターネット上のコンテンツの信頼性を正確に区別できない可能性があることを反映しています。

さらに、AI の自信過剰により、インターネット上のすべての情報が真実であると無差別に受け入れてしまい、独占禁止法に照らして企業に不当な有罪判決を下したり、Google の元幹部に不当な責任を負わせたりする可能性があります。

ユーザーが Google でポップ カルチャー関連の質問を検索すると、AI の検索候補機能により、ユーモラスな結果や混乱を招く結果が表示されることがあります。これは、AI がポップ カルチャー コンテンツを処理するとき、特にコンテンツにユーモア、風刺、または特定の社会的文脈が含まれている場合に理解の課題に直面するためである可能性があります。一方で、AIがコンテンツの真意を正確に把握することは難しく、ユーザーの期待と異なる提案や回答が返され、予期せぬ反応を引き起こす可能性があります。

さらに、Google AI は、子供の石の摂取の問題に関する最新の提案を提供し、考えられる理由として子供の好奇心、感覚処理の困難、または食事障害が含まれることを示唆しています。これは、AI によって提供される情報を使用する場合、特にその情報が健康と安全に関するアドバイスに関連する場合には、非常に慎重でなければならず、専門家のアドバイスや助けを求めなければならないことを改めて示しています。

結論:

Google AI の検索候補機能は技術的に大きな進歩を遂げていますが、その精度と信頼性の欠如は依然として深刻な結果を引き起こす可能性があります。 Reddit などのソーシャル メディア プラットフォームでの情報の無差別な採用から、優生学などのデリケートなトピックに関する誤解を招く情報、法的分野での不適切な自己犯罪化に至るまで、これらの事件は、情報の選別と判断の欠陥における AI の重要性を浮き彫りにしました。

さらに、AI モデルが事実を捏造したり、「幻覚」を生み出したりするという問題も、複雑な問題に対処する際の限界を示しています。したがって、私たちはAIが提供する情報に常に警戒し、専門家のアドバイスを求め、開発者や研究者に対し、AI技術が人間にリスクではなくより多くの利益をもたらすよう改良を続けるよう呼びかける必要があります。 #GoogleAI #准确性 #AI模型 #可靠性