グーグルは、歴史的に不正確な画像生成が2月に多数話題になった後、再び人工知能ボットに人物画像を生成させている。
ただし、今回はガードレールが追加されます。
グーグルは8月28日のブログ投稿で、同社の最新の画像生成モデルであるImagen 3が「近日中」に同社のGemini AIモデルに導入され、再び人物の画像を生成するが、フォトリアリズムはサポートされないと述べた。
また、「特定可能な個人」や未成年者、あるいは過度に残酷、暴力的、性的なものの画像も禁止される。
人物の画像生成は、現時点では Gemini Advanced、Business、Enterprise ユーザーに対して英語でのみサポートされます。
2月、グーグルは、ナチス時代のドイツ兵やアメリカ建国の父たちを有色人種として描くなど、多様だが歴史的に正確ではない画像をジェミニが生成していることを示す投稿が拡散したことを受けて、ジェミニの人物生成機能を撤回した。
ジェミニがナチス時代のドイツ兵を不正確に描写していることを示す、現在は削除されたツイート。出典: X
ネット上の評論家らは、Google がボットを「目覚めた」ようにプログラムしていると非難した。ライバルの AI 企業 xAI の創設者であるイーロン・マスク氏は、March X の投稿で、多様性のためにプログラムされた AI モデルは「潜在的に」人を殺害する可能性さえあると、不必要に示唆した。
当時、Googleは、Geminiが幅広いユーザーを生成したことは、ボットが世界中にユーザーを抱えているため「一般的には良いこと」だと述べたが、「この点では的を外している」と認めた。
「もちろん、他の生成AIツールと同様に、ジェミニが作成する画像がすべて完璧というわけではありませんが、私たちは初期ユーザーからのフィードバックに耳を傾け、改善を続けていきます」とグーグルは最新の投稿で述べた。
このテクノロジー大手は、ユーザーがカスタムチャットボットを作成できる「Gems」機能をGeminiチャットボットに追加し、5月のGoogle I/Oカンファレンスでプレビューしました。
GemsはOpenAIのカスタムGPTと同様に、「詳細な指示」とともに特定のプロンプトを与えることができる。Googleは、ユーザーはソフトウェアコードのレビュー、言語指導、文章編集などのタスクに合わせてGemsを改良できると述べた。
AI Eye: 台湾のAIドローン「地獄の風景」計画、人類を滅ぼすにはLLMが愚かすぎる