Googleは、同社のGemini AIツールによって生成された「ぎこちなく間違った」画像について説明を発表した。 で 金曜日の投稿Googleは、自社のモデルでは調整の問題により「不正確な過去の」画像が生成されたと述べている。 はしっこ 今週初めに、ジェミニが人種的に多様なナチスや米国建国の父たちの画像を生成しているところを捉えた人もいた。
「私たちは、明らかであるべき状況を解釈する人々のグループの失敗をジェミニが示すように努めました。 いいえ 「規模を示せ」とグーグルの上級副社長プラバーカール・ラガバン氏は投稿で述べた。 「第二に、時間の経過とともに、モデルは私たちが意図していたよりも慎重になり、一部のプロンプトに完全に答えることを拒否し、一部の心地よい刺激を敏感なものとして誤解するようになりました。」
これにより、人種的に多様なナチスの画像で見たような、Gemini AI が「場合によっては過剰補償」するようになりました。 それは双子座が「過度に保守的」になる原因でもあります。 このため、彼女は、「黒人」や「白人」の具体的なイメージを作成するように求められたときに、それを拒否するようになりました。
ラガバン氏はブログ投稿の中で、グーグルは「この機能がうまく機能しなかったことを残念に思う」と述べた。 同氏はまた、GoogleがGeminiに「誰にとってもうまく機能する」ことを望んでいると指摘し、それは「サッカー選手」や「犬の散歩をしている人」の写真を要求したときに、さまざまなタイプの人々(さまざまな人種を含む)の写真を取得することを意味すると指摘した。 しかし彼はこう言います。
ただし、「教室にいる黒人の先生」や「犬を連れた白人の獣医」など、特定のタイプの人物の写真を双子座に求めた場合、または特定の文化的または歴史的背景にある人々の写真を求めれば、必ず応答が得られるはずです。それはあなたが求めているものを正確に反映しています。
ラガバン氏は、GoogleはGemini AIの画像生成機能のテストを継続し、再有効化する前に「大幅な改善に取り組む」と述べた。 「最初から言っているように、幻覚はすべてのLLM保有者に知られている課題です。 [large language models] 「AI が物事を誤る例があります。これは私たちが常に改善に取り組んでいることです。」とラガバン氏は指摘します。
More Stories
Nintendo Switch の最高のグラフィックス: 7 年間にわたるサードパーティ開発者の才能の結晶
エヌビディアの失望で日本の日経平均株価が下落
Apple Intelligence の写真アプリのクリーンアップ ツールの動作をご覧ください