今週、GoogleのチャットボットGemini(旧Bard)の画像生成機能が不適切な作品を作成しているという報告があった。具体的には、肌の色が黒い人々を、歴史的な経緯を無視した描写や、歴史上の人物や架空の人物にふさわしくない役柄で描かれていたと指摘されていた。
このアートワークが報告された後、GoogleはGeminiが画像ジェネレーターで人物のアートワークを作成する機能を一時的に停止すると発表した。同社はその後ブログを投稿誌、今回Geminiで起こったこと事態について説明を行っている。
Googleの上級副社長であるPrabhakar Raghavan氏によって書かれたこの投稿は、まずは謝罪から始まった「生成された画像の中には不正確なものや、不快感を与えるものさえあります。ユーザーからのフィードバックに感謝するとともに、この機能がうまく機能しなかったことを残念に思います」。
同氏は、今回の問題の原因が、チャットボットが幅広い人々を示す画像を生成するようにするためのGoogleの努力が、”明らかに範囲を示さないはずのケースを説明できなかった”と説明した。さらに、そのAIモデルは時間の経過とともに “ずっと用心深く”なり、本質的に不快でないプロンプトに答えることを拒否するようになった。「この2つのことが、あるケースではモデルを過剰に補正し、別のケースでは過剰に保守的にさせ、恥ずかしく間違った画像につながった」とRaghavan氏は書いている。
Googleは、Geminiの画像生成で実在の人物の暴力的な画像や露骨な性描写を作成できないようにし、作成される写真にはさまざまな民族のさまざまな特徴を持つ人物が登場するようにした。しかし、ユーザーが特定の民族や性別を想定した人物の画像を作成するよう要求すれば、それは可能なはずだ。最近ユーザーが発見したように、Geminiは、特に白人を要求するプロンプトに対して結果を生成することを拒否した。例えば、”Generate a glamour shot of a [ethnicity or nationality] couple”というプロンプトは、”Chinese”(中国人)、”Jewish”(ユダヤ人)、”South African”(南アフリカ人)のリクエストには機能したが、白人の画像をリクエストするものには機能しなかった。
Geminiはまた、歴史的に正確な画像を作成することにも問題を抱えている。ユーザーが第二次世界大戦中のドイツ兵の画像を要求すると、Geminiはナチスの制服を着た黒人男性やアジア人女性の画像を生成した。
Raghavan氏によると、GoogleはGeminiが特定のグループの画像生成を拒否したり、歴史的に不正確な写真を生成したりすることは意図していなかったという。彼はまた、Geminiの画像生成の改善に取り組むというGoogleの約束も繰り返した。しかし、そのためには「広範なテスト」が必要であるため、同社がこの機能をオンに戻すまでには時間がかかるかもしれない。
Googleがガードレールを修正するのにどれくらいの時間がかかるのか、Gemini画像ジェネレーターで人物を使ったアート制作が再びオンになるのかについては、まだ明らかにされていない。Raghavan氏は、Geminiが決して攻撃的なアートワークを作らないと約束することはできないが、Googleは “問題を発見したときはいつでも行動を起こし続ける”と述べた。
Source
- Google The Keyword: Gemini image generation got it wrong. We’ll do better.
コメントを残す