過度にセンシティブになりすぎた結果…。
先週金曜にGoogleが、Gemini AIチャットボットの新しい画像生成機能が間違いを起こしていたとして謝罪。その理由は、生成された画像に白人の姿がなくなってしまっていたから。
GoogleのシニアバイスプレジデントであるPrabhakar Raghavan氏は、
「意図的にこうしたわけではないのです。Geminiが特定の人種の画像を生成しないようにしたり、歴史的に不正確な画像を生成したりすることは望んでいませんでした。」
と、ブログで述べています。
白人が出てこない画像
Geminiが生成した人物画像が黒人のナチス兵士やバイキングなど歴史的に正確ではなかったこと、そしてわざと白人の画像を生成しないように調整されていることが人種差別的だと指摘されていました。
Raghavan氏は、こういった画像が生成されてしまった原因は、Googleの以前のAIモデルの画像生成機能を構築した際に暴力的な画像や性的に露骨な画像、また実在しない人物の描写を生成してしまったため、それを防ごうとした結果、過剰に調整しすぎてしまったことだと説明しています。
2つの要因
続けてRaghavan氏は、下記のように説明。
「では、何がうまくいかなかったのでしょうか? 簡単に言うと2つあります。
まずひとつ目は、Geminiが多様な人物を表示するように調整しようとしたことで、逆に多様な人物を表示すべきでない場合を考慮していなかったこと。
ふたつ目は、モデルが学習するにつれて、私たちが意図したよりも慎重になってしまい、問題のないプロンプトに対してもセンシティブなものと解釈してしまい、応答を拒否するようになってしまったことです。」
これらの2つの要因が、Geminiが過剰に調整したり、過度に保守的になってしまった原因だったようです。
Googleは、先週木曜にGeminiの人物画像生成機能を一旦停止。近日中に改良版をリリースすると述べました。しかし、機能を使えるようにする前に、広範なテストを通じて機能を大幅に改善するとRaghavan氏は述べています。
この先も間違いは起こす
また、Raghavan氏は、「将来的にも、Geminiが不正確または攻撃的な恥じるべき結果を生み出さないことは保証できない」としていますが、Googleはこの問題を修正し続けるつもりだと付け加えています。
最後にRaghavan氏は、下記のように述べています。
「ひとつ心に留めておきたいことは、Geminiは創造性と生産性のツールとして構築されていますが、特に現在の出来事、進化するニュース、話題の最新情報に関する画像やテキストを生成する際には、常に信頼できるというわけではないし、間違いはやはり起こすものだということです。」