生成AIのリスクは開発者が想定していない形で現れる 2024年2月、グーグル(Google)は同社の生成AIサービス「Gemini(旧Bard)」が「歴史的な画像の描写が不正確」という指摘を受け、サービスを一時停止し調整する方針を発表した。「1943年のドイツ兵を描いて」という指示文(プロンプト)で、黒人やアジア人の画像を生成したことなどが問題視されている。 一般的に、画像生成AIの生成結果は学習データのバイアスを反映し、偏った生成結果をアウトプットしてしまうことがたびたび指摘されている。たとえば「CEOを描いて」というプロンプトに対して白人男性が生成されやすいといったこともそうだ。 これには多様性を考慮した画像生成になるように調整するという手法がとられるが、今回のGeminiの例はこれが裏目に出た形となった。Geminiが多様な人物を生成するように調整されたことにより、逆に多様な人物を「
![アクセンチュア流やらないとマズい「生成AIリスク管理」、3つのワナを回避せよ](https://cdn-ak-scissors.b.st-hatena.com/image/square/24fc977f7ec5911d58ff7317f3aa9a08395cb9ea/height=288;version=1;width=512/https%3A%2F%2Fwww.sbbit.jp%2Farticle%2Fimage%2F140133%2FOGP_bit202405231209401661.jpg)