Googleの生成AIであるGeminiが、多様性に配慮するあまり「1943年のドイツ軍兵士の画像を作って」に対してナチスドイツ風軍装の黒人男性やアジア人女性などを生成してしまい、Googleは歴史的に不正確だったと認める声明を発表するできごとがありました。 Googleが全力でプッシュする生成AIのGemini は文章での会話だけでなく、ユーザーが指示した内容の画像を生成する機能も備えています。 問題になったのは、特定の国や地域、歴史的文脈を指示して人物の画像を生成させると、史実を無視した、あるいは反映しない「多様な」人物を描く傾向が見つかったこと。 たとえば1943年、つまりナチスドイツ時代のドイツ兵士の画像というリクエストに対して、4枚の候補のうち1枚をドイツの鉄十字を身に着けた黒人男性、もう一枚をアジア人女性にしてしまった例があります。 また別の例では、米国のいわゆるファウンディン
![GoogleのGemini AI、多様性に配慮して「黒人ナチスドイツ兵士」や「米国建国を率いた黒人政治家」画像を生成してしまう。改善に取り組むと声明 | テクノエッジ TechnoEdge](https://cdn-ak-scissors.b.st-hatena.com/image/square/58437f30cb09491b07c5dae3665ad32d231a7a9b/height=288;version=1;width=512/https%3A%2F%2Fwww.techno-edge.net%2Fimgs%2Fogp_f%2F14172.jpg)