一般的には、データが多く出回っているものをAIが学習するので、そのデータがもともと偏見を根拠にしていたらAIも偏見に基づいたアウトプットをします、という問題ですね。 しかし、先進的なはずのAIが、人間の生活において長らく因習づいてきた偏見やステロタイプを学習してしまい、先進的なポリコレに抵触するというのは学習させる範囲をどうするかという永遠の課題に直面します。 例えば、アメリカのニュース媒体などがOpenAIに対して起こしている訴訟もある一方で、日本国内のAI規制関連議論(著作権法;文化庁)がこれまた新聞協会に引っ張られて割としょっぱい事態となっているのは既報の通りです。そうなれば(新聞記事やバイアスに対する個人の評価は別として)、生成AIは新聞記事などではない無料で転がっている質の低い記事を参照して学習することになってしまいますから、当然出てくるアウトプットもそう品質の高いものにはならな
![「看護師を描けと言われたら女性として生成するAI」は男女のジェンダー偏見問題があるのか|山本一郎(やまもといちろう)](https://cdn-ak-scissors.b.st-hatena.com/image/square/6d27b38eba2738b460df7bdfdce2b0f66cf542ac/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F133599071%2Frectangle_large_type_2_cf04abe4d5e170da2f51c3ee121a0805.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)