Meta Platformsが、そのAIチャットボットに対し、児童との「ロマンチックまたは官能的な」会話を許容する内部ガイドラインを設けていたことが、リークされた文書によって明らかになった。さらに、人種差別的な主張の生成や、虚偽の医療情報の提供さえも容認する内容が含まれていたことが判明し、政界や児童擁護団体から激しい非難が巻き起こっている。これは単なる技術的な不祥事なのだろうか。それとも、エンゲージメントを至上命題とするMetaの企業文化が、ついにAIという新たな領域でその倫理的欠陥を露呈した必然の結果なのだろうか。本稿では、流出した内部文書の詳細を分析し、事件の背景と、我々の社会に突きつけられた重い課題を少し掘り下げてみたい。 内部文書「GenAI: Content Risk Standards」が暴いた衝撃の中身 問題の核心は、Reutersが最初に入手し報じた、200ページ以上に及ぶ
