テキストから画像を生成する人工知能(AI)ツールの「Stable Diffusion」が、膨大な量の違法な児童の性的虐待画像を使って訓練されていたことがスタンフォード・インターネット・オブザーバトリー(Stanford Internet Observatory)の調査で明らかになった。Stable Diffusionは、評価額が10億ドル(約1430億円)のスタートアップStability AIが開発した最も人気が高い画像生成AIツールの1つとして知られている。 Stable DiffusionのAIモデルは、膨大な量のオープンデータセットで訓練されており、ユーザーがテキストでプロンプトを入力すると、リアルな画像が生成される。しかし、スタンフォード大学の研究者たちは、Stable Diffusionをはじめとするモデルが学習に用いている数十億の画像からなる大規模な公開データセット「LAIO