Stable DiffusionやMidjourneyなど著名な画像生成AIにも使われたデータセット「LAION-5B」に児童性的虐待コンテンツ(CSAM)が見つかった問題で、LAION-5Bの開発元であるLAIONがデータセットからCSAMを削除した「Re-LAION-5B」を新たに発表しました。 Releasing Re-LAION 5B: transparent iteration on LAION-5B with additional safety fixes | LAION https://laion.ai/blog/relaion-5b/ Nonprofit scrubs illegal content from controversial AI training dataset | Ars Technica https://arstechnica.com/tech-polic