インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。 Using AI to help organizations detect and report child sexual abuse material online https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report