インターネット上には児童ポルノなどの未成年者をターゲットにした性的素材(child sexual abuse material :CSAM)が多く存在しています。CSAMをネット上から排除する作業は人間の手で行われていますが、次々と登場するCSAMに対処できないのが現状です。そこで、GoogleはCSAMに向き合う人間を助けるべく、AIを活用したCSAMを判定するツール「Content Safety API」を開発しています。 Using AI to help organizations detect and report child sexual abuse material online https://www.blog.google/around-the-globe/google-europe/using-ai-help-organizations-detect-and-report
![GoogleがAIを活用してネット上の「児童を搾取する違法なポルノコンテンツ」を自動で見つけ出すツールを開発](https://cdn-ak-scissors.b.st-hatena.com/image/square/41144dd675a7d72a1de335f4b95b1d731ac52061/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2018%2F09%2F04%2Fgoogle-content-safety-api%2F00_m.jpg)