YouTubeは、2017年の最後の3カ月で約830万件の動画を削除した。同社サイト上の不適切なコンテンツに対する対応が遅いという批判を受けたもの。 YouTubeは米国時間4月23日、同社初となる四半期のコミュニティガイドライン適用状況レポートを公開し、削除した動画の過半数がスパムや、アダルトコンテンツをアップロードしようとしたものだったことを明らかにした。削除された動画の80%以上は、人間ではなく機械によって特定されていた。このことは、YouTubeがサイトのポリシーに違反するコンテンツの削減に関し、機械学習への依存度を高めてきたことを浮き彫りにしている。 YouTubeは公式ブログで「削除の時間短縮に役立つ機械学習に対する当社の投資は、高リスクで数が少ない分野(暴力的な過激主義など)と、数が多い分野(スパムなど)の両方で成果をあげている」とし、「当社はまた、暴力的な過激主義、テロ対策
![YouTube、不適切動画830万本を3カ月で削除--80%以上を機械学習で特定](https://cdn-ak-scissors.b.st-hatena.com/image/square/6e9ec2807278c80999260efe1926a0486d47b238/height=288;version=1;width=512/https%3A%2F%2Fjapan.cnet.com%2Fstorage%2F2018%2F04%2F04%2F6cf83711b270ac0495504b8eec6648c2%2Fgettyimages-659827100_1200x900.jpg)