米Google傘下のYouTubeのスーザン・ウォジスキCEOは12月5日(現地時間)、不適切な動画対策の成果と今後の取り組みについて発表した。 YouTubeでは3月、人種差別やイスラム過激派に賛同する内容などの不適切な動画が広告収入を得ているとして批判された。また、未成年が出演する動画への不適切なコメントや、「YouTube Kids」に子ども向けではない動画が表示される問題も浮上している。 Googleは6月、こうした問題に対処するために機械学習による問題コンテンツ検出システムの強化を約束した。 ウォジスキ氏によると、6月以来、機械学習システムは従来の5倍以上人間のレビュアーをサポートしたという。機械学習のサポートを得て、15万本以上の動画を暴力的過激主義だとして削除した。現在では、暴力的過激主義だという報告の98%は機械学習によるもので、そうして報告され、実際に問題だと人間のレビュ
![YouTube、不適切動画チェック担当者を2018年に1万人以上に](https://cdn-ak-scissors.b.st-hatena.com/image/square/709d3be3482fede7b621d655181e9114dbecff4a/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fnews%2Farticles%2F1712%2F06%2Fl_yu_youtube1.jpg)