SHOWROOMは2月22日、誹謗中傷コメントを監視するAIを開発し、仮想ライブ空間「SHOWROOM」に新機能として搭載したと発表した。不適切なコメントをユーザーの代わりにAIが通報する。 新たに開発したコンテンツモデレーションAI機能では、ユーザーの代わりに悪質なコメントをAIが検知する。AIの開発にはディープラーニングを応用し、従来のキーワードによる検出ではなく、コメントの文脈をニューラルネットワーク上で抽象化する。 同社の開発チームによると「日本語特有の遠回しな言い方や、複数回に分けてコメントをするなど、従来の手法では難しかった悪質なコメントも検出することに成功した」という。これにより、コメントの悪質性をAIが即時に判断でき、将来的には投稿前に自動削除することもできるという。 【訂正:2021年2月24日午後2時30分 AIが不適切な投稿を自動で削除する機能について、記事初出時には
![SHOWROOM、誹謗中傷コメントの監視AIを開発 “遠回しな言い方”でも検知して自動通報](https://cdn-ak-scissors.b.st-hatena.com/image/square/c2d3ba49d4522c11372766802684b770ae3f71d2/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fnews%2Farticles%2F2102%2F22%2Fl_th_showroom_01.jpg)