有害コンテンツの対策が明日できるとは言えないが、半年後に同じ質問を受けたくはない――。 フェイスブックのAI開発のトップである最高技術責任者(CTO)のマイク・シュレーファー氏は、ニューヨーク・タイムズの取材に、涙目でそう答えた、という。 AIを使った、フェイクニュースやヘイトスピーチなどの有害コンテンツの排除は、批判の集中砲火にさらされるフェイスブックが掲げてきた対策の中心的な柱だ。 だが今年3月のニュージーランド・クライストチャーチの銃乱射事件では、容疑者によるフェイスブック上での動画のライブ配信を即座に排除することができなかった。 そのことを尋ねられた時、シュレーファー氏は涙を浮かべ、しばし声を詰まらせたのだという。 この銃乱射から2カ月となる今月15日には、フランスとニュージランドが共同議長となり、ネット上のテロ関連のコンテンツ排除の徹底などをうたった「クライストチャーチ宣言」を採