この20年間、ハイテク企業は、自社のプラットフォーム上で増え続ける児童性的虐待の動画や画像の洪水に対処しなければなりませんでした。Apple社が最近発見したように、人々のデバイスやオンラインアカウントをスキャンして違法なコンテンツを探すことは、プライバシーに関する懸念につながりかねない、解決困難な問題なのです。 しかし、シリコンバレーの大企業がサーバーから見つけて消去しようとしているのは、未成年の子供の露骨な写真やビデオだけではない。最近の捜査令状で、こうしたアニメーションを所有していたとされる容疑者の情報を提供するようグーグルに要請したことで明らかになったように、彼らは子どもが関わる生々しい行為を描いた漫画も探しているのです。 この種のコンテンツは、米国の法律では所有することが違法となる可能性があり、グーグルの児童性資料対策(CSAM)システムで検出できることが、これまで公に語られていな