米アップルは5日、ユーザーの「iCloud(アイクラウド)フォト」アカウントに保存された写真を分析し、性的に露骨な児童の画像が検出された場合に関係当局に通報する新しい機能を年内に導入することを明らかにした。 子供を保護する新たな手段として、同社はメッセージアプリで子供が送受信する写真を分析し、露骨かどうかを確認する機能も発表した。また、ユーザーが虐待的内容を検索するとデジタル音声アシスタントの「Siri」が介入する機能も加える。同社は5日に披露したこれら3つの新機能を年内に実用化すると表明した。 ユーザーのアカウントで性的に露骨な子供の写真の基準に触れる内容が検出された場合、その事例は同社と、法執行機関と連携する全米行方不明・被搾取児童センター(NCMEC)によって手作業で検証される。同社は米国でユーザーの「iPhone(アイフォーン)」や「iPad(アイパッド)」にある画像がクラウドにア