米Appleは8月5日(現地時間)、児童保護の目的でサービスに3つの新機能を追加すると発表した。「コミュニケーションツールを使って児童を虐待する悪人から児童を保護し、児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)の拡散を制限したい」としている。 発表されたのは、「メッセージ」アプリでやり取りされるCSAMを検出して警告する機能、クラウドストレージiCloud上に保存されている画像にCSAMがある場合、これを検出してアカウントを無効にする機能、Siriや検索でCSAM関連の検索をすると警告する機能の3つだ。 いずれもまずは米国で、iOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで年内に追加される見込みだ。 「メッセージ」でのCSAM警告 メッセージで性的に露骨な写真を児童と送受信しようとすると、当事者
![Apple、児童保護目的でユーザーの「メッセージ」とiCloudの「写真」の画像検出を実施へ](https://cdn-ak-scissors.b.st-hatena.com/image/square/0a377cb8275c9aab9e739f3811024af63649fa61/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fnews%2Farticles%2F2108%2F06%2Fl_yu_message.jpg)