Appleは児童の性的虐待コンテンツ(CSAM)を検出するために、「iPhone」「iPad」「Mac」から「iCloud」に保存される写真をスキャンする計画だ。これに対し、プライバシー擁護者やセキュリティ研究者は困惑し、この技術が監視や政治的検閲に利用される可能性を懸念している。Appleは、そうした懸念が見当違いであり、同社が開発した技術に対する誤解に基づいていると説明した。 Appleのソフトウェアを統括するCraig Federighi氏は、The Wall Street Journalが米国時間8月13日に公開したインタビューの中で、人々に懸念を与えた最大の要因は、同社によるその計画の発表方法がまずかったことにあると述べた。例えば、Appleは、スマートフォン上のすべての写真をスキャンするのではなく、iCloudフォトライブラリーの同期システムに接続されたものだけをスキャンする。