Apple が米国内の Apple デバイスを対象として、子供を性的虐待から守る取り組みの強化を発表した(Apple - Child Safety、 9to5Mac の記事、 Mac Rumors の記事、 The Verge の記事)。 取り組みの中心となるのは児童性的虐待素材 (CSAM) の拡散防止だ。まず、「メッセージ」アプリでは子供が性的に露骨な写真を送受信しようとすると警告して保護者にも通知し、受信した写真にはぼかしがかけられる。性的に露骨な写真はデバイス上の機械学習によって検出され、Apple に写真が送信されることはない。 また、iOS /iPadOS デバイスで写真を iCloud 写真へ保存する際には、全米失踪・被搾取児童センター (NCMEC) などが提供する既知の CSAM 画像のハッシュとの照合をデバイス上で実行する。照合結果は暗号化されたセーフティーバウチャーに