Appleが、2021年8月に発表したもののプライバシー侵害や国家による弾圧への懸念から批判が集中した性的虐待画像(CSAM:Child Sexual Abuse Material)の検出を断念した理由を詳細に説明しています。脆弱性の悪用や、監視に拡大される懸念が開発断念の理由だったとのことです。 ■3行で分かる、この記事のポイント 1. Appleが、子どもの性的虐待画像スキャン機能の開発断念理由を説明。 2. 脆弱性を悪用される可能性や、一斉監視社会につながる懸念があったとのこと。 3. 子どもを性的虐待から保護する他の機能は提供されており、iOS17で進化する。 2021年8月に発表後、物議醸したCSAMスキャン Appleは2021年8月に、児童への性的虐待画像(CSAM:Child Sexual Abuse Material)を機械学習技術によってデバイス上で検出し通報する機能を