AppleがiOS15などで導入すると発表した、ユーザーのiPhoneに保存された児童への性的虐待画像(CSAM:Child Sexual Abuse Material)の検出機能について、同様の技術を研究する研究者が「危険」と述べ、導入を見送るべきだと主張しています。 米大学のコンピュータ科学の研究者が問題を指摘 AppleがiOS15などで導入すると発表したCSAM検出技術は、ユーザーのiPhoneに非営利団体が把握している画像と一致するハッシュを持つ画像がないかスキャンするものです。検出された画像をAppleが検証し、一致が確認されれば通報されます。 米プリンストン大学の研究者で、コンピュータ科学と公共問題が専門のジョナサン・メイヤー助教授と、情報科学政策研究所のアニュネイ・クルシュレッサ氏は、米紙The Washington Postに論説を寄稿し、AppleのCSAM検出技術の危