Apple、児童ポルノスキャン機能をWebページから削除するも計画に変更はなしと発言 2021 12/17 物議を醸していた、iCloudの児童の性的虐待コンテンツ(CSAM)画像の自動検出機能に関する記述が、Appleの子供の安全に関するWebページから削除されました。これについて、Appleは「計画に変更はなし」と答えた、と伝えられています。 記述が密かにそっくり削除 Appleは今年8月、子供を守るための3つの新たな新機能を発表しました。そのうちの一つは、先日正式版がリリースされたiOS15.2で利用可能となった「メッセージ」アプリのヌード検出機能です。 他にも、ユーザーのiCloud写真ライブラリを自動スキャンし、アメリカの非営利団体のデータベースと照合し通報する機能、子供に有害な検索を警告する機能が計画に含まれていましたが、前者の真の自動スキャン機能についての記述が、「子供たちの
![Apple、児童ポルノスキャン機能をWebページから削除するも計画に変更はなしと発言 - iPhone Mania](https://cdn-ak-scissors.b.st-hatena.com/image/square/6864f2164b7279e757c0ee4fe6c1902d87847526/height=288;version=1;width=512/https%3A%2F%2Fiphone-mania.jp%2Fuploads%2F2021%2F12%2Fchild_safety__cemgn2jzflqq_large_2x1.jpg)