アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。 ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。 ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。 このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求
![アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始 | Forbes JAPAN 公式サイト(フォーブス ジャパン)](https://cdn-ak-scissors.b.st-hatena.com/image/square/a2b549605722907b7e8a2f9d373f06ca953e3ab0/height=288;version=1;width=512/https%3A%2F%2Fimages.forbesjapan.com%2Fmedia%2Farticle%2F42723%2Fimages%2Fmain_image_42723b09e94975f4bd351e55198afd9559383.jpg)