エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
アップル、児童虐待画像の検知機能などを導入する計画を延期
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
アップル、児童虐待画像の検知機能などを導入する計画を延期
Appleは米国時間9月3日、一部の「iPhone」「iPad」「Mac」を対象とした、性的略奪者などから児童を保護... Appleは米国時間9月3日、一部の「iPhone」「iPad」「Mac」を対象とした、性的略奪者などから児童を保護するための一連の機能の導入を延期することを明らかにした。Appleの技術が監視目的で利用される可能性を懸念するプライバシー擁護者やセキュリティ研究者らが、このような機能に対する批判の声を上げていた。 Appleは8月、「iCloud」に保存された児童の性的虐待コンテンツ(CSAM)を検出する機能や、児童が「メッセージ」アプリで性的な写真などを受信した可能性が高い場合、写真をすぐに表示せず、警告メッセージを表示する機能を発表した。Appleは声明の中で、これらの機能の導入を延期するとしている。 同社は、「顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な児童保護機能をリリースする前に、今後数カ月間でさらに時間をかけ、情報を収集し、改善することにした」