AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も

現地時間の2021年8月5日、Appleは「子どものための拡張された保護」と題するページを公開し、「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を制限するために、新たな安全機能を導入すると発表しました。Appleは具体的に「メッセージアプリ上でやり取りされるCSAMと思しきコンテンツについては警告を表示する」「iCloud写真に保存され…

このサイトの記事を見る

投稿者: 管理者