世界中の90以上の政治的および人権団体が、児童虐待シーンを含むカスタム画像を検出するシステムを実装する計画を放棄するように会社に促す公開書簡をAppleに発行しました。
「これらの機会は、子供を保護し、児童虐待資料の配布を減らすことを目的としていますが、言論の自由の権利を侵害し、世界中の人々のプライバシーと安全を脅かし、悲惨な結果をもたらすと確信しています。多くの子供たち」と手紙は述べています。
活動家によると、最大の懸念は、メカニズムが開始されると、子供に対する犯罪とは関係のない状況で使用できるという事実です。米国の人権擁護家に加えて、ブラジル、メキシコ、ドイツ、アルゼンチン、ガーナ、タンザニアおよび他の国々からのグループが手紙の著者の中に言及されています。
アピールはまた、iMessageメッセージで裸の人々の写真のために子供のアカウントをスキャンする新しいメカニズムに言及しています。お子様はぼやけた画像しか見ることができないと想定されており、保護者にはそのような事件が通知されます。プライバシー擁護派は、これが保守的なコミュニティに住む子供たちの中から子供たち自身に深刻な脅威をもたらす可能性があると信じています。さらに、このアプローチは、Appleが他のコンテキストで提唱しているメッセージのエンドツーエンド暗号化のアイデアを効果的に否定します。
「バックドアが組み込まれると、政府はAppleに特定のコンテンツに関する通知を受け取るアカウントの数を増やし、性的に露骨なコンテンツ以外の理由で不適切な画像を認識するように強制することができます」と手紙は述べています。
他の署名グループには、アメリカ自由人権協会、電子フロンティア財団、アクセスナウ、プライバシーインターナショナル、さらにはTorプロジェクトが含まれます。
2021-08-19 16:46:04
著者: Vitalii Babkin