プリンストン大学(米国)の科学者たちは、Appleがユーザーの電話で児童虐待の画像を検出するのと同様のシステムを数年前から開発してきました。彼らの意見では、テクノロジーは危険な場合があります。
ジョナサンメイヤー准教授と大学院生のアヌナイクルシュレスタは、数年前から児童性的虐待資料(CSAM)システムのアイデアに取り組んできました。 Appleのように、彼らはユーザーのプライバシーを保護しながら、そのようなコンテンツの配布を制限したかったのです。言い換えれば、目標は、エンドツーエンドの暗号化を使用してオンラインサービスのコンテンツを分析することでした。
システムを分析した後、科学者たちは実用的なプロトタイプを作成しました。そして彼らはすぐに、結果がどうであれ、このテクノロジーは1つの「明白な問題」を未解決のままにしておくという結論に達しました。システムは、ユーザーの追跡と検閲のタスクを解決するために簡単に再利用できます。技術レベルでは、どのような状況でも、1つのタイプのコンテンツのみに制限することはできません。その作業はデータベースのコンテンツに完全に従属し、その要素がクライアントデバイスで比較されます。
プロジェクトの作成者は、この問題が純粋に仮説ではないことを明確にしています。たとえば、トロント大学のシチズンラボの研究者は、中国のメッセンジャーWeChatで同様の分析システムを発見しました。これは、同様のアルゴリズムを使用して反体制派の資料を検出します。中国がアップルの2番目に大きな市場であることを考えると、アップルに政治的使用のためにシステムを再利用するように依頼することを決定した場合、地方自治体を止めることはできません。アメリカのメーカーは、北京のさまざまな要件を繰り返し提出しています。
最後に、純粋に技術的な性質の多くの困難があります。たとえば、システムは誤検知を発生させる可能性があります。また、特定のスキルがあれば、攻撃者は無実のユーザーに対してアクションを指示することでシステムを欺くことができます。
2021-08-22 06:01:44
著者: Vitalii Babkin