9to5mac.comが報告したように、Appleはスマートフォンのメモリに保存されている写真をスキャンするシステムを間もなく発表する予定です。このシステムは、児童虐待の画像を検出するように設計されています。このソリューションは、ハッシュアルゴリズムに基づいています。
個人データを保存するために、画像はローカルで、つまりユーザーのデバイス自体を使用して、データをクラウドに転送せずにスキャンされます。スキャンの過程で、システムは電話の写真をアップルが知っている違法なコンテンツの画像のデータと比較します。サンプルと一致する場合、システムはおそらく管理者に連絡し、管理者がさらに作業を実行します。
このソリューションは、写真をアップロードするときにiCloudクラウドストレージですでに使用されているハッシュアルゴリズムに基づいています。一般的に、ApplePhotosがオブジェクトを認識できるようにする機械学習システムは同様に機能します。しかし、暗号化とセキュリティの専門家であるMatthew Greenは、イノベーションの可能性について懐疑的な見方をしました。彼は、ハッシュアルゴリズムは不完全であり、誤検知につながる可能性があると述べました。そして、当局の主張でそのような機能が導入されれば、専門家は、児童虐待の事実を検出するためだけでなく、他の目的にも使用できると確信しています。たとえば、反体制派と戦うために。
また、iCloudの写真はエンドツーエンドで暗号化されていません。それらは実際には暗号化された形式でAppleサーバーに保存されますが、Apple自体がデータを復号化するためのキーを持っています。これは、必要に応じて、法執行機関に出頭できることを意味します。このような「ローカル検査」システムの出現は、将来、Appleのサーバー上のデータが引き続きエンドツーエンドの暗号化を受けることを意味する場合もあります。そうでない場合、Green氏は、同社はこのようなソリューションに投資しなかったと結論付けました。全て。
2021-08-05 16:10:01
著者: Vitalii Babkin