Appleが児童虐待の兆候のある画像を見つけるためにiCloudMailをスキャンしていることが判明し、2019年からこれを行っています。ただし、iCloudフォトとクラウドバックアップはスキャンされません。リソース9to5Macはこれについて書き込み、その代表者は適切な確認を受け取りました。
電子メールは暗号化されていないため、Appleはユーザーから送信されたメッセージに添付ファイルスキャンテクノロジーを簡単に実装できました。 Appleは他のデータの限定スキャンも確認しているが、正確に何が問題になっているのかは明らかにされていない。これは、子供の安全アーカイブページからの抜粋でも示されています。
「アップルは、製品が使用されている場所を問わず、エコシステム全体で子供たちを保護することに取り組んでおり、この分野でのイノベーションを引き続きサポートしています。ソフトウェアプラットフォームとサプライチェーンのすべてのレベルで堅牢な保護を構築しました。この取り組みの一環として、アップルは画像照合テクノロジーを使用して、児童虐待の特定と報告を支援しています。電子メールスパムフィルターと同様に、当社のシステムは電子署名を使用して、児童虐待の疑いを検出します。各メッセージを個別にチェックします。児童虐待のシーンを含むコンテンツを含むアカウントは、利用規約に違反しており、そのようなコンテンツを特定するアカウントはすべて無効になります」と、児童安全ページは述べています。
Appleのプライバシー担当ディレクターであるJaneHorvarth氏は、2020年1月に、同社はスクリーニング技術を使用して禁止されている画像を見つけていると語った。彼女はまた、Appleが会社の子供の安全方針に違反するアカウントをブロックしていることを確認した。
2021-08-24 06:10:59
著者: Vitalii Babkin