Des scientifiques de l'université de Princeton (USA) développent depuis plusieurs années un système similaire à celui avec lequel Apple va détecter les images de maltraitance d'enfants sur les téléphones des utilisateurs. À leur avis, la technologie peut être dangereuse.
Le professeur agrégé Jonathan Mayer et l'étudiant diplômé Anunai Kulshresta travaillent depuis plusieurs années sur l'idée d'un système de matériel pédopornographique (CSAM). Comme Apple, ils voulaient restreindre la distribution de ce contenu tout en préservant la confidentialité des utilisateurs. En d'autres termes, l'objectif était d'analyser le contenu des services en ligne avec un cryptage de bout en bout.
Après avoir analysé le système, les scientifiques ont créé un prototype fonctionnel. Et ils sont rapidement arrivés à la conclusion que quel que soit le résultat, cette technologie laisse un « problème flagrant » non résolu. Le système peut être facilement réutilisé pour résoudre les tâches de suivi des utilisateurs et de censure. Sur le plan technique, il ne peut en aucun cas être limité à un seul type de contenu - son travail est totalement subordonné au contenu de la base de données, avec les éléments dont le contenu est comparé sur les appareils clients.
Les auteurs du projet précisent que ce problème n'est pas purement hypothétique. Par exemple, des chercheurs du Citizen Lab de l'Université de Toronto ont découvert un système d'analyse similaire dans le messager chinois WeChat, qui utilise un algorithme similaire pour détecter les éléments dissidents. Étant donné que la Chine est le deuxième marché d'Apple, rien ne peut arrêter le gouvernement local s'il décide de demander à Apple de réutiliser le système à des fins politiques. Le constructeur américain s'est soumis à plusieurs reprises aux différentes exigences de Pékin.
Enfin, il existe de nombreuses difficultés d'ordre purement technique. Par exemple, le système peut donner des faux positifs. Et avec certaines compétences, un attaquant peut tromper le système en dirigeant son action contre n'importe quel utilisateur innocent.
2021-08-22 06:01:44
Auteur: Vitalii Babkin