Gli scienziati della Princeton University (USA) hanno sviluppato per diversi anni un sistema simile a quello con cui Apple rileverà le immagini di abusi sui minori sui telefoni degli utenti. Secondo loro, la tecnologia può essere pericolosa.
Il professore associato Jonathan Mayer e la studentessa Anunai Kulshresta stanno lavorando da diversi anni all'idea di un sistema di materiale pedopornografico (CSAM). Come Apple, volevano limitare la distribuzione di tali contenuti preservando la privacy degli utenti. In altre parole, l'obiettivo era analizzare i contenuti nei servizi online con crittografia end-to-end.
Dopo aver analizzato il sistema, gli scienziati hanno creato un prototipo funzionante. E sono rapidamente giunti alla conclusione che, qualunque sia il risultato, questa tecnologia lascia un "problema evidente" irrisolto. Il sistema può essere facilmente riproposto per risolvere i compiti di tracciamento degli utenti e censura. A livello tecnico, in nessun caso può essere limitato a un solo tipo di contenuto: il suo lavoro è completamente subordinato al contenuto del database, con gli elementi di cui viene confrontato il contenuto sui dispositivi client.
Gli autori del progetto chiariscono che questo problema non è puramente ipotetico. Ad esempio, i ricercatori del Citizen Lab dell'Università di Toronto hanno scoperto un sistema di analisi simile nel messenger cinese WeChat, che utilizza un algoritmo simile per rilevare i materiali dissidenti. Dato che la Cina è il secondo mercato più grande di Apple, nulla può fermare il governo locale se decide di chiedere ad Apple di riutilizzare il sistema per uso politico. Il produttore americano si è più volte sottoposto ai vari requisiti di Pechino.
Numerose sono, infine, le difficoltà di natura prettamente tecnica. Ad esempio, il sistema può fornire falsi positivi. E con determinate abilità, un utente malintenzionato può ingannare il sistema dirigendo la sua azione contro qualsiasi utente innocente.
2021-08-22 06:01:44
Autore: Vitalii Babkin