미국 Princeton University의 과학자들은 Apple이 사용자 휴대폰에서 아동 학대 이미지를 감지하는 것과 유사한 시스템을 수년 동안 개발해 왔습니다. 그들의 의견으로는 기술이 위험할 수 있습니다.
조나단 메이어(Jonathan Mayer) 부교수와 대학원생인 아누나이 쿨슈레스타(Anunai Kulshresta)는 수년간 아동 성적 학대 자료(CSAM) 시스템에 대한 아이디어를 연구해 왔다. Apple과 마찬가지로 사용자의 개인 정보를 보호하면서 이러한 콘텐츠의 배포를 제한하고 싶었습니다. 즉, 엔드 투 엔드 암호화로 온라인 서비스의 콘텐츠를 분석하는 것이 목표였습니다.
시스템을 분석한 후 과학자들은 작동하는 프로토타입을 만들었습니다. 그리고 그들은 결과가 어떻든 간에 이 기술은 하나의 "눈부신 문제"를 해결하지 못한 채 남겨둔다는 결론에 빠르게 도달했습니다. 시스템은 사용자 추적 및 검열 작업을 해결하기 위해 쉽게 용도를 변경할 수 있습니다. 기술 수준에서는 어떤 상황에서도 한 가지 유형의 콘텐츠로만 제한될 수 없습니다. 해당 작업은 클라이언트 장치에서 콘텐츠가 비교되는 요소와 함께 데이터베이스의 콘텐츠에 완전히 종속됩니다.
프로젝트의 저자는 이 문제가 순전히 가설이 아님을 분명히 합니다. 예를 들어, 토론토 대학 시민 연구소의 연구원들은 중국 메신저 WeChat에서 유사한 알고리즘을 사용하여 반체제 인사를 탐지하는 유사한 분석 시스템을 발견했습니다. 중국이 Apple의 두 번째로 큰 시장이라는 점을 감안할 때, Apple에 시스템을 정치적 용도로 사용하도록 요청하기로 결정한다면 지방 정부는 그 무엇도 막을 수 없습니다. 미국 제조업체는 베이징의 다양한 요구 사항을 반복적으로 제출했습니다.
마지막으로, 순전히 기술적인 성격의 많은 어려움이 있습니다. 예를 들어, 시스템은 가양성을 제공할 수 있습니다. 그리고 특정 기술을 사용하여 공격자는 무고한 사용자에 대한 작업을 지시하여 시스템을 속일 수 있습니다.
2021-08-22 06:01:44
작가: Vitalii Babkin