중국이 인공지능(AI) 규제를 위한 첫 번째 윤리 원칙을 발표했다. 사용자의 권리를 보호하고 글로벌 기술 대기업의 영향과 관련된 위험을 방지하는 것이 가장 중요합니다. 이니셔티브의 또 다른 목표는 2030년까지 AI의 글로벌 리더가 되려는 중국의 열망입니다.
매뉴얼에는 사람이 결정을 내릴 수 있는 완전한 권리와 AI 서비스에 의지할 것인지 아니면 언제든지 중단할 것인지 선택할 수 있는 권리가 있어야 한다고 명시되어 있습니다. 이 문서는 일주일 전 중국 과학기술부가 발표했다. 이 문서의 공식 목표는 "AI가 항상 인간의 통제 하에 있도록 하는 것"입니다. 이 가이드의 제목은 "차세대 인공 지능 윤리 사양"입니다. 이 문서는 2019년 2월 부처 내에서 만든 AI 거버넌스 위원회에서 개발했다. 같은 해 6월에 위원회는 더 짧고 더 넓은 문구로 된 가이드의 예비 버전을 출판했습니다.
이 문서는 주로 "관리 용이성과 안정성"을 보장하는 AI 시스템에 대한 6가지 기본 원칙을 제공합니다. 또한 인간 복지, 공정성과 정의, 사생활과 보안의 보호, 윤리적 문해력의 향상이 주목되었습니다. 사용자를 보호하고 권한을 부여하는 것의 가장 중요한 중요성은 중국의 기술 부문에 대한 통제를 강화하려는 베이징의 노력을 반영합니다. 얼마 전에 콘텐츠 추천 알고리즘을 구성하는 원리가 중국에서 발표되었습니다. 이러한 알고리즘은 종종 대량의 사용자 데이터를 수집하고 분석하는 AI 시스템을 기반으로 합니다.
모든 경우에 혁신은 실제로 사용자 권한의 확장을 의미합니다. 사용자는 인터넷에서 AI 시스템과의 상호 작용을 더 잘 제어할 수 있습니다. 데이터 보안, 개인 프라이버시, AI 결정을 거부할 권리 문제가 언급되었습니다. 문서에 따르면 위험 예방에는 AI 시스템의 기술적 취약성을 식별 및 제거하고 산업 조직의 책임을 보장하며 AI 기반 제품의 관리 및 품질 관리를 최적화하는 것이 포함됩니다. 원칙은 AI 기반 제품 및 서비스 공급업체가 불법 활동에 참여하고 국가, 공공 및 산업 안전을 위협하는 것을 금지합니다. 그러한 시스템은 공익을 해치지 않아야 합니다.
2017년 중국 국무원은 중국이 미국을 추월하고 AI 분야에서 세계 리더가 되기 위한 계획을 발표했습니다. 정부가 주도하는 계획의 첫 번째 단계에서는 2020년까지 국가의 산업이 세계 최고의 AI 기술, 실제 적용, 윤리 원칙 및 정책 프레임워크와 일치해야 한다고 합니다. 다음 목표는 2025년까지 AI의 주요 돌파구이며, 중국은 10년 말까지 이 분야의 선두 국가가 됩니다.
2021-10-03 15:43:15
작가: Vitalii Babkin