中国は、人工知能(AI)を規制するための最初の一連の倫理原則を発表しました。ユーザーの権利を保護し、世界的なハイテク巨人の影響に関連するリスクを防ぐことが最も重要です。このイニシアチブのもう1つの目標は、2030年までにAIのグローバルリーダーになるという中国の願望です。
マニュアルには、人は決定を下す完全な権利と、AIサービスに頼るかいつでも停止するかどうかを選択する権利を保持する必要があると書かれています。この文書は、1週間前に中国の科学技術省によって発行されました。このドキュメントの公式の目標は、「AIが常に人間の管理下にあることを保証すること」です。このガイドのタイトルは「次世代人工知能の倫理仕様」です。このドキュメントは、2019年2月に省内で作成されたAIガバナンス委員会によって作成されました。同年6月、委員会は、より短く、より広い文言でガイドの暫定版を発行しました。
このドキュメントは、AIシステムの6つの基本原則を提供し、主に「管理性と信頼性」を保証します。さらに、人間の幸福、公正と正義、プライバシーとセキュリティの保護、および倫理的リテラシーの向上が注目されました。ユーザーを保護し、権限を与えることの最も重要なことは、国の技術部門に対する管理を強化するための北京の取り組みを反映しています。少し前まで、コンテンツ推奨アルゴリズムの作成の原則が中国で公開されました。このようなアルゴリズムは、多くの場合、大量のユーザーデータの収集と分析に基づいて構築されたAIシステムに基づいています。
すべての場合において、イノベーションは実際にはユーザーの権利の拡大を意味します-彼はインターネット上のAIシステムとの相互作用をより細かく制御できるようになります。データセキュリティ、個人のプライバシー、およびAIの決定をオプトアウトする権利の問題が言及されています。この文書によると、リスク防止には、AIシステムの技術的な脆弱性の特定と排除、業界組織の説明責任の確保、およびAIベースの製品の管理と品質管理の最適化が含まれます。原則は、AIベースの製品およびサービスのサプライヤーが違法な活動に従事し、国、公共および産業の安全を危険にさらすことを禁じています。そのようなシステムは、公共の利益を害するべきではありません。
2017年、中国の国務院は、国が米国を追い抜き、AIの分野で世界のリーダーになるための計画を発表しました。政府を主導する計画の第一段階では、2020年までに、国の産業は世界をリードするAI技術、その実用化、倫理原則、政策の枠組みと一致しなければならないと言われています。次の目標は、2025年までにAIが大きく飛躍することであり、中国は10年の終わりまでにこの分野の主要国になります。
2021-10-03 15:43:15
著者: Vitalii Babkin