- ロイター通信によると、中国は人間の人格を模倣し、ユーザーと感情的なやり取りを行うことができるAIサービスを管理するための新しい規制草案を発表しました。
- 中国国家インターネット情報弁公室(Cyberspace Administration of China)がパブリックコメントのために発表したこの草案は、消費者向けAIの展開をより安全で倫理的な方向に導きたいという中国政府の意向を示しています。
- この規制は、人間のような人格、思考、コミュニケーションスタイルを示す、中国で公開されているAI製品に適用されます。
- 規制対象となる相互作用の形態には、テキスト、画像、音声、ビデオ、その他のマルチメディア手法が含まれます。
- AIプロバイダーは、過度の使用のリスクについてユーザーに警告し、依存症の兆候が検出された場合に介入することが求められます。
- 企業は、設計、トレーニングから運用に至るまで、製品ライフサイクル全体を通じて安全に対する責任を負わなければなりません。
- 草案では、アルゴリズム審査、データセキュリティ、個人情報保護のシステム構築が求められています。
- 大きな焦点は心理的リスクにあります。プロバイダーはユーザーの状態を特定し、感情やAIへの依存度を評価しなければなりません。
- ユーザーが極端な感情や依存行動を示した場合、企業は必要な介入措置を講じなければなりません。
- 規制はコンテンツに関する「レッドライン(越えてはならない一線)」も設定しています。AIは国家安全保障を脅かすコンテンツ、噂の流布、暴力やポルノを助長するコンテンツを作成してはなりません。
- この動きは、感情的なチャットボットから北京のハイテク産業地区の人型ロボットに至るまで、対話型AIがますます人間に似てきている中で行われました。
📌 新しい規制草案は、中国が感情的な相互作用を持つAIを厳格に管理したいと考えており、心理的リスクと依存症を重要な問題と見なしていることを示しています。ユーザーの感情評価、過度な使用への警告、積極的な介入を要求することで、中国政府は「人間のような」AIのための初期の法的基盤を築いています。これは、AI企業が中国で製品を設計する方法を形作り、将来の世界的なAI管理基準に影響を与える可能性があります。

