- 据路透社报道,中国公布了一项新规草案,旨在控制能够模拟人类性格并与用户进行情感交互的AI服务。
- 该草案由中国国家互联网信息办公室(Cyberspace Administration of China)发布以征求公众意见,表明北京希望将面向消费者的AI部署引向更安全和更合乎道德的方向。
- 该规定适用于在中国公开提供的、表现出类人性格、思维和交流风格的AI产品。
- 受监管的交互形式包括文本、图像、音频、视频和其他多媒体方式。
- AI提供商将被要求警告用户过度使用的风险,并在发现上瘾迹象时进行干预。
- 企业必须对产品全生命周期的安全负责,从设计、训练到运营。
- 草案要求建立算法审查、数据安全和个人信息保护系统。
- 一个主要重点是心理风险:提供商必须识别用户状态,评估情绪和对AI的依赖程度。
- 如果用户表现出极端情绪或成瘾行为,企业必须采取必要的干预措施。
- 规定还设定了内容的“红线”:AI不得生成威胁国家安全、散布谣言或宣扬暴力和色情的内容。
- 此举正值交互式AI越来越像人类的背景下,从情感聊天机器人到北京高科技工业园区的人形机器人。
📌 新的规定草案表明,中国希望严格控制具有情感交互功能的AI,将心理风险和成瘾视为关键问题。通过要求评估用户情绪、过度使用警告和主动干预,北京正在为“类人”AI奠定早期法律基础。这可能会塑造AI企业在中国设计产品的方式,并影响未来的全球AI治理标准。
