- Китай опубликовал проект новых правил, направленных на контроль сервисов ИИ, способных имитировать человеческую личность и вступать в эмоциональное взаимодействие с пользователями, сообщает Reuters.
- Проект, выпущенный Администрацией киберпространства Китая для общественного обсуждения, показывает желание Пекина направить внедрение потребительского ИИ в более безопасное и этичное русло.
- Правила применяются к общедоступным в Китае продуктам ИИ, которые демонстрируют человекоподобную личность, мышление и стиль общения.
- Регулируемые формы взаимодействия включают текст, изображения, аудио, видео и другие мультимедийные методы.
- Поставщики ИИ должны будут предупреждать пользователей о риске чрезмерного использования и вмешиваться при обнаружении признаков зависимости.
- Предприятия должны нести ответственность за безопасность на протяжении всего жизненного цикла продукта: от проектирования и обучения до эксплуатации.
- Проект требует создания систем проверки алгоритмов, безопасности данных и защиты личной информации.
- Особое внимание уделяется психологическим рискам: поставщики должны определять состояние пользователя, оценивая эмоции и уровень зависимости от ИИ.
- Если пользователи проявляют экстремальные эмоции или зависимое поведение, компании должны принять необходимые меры вмешательства.
- Правила также устанавливают «красные линии» в отношении контента: ИИ не должен создавать контент, угрожающий национальной безопасности, распространяющий слухи или пропагандирующий насилие и порнографию.
- Этот шаг предпринимается на фоне того, что интерактивный ИИ становится все более похожим на человека: от эмоциональных чат-ботов до человекоподобных роботов в высокотехнологичных промышленных зонах Пекина.
📌 Новый проект правил показывает, что Китай хочет жестко контролировать ИИ с эмоциональным взаимодействием, рассматривая психологические риски и зависимость как критически важные проблемы. Требуя оценки эмоций пользователей, предупреждений о чрезмерном использовании и активного вмешательства, Пекин закладывает раннюю правовую основу для «человекоподобного» ИИ. Это может определить то, как ИИ-компании разрабатывают продукты в Китае, и повлиять на глобальные стандарты управления ИИ в будущем.
