- La Chine a publié un nouveau projet de réglementation visant à contrôler les services d’IA capables de simuler la personnalité humaine et de s’engager dans des interactions émotionnelles avec les utilisateurs, selon Reuters.
- Le projet, publié par l’Administration du cyberespace de Chine (Cyberspace Administration of China) pour consultation publique, indique la volonté de Pékin d’orienter le déploiement de l’IA grand public vers plus de sécurité et d’éthique.
- La réglementation s’applique aux produits d’IA accessibles au public en Chine qui présentent une personnalité, une pensée et un style de communication semblables à ceux des humains.
- Les formes d’interaction réglementées comprennent le texte, l’image, l’audio, la vidéo et d’autres méthodes multimédias.
- Les fournisseurs d’IA devront avertir les utilisateurs des risques d’une utilisation excessive et intervenir lorsque des signes d’addiction sont détectés.
- Les entreprises doivent être responsables de la sécurité tout au long du cycle de vie du produit, de la conception et de l’entraînement à l’exploitation.
- Le projet exige la mise en place de systèmes de révision des algorithmes, de sécurité des données et de protection des informations personnelles.
- L’accent est mis sur les risques psychologiques : les fournisseurs doivent identifier l’état de l’utilisateur, évaluer ses émotions et son niveau de dépendance à l’IA.
- Si les utilisateurs manifestent des émotions extrêmes ou un comportement addictif, les entreprises doivent prendre les mesures d’intervention nécessaires.
- Le règlement fixe également des « lignes rouges » concernant le contenu : l’IA ne doit pas générer de contenu menaçant la sécurité nationale, propageant des rumeurs ou promouvant la violence et la pornographie.
- Cette initiative intervient alors que l’IA interactive ressemble de plus en plus à l’humain, des chatbots émotionnels aux robots humanoïdes dans les zones industrielles de haute technologie de Pékin.
📌 Le nouveau projet de règlement montre que la Chine souhaite contrôler strictement l’IA dotée d’interactions émotionnelles, considérant les risques psychologiques et l’addiction comme des problèmes majeurs. En exigeant l’évaluation des émotions des utilisateurs, des avertissements sur l’utilisation excessive et une intervention active, Pékin pose les premières bases juridiques pour une IA « pseudo-humaine ». Cela pourrait façonner la manière dont les entreprises d’IA conçoivent leurs produits en Chine et influencer les normes mondiales de gouvernance de l’IA à l’avenir.
