Le gouverneur Gavin Newsom a promulgué la loi SB 243, la première législation aux États-Unis à réglementer la sécurité des chatbots d’IA interactifs (compagnons d’IA), tenant des entreprises comme Meta, OpenAI, Character.AI et Replika légalement responsables lorsque les chatbots causent du tort aux enfants ou aux personnes vulnérables.

La loi exige une vérification de l’âge, des avertissements de risque, des étiquettes d’avertissement et des mesures pour prévenir le suicide ou l’automutilation. Les entreprises doivent partager des données avec le Département de la Santé Publique de Californie, y compris des statistiques sur la notification des utilisateurs concernant les centres de prévention des crises.

Il est interdit aux chatbots d’IA de se présenter comme des professionnels de la santé et ils doivent avertir que toutes les réponses sont du contenu généré et non réel. Les utilisateurs mineurs recevront des rappels périodiques pour faire une pause et seront protégés contre l’exposition à des contenus sexuels ou à des images pornographiques.

Sanction : 250 000 dollars pour chaque violation (en particulier pour les deepfakes illégaux). La loi entrera en vigueur le 1er janvier 2026.

La loi SB 243 a été introduite à la suite d’une série de poursuites judiciaires : l’adolescent Adam Raine (États-Unis) est décédé après une conversation avec ChatGPT sur le suicide ; une famille du Colorado a poursuivi Character.AI pour un chatbot ayant eu des contenus suggestifs avec leur fille de 13 ans ; et Meta a été critiqué pour un chatbot d’IA ayant un comportement « romantique » avec des enfants.

OpenAI prépare une version de ChatGPT spécifiquement pour les adolescents, avec des filtres stricts et une interdiction totale des conversations suggestives ou des discussions sur l’automutilation. Meta et Replika ont annoncé des mises à niveau de leurs systèmes d’alerte, tandis que Character.AI met en place une surveillance parentale и des e-mails de rapport hebdomadaires.

De plus, la loi SB 53, signée en septembre 2025, exige la transparence des données de l’IA et protège les lanceurs d’alerte dans l’industrie technologique, s’appliquant à OpenAI, Anthropic, Google DeepMind et Meta.

📌 La Californie devient le premier État américain à transformer l’« éthique de l’IA » en une obligation légale : l’IA générative doit avoir des « garde-fous » lorsqu’elle interagit avec des mineurs. Il est interdit aux chatbots d’IA de se présenter comme des professionnels de la santé et ils doivent avertir que toutes les réponses sont du contenu généré et non réel. Les utilisateurs mineurs recevront des rappels périodiques pour faire une pause et seront protégés contre l’exposition à des contenus sexuels. La loi californienne sur l’IA ne sert pas seulement de moyen de dissuasion pour les grandes entreprises comme OpenAI et Meta, mais elle jette également les bases d’un cadre de gouvernance mondial sur la sécurité de l’IA conversationnelle.

Share.
© 2025 Vietmetric
Exit mobile version