L’Union européenne (UE) n’a pas encore trouvé d’accord sur la manière d’appliquer le Digital Services Act (DSA) à ChatGPT, bien que le chatbot ait dépassé les 120 millions d’utilisateurs mensuels en Europe. Une décision officielle n’est attendue que pour la mi-2026.
ChatGPT est déjà sous le coup de la loi sur l’IA (AI Act) depuis août 2025, ce qui oblige OpenAI à évaluer et à atténuer les risques, sous peine d’amendes pouvant atteindre 15 millions d’euros (≈ 16,1 millions de dollars).
Avec une base d’utilisateurs dépassant les 45 millions par mois, ChatGPT appartient également au groupe des très grandes plateformes en ligne (VLOP/VLOSE) selon le DSA, ce qui signifie qu’il pourrait encourir des amendes allant jusqu’à 6 % de son chiffre d’affaires mondial en cas d’infraction.
Le problème central est le périmètre de la désignation : l’UE considérera-t-elle ChatGPT simplement comme un moteur de recherche ou comme une plateforme d’IA complète ? Plus le périmètre est large, plus les obligations de conformité et de rapport sur les risques d’OpenAI seront importantes.
Les risques que ChatGPT doit déclarer incluent : les impacts sur les élections, la santé publique, les droits fondamentaux et la conception de ses systèmes de recommandation.
OpenAI a reconnu que 1,2 million d’utilisateurs par semaine utilisent ChatGPT dans des contextes d’« idées suicidaires » et que « dans de rares cas, le modèle peut ne pas répondre de manière appropriée ».
Des experts juridiques comme Mathias Vermeulen (AWO Agency) préviennent qu’OpenAI devra « mettre à niveau de manière exhaustive » ses processus de contrôle des risques, car le DSA n’accepte pas l’approche « volontaire » adoptée jusqu’à présent.
S’il est classé de manière exhaustive, OpenAI pourrait devoir mettre en œuvre un mécanisme de « notification et action » (notice-and-action), similaire à celui des grands réseaux sociaux.
Le DSA et l’AI Act risquent de se chevaucher : l’AI Act classe en fonction du niveau de risque (élevé, limité, minime), tandis que le DSA exige une évaluation des risques « systémiques » (élections, santé, droits individuels).
Certains chercheurs, comme João Pedro Quintais, avertissent que le manque d’alignement entre les deux lois pourrait créer des « lacunes réglementaires », permettant à des entreprises d’IA comme OpenAI de bénéficier des dispositions de « zone de sécurité » (safe harbor).
📌 L’UE est confrontée à un défi majeur : comment contrôler ChatGPT alors que la législation actuelle n’a pas suivi le rythme de développement de l’IA générative. Avec 120 millions d’utilisateurs mensuels et une amende potentielle de 6 % du chiffre d’affaires mondial, OpenAI deviendra le premier test pour les capacités de gouvernance de l’IA en Europe – mais il faudra attendre au moins la seconde moitié de 2026 pour avoir une réponse.
