L’Unione Europea (UE) non ha ancora raggiunto un accordo su come applicare il Digital Services Act (DSA) a ChatGPT, nonostante il chatbot abbia superato i 120 milioni di utenti mensili in Europa. Una decisione ufficiale è prevista solo per la metà del 2026.
ChatGPT rientra già nell’ambito di applicazione dell’AI Act (Legge sull’IA) dall’agosto 2025, obbligando OpenAI a valutare e mitigare i rischi, pena una possibile multa fino a 15 milioni di euro (≈ 16,1 milioni di dollari).
Con un numero di utenti superiore ai 45 milioni al mese, ChatGPT appartiene anche al gruppo delle piattaforme online di dimensioni molto grandi (VLOP/VLOSE) secondo il DSA, il che significa che potrebbe subire multe fino al 6% del suo fatturato globale in caso di violazioni.
La questione centrale è l’ambito di designazione: l’UE considererà ChatGPT semplicemente come un motore di ricerca o come una piattaforma di IA completa? Più ampio è l’ambito, maggiori saranno gli obblighi di conformità e di segnalazione dei rischi per OpenAI.
I rischi che ChatGPT deve segnalare includono: impatti sulle elezioni, sulla salute pubblica, sui diritti fondamentali e sulla progettazione dei sistemi di raccomandazione.
OpenAI ha ammesso che 1,2 milioni di utenti alla settimana utilizzano ChatGPT in contesti di “intenzioni suicide” e che “in alcuni rari casi, il modello potrebbe non rispondere in modo appropriato”.
Esperti legali come Mathias Vermeulen (AWO Agency) avvertono che OpenAI dovrà “aggiornare completamente” i suoi processi di controllo dei rischi, poiché il DSA non accetta l’approccio “volontario” adottato in precedenza.
Se classificata in modo completo, OpenAI potrebbe dover implementare un meccanismo di “notifica e azione” (notice-and-action), simile a quello dei principali social network.
Il DSA e l’AI Act rischiano di sovrapporsi: l’AI Act classifica in base al livello di rischio (alto, limitato, minimo), mentre il DSA richiede valutazioni dei rischi “sistemici” (elezioni, salute, diritti individuali).
Alcuni ricercatori, come João Pedro Quintais, avvertono che il disallineamento tra le due leggi potrebbe creare “lacune normative”, permettendo a società di IA come OpenAI di beneficiare delle disposizioni di “porto sicuro” (safe harbor).
📌 L’UE sta affrontando una sfida importante: come controllare ChatGPT quando le leggi attuali non riescono a tenere il passo con la velocità di sviluppo dell’IA generativa. Con 120 milioni di utenti mensili e una potenziale multa del 6% del fatturato globale, OpenAI diventerà il primo banco di prova per le capacità di governance dell’IA in Europa, ma per una risposta bisognerà attendere almeno la seconda metà del 2026.
