Il governatore Gavin Newsom ha firmato la legge SB 243, la prima legislazione negli Stati Uniti a regolamentare la sicurezza dei chatbot interattivi basati su IA (compagni IA), rendendo aziende come Meta, OpenAI, Character.AI e Replika legalmente responsabili quando i chatbot causano danni a bambini o individui vulnerabili.
La legge richiede la verifica dell’età, avvisi di rischio, etichette di avvertimento e misure per prevenire il suicidio o l’autolesionismo. Le aziende devono condividere i dati con il Dipartimento della Salute Pubblica della California, comprese le statistiche sulla notifica agli utenti dei centri di prevenzione delle crisi.
Ai chatbot IA è vietato dichiarare di essere professionisti medici e devono avvertire che tutte le risposte sono contenuti generati e non reali. Gli utenti minorenni riceveranno promemoria periodici per fare una pausa e saranno protetti dall’esposizione a contenuti sessuali o immagini pornografiche.
Sanzione: 250.000 dollari per ogni violazione (in particolare per i deepfake illegali). La legge entrerà in vigore il 1° gennaio 2026.
La SB 243 è stata introdotta a seguito di una serie di azioni legali: l’adolescente Adam Raine (Stati Uniti) è deceduto dopo una conversazione con ChatGPT sul suicidio; una famiglia del Colorado ha citato in giudizio Character.AI per un chatbot che ha avuto contenuti allusivi con la loro figlia di 13 anni; e Meta è stata criticata per un chatbot IA che ha mostrato un comportamento “romantico” con i bambini.
OpenAI sta preparando una versione di ChatGPT specifica per adolescenti, сon filtri rigorosi e un divieto totale di conversazioni allusive o discussioni sull’autolesionismo. Meta e Replika hanno annunciato aggiornamenti ai loro sistemi di avviso, mentre Character.AI sta implementando il monitoraggio parentale e email di report settimanali.
Inoltre, la legge SB 53, firmata a settembre 2025, richiede la trasparenza dei dati dell’IA e protegge gli informatori (whistleblower) nell’industria tecnologica, applicandosi a OpenAI, Anthropic, Google DeepMind e Meta.
📌 La California è diventata il primo stato degli Stati Uniti a trasformare l'”etica dell’IA” in un obbligo legale: l’IA generativa deve avere delle “barriere protettive” quando interagisce con i minori. Ai chatbot IA è vietato dichiarare di essere professionisti medici e devono avvertire che tutte le risposte sono contenuti generati e non reali. Gli utenti minorenni riceveranno promemoria periodici per fare una pausa e saranno protetti dall’esposizione a contenuti sessuali. La legge sull’IA della California non serve solo da deterrente per le grandi aziende come OpenAI e Meta, ma getta anche le basi per un quadro di governance globale sulla sicurezza dell’IA conversazionale.
