Le gouverneur de Californie, Gavin Newsom, vient de promulguer la loi SB 53, la première législation aux États-Unis à exiger des grands laboratoires d’IA qu’ils fassent preuve de transparence sur leurs protocoles de sûreté et de sécurité, notamment pour empêcher que les modèles ne soient exploités pour des cyberattaques ou la création d’armes biologiques.
La loi confère au Bureau des services d’urgence de Californie (OES) le pouvoir de superviser et de contraindre les entreprises à respecter leurs procédures de sécurité publiées. Les infractions pourraient entraîner des sanctions administratives ou le retrait de leur licence d’exploitation de l’IA.
Adam Billen, vice-président des politiques publiques chez Encode AI, a qualifié cette loi de percée qui équilibre innovation et sécurité, prouvant que « la réglementation n’étouffe pas nécessairement la créativité ».
Billen a noté que si la plupart des entreprises ont déjà des processus de test de sécurité et publient des « model cards », certaines « assouplissent leurs normes » en raison de la pression concurrentielle, ce qui rend des lois comme la SB 53 nécessaires pour garantir que les engagements en matière de sécurité ne soient pas contournés au profit du profit.
La SB 53 est considérée comme une version « plus légère » de la SB 1047, un projet de loi auquel Newsom avait opposé son veto en 2024 car jugé trop restrictif pour les entreprises. Cette fois, la SB 53 a obtenu un consensus rare entre les législateurs et l’industrie technologique.
Cependant, le monde de la technologie de la Silicon Valley reste prudent : Meta, Andreessen Horowitz et des personnalités comme Greg Brockman (OpenAI) investissent des centaines de millions de dollars dans des super PAC pour soutenir les politiciens « pro-IA » et s’opposer aux lois au niveau des États.
Ces groupes avaient auparavant fait pression pour un moratoire de 10 ans sur la réglementation de l’IA, mais Encode AI a formé une coalition de plus de 200 organisations pour faire échouer cette proposition. Néanmoins, le sénateur Ted Cruz promeut actuellement le SANDBOX Act, qui permettrait aux entreprises d’IA de demander une exemption de 10 ans aux réglementations fédérales — une mesure qui, selon Billen, éliminerait le rôle des États dans la gouvernance technologique.
Billen a souligné : « Si vous voulez vraiment que les États-Unis battent la Chine dans la course à l’IA, concentrez-vous sur le contrôle des exportations de puces et la chaîne d’approvisionnement, et non sur la suppression des lois au niveau des États. »
Des lois comme le CHIP Security Act et le CHIPS and Science Act tentent d’empêcher la fuite de puces d’IA avancées vers la Chine, mais Nvidia et OpenAI ont exprimé des inquiétudes quant à l’impact économique. L’administration Trump a également pris des mesures contradictoires, en élargissant l’interdiction d’exportation tout en autorisant la vente de puces en échange de 15 % des revenus.
Billen a conclu que la SB 53 démontre la vitalité de la démocratie et du fédéralisme américains — même si c’est « laid et désordonné », cela représente le processus de collaboration entre l’État et les entreprises pour trouver un équilibre entre la liberté de création et la sécurité sociale.
📌 Résumé : La nouvelle loi californienne sur la sécurité de l’IA marque une étape historique, faisant de la Californie le premier État à contraindre les laboratoires d’IA à divulguer leurs procédures de sécurité et à se soumettre à une surveillance concrète. Alors que l’industrie technologique craint d’être « entravée », de nombreux experts y voient un modèle pour le monde, prouvant qu’une réglementation intelligente peut coexister avec l’innovation, plutôt que de s’y opposer.

