Partout aux États-Unis, les États passent de simples « principes » en matière d’IA à des règles opposables. Une vague de nouvelles lois entre en vigueur en 2026, reflétant un virage pragmatique : les législateurs veulent des garde-fous pour des systèmes en évolution rapide tout en indiquant que l’innovation reste la bienvenue.
Une synthèse récente des « nouvelles lois technologiques de 2026 » a mis en lumière la rapidité d’expansion des politiques étatiques sur l’IA, depuis les exigences californiennes de transparence pour les modèles de pointe jusqu’aux protections globales des consommateurs au Colorado et au nouveau cadre de gouvernance du Texas. Il en résulte un patchwork que les entreprises, les organismes publics et les consommateurs ressentiront dans leurs opérations quotidiennes.
1) Pourquoi les États légifèrent-ils sur l’IA maintenant
Les législateurs des États réagissent à des préjudices précis et visibles : deepfakes en politique et dans le divertissement, discrimination algorithmique dans des décisions à forts enjeux, et risques de sécurité liés à des modèles « de pointe » puissants. Tandis que le Congrès avance lentement, les États comblent le vide avec des lois ciblées pouvant être mises en œuvre et appliquées localement.
Un autre moteur est la responsabilisation. Beaucoup des nouvelles lois mettent l’accent sur la divulgation, indiquant aux personnes quand l’IA est utilisée, quels risques existent et comment signaler les problèmes. Ces approches visent à créer des traces écrites que les régulateurs et les tribunaux peuvent exploiter lorsque les systèmes défaillent.
Enfin, le rythme de déploiement impose des calendriers. Comme le note la synthèse de The Verge sur les lois de 2026, plusieurs règles liées à l’IA doivent entrer en vigueur en 2026, ce qui signifie que les organisations doivent dès à présent se préparer en matière de conformité, de documentation et d’avis destinés au public.
2) California SB 53 : règles de transparence pour l’IA de pointe
La SB 53 de Californie, signée le 29 septembre 2025, est intitulée « Transparency in Frontier Artificial Intelligence Act (TFAIA) ». Selon le bureau du gouverneur, elle instaure des exigences de transparence pour les modèles de pointe, des obligations de signalement d’incidents et des protections des lanceurs d’alerte, des outils destinés à faire remonter les problèmes de sécurité en amont plutôt qu’après un échec majeur.
La couverture de Reuters souligne que la SB 53 s’applique aux grandes entreprises de l’IA et exige des divulgations de sécurité portant sur les risques catastrophiques. Le même reportage décrit des sanctions financières pouvant atteindre 1 million de dollars par violation et mentionne un seuil de chiffre d’affaires pour certaines obligations de déclaration (par exemple, les entreprises dont les revenus dépassent 500 millions de dollars).
Sur le plan politique, la SB 53 est présentée comme un équilibre. Le gouverneur Gavin Newsom a décrit l’objectif comme l’établissement de réglementations « pour protéger nos communautés » tout en veillant à ce que « l’industrie de l’IA continue de prospérer ». Le sénateur Scott Wiener a qualifié l’approche de « garde-fous de bon sens » conçus pour aider les entreprises à « comprendre et réduire le risque ».
3) California SB 243 : règles pour les chatbots compagnons et les mineurs
La Californie a également promulgué la SB 243 (codifiée le 13 octobre 2025, inscrite comme Chapitre 677, Statutes of 2025 dans le suivi législatif). Des synthèses secondaires de conformité indiquent une entrée en vigueur au 1er janvier 2026 et un ciblage des « chatbots compagnons », en particulier lorsque des mineurs peuvent être utilisateurs.
Comme le résume la California Lawyers Association, la loi prévoit des avis destinés aux mineurs, des rappels de pause et des protocoles d’atténuation du risque de suicide et d’automutilation. Cela reflète une tendance étatique plus large : réguler non pas « l’IA » de manière abstraite, mais des catégories de produits particulières qui peuvent influencer les émotions, les relations et la santé mentale.
L’application et la supervision sont centrales. Une alerte client de Skadden note des obligations de rapport annuel auprès de l’Office of Suicide Prevention de Californie et souligne également les sanctions de la loi ainsi qu’un droit d’action privé (tel que résumé dans cette alerte). Pour les entreprises, cela transforme les fonctionnalités de sécurité en livrables de conformité, politiques, journaux et rapports devant résister à l’examen.
4) California SB 524 : divulgation de l’IA dans les rapports de police
La SB 524 de Californie, signée le 13 octobre 2025, vise l’utilisation de l’IA par le gouvernement, en particulier dans la documentation des forces de l’ordre. La loi oblige la police à divulguer l’usage de l’IA dans les rapports de police, répondant aux inquiétudes selon lesquelles du contenu généré par l’IA peut être pris pour un fait avéré dès lors qu’il entre dans un dossier officiel.
Dans un communiqué, le sénateur Jesse Arreguín a présenté le projet autour de la fiabilité et de la transparence, en pointant les risques d’« hallucinations de l’IA » apparaissant dans des documents officiels. La logique est simple : si un rapport a utilisé une assistance par IA, les lecteurs en aval (procureurs, avocats de la défense, juges, journalistes) doivent en être informés.
Ce type de règle est susceptible d’influencer les achats et la formation. Les agences pourraient devoir standardiser quand l’IA peut être utilisée, comment les sorties sont vérifiées et quel libellé exact les agents doivent inclure pour divulguer l’implication de l’IA.
5) Le cadre complet du Colorado et sa date de conformité reportée
La SB 24-205 du Colorado, « Consumer Protections for Artificial Intelligence », a été approuvée le 17 mai 2024. Le résumé du projet décrit un dispositif centré sur les « systèmes d’IA à haut risque », imposant aux déployeurs et aux développeurs d’exercer une « diligence raisonnable » pour prévenir la discrimination algorithmique, assorti d’obligations de divulgation et d’une application par le procureur général.
Mais le calendrier de conformité a été modifié. La SB25B-004 du Colorado, signée le 28 août 2025, a repoussé la date de conformité au 30 juin 2026 (tandis que la SB25B-004 est elle-même entrée en vigueur le 25 novembre 2025). Des analyses juridiques, notamment celle de Greenberg Traurig, relèvent le report depuis une date initiale fixée au 1er février 2026 et anticipent d’autres amendements en 2026.
Pour les entreprises, le Colorado rappelle que la conformité en matière d’IA n’est pas un projet ponctuel. Un report peut aider à la planification, mais des ajustements législatifs continus signifient que les équipes doivent surveiller les exigences, mettre à jour les évaluations de risques et se préparer à des définitions évolutives de « haut risque » et de « diligence raisonnable ».
6) Texas HB 149 : une loi de gouvernance avec sanctions civiles
La HB 149 du Texas, la « Texas Responsible Artificial Intelligence Governance Act », apparaît dans le suivi législatif comme entrant en vigueur le 1er janvier 2026. Comme le résument des revues médiatiques texanes, la loi introduit de nouvelles règles et interdictions liées à certains usages de l’IA, y compris des questions relatives à des deepfakes explicites générés par IA.
Les modalités de mise en œuvre comptent autant que le texte législatif. Chron.com a rapporté un déploiement de gouvernance au Texas comprenant un conseil sur l’IA, un portail de déclaration et des amendes civiles, ce qui suggère que le Texas construit non seulement des règles, mais aussi l’appareil administratif pour recevoir les plaintes et orienter l’application.
Concrètement, les organisations opérant au Texas peuvent faire face à un environnement de conformité centré sur la déclaration, la gouvernance et les sanctions plutôt que sur de simples avis aux consommateurs. Cela peut déplacer les priorités internes vers des processus formalisés d’examen, de documentation et des voies d’escalade.
7) Santé mentale et « thérapie par IA » : l’Utah, le Nevada et l’Illinois renforcent la supervision
Plusieurs États convergent vers un même thème : les systèmes d’IA qui semblent fournir des services de santé mentale ou comportementale. L’AB 406 du Nevada (en vigueur le 1er juillet 2025) restreint les systèmes d’IA « spécifiquement programmés » pour fournir des services relevant de soins professionnels en santé mentale/comportementale, et limite certaines affirmations quant à ce qu’un outil d’IA peut faire. Le texte de la loi adoptée au Nevada met en avant des dispositions (notamment les « Section 7 » et « Section 8 ») qui traitent à la fois des capacités des systèmes et de l’usage par les prestataires.
L’Utah affine également son approche. Davis Polk a résumé des amendements de 2025 qui ont restreint les obligations de divulgation relatives à l’IA générative de sorte que la divulgation soit déclenchée par une « demande claire et non ambiguë », tout en prolongeant la date d’abrogation jusqu’à juillet 2027. L’Utah a aussi ajouté des protections visant les « chatbots de santé mentale », y compris des exigences décrites dans des commentaires sur le HB 452 et des projets connexes (tels que résumés par des médias comme Mondaq et Alston & Bird via JDSupra).
On cite également l’Illinois comme adoptant une ligne plus dure à l’égard de la « thérapie par IA ». Le Washington Post a rendu compte de restrictions de l’Illinois liées à l’examen des chatbots, y compris une application fondée sur les plaintes et des amendes mentionnées dans l’article. Par ailleurs, une loi de l’Illinois au 1er janvier 2026 a été décrite dans une synthèse locale comme limitant l’usage discriminatoire de l’IA dans les décisions d’emploi et exigeant une divulgation aux candidats, montrant que l’attention de l’État à l’égard de l’IA couvre à la fois le bien-être des consommateurs et l’équité au travail.
8) Deepfakes et identité : l’ELVIS Act du Tennessee comme modèle précurseur
L’ELVIS Act du Tennessee, signée le 21 mars 2024 et entrée en vigueur le 1er juillet 2024, a étendu des protections de type droit à l’image pour inclure la « voix ». Le bureau du gouverneur l’a présentée comme une réponse à l’évolution du paysage de l’IA, le gouverneur Bill Lee soulignant la nécessité d’une protection juridique à mesure que la technologie change.
Ce qui rend l’ELVIS Act notable, c’est sa portée. L’analyse de Skadden la décrit comme visant non seulement les créateurs de deepfakes et de clones vocaux, mais aussi les fournisseurs d’outils et de systèmes utilisés pour les produire. Cette structure, qui regarde au-delà de l’utilisateur final vers l’écosystème facilitateur, pourrait influencer d’autres États élaborant des lois anti-deepfakes.
À l’approche de 2026, les deepfakes demeurent un exemple mobilisateur pour les législateurs, en particulier dans les contextes électoraux. La synthèse de The Verge mentionne également des exigences de divulgation liées aux élections et à l’IA, ce qui renforce l’idée que la régulation des médias synthétiques devient un élément standard des agendas étatiques en matière d’IA.
9) La réalité de la conformité : suivre un patchwork en évolution rapide
Avec autant d’échéances et de catégories , transparence des modèles de pointe, contrôles contre la discrimination pour les systèmes à haut risque, garde-fous pour les chatbots, divulgations dans les rapports de police , , la conformité devient pluridisciplinaire. Les équipes juridique, sécurité, produit, trust & safety, RH et achats ont toutes un rôle à jouer, et les délais varient selon l’État et l’usage.
Les organisations s’appuient de plus en plus sur des outils structurés de suivi. La National Conference of State Legislatures (NCSL) tient une base de données sur la législation en matière d’Intelligence Artificielle mise à jour mensuellement (selon une mise à jour datée du 4 décembre 2025), offrant un moyen centralisé de suivre les projets et les lois adoptées à travers les États.
La stratégie la plus résiliente consiste à bâtir une gouvernance interne de l’IA capable de s’adapter : inventaires des modèles et des fournisseurs, normes de documentation, circuits de signalement des incidents, modèles de divulgation aux utilisateurs et dossiers prêts pour l’audit. Même lorsque les lois diffèrent, ces contrôles de base aident à réduire l’improvisation de dernière minute lorsqu’une nouvelle exigence étatique entre en vigueur.
Les États qui déploient de nouvelles lois sur l’IA ne se contentent pas de « faire quelque chose à propos de l’IA » ; ils fixent des attentes concrètes en matière de transparence, de sécurité, de prévention de la discrimination et de communication véridique dans des contextes sensibles comme la santé mentale, l’emploi et le maintien de l’ordre.
À mesure que davantage de lois entrent en vigueur en 2026, l’essentiel est l’accélération. La Californie, le Colorado, le Texas, l’Utah, le Nevada, l’Illinois et le Tennessee montrent à quelle vitesse le centre de gravité se déplace vers une supervision exécutoire. Pour les entreprises et les organismes publics, le prochain avantage concurrentiel pourrait être simple : la capacité de prouver, documentation et gouvernance à l’appui, que l’IA est utilisée de manière responsable.