Les États s'opposent à la préemption fédérale en matière d'IA

Author auto-post.io
26/11/2025
16 min. de lecture
Résumer cet article avec:
Les États s'opposent à la préemption fédérale en matière d'IA

L’intelligence artificielle est devenue le dernier point de friction dans une longue lutte d’influence entre Washington et les États. Alors que les systèmes d’IA passent rapidement des laboratoires aux salles de classe, aux hôpitaux, aux lieux de travail et aux services de police, la question n’est plus de savoir s’il faut réglementer, mais qui aura le droit d’écrire les règles. Cette question apparemment technique , autorité fédérale ou étatique , façonne désormais tout, des lois sur la sécurité des enfants à la supervision des modèles d’IA à haut risque.

En 2025, le conflit autour de la préemption de l’IA éclate au grand jour. Le Congrès, la Maison Blanche, les législatures d’État et l’industrie ont tous défendu des visions concurrentes sur le degré d’autonomie que les États devraient conserver dans la gouvernance de l’IA. D’un côté, les responsables fédéraux et de nombreuses grandes entreprises technologiques mettent en garde contre un patchwork de règles incohérentes qui freinerait l’innovation et fragmenterait le marché national. De l’autre, les États insistent sur le fait qu’ils agissent déjà en tant que « laboratoires agiles de la démocratie » et ne doivent pas être mis à l’écart par des plafonds fédéraux généralisés sur leur autorité.

La rébellion de la NCSL contre la préemption fédérale de l’IA

L’expression la plus directe de cette résistance est venue le 22 octobre 2025, lorsque la National Conference of State Legislatures (NCSL) a envoyé une lettre cinglante aux dirigeants du Congrès. Parlant au nom des 50 législatures d’État, la NCSL a « réaffirmé » son opposition à toute proposition fédérale visant à préempter l’autorité des États sur l’IA. Ce mot « toute » est crucial : l’organisation ne chipotait pas sur le libellé d’un projet de loi particulier, mais rejetait l’idée même que Washington doive occuper le terrain.

Dans la lettre, la NCSL soutenait qu’une préemption large « saperait le système fédéraliste » en effaçant le rôle même que les États sont censés jouer dans la gouvernance américaine. Les États, écrivait-elle, doivent rester des « laboratoires de la démocratie » sur l’IA, testant des approches sur des questions telles que l’impact de l’IA sur les enfants, les décisions de santé, la préparation de la main-d’œuvre, la transparence, la vie privée et la sécurité publique. Plutôt que de voir l’expérimentation étatique comme un obstacle, la NCSL la présente comme une caractéristique de l’innovation américaine et de la protection des droits.

Le message de la NCSL s’oppose également au récit selon lequel l’IA serait trop nouvelle ou complexe pour les assemblées législatives des États. La lettre souligne que les États légifèrent déjà « activement et avec agilité » sur l’IA de manière bipartisane, en mettant en avant leur expérience dans des domaines tels que la protection des données et les biais algorithmiques. Plutôt que d’accepter un plafond national qui figerait l’élaboration de politiques étatiques, la NCSL exhorte le Congrès à préserver un espace pour des solutions au niveau des États, capables d’avancer plus vite que la législation fédérale et de s’adapter aux besoins locaux.

Le Congrès flirte avec un gel de 10 ans des lois étatiques sur l’IA

Alors que la NCSL défendait l’autorité des États, certains membres du Congrès allaient dans la direction opposée. En mai 2025, la commission de l’énergie et du commerce de la Chambre a avancé un texte de réconciliation budgétaire imposant un moratoire de 10 ans sur l’application par les États des réglementations sur l’IA, avec seulement de rares exceptions. La mesure interdirait à « tout État ou subdivision politique de celui-ci » de faire appliquer des lois réglementant les « modèles d’intelligence artificielle, systèmes d’intelligence artificielle ou systèmes de décision automatisés » durant la décennie suivant l’adoption.

L’ampleur de cette proposition est frappante. Elle balayerait les règles étatiques sur les biais algorithmiques, les deepfakes générés par l’IA dans les campagnes politiques, l’utilisation de l’IA dans la santé et l’assurance, la surveillance pilotée par l’IA, les obligations de transparence pour la prise de décision automatisée et les protections spécifiques aux données de l’IA. Les analystes juridiques la décrivent comme une tentative sans précédent d’anéantir d’un coup à la fois les règles existantes et futures des États sur l’IA, substituant de fait un veto fédéral aux choix démocratiques locaux.

Sans surprise, le langage du moratoire est devenu une pièce centrale dans l’argumentaire des responsables étatiques contre l’empiètement fédéral. La NCSL et des législateurs d’État citent régulièrement le gel de 10 ans comme l’exemple de ce qu’ils redoutent : une préemption généralisée sans véritable régime fédéral de sécurité pour remplacer ce que les États construisent déjà. À leurs yeux, exclure les États de la gouvernance de l’IA pendant une décennie, en pleine mutation technologique rapide, ne serait pas seulement anti-fédéraliste, ce serait irresponsable.

Le projet de décret de la Maison Blanche et la préemption par voie judiciaire

Alors même que le Congrès peine à adopter une législation complète sur l’IA, l’exécutif explore une autre voie : utiliser les outils juridiques et agences existants pour faire pression sur les régimes étatiques de l’IA ou les supplanter. Un projet de décret divulgué, rapporté par POLITICO le 19 novembre 2025, montre la Maison Blanche préparant une stratégie coordonnée à l’échelle du gouvernement pour faire tomber les lois étatiques sur l’IA par le biais de contentieux et de manœuvres réglementaires plutôt que par de nouveaux textes.

Selon la fuite, le décret créerait une « task force contentieux IA » au sein du Département de la Justice, chargée de contester les réglementations étatiques sur l’IA comme violations de la clause de commerce dormant ou comme préemptées par des lois fédérales existantes. Le Département du Commerce serait chargé de recenser les lois étatiques « contraignantes » sur l’IA sous 90 jours, créant de fait une liste de cibles. La Federal Trade Commission examinerait si certaines règles étatiques sur l’IA violent elles-mêmes la loi FTC, et la Federal Communications Commission fixerait des normes fédérales de divulgation pour l’IA dans les communications, conçues au moins en partie pour préempter les exigences contradictoires des États.

Les groupes industriels technologiques seraient largement favorables à cette stratégie, arguant qu’un patchwork de lois étatiques crée un chaos de conformité, en particulier pour les grands développeurs de modèles et plateformes opérant à l’échelle nationale. Mais le décret divulgué souligne aussi une réalité politique : les projets de loi de préemption explicite de l’IA sont régulièrement bloqués au Congrès, alors même que les États adoptent rapidement leurs propres lois. Pour la Maison Blanche, la préemption par voie judiciaire peut sembler une solution pragmatique ; pour les États, cela ressemble à une tentative de contourner le débat démocratique sur l’équilibre des pouvoirs fédéraux et étatiques à l’ère de l’IA.

SB 53 de Californie : un cas test pour l’IA de pointe

Nulle part le conflit sur la préemption de l’IA n’est plus visible qu’en Californie, qui s’est imposée comme régulateur de facto du secteur technologique. En 2025, l’État a adopté la SB 53, la loi sur la transparence dans l’intelligence artificielle de pointe, visant les grands développeurs d’IA, ceux dont le chiffre d’affaires dépasse 500 millions de dollars et dont les modèles sont entraînés au-delà de certains seuils de calcul. Ces entreprises doivent désormais publier des évaluations publiques des « risques catastrophiques » tels que la conception d’armes biologiques, les cyberattaques à grande échelle ou la perte de contrôle humain sur les systèmes d’IA.

La SB 53 exige également des entreprises qu’elles divulguent leur conformité aux normes nationales et internationales de sécurité de l’IA, déposent des rapports sur les « incidents de sécurité critiques » et maintiennent des canaux d’alerte. Le gouverneur Gavin Newsom et le sénateur Scott Wiener, auteur du texte, ont explicitement présenté la loi comme comblant un « vide réglementaire » laissé par le Congrès, signalant que la Californie est prête à avancer alors que les législateurs fédéraux débattent encore de cadres nationaux. Cette posture a immédiatement soulevé une question : les futures règles fédérales, ou le décret divulgué, tenteront-ils de préempter la SB 53 ?

La réaction du secteur à la SB 53 a été divisée, révélant des fractures au sein des habituels appels à des normes nationales uniformes. Certaines grandes entreprises et investisseurs en IA ont exhorté Washington à établir un code fédéral unique qui primerait sur les approches État par État comme celle de la Californie. D’autres, dont certains laboratoires axés sur la sécurité, ont soutenu la SB 53 comme socle nécessaire pour la supervision des modèles de pointe. La loi sert donc de cas test précoce pour voir si des régimes de sécurité de l’IA pilotés par les États peuvent coexister avec, ou seront évincés par, une future action fédérale.

Le veto de la SB 1047 : calibrer l’ambition étatique face aux vents fédéraux

La stratégie californienne n’a pas toujours été maximaliste. En 2024, le gouverneur Newsom a opposé son veto à la SB 1047, la loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle de pointe. Ce texte aurait imposé des obligations de sécurité et des outils de contrôle plus larges aux « modèles de pointe » entraînés au-delà de 10²⁶ FLOPs, couvrant tout développeur opérant en Californie, quel que soit son siège. Comparée à la SB 53, la SB 1047 était plus ambitieuse et interventionniste.

Dans son message de veto, Newsom a exprimé la crainte que la législation ne soit trop intrusive et risque d’entrer en conflit avec de futurs cadres fédéraux. Le gouverneur n’a pas rejeté le principe d’une régulation de la sécurité de l’IA ; il s’est inquiété d’enfermer la Californie dans un régime susceptible d’être préempté ou de créer de fortes frictions avec la politique nationale. La rédaction et l’adoption ultérieures de la SB 53, plus restreinte, ont reflété un effort pour maintenir la Californie à l’avant-garde de la gouvernance de l’IA sans s’exposer à une invalidation fédérale directe.

Cette séquence , veto de la SB 1047, puis adoption de la SB 53 , illustre comment les États tentent de calibrer leurs lois sur l’IA en prévision de batailles sur la préemption. Les législateurs veulent avancer avec vigueur sur la sécurité et la transparence, mais doivent aussi anticiper la façon dont les tribunaux percevront les règles étatiques une fois que les agences fédérales, armées de décrets ou de nouvelles lois, affirmeront leur propre autorité en matière de gouvernance de l’IA. En ce sens, la Californie est à la fois un leader et un baromètre pour les autres États envisageant de réglementer les modèles de pointe sous des contraintes fédérales incertaines.

Sécurité des enfants, deepfakes et limites de la préemption

Si une grande partie du débat sur la préemption de l’IA porte sur des questions abstraites de commerce et d’innovation, certains des terrains les plus émotionnellement chargés concernent des préjudices concrets comme l’exploitation des enfants et les deepfakes intimes. La SB 20 du Texas, la loi visant à stopper la pornographie enfantine générée par l’IA, en est un exemple frappant. Adoptée en 2025, la loi criminalise la possession, la promotion ou la production de matériel visuel obscène représentant un mineur, y compris les images générées par IA et même les dessins animés.

Les partisans texans de la SB 20 la présentent comme faisant partie d’un effort plus large pour répondre à la façon dont l’IA peut faciliter l’exploitation des enfants, invoquant les pouvoirs traditionnels de police de l’État en matière de sécurité publique et de protection de l’enfance. Ils soutiennent qu’attendre une réponse fédérale est intenable alors que les outils d’IA permettent déjà de fabriquer des images d’abus très réalistes. Les critiques, dont des défenseurs des libertés civiles, contestent la constitutionnalité de la loi et ses implications pour la liberté d’expression et l’art ; il n’en reste pas moins qu’elle illustre l’intensité avec laquelle certains États s’emploient à réguler les préjudices liés à l’IA envers les enfants.

Ce type de lois pose un problème particulièrement sensible pour la préemption fédérale généralisée. Si Washington tente de balayer ou de limiter fortement les règles étatiques sur l’IA, devra-t-il prévoir des exceptions pour des lois de protection de l’enfance comme la SB 20 ? Les procureurs généraux des États ont déjà suggéré que tout cadre national de l’IA qui les empêcherait de poursuivre l’exploitation infantile liée à l’IA serait explosif politiquement et juridiquement. En pratique, cela pourrait forcer les décideurs fédéraux à adopter une approche plus nuancée de la préemption, en préservant un espace important pour les réponses étatiques aux abus les plus graves permis par l’IA.

Planchers fédéraux vs plafonds fédéraux : la loi TAKE IT DOWN

La loi bipartisane TAKE IT DOWN, adoptée en mai 2025, illustre une autre façon dont la politique fédérale et étatique sur l’IA peut interagir : en établissant un « plancher » national plutôt qu’un « plafond ». La loi oblige les plateformes à retirer les images deepfake intimes non consensuelles, répondant à une crise croissante de contenus sexuels fabriqués par l’IA pour harceler, extorquer ou réduire au silence les victimes. Surtout, elle le fait au niveau fédéral sans exclure explicitement la possibilité pour les États d’adopter des recours plus forts ou plus larges.

Pour beaucoup dans l’industrie technologique, des règles fédérales comme TAKE IT DOWN sont attrayantes précisément parce qu’elles promettent une base uniforme. Cependant, certaines entreprises préféreraient que ces règles servent aussi de plafonds, évinçant les lois étatiques les plus agressives ou idiosyncratiques. À l’inverse, la NCSL et de nombreux législateurs étatiques soutiennent que les lois fédérales sur l’IA devraient être des normes minimales, pas maximales, permettant aux États d’aller plus loin là où les conditions locales ou la demande publique le justifient.

Cette tension entre plancher et plafond fédéral devient rapidement une ligne de fracture centrale dans la gouvernance de l’IA. Un plancher fédéral, comme TAKE IT DOWN, offre une protection nationale tout en laissant aux États la possibilité d’innover. Un plafond fédéral, comme dans le moratoire de 10 ans proposé, fige l’expérimentation politique des États et concentre le pouvoir à Washington. Le choix du Congrès sur cette question déterminera si les États restent des co-régulateurs de l’IA ou sont relégués à un rôle marginal.

Lacunes en matière de droits d’auteur, de travail et de vie privée : pourquoi les États résistent

À la base de la résistance des États à la préemption se trouve un constat pratique : le Congrès a laissé d’importantes lacunes dans la gouvernance de l’IA. La lettre de la NCSL de 2025 met en avant l’activité législative continue des États sur l’IA et la vie privée, les régimes plus larges de protection des données, les impacts sur la main-d’œuvre et la protection des consommateurs. Des lois sur les données biométriques aux audits d’embauche algorithmiques, les États affirment qu’ils ne se contentent pas de combler un vide, mais développent des approches nuancées, informées par les économies et valeurs locales.

La transparence sur les droits d’auteur en est un exemple révélateur. Des propositions fédérales comme la Generative AI Copyright Disclosure Act du représentant Adam Schiff, qui exigerait la divulgation des œuvres protégées utilisées pour entraîner l’IA générative, sont au point mort à Washington. En l’absence de règles nationales claires, les États considèrent l’utilisation de contenus protégés pour l’entraînement de l’IA, et ses effets sur les créateurs et les industries culturelles, comme un domaine où ils doivent conserver une flexibilité réglementaire.

Il en va de même pour le travail et la vie privée. Alors que l’IA transforme les lieux de travail et les capacités de surveillance, les législateurs étatiques ont déposé des projets de loi sur la prise de décision automatisée dans l’embauche, la surveillance des travailleurs par l’IA et le profilage des consommateurs par l’IA. Beaucoup de ces initiatives seraient annulées ou gelées sous une préemption fédérale large, laissant travailleurs et consommateurs dépendants d’un processus fédéral plus lent et plus paralysé. Pour la NCSL et ses membres, c’est précisément le résultat que le fédéralisme est censé éviter.

Le décret 14179 et l’inclinaison fédérale vers la préemption

La rhétorique fédérale penche de plus en plus vers la centralisation. Le décret 14179, signé le 23 janvier 2025 et intitulé « Lever les obstacles au leadership américain en intelligence artificielle », ordonne au gouvernement fédéral de « réviser ou abroger les politiques qui entravent » une politique d’innovation en IA et d’élaborer un plan d’action pour maintenir la domination américaine en IA. Bien que le décret ne préempte pas explicitement les lois étatiques, son langage sur la suppression des « obstacles » a été interprété par les commentateurs comme un signal d’orientation pro-préemption.

Pour les responsables étatiques, le décret 14179 ressemble moins à une stratégie industrielle neutre qu’au premier acte d’une campagne visant à justifier la primauté des réglementations fédérales sur celles des États au nom de la compétitivité. Associé au projet de décret divulgué ciblant les régimes étatiques sur l’IA et au moratoire de 10 ans proposé par la Chambre, le tableau est celui d’une posture fédérale émergente qui considère les règles étatiques comme des obstacles à minimiser, et non comme des garanties complémentaires.

La position de la NCSL en 2025 s’oppose directement à ce consensus naissant. Les États ne contestent pas l’objectif du leadership américain en IA ; ils soutiennent au contraire qu’une gouvernance robuste et adaptée localement est un atout compétitif, pas un handicap. En mettant en lumière les risques précocement, en protégeant les résidents et en bâtissant la confiance du public, les lois étatiques pourraient finalement faciliter, et non entraver, l’acceptation et le déploiement à grande échelle des systèmes d’IA.

La lutte autour de la préemption de l’IA n’est pas simplement un différend technique de compétence ; c’est un choix sur la façon dont les États-Unis gouverneront une technologie transformatrice. Les États ont clairement indiqué, par la lettre de la NCSL et une vague de législation de la Californie au Texas, qu’ils n’entendent pas abandonner leur rôle de premiers intervenants face aux risques et opportunités de l’IA. Les efforts fédéraux pour imposer des plafonds généralisés, qu’il s’agisse d’un moratoire de 10 ans, d’une préemption par contentieux ou de vastes mandats exécutifs, se heurteront à cette détermination.

Au cours de la prochaine décennie, la voie la plus durable sera probablement une approche à plusieurs niveaux : des planchers fédéraux solides sur des sujets comme l’exploitation par deepfake et la transparence de base, combinés à une marge de manœuvre pour que les États aillent plus loin sur des questions telles que la sécurité des enfants, le travail, la vie privée et la supervision des modèles de pointe. Que Washington adopte finalement ce modèle ou s’en tienne à la préemption déterminera non seulement l’équilibre des pouvoirs entre les gouvernements fédéral et étatiques, mais aussi la légitimité et la crédibilité de la gouvernance de l’IA aux yeux du public qui devra en vivre les conséquences.

Prêt à commencer ?

Commencez à automatiser votre contenu dès aujourd'hui

Rejoignez les créateurs de contenu qui font confiance à notre IA pour générer des articles de blog de qualité et automatiser leur flux de publication.

Aucune carte de crédit requise
Annulez à tout moment
Accès instantané
Résumer cet article avec:
Partager cet article :