La dernière initiative de Washington concernant l’intelligence artificielle marque un tournant décisif dans la bataille pour savoir qui pourra établir les règles pour l’une des technologies les plus importantes du siècle. Avec un nouveau décret présidentiel et un projet de loi fédéral en attente qui visent explicitement les lois étatiques sur l’IA, la Maison Blanche indique sa volonté de mettre en place un cadre national unique et d’endiguer ce qu’elle qualifie de « patchwork » de règles étatiques contraignantes. Ce changement intervient après deux années durant lesquelles ce sont les capitales des États, et non le Congrès, qui ont mené la plupart des régulations concrètes sur l’IA.
Pour les entreprises, les développeurs et la société civile, les enjeux sont élevés. Des États comme la Californie et New York ont déjà adopté des lois ambitieuses sur la sécurité et la transparence des systèmes d’IA avancés, tandis que des dizaines d’autres États expérimentent des règles touchant à tout, des deepfakes aux algorithmes de recrutement. La nouvelle stratégie de préemption de Washington pourrait geler ou annuler nombre de ces initiatives, modifiant ainsi les incitations à l’innovation, à la conformité et à la protection des consommateurs à travers les États-Unis.
Le nouveau décret présidentiel : affirmer une politique nationale sur l’IA
En décembre 2025, la Maison Blanche a publié un décret intitulé « Assurer un cadre politique national pour l’intelligence artificielle ». Ce décret énonce qu’il est de la politique fédérale de préserver la « sécurité nationale et économique et la domination » des États-Unis dans le domaine de l’IA via un cadre national aussi peu contraignant que possible. Il présente certaines lois étatiques sur l’IA comme des menaces à l’innovation et ordonne au gouvernement fédéral de surveiller ce qu’il qualifie de règles étatiques « onéreuses et excessives » jusqu’à ce que le Congrès adopte une législation globale.
Le décret ne crée pas en lui-même un code fédéral complet sur l’IA, mais il pose les bases procédurales de la préemption fédérale. Il ordonne aux agences d’aligner les règlements existants sur la politique nationale et d’identifier les autorités existantes pouvant être utilisées pour annuler les exigences étatiques contradictoires. Il relie également explicitement la politique sur l’IA aux principaux flux de financement fédéraux pour le haut débit et l’infrastructure numérique, créant ainsi un levier financier sur les États qui tenteraient d’avancer avec leurs propres réglementations strictes.
Peut-être plus important encore, le décret est présenté comme un pont vers une future législation : il ordonne aux conseillers principaux de rédiger un projet de loi qui codifierait un cadre fédéral uniforme sur l’IA et préempterait expressément les lois étatiques en contradiction avec ses objectifs. Ce faisant, il prépare le terrain à un bras de fer prolongé entre le pouvoir fédéral et les États sur la gouvernance de l’IA.
Task Force sur les litiges liés à l’IA et pression financière sur les États
L’un des piliers du décret présidentiel est la création d’une Task Force sur les litiges liés à l’IA au sein du département de la Justice des États-Unis. Dans les 30 jours suivant le décret, le procureur général doit mettre en place cette unité avec une mission unique : contester les lois étatiques sur l’IA incompatibles avec la politique du décret. La task force est autorisée à faire valoir que certaines mesures étatiques violent la clause de commerce, sont préemptées par des règlements fédéraux existants ou sont autrement illégales.
Le décret associe cette stratégie judiciaire à un outil fiscal puissant. Il ordonne au département du Commerce de publier un avis de politique conditionnant l’accès aux fonds restants du programme BEAD (Broadband Equity, Access, and Deployment) à la posture réglementaire des États sur l’IA. Les États dont les lois sur l’IA sont jugées « onéreuses » ou incompatibles avec l’approche fédérale peuvent être déclarés inéligibles à certains fonds hors déploiement. En pratique, Washington utilise l’argent de l’infrastructure pour décourager une régulation étatique agressive et indépendante de l’IA.
Cette combinaison de poursuites judiciaires et de conditions de financement est sans précédent dans le domaine de l’IA. Elle montre que l’administration est prête non seulement à plaider la préemption juridique devant les tribunaux, mais aussi à sanctionner financièrement les États qui persisteraient avec des règles strictes sur l’IA. Pour les gouverneurs et législateurs envisageant des lois ambitieuses sur l’IA, cette menace pourrait modifier considérablement le calcul politique.
Ciblage des lois étatiques sur la sécurité de l’IA : Californie, New York et au-delà
L’offensive de préemption de Washington intervient alors que plusieurs États s’apprêtent à réguler de manière agressive les systèmes d’IA puissants. La loi californienne Transparency in Frontier Artificial Intelligence Act (SB 53) oblige les entreprises développant des modèles de pointe à haut risque à publier une documentation détaillée sur les risques catastrophiques et les mesures de sécurité, et instaure des protections pour les lanceurs d’alerte en cas d’incidents liés à la sécurité de l’IA. New York a suivi avec sa propre loi Responsible AI Safety and Education (RAISE) Act, imposant des exigences strictes de planification et de déclaration d’incidents aux grands développeurs d’IA et créant un bureau étatique dédié à la sécurité de l’IA.
Ces lois ont été conçues pour combler ce que les législateurs étatiques considèrent comme une lacune dangereuse au niveau fédéral. Elles imposent des évaluations de risques accessibles au public, accélèrent les délais de divulgation pour les incidents graves liés à l’IA et imposent aux développeurs à forte capacité financière des obligations spécifiques en matière de sécurité. Les groupes industriels les critiquent comme étant trop prescriptives et redondantes, mais leurs partisans estiment qu’elles sont des garde-fous nécessaires pour des systèmes susceptibles d’affecter les marchés financiers, les infrastructures critiques et la sécurité publique.
En vertu du nouveau décret fédéral, de telles lois sont des cibles privilégiées pour une contestation. Le département du Commerce est chargé de répertorier les lois étatiques existantes sur l’IA et de qualifier celles jugées « onéreuses » ou incompatibles avec la politique fédérale. La Task Force sur les litiges liés à l’IA peut alors intenter des actions en justice pour les invalider ou les restreindre, arguant qu’elles entravent le commerce interétatique ou qu’elles sont en conflit avec un cadre national privilégiant une régulation minimale et axée sur l’innovation. En pratique, la Californie, New York et quelques autres États pionniers pourraient devenir des cas tests pour la portée de la préemption fédérale en matière d’IA.
Préemption législative : l’American AI Leadership and Uniformity Act
Alors que l’exécutif agit par décrets et par le biais des agences, le Congrès envisage également une voie législative explicite vers la préemption. L’American Artificial Intelligence Leadership and Uniformity Act, présenté à la Chambre en septembre 2025, établirait un cadre national pour l’IA et imposerait un moratoire temporaire sur certaines lois étatiques qui restreignent les modèles et systèmes d’IA impliqués dans le commerce interétatique. Le projet de loi présente ce moratoire comme un moyen d’éviter un environnement réglementaire fragmenté pendant que le gouvernement fédéral finalise ses propres normes.
L’Uniformity Act est à la fois un plan politique et une déclaration politique. Il codifie l’idée que le leadership en matière d’IA nécessite une prévisibilité réglementaire pour les entreprises opérant à l’échelle nationale ou mondiale. Dans le même temps, il limiterait fortement la capacité des États à expérimenter des règles plus strictes sur des questions telles que la transparence des modèles, la divulgation des données d’entraînement ou les évaluations de sécurité obligatoires. Comme de nombreux services d’IA modernes opèrent par défaut à travers les frontières des États, l’accroche du commerce interétatique du projet de loi est vaste.
Il reste incertain que le projet de loi soit adopté en l’état, mais son existence même renforce l’argument de l’administration selon lequel le Congrès s’oriente vers une approche fédérale uniforme. Il offre également aux États, à l’industrie et à la société civile un point de focalisation législatif : les groupes de pression et les associations militantes se mobilisent déjà pour proposer des amendements visant soit à renforcer la protection des consommateurs, soit à approfondir la préemption. L’issue de ce débat déterminera la solidité réelle de la stratégie de préemption de l’exécutif.
Résistance des États et débat sur le fédéralisme autour de l’IA
Les dirigeants des États n’acceptent pas sans broncher l’offensive de préemption de Washington. La National Conference of State Legislatures (NCSL) a officiellement réaffirmé son opposition à une large préemption sur l’IA, avertissant les dirigeants du Congrès que priver les États de leur autorité reviendrait à saper le modèle des « laboratoires de la démocratie » qui a historiquement permis des réponses innovantes aux nouvelles technologies. Les législateurs étatiques mettent en avant leur travail sur les impacts de l’IA sur les enfants, les décisions de santé et la préparation à l’emploi comme preuve de leur agilité et de leur proximité avec le terrain.
De leur point de vue, les initiatives de Washington risquent de figer l’expérimentation au moment même où les dommages concrets de l’IA deviennent visibles. Les États ont été parmi les premiers à affronter des questions telles que les deepfakes non consentis, la discrimination algorithmique dans le logement et l’emploi, ou les risques pour la santé mentale des adolescents utilisant des compagnons IA. Ils estiment que les agences fédérales, contraintes par des cycles réglementaires plus lents et des contraintes politiques plus larges, sont mal adaptées pour répondre rapidement aux nouveaux risques ou pour refléter la diversité des valeurs locales.
Ce conflit sur la gouvernance de l’IA est, au fond, un chapitre moderne d’un long débat sur le fédéralisme. Le décret présidentiel et la législation fédérale en cours considèrent l’IA comme un domaine où la compétitivité économique et la sécurité nationales justifient une forte centralisation. Les responsables étatiques rétorquent que les impacts sociaux et éthiques de cette même technologie sont hautement contextuels et nécessitent une adaptation locale. La résolution de cette tension façonnera non seulement la politique sur l’IA, mais aussi l’équilibre plus large entre pouvoir fédéral et étatique dans la régulation du numérique.
Enjeux pour les entreprises : soulagement réglementaire ou nouvelle incertitude ?
Pour les développeurs et déployeurs d’IA, la stratégie de préemption de Washington offre à la fois un soulagement potentiel et de nouvelles incertitudes. De nombreuses grandes entreprises se plaignent depuis longtemps de la complexité à naviguer entre des dizaines de lois étatiques évolutives couvrant la vie privée, la transparence de l’IA, la prise de décision automatisée et les deepfakes. Les groupes industriels citent des études estimant qu’un patchwork de règles étatiques sur l’IA pourrait entraîner des coûts de conformité de plusieurs centaines de milliards de dollars au cours de la prochaine décennie, en particulier pour les entreprises opérant à l’échelle nationale.
Un cadre fédéral unique pourrait simplifier la conformité en créant un ensemble d’obligations et de mécanismes d’application de base. Les entreprises pourraient se réjouir de poursuites judiciaires annulant les exigences étatiques les plus lourdes ou idiosyncratiques, notamment celles imposant de vastes divulgations publiques sur l’interne des modèles ou des délais courts pour la déclaration d’incidents. Pour les petites entreprises, une fragmentation réglementaire réduite pourrait abaisser les barrières à l’entrée et faciliter la fourniture de services dans plusieurs États.
Cependant, la préemption introduit aussi de nouveaux risques. Les contours du cadre fédéral restent flous, et les premières poursuites de la Task Force sur les litiges liés à l’IA feront probablement l’objet de longues batailles judiciaires. Tant que ces affaires ne seront pas tranchées et que le Congrès n’aura pas finalisé la législation, les entreprises évolueront dans une zone grise où les lois étatiques existent mais dont l’applicabilité est contestée. Les entreprises devront évaluer dans quelle mesure ajuster leurs programmes de conformité en anticipation de la préemption, sachant qu’une décision judiciaire défavorable ou un changement législatif pourrait ramener vers un paysage plus fragmenté.
Ce que cela signifie pour les consommateurs, les travailleurs et la société civile
Pour les consommateurs et les travailleurs, l’impact de la stratégie de préemption de Washington dépendra de la robustesse des futures normes fédérales. Si le cadre national préserve ou dépasse les protections étatiques les plus fortes sur des questions comme les tests de sécurité, la transparence, la discrimination et les recours, alors la préemption pourrait offrir le meilleur des deux mondes : des garde-fous solides et des droits cohérents à travers les États. Les défenseurs notent que certains secteurs, comme les services financiers et la santé, s’appuient déjà sur des normes nationales pour éviter l’arbitrage réglementaire.
Cependant, si les règles fédérales sont plus faibles que les lois étatiques existantes, la préemption pourrait faire reculer des protections dont bénéficient actuellement les résidents de certains États. Par exemple, les lois californiennes et new-yorkaises sur la sécurité de l’IA ont été conçues pour imposer la divulgation précoce des risques catastrophiques et des incidents graves. Si ces exigences sont neutralisées sans être remplacées par des mandats fédéraux d’égale force, l’effet net pourrait être moins de transparence et des réponses plus lentes aux défaillances dangereuses dans les systèmes à fort impact.
Les groupes de la société civile réorientent donc leur plaidoyer vers Washington. Les organisations qui se concentraient auparavant sur les législatures étatiques font désormais pression sur le Congrès et les agences fédérales pour intégrer des standards d’intérêt public forts dans le cadre national. Elles réclament des droits d’audit clairs, des exigences d’explicabilité pour les décisions automatisées ayant un impact significatif sur la vie des personnes, et des mécanismes d’application efficaces. L’issue de ces débats déterminera si « l’uniformité » des règles sur l’IA sert avant tout la commodité des entreprises, la protection du public, ou un mélange des deux.
L’offensive de Washington pour préempter les règles étatiques sur l’IA marque un moment charnière dans la gouvernance de l’intelligence artificielle aux États-Unis. À travers un nouveau décret, la création d’une Task Force sur les litiges liés à l’IA et le soutien à des lois comme l’American Artificial Intelligence Leadership and Uniformity Act, le gouvernement fédéral cherche à affirmer sa primauté sur un domaine que les États ont contribué à façonner. Cette démarche est motivée par la crainte d’une fragmentation réglementaire et la volonté de préserver le leadership américain en matière d’IA, mais elle se heurte de front aux ambitions des États de mettre en place leurs propres garde-fous, parfois plus stricts.
Au cours des prochaines années, l’équilibre qui émergera entre domination fédérale et expérimentation étatique définira l’environnement réglementaire pour les développeurs d’IA, les entreprises et les citoyens ordinaires. Les batailles judiciaires sur la préemption, les négociations au Congrès sur la portée des normes nationales, et l’innovation continue des États en marge détermineront ensemble si le régime américain de l’IA privilégie la rapidité et l’uniformité, ou s’il permet une approche plus pluraliste de la gestion des risques. Pour l’instant, une chose est claire : le centre de gravité de la régulation de l’IA se déplace résolument vers Washington, même si le débat sur qui doit être aux commandes ne fait que commencer.