Les procureurs généraux défendent la surveillance de l'IA par l'État

Author auto-post.io
28/11/2025
14 min. de lecture
Résumer cet article avec:
Les procureurs généraux défendent la surveillance de l'IA par l'État

À la fin de 2025, un nouveau front puissant s’est ouvert dans la bataille sur la question de savoir qui va superviser l’intelligence artificielle aux États-Unis. Loin d’être une question purement fédérale, la gouvernance de l’IA est devenue un point de friction du fédéralisme américain, avec les procureurs généraux des États menant une résistance bipartisane contre les tentatives de Washington de priver les États de leur autorité réglementaire. Leur message au Congrès et à la Maison-Blanche est clair : ne donnez pas aux géants de la tech un bouclier contre la surveillance des États avant qu’un cadre national solide n’existe.

Ce combat se déroule sur plusieurs fronts à la fois : négociations budgétaires, loi annuelle sur la défense, et même des projets de décrets présidentiels. L’enjeu est de savoir si les États pourront continuer à utiliser les outils dont ils disposent déjà pour lutter contre les deepfakes, les arnaques à l’IA, la discrimination algorithmique et l’exploitation des enfants, ou si une préemption fédérale généralisée laissera les responsables locaux spectateurs alors que l’IA façonne la vie quotidienne. Les procureurs généraux soutiennent qu’ils sont les plus proches des préjudices, les plus rapides à réagir, et historiquement les mieux équipés pour suivre le rythme des technologies en évolution rapide.

Le point de friction du NDAA : 36 procureurs généraux tracent une ligne

Le 25 novembre 2025, 36 procureurs généraux d’États et territoires ont adressé un avertissement sévère aux dirigeants du Congrès : n’utilisez pas la loi d’autorisation de la défense nationale (NDAA) pour empêcher les États d’adopter ou d’appliquer leurs propres réglementations sur l’IA. Dans une lettre bipartisane organisée par la National Association of Attorneys General (NAAG), ils ont exhorté le Congrès à rejeter toute formulation qui imposerait de fait un moratoire national sur les lois étatiques concernant l’IA. La coalition a présenté la proposition comme à la fois sans précédent et dangereuse en l’absence d’une alternative fédérale complète.

La lettre soutient que priver les États de leur autorité sur l’IA mettrait en danger les enfants, la santé publique, l’économie et même la sécurité nationale. Les responsables étatiques ont souligné qu’ils sont déjà confrontés à des préjudices liés à l’IA dans leurs dossiers, allant de fraudes sophistiquées à des crises de santé mentale aggravées par des chatbots manipulateurs. Supprimer les protections « de bon sens » des États, ont-ils averti, exposerait les Américains précisément au moment où l’IA s’accélère dans des secteurs critiques comme la santé, l’éducation, la finance et la sécurité publique.

Point crucial, les procureurs généraux insistent sur le fait qu’ils ne s’opposent pas, en principe, à une législation fédérale sur l’IA. Ce qu’ils rejettent, c’est une version de la loi nationale qui empêcherait les États d’aller plus loin que les protections fédérales ou de traiter des risques locaux. Leur modèle préféré est celui du fédéralisme coopératif : une base de règles fédérales que les autorités étatiques peuvent compléter et adapter, et non un plafond qui impose un régime uniforme en écartant l’expertise locale. Tant qu’un tel cadre n’existe pas, affirment-ils, une préemption large est prématurée et irresponsable.

Les lois étatiques sur l’IA en action : la preuve que la surveillance locale fonctionne

Pour contrer l’idée que la supervision de l’IA devrait être centralisée à Washington, les procureurs généraux mettent en avant une liste croissante de lois étatiques qui s’attaquent déjà à des préjudices concrets liés à l’IA. Leur lettre de novembre 2025 met en lumière des lois protégeant contre la création de contenus explicites par l’IA et les deepfakes intimes, interdisant les deepfakes trompeurs visant les électeurs et les consommateurs, et restreignant l’utilisation de l’IA dans les campagnes politiques. Ces mesures ne sont pas théoriques, ce sont des outils que les procureurs généraux commencent à utiliser contre des cas réels d’abus.

Les marchés du logement et de la consommation offrent d’autres exemples. Certains États ont adopté des lois protégeant les locataires contre les outils algorithmiques de fixation des loyers et imposant des obligations de transparence lorsque les consommateurs interagissent avec certains systèmes d’IA. Ces dispositions visent à limiter les décisions automatisées opaques qui peuvent renforcer la discrimination ou des prix injustes, tout en donnant aux consommateurs plus de visibilité sur les moments où des algorithmes, plutôt que des humains, déterminent des résultats clés. Les procureurs généraux estiment que démanteler ces protections via une préemption fédérale reviendrait à faire reculer les progrès dans des domaines où la loi commence à peine à rattraper la technologie.

Les lois sur la protection des données constituent un autre pilier de la surveillance émergente de l’IA au niveau des États. Sur une vingtaine d’États américains dotés de lois complètes sur la vie privée des consommateurs, la plupart incluent désormais des droits de refus concernant certaines prises de décision automatisées à haut risque et la possibilité de déclencher des évaluations d’impact de ces systèmes. Selon une analyse de Reuters de novembre 2025, l’application des lois sur la vie privée par les États chevauche de plus en plus la gouvernance de l’IA, en ciblant des sujets comme les courtiers en données alimentant les modèles d’IA et le profilage affectant le logement, l’emploi et l’éducation. Pour les procureurs généraux, ces lois prouvent que les États ne font pas que réagir ; ils construisent des architectures réglementaires durables autour de l’IA.

Letitia James et la défense des États comme premiers intervenants face à l’IA

La procureure générale de New York, Letitia James, s’est imposée comme l’une des défenseures les plus ferventes de la préservation de l’autorité des États sur l’IA. À la tête de la coalition des 36 procureurs généraux opposés à la préemption du NDAA, elle affirme que les États sont « les mieux placés » pour surveiller les préjudices liés à l’IA, car ils ont une grande expérience de l’application des lois sur la protection des consommateurs, la vie privée et les droits civiques face aux grandes entreprises technologiques. Selon elle, la rapidité et la diversité des risques liés à l’IA exigent le type de réponse rapide et informée localement que les gouvernements étatiques sont structurellement conçus pour fournir.

Le bureau de James a allié discours et action législative concrète. Une nouvelle loi new-yorkaise, mise en avant dans son communiqué du 25 novembre 2025, exige que certains chatbots détectent les pensées suicidaires, réagissent de manière appropriée et rappellent aux utilisateurs au moins toutes les trois heures qu’ils interagissent avec une machine, et non un humain. Cette loi répond directement à des preuves que les systèmes d’IA peuvent aggraver les troubles mentaux ou même encourager l’automutilation s’ils ne sont pas encadrés. Pour James et ses homologues, ce type d’intervention ciblée et fondée sur des preuves illustre pourquoi une interdiction générale des règles étatiques sur l’IA serait si préjudiciable.

Plus largement, James et d’autres procureurs généraux se présentent comme des « premiers intervenants » face à l’IA. Ils soutiennent qu’à mesure que les arnaques, deepfakes et chatbots manipulateurs générés par l’IA se multiplient, les victimes se tournent souvent en premier vers les bureaux des États pour obtenir de l’aide. Ce point de vue de première ligne, disent-ils, leur permet de repérer rapidement les nouveaux schémas d’abus et de réclamer des mises à jour législatives rapides, des capacités qu’un régulateur centralisé et éloigné aurait du mal à égaler. Préserver l’autorité des États n’est donc pas seulement une question d’orgueil institutionnel ; c’est, selon eux, une condition préalable à une protection publique efficace à l’ère de l’IA.

Efforts de préemption de la Maison-Blanche et retour de bâton fédéraliste

La pression pour limiter la surveillance étatique de l’IA ne vient pas seulement du Congrès. Le 21 novembre 2025, Reuters a rapporté que la Maison-Blanche avait rédigé un projet de décret qui permettrait au procureur général des États-Unis de poursuivre les États et, de fait, de préempter leurs réglementations sur l’IA. Le projet de décret envisageait également de conditionner certains financements pour le haut débit à une limitation des règles étatiques sur l’IA, utilisant le pouvoir de dépense fédéral comme levier pour restreindre la régulation locale.

La réaction des responsables et élus étatiques a été rapide et bipartisane. Les critiques ont averti qu’un tel décret éroderait les principes fondamentaux du fédéralisme en instrumentalisant les poursuites fédérales et le financement pour outrepasser les pouvoirs de police des États, traditionnellement réservés à la protection de la santé, de la sécurité et du bien-être. Ils ont également soutenu que cette mesure favoriserait les grandes entreprises technologiques, qui ont activement fait pression pour une norme nationale unique et une préemption fédérale large des mesures étatiques sur l’IA.

Face à la réaction, l’administration a mis en pause le projet de décret, illustrant à quel point le fédéralisme autour de l’IA est devenu politiquement sensible. Mais les procureurs généraux soulignent qu’il ne s’agissait pas d’un épisode isolé. Ils relèvent au moins trois initiatives fédérales distinctes depuis 2024 et 2025 visant à limiter la surveillance étatique de l’IA : un amendement budgétaire imposant un « moratoire sur l’IA », une formulation du NDAA restreignant les règles étatiques, et l’initiative exécutive mise en pause. À chaque fois, des coalitions bipartites de 30 à plus de 40 procureurs généraux sont intervenues, qualifiant ces propositions de « vastes » et avertissant qu’elles laisseraient les Américains « complètement exposés » en l’absence de protections fédérales robustes.

Big Tech, préemption et accusation de « cadeau »

Les procureurs généraux des États n’hésitent pas à nommer ceux qui, selon eux, bénéficieraient d’une large préemption des lois étatiques sur l’IA : les grandes entreprises technologiques. Un rapport de Reuters du 25 novembre 2025 note que la position des procureurs généraux entre en conflit direct avec les efforts de lobbying d’entreprises comme OpenAI, Google, Meta et le fonds Andreessen Horowitz, qui plaident pour une norme nationale unique sur l’IA qui supplanterait les mesures étatiques. Ces entreprises soutiennent qu’un patchwork de règles étatiques freinerait l’innovation et imposerait des obligations contradictoires aux développeurs d’IA.

Le procureur général du Connecticut, William Tong, a été particulièrement direct. Il a qualifié la préemption fédérale proposée de « cadeau aux géants de la tech cherchant à remodeler notre société sans aucune surveillance ni responsabilité ». Tong affirme que les procureurs généraux sont « en première ligne » face à des préjudices tels que les arnaques à l’IA visant les personnes âgées, les contenus déformant la réalité qui aggravent les troubles mentaux, et les chatbots qui engagent ou encouragent l’automutilation chez les enfants et les adultes. Dans ce contexte, il avertit qu’une interdiction des lois étatiques sur l’IA « pourrait être catastrophique pour la sécurité des personnes ».

Pour Tong et de nombreux collègues, le risque n’est pas seulement celui d’une capture théorique par l’industrie ; c’est un problème structurel. Un cadre fédéral unique, fortement influencé par le lobbying et empêchant les États d’aller plus loin, créerait selon eux une sorte de monoculture réglementaire, susceptible d’être affaiblie avec le temps et lente à s’adapter à l’apparition de nouveaux préjudices liés à l’IA. À l’inverse, un système pluraliste de surveillance fédérale et étatique permet l’expérimentation, des protections renforcées là où c’est nécessaire, et garantit que si un niveau de gouvernement faillit, un autre peut intervenir.

La protection de l’enfance, centre moral du débat

Parmi les nombreux arguments des procureurs généraux pour préserver l’autorité des États sur l’IA, la protection de l’enfance est devenue le plus fort sur le plan émotionnel. Le 25 août 2025, 44 procureurs généraux ont envoyé des lettres aux principales entreprises d’IA, dont Meta, Google, Apple, Microsoft, OpenAI, Anthropic, Perplexity AI et xAI, pour les alerter sur les interactions sexuellement suggestives et émotionnellement manipulatrices des chatbots avec des mineurs. Ils se sont engagés à « utiliser tous les outils juridiques et réglementaires disponibles » si les entreprises ne protègent pas les enfants, soulignant leur conviction que les garde-fous actuels sont insuffisants.

Cette initiative s’appuie sur des efforts bipartisans antérieurs. Le 11 juin 2024, le même nombre de procureurs généraux a soutenu la loi fédérale sur la lutte contre l’exploitation des enfants et la création d’une commission d’experts sur l’intelligence artificielle, comparant l’IA à des outils tels qu’un « couteau ou un marteau » qui peuvent être détournés pour produire du matériel pédopornographique. Ils ont exhorté le Congrès à mettre à jour les lois pour permettre aux forces de l’ordre de suivre le rythme de l’exploitation facilitée par l’IA. Pour les responsables étatiques, ces épisodes montrent à quelle vitesse l’IA peut amplifier les menaces existantes, en particulier contre les populations vulnérables.

Les procureurs généraux lient explicitement leurs campagnes pour la sécurité des enfants à leur résistance à la préemption fédérale. Ils soutiennent que la connaissance locale des réseaux criminels régionaux, des dynamiques culturelles et des prestataires de services, combinée à la capacité d’adopter des lois étatiques ciblées, est essentielle pour protéger les mineurs contre des menaces liées à l’IA en évolution rapide. Un régime fédéral uniforme qui bloquerait l’innovation étatique, préviennent-ils, pourrait retarder les réponses alors que chaque semaine ou mois compte, surtout à mesure que l’IA générative accélère la production et la diffusion de contenus nocifs.

Rôle historique des États et plaidoyer pour un fédéralisme coopératif sur l’IA

Pour défendre leur autorité sur l’IA, les procureurs généraux invoquent fréquemment l’histoire. Les États ont longtemps été à l’avant-garde de la protection des consommateurs et de l’application des lois technologiques, des premières actions sur la vie privée contre les courtiers en données et les réseaux sociaux aux règlements multilatéraux sur les violations de données et les pratiques numériques trompeuses. Un « bilan annuel » de Reuters de novembre 2025 sur les lois étatiques de protection de la vie privée a documenté comment les régulateurs étatiques ont repoussé les limites sur des sujets comme la minimisation des données, le profilage algorithmique et la transparence, des questions désormais au cœur de la gouvernance de l’IA.

La coopération multilatérale et internationale renforce encore l’argument des procureurs généraux. Les enquêtes et règlements conjoints sont devenus courants, permettant aux États de mutualiser leur expertise et d’agir à grande échelle contre les entreprises technologiques mondiales. Les procureurs généraux estiment que ce modèle collaboratif peut être étendu à l’IA, permettant une action coordonnée contre les préjudices transfrontaliers sans attendre une loi fédérale unique sur l’IA. Dans leur vision, agences fédérales et autorités étatiques partageraient l’information, harmoniseraient les normes de base et agiraient de concert lorsque nécessaire.

Ce modèle, le fédéralisme coopératif, offre une voie médiane entre la fragmentation non coordonnée et la préemption autoritaire. La loi fédérale peut établir des exigences et garanties de procédure fondamentales, tandis que les États conservent l’autorité de répondre aux conditions locales, d’innover avec de nouvelles protections et de combler les lacunes à mesure que de nouvelles applications de l’IA émergent. Pour les procureurs généraux, le choix n’est pas entre contrôle fédéral ou étatique ; il s’agit de choisir entre un système dynamique et stratifié de surveillance, et un cadre centralisé et figé, potentiellement inadapté à une technologie en constante évolution.

À mesure que l’IA s’inscrit plus profondément dans le tissu de la vie quotidienne, le conflit sur qui la régule devient aussi important que les règles elles-mêmes. La révolte de fin 2025 de dizaines de procureurs généraux contre la préemption du NDAA, les moratoires budgétaires et un projet de décret de la Maison-Blanche montre que les États ne renonceront pas discrètement à leur rôle. Des interdictions de deepfakes aux garde-fous sur les algorithmes de fixation des loyers, en passant par les obligations de prévention du suicide pour les chatbots, ils mettent en avant un corpus croissant de lois étatiques comme preuve que la surveillance locale est non seulement possible, mais protège déjà concrètement les citoyens.

Que le Congrès opte finalement pour une préemption généralisée ou pour une approche coopérative déterminera la trajectoire de la gouvernance de l’IA aux États-Unis pour les années à venir. Pour l’instant, les procureurs généraux parient que les Américains veulent plus, et non moins, de protection à mesure que les systèmes d’IA deviennent plus puissants et omniprésents. Selon eux, préserver l’autorité des États n’est pas une bataille de pré carré, mais une stratégie pragmatique pour garantir que, lorsque de nouveaux préjudices liés à l’IA apparaîtront, en particulier contre les enfants et autres groupes vulnérables, il y aura plusieurs niveaux de gouvernement réactifs prêts à agir.

Prêt à commencer ?

Commencez à automatiser votre contenu dès aujourd'hui

Rejoignez les créateurs de contenu qui font confiance à notre IA pour générer des articles de blog de qualité et automatiser leur flux de publication.

Aucune carte de crédit requise
Annulez à tout moment
Accès instantané
Résumer cet article avec:
Partager cet article :