Los fiscales generales defienden la supervisión estatal de la IA

Author auto-post.io
11-28-2025
13 min. de lectura
Resumir este artículo con:
Los fiscales generales defienden la supervisión estatal de la IA

A finales de 2025, se abrió un nuevo y poderoso frente en la batalla sobre quién regulará la inteligencia artificial en Estados Unidos. Lejos de ser una cuestión puramente federal, la gobernanza de la IA se ha convertido en un punto crítico del federalismo estadounidense, con fiscales generales estatales liderando una resistencia bipartidista contra los esfuerzos de Washington para despojar a los estados de su autoridad reguladora. Su mensaje al Congreso y la Casa Blanca es claro: no entreguen a las grandes tecnológicas un escudo contra la supervisión estatal antes de que exista un marco nacional sólido.

Esta lucha se desarrolla en múltiples frentes a la vez: negociaciones presupuestarias, la ley anual de defensa e incluso borradores de órdenes ejecutivas. Lo que está en juego es si los estados podrán seguir utilizando las herramientas que ya emplean para combatir los deepfakes, las estafas con IA, la discriminación algorítmica y la explotación infantil, o si una amplia preeminencia federal dejará a los funcionarios locales como meros espectadores mientras la IA transforma la vida cotidiana. Los fiscales generales argumentan que están más cerca de los daños, responden más rápido y están históricamente mejor preparados para seguir el ritmo de las tecnologías emergentes.

El punto crítico de la NDAA: 36 fiscales generales marcan un límite

El 25 de noviembre de 2025, 36 fiscales generales estatales y territoriales enviaron una severa advertencia a los líderes del Congreso: no utilicen la Ley de Autorización de Defensa Nacional (NDAA) para impedir que los estados aprueben o hagan cumplir sus propias regulaciones sobre IA. En una carta bipartidista organizada a través de la Asociación Nacional de Fiscales Generales (NAAG), instaron al Congreso a rechazar un lenguaje que, en la práctica, impondría una moratoria nacional sobre las leyes estatales de IA. La coalición calificó la propuesta de inédita y peligrosa en ausencia de una alternativa federal integral.

La carta argumenta que impedir la autoridad estatal sobre la IA pondría en peligro a los niños, la salud pública, la economía e incluso la seguridad nacional. Los funcionarios estatales enfatizaron que ya están enfrentando daños habilitados por la IA en sus expedientes, desde sofisticados esquemas de fraude hasta crisis de salud mental agravadas por chatbots manipuladores. Eliminar las protecciones estatales de “sentido común”, advirtieron, dejaría a los estadounidenses expuestos justo cuando la IA se acelera en sectores críticos como la salud, la educación, las finanzas y la seguridad pública.

De manera crucial, los fiscales generales subrayaron que no se oponen a una legislación federal sobre IA en principio. Lo que rechazan es una versión de la ley nacional que impida a los estados ampliar las protecciones federales o abordar riesgos locales. Su modelo preferido es el federalismo cooperativo: una base de reglas federales que los estados puedan complementar y adaptar, no un techo que imponga un régimen único y excluya la experiencia local. Hasta que exista ese tipo de marco, argumentan, una preeminencia amplia es prematura e irresponsable.

Leyes estatales de IA en acción: evidencia de que la supervisión local funciona

Para contrarrestar la idea de que la supervisión de la IA debe centralizarse en Washington, los fiscales generales han señalado una lista creciente de leyes estatales que ya están abordando daños concretos de la IA. Su carta de noviembre de 2025 destaca estatutos que protegen contra material explícito generado por IA y deepfakes íntimos, prohíben deepfakes engañosos dirigidos a votantes y consumidores, y restringen el uso de IA en campañas políticas. Estas medidas no son teóricas; son herramientas que los fiscales generales ya están comenzando a utilizar contra casos reales de abuso.

Los mercados de vivienda y consumo ofrecen más ejemplos. Algunos estados han adoptado leyes para proteger a los inquilinos de herramientas algorítmicas de fijación de rentas y exigir divulgaciones cuando los consumidores interactúan con ciertos sistemas de IA. Estas disposiciones buscan frenar la toma de decisiones automatizada opaca que puede perpetuar la discriminación o precios injustos, al tiempo que otorgan a los consumidores más visibilidad sobre cuándo los algoritmos, en lugar de los humanos, están determinando resultados clave. Los fiscales generales estatales argumentan que desmantelar estas protecciones mediante la preeminencia federal supondría un retroceso en áreas donde la ley apenas comienza a ponerse al día con la tecnología.

Los estatutos de privacidad de datos son otro pilar de la supervisión emergente de la IA a nivel estatal. De unos veinte estados de EE.UU. con leyes integrales de privacidad del consumidor, la mayoría ahora incluye derechos para optar por no participar en ciertas decisiones automatizadas de alto riesgo y para exigir evaluaciones de impacto de dichos sistemas. Según un análisis de Reuters de noviembre de 2025, la aplicación estatal de la privacidad se solapa cada vez más con la gobernanza de la IA, abordando cuestiones como corredores de datos que alimentan modelos de IA y perfiles que afectan a la vivienda, el empleo y la educación. Para los fiscales generales, estas leyes demuestran que los estados no solo reaccionan; están construyendo arquitecturas regulatorias duraderas en torno a la IA.

Letitia James y el argumento de los estados como primeros respondedores en IA

La fiscal general de Nueva York, Letitia James, se ha convertido en una de las defensoras más vocales de preservar la autoridad estatal sobre la IA. Como líder de la coalición de 36 fiscales generales que se oponen al lenguaje de preeminencia de la NDAA, ha argumentado que los estados están “mejor equipados” para vigilar los daños de la IA porque tienen amplia experiencia en la aplicación de leyes de protección al consumidor, privacidad de datos y derechos civiles contra poderosas empresas tecnológicas. En su opinión, la rapidez y variedad de los riesgos de la IA exigen el tipo de respuesta rápida e informada localmente que los gobiernos estatales están estructuralmente diseñados para proporcionar.

La oficina de James ha acompañado su retórica con acciones legislativas concretas. Una nueva ley de Nueva York destacada en su comunicado de prensa del 25 de noviembre de 2025 exige que ciertos chatbots de IA detecten ideación suicida, respondan adecuadamente y recuerden a los usuarios al menos cada tres horas que están interactuando con una máquina, no con un humano. El estatuto responde directamente a la evidencia de que los sistemas de IA pueden agravar los problemas de salud mental o incluso fomentar la autolesión si no se gestionan. Para James y sus homólogos, este tipo de intervención específica y basada en la evidencia ejemplifica por qué una prohibición general de las normas estatales de IA sería tan perjudicial.

En términos más generales, James y otros fiscales generales se presentan como “primeros respondedores” en IA. Argumentan que, a medida que proliferan las estafas, deepfakes y chatbots manipuladores generados por IA, las oficinas estatales suelen ser el primer lugar al que acuden las víctimas en busca de ayuda. Esa posición en primera línea, dicen, les permite detectar patrones emergentes de abuso y presionar por actualizaciones legales rápidas, capacidades que un regulador centralizado y distante podría tener dificultades para igualar. Por tanto, preservar la autoridad estatal no es solo una cuestión de orgullo institucional; es, según ellos, un requisito previo para una protección pública eficaz en la era de la IA.

Esfuerzos de preeminencia de la Casa Blanca y la reacción federalista

La presión para limitar la supervisión estatal de la IA no ha venido solo del Congreso. El 21 de noviembre de 2025, Reuters informó que la Casa Blanca había redactado una orden ejecutiva que facultaría al Fiscal General de EE.UU. para demandar a los estados y, en la práctica, anular las regulaciones estatales sobre IA. El borrador de la orden también contemplaba supuestamente condicionar ciertos fondos de banda ancha a que los estados limitaran sus reglas sobre IA, utilizando el poder de gasto federal como palanca para restringir la regulación local.

La reacción de los funcionarios y legisladores estatales fue rápida y bipartidista. Los críticos advirtieron que tal orden erosionaría principios fundamentales del federalismo al utilizar litigios y fondos federales para anular los poderes policiales estatales, tradicionalmente reservados para proteger la salud, la seguridad y el bienestar. También argumentaron que la medida inclinaría el campo regulatorio a favor de las grandes empresas tecnológicas, que han presionado activamente por un estándar nacional único y una amplia preeminencia federal sobre las medidas estatales de IA.

En medio de la reacción, la administración pausó el borrador de la orden, lo que ilustra lo políticamente sensible que se ha vuelto el federalismo en la IA. Pero los fiscales generales señalan que este no fue un episodio aislado. Citan al menos tres esfuerzos federales distintos desde 2024 y 2025 para limitar la supervisión estatal de la IA: una enmienda de reconciliación presupuestaria que impone una “moratoria de IA”, el lenguaje de la NDAA que restringe las normas estatales y la iniciativa ejecutiva pausada. En cada caso, coaliciones bipartidistas de 30 a más de 40 fiscales generales han intervenido, describiendo las propuestas como “de alcance amplio” y advirtiendo que dejarían a los estadounidenses “completamente expuestos” en ausencia de protecciones federales sólidas.

Big Tech, preeminencia y la acusación de “regalo”

Los fiscales generales estatales no dudan en señalar a quién creen que se beneficiaría de una preeminencia amplia de las leyes estatales de IA: las grandes empresas tecnológicas. Un informe de Reuters del 25 de noviembre de 2025 señaló que la postura de los fiscales generales entra en conflicto directo con los esfuerzos de lobby de empresas como OpenAI, Google, Meta y la firma de capital de riesgo Andreessen Horowitz, que han abogado por un estándar nacional único de IA que sustituiría las medidas estatales. Estas empresas argumentan que un mosaico de normas estatales sofocaría la innovación y sobrecargaría a los desarrolladores de IA con obligaciones contradictorias.

El fiscal general de Connecticut, William Tong, ha sido especialmente contundente. Calificó la preeminencia federal propuesta como un “regalo para las grandes tecnológicas que buscan carta blanca para transformar nuestra sociedad sin supervisión ni rendición de cuentas”. Tong sostiene que los fiscales generales están “en primera línea” de daños como las estafas de abuelos habilitadas por IA, contenido que distorsiona la realidad y agrava enfermedades mentales, y chatbots que interactúan de forma inapropiada o incluso fomentan la autolesión en niños y adultos. En ese contexto, advierte, una prohibición de las leyes estatales de IA “podría ser catastrófica para la seguridad de las personas”.

Para Tong y muchos colegas, el riesgo no es solo una captura teórica por parte de la industria; es un problema estructural. Un único marco federal, fuertemente influenciado por el lobby, que impida a los estados ir más allá, crearía, en su opinión, una especie de monocultura regulatoria, susceptible de ser debilitada con el tiempo y lenta para adaptarse a nuevos daños de la IA. Por el contrario, un sistema pluralista de supervisión federal y estatal puede generar experimentación, permitir protecciones más fuertes donde sea necesario y garantizar que, si un nivel de gobierno falla, otro pueda intervenir.

La seguridad infantil como centro moral del debate

Entre las muchas justificaciones que los fiscales generales ofrecen para preservar la autoridad estatal sobre la IA, la protección infantil se ha convertido en la más emotiva. El 25 de agosto de 2025, 44 fiscales generales enviaron cartas a las principales empresas de IA, incluidas Meta, Google, Apple, Microsoft, OpenAI, Anthropic, Perplexity AI y xAI, advirtiendo sobre interacciones sexualmente sugerentes y emocionalmente manipuladoras de chatbots con menores. Se comprometieron a “utilizar todas las herramientas legales y regulatorias disponibles” si las empresas no protegían a los niños, subrayando su creencia de que las salvaguardas actuales son insuficientes.

Este impulso se basa en esfuerzos bipartidistas anteriores. El 11 de junio de 2024, el mismo número de fiscales generales respaldó la Ley Federal de la Comisión de Expertos en Explotación Infantil e Inteligencia Artificial, comparando la IA con herramientas como un “cuchillo o martillo” que pueden ser utilizadas para producir material de abuso sexual infantil. Instaron al Congreso a actualizar las leyes para que las fuerzas del orden pudieran seguir el ritmo de la explotación impulsada por IA. Para los funcionarios estatales, estos episodios destacan la rapidez con la que la IA puede amplificar amenazas existentes, especialmente contra poblaciones vulnerables.

Los fiscales generales vinculan explícitamente sus campañas de seguridad infantil a su resistencia a la preeminencia federal. Argumentan que el conocimiento local de las fuerzas del orden, de las redes criminales regionales, dinámicas culturales y proveedores de servicios, combinado con la capacidad de aprobar legislación estatal específica, es esencial para proteger a los menores de amenazas de IA en rápida evolución. Un régimen federal único que bloquee la innovación estatal, advierten, podría retrasar respuestas cuando semanas o meses son cruciales, especialmente a medida que la IA generativa acelera la producción y difusión de contenido dañino.

El papel histórico de los estados y el caso del federalismo cooperativo en IA

Al defender su autoridad sobre la IA, los fiscales generales invocan frecuentemente la historia. Los estados han estado a la vanguardia de la protección al consumidor y la aplicación tecnológica, desde las primeras acciones de privacidad contra corredores de datos y plataformas de redes sociales hasta acuerdos multistatales sobre violaciones de datos y prácticas digitales engañosas. Un “resumen anual” de Reuters de noviembre de 2025 sobre leyes estatales de privacidad documentó cómo los reguladores estatales han ampliado los límites en cuestiones como la minimización de datos, el perfilado algorítmico y la transparencia, asuntos que ahora están en el centro de la gobernanza de la IA.

La cooperación multilateral e internacional refuerza aún más el argumento de los fiscales generales. Las investigaciones y acuerdos conjuntos se han vuelto comunes, permitiendo a los estados compartir experiencia y actuar a gran escala contra empresas tecnológicas globales. Los fiscales generales argumentan que este modelo colaborativo puede extenderse a la IA, permitiendo acciones coordinadas contra daños transfronterizos sin esperar una única ley federal de IA. En su visión, las agencias federales y los reguladores estatales compartirían información, armonizarían estándares básicos y actuarían en conjunto cuando fuera necesario.

Ese modelo, el federalismo cooperativo, ofrece un camino intermedio entre la fragmentación descoordinada y la preeminencia excesiva. La ley federal puede establecer requisitos y salvaguardias procesales fundamentales, mientras que los estados conservan la autoridad para responder a condiciones locales, innovar con nuevas protecciones y cubrir vacíos a medida que surgen nuevas aplicaciones de IA. Para los fiscales generales, la elección no es entre control federal o estatal; es entre un sistema dinámico y estratificado de supervisión y un marco centralizado y estático que puede no adaptarse a una tecnología en evolución.

A medida que la IA se entrelaza cada vez más en el tejido de la vida cotidiana, el conflicto sobre quién la regula se está volviendo tan importante como las normas que se redactan. La revuelta de finales de 2025 de decenas de fiscales generales contra el lenguaje de preeminencia de la NDAA, las moratorias presupuestarias y una orden ejecutiva de la Casa Blanca demuestra que los estados no cederán silenciosamente su papel. Desde prohibiciones de deepfakes y salvaguardias contra algoritmos de alquiler hasta mandatos para la prevención del suicidio en chatbots, señalan una expansión de la ley estatal como prueba de que la supervisión local no solo es posible, sino que ya está protegiendo a las personas de manera tangible.

Si el Congreso finalmente opta por una preeminencia amplia o adopta un enfoque cooperativo, determinará el rumbo de la gobernanza de la IA en EE.UU. durante los próximos años. Por ahora, los fiscales generales apuestan a que los estadounidenses quieren más, no menos, protección a medida que los sistemas de IA se vuelven más poderosos y omnipresentes. En su opinión, preservar la autoridad estatal no es una batalla territorial localista, sino una estrategia pragmática para garantizar que, cuando surjan nuevos daños por IA, especialmente contra niños y otros grupos vulnerables, existan múltiples capas de gobierno listas para actuar.

¿Listo para comenzar?

Empieza a automatizar tu contenido hoy

Únete a los creadores de contenido que confían en nuestra IA para generar artículos de blog de calidad y automatizar su flujo de publicación.

No se requiere tarjeta de crédito
Cancela en cualquier momento
Acceso instantáneo
Resumir este artículo con:
Compartir este artículo :