Los estados rechazan la preeminencia federal sobre la IA

Author auto-post.io
11-26-2025
15 min. de lectura
Resumir este artículo con:
Los estados rechazan la preeminencia federal sobre la IA

La inteligencia artificial se ha convertido en el último punto álgido en una larga lucha de poder entre Washington y los estados. A medida que los sistemas de IA pasan rápidamente de los laboratorios a las aulas, hospitales, lugares de trabajo y departamentos de policía, la pregunta ya no es si regular, sino quién escribe las reglas. Esa cuestión aparentemente técnica, la autoridad federal frente a la estatal, ahora da forma a todo, desde las leyes de protección infantil hasta la supervisión de modelos fronterizos de alto riesgo.

En 2025, el conflicto sobre la preeminencia de la IA estalló abiertamente. El Congreso, la Casa Blanca, las legislaturas estatales y la industria han presentado visiones contrapuestas sobre cuánta autonomía deberían conservar los estados en la regulación de la IA. Por un lado, los funcionarios federales y muchas grandes empresas tecnológicas advierten sobre un mosaico de reglas inconsistentes que sofocarán la innovación y fragmentarán el mercado nacional. Por otro lado, los estados insisten en que ya están actuando como ágiles “laboratorios de la democracia” y no deben ser marginados por amplios límites federales a su autoridad.

La rebelión de la NCSL contra la preeminencia federal en IA

La expresión más directa de resistencia llegó el 22 de octubre de 2025, cuando la Conferencia Nacional de Legislaturas Estatales (NCSL) envió una carta contundente a los líderes del Congreso. Hablando en nombre de las 50 legislaturas estatales, la NCSL “reafirmó” su oposición a cualquier propuesta federal que preemta la autoridad estatal sobre la IA. Esa palabra “cualquier” es crucial: la organización no solo estaba discutiendo el lenguaje de un proyecto de ley en particular, sino rechazando la idea más amplia de que Washington deba ocupar ese campo.

En la carta, la NCSL argumentó que una preeminencia amplia “socavaría el sistema federalista” al eliminar el papel que se supone que deben desempeñar los estados en la gobernanza de EE. UU. Los estados, escribió, deben seguir siendo “laboratorios de la democracia” en materia de IA, probando enfoques en cuestiones como el impacto de la IA en los niños, decisiones de salud, preparación laboral, transparencia, privacidad y seguridad pública. En lugar de ver la experimentación estatal como un obstáculo, la NCSL la presenta como una característica de la innovación y la protección de derechos estadounidenses.

El mensaje de la NCSL también refutó la narrativa de que la IA es demasiado novedosa o compleja para las legislaturas estatales. La carta enfatizaba que los estados ya están legislando sobre IA de manera “activa y ágil” y bipartidista, señalando su historial en áreas como la protección de datos y el sesgo algorítmico. En lugar de aceptar un techo nacional que congelaría la elaboración de políticas estatales, la NCSL instó al Congreso a preservar espacio para soluciones a nivel estatal que puedan avanzar más rápido que la legislación federal y adaptarse a las necesidades locales.

El Congreso coquetea con una congelación de 10 años a las leyes estatales sobre IA

Mientras la NCSL defendía la autoridad estatal, algunos en el Congreso avanzaban en la dirección opuesta. En mayo de 2025, el Comité de Energía y Comercio de la Cámara de Representantes aprobó un lenguaje de reconciliación presupuestaria que imponía una moratoria de 10 años en la aplicación estatal de regulaciones sobre IA, con solo excepciones limitadas. La medida prohibiría a “cualquier Estado o subdivisión política del mismo” hacer cumplir leyes que regulen “modelos de inteligencia artificial, sistemas de inteligencia artificial o sistemas automatizados de decisión” durante la década posterior a su promulgación.

El alcance de esa propuesta es impactante. Barrería con reglas estatales sobre sesgo algorítmico, deepfakes generados por IA en campañas políticas, el uso de IA en atención médica y seguros, vigilancia impulsada por IA, mandatos de transparencia para la toma de decisiones automatizada y protecciones de datos específicas de IA. Los analistas legales la describen como un intento sin precedentes de eliminar de un plumazo tanto las reglas estatales existentes como las futuras sobre IA, sustituyendo efectivamente un veto federal por las decisiones democráticas locales.

No es sorprendente que el lenguaje de la moratoria se haya convertido en una pieza central en el caso de los funcionarios estatales contra la extralimitación federal. La NCSL y legisladores estatales individuales citan rutinariamente la congelación de 10 años como ejemplo de lo que temen: una preeminencia amplia sin un régimen federal de seguridad sólido que reemplace lo que los estados ya están construyendo. En su opinión, excluir a los estados de la gobernanza de la IA durante una década, en medio de rápidos cambios tecnológicos, no solo sería antifederalista, sino imprudente.

La orden ejecutiva preliminar de la Casa Blanca y la preeminencia por litigio

Aunque el Congreso tiene dificultades para aprobar una legislación integral sobre IA, el poder ejecutivo ha explorado una vía diferente: usar herramientas y agencias legales existentes para presionar o desplazar los regímenes estatales de IA. Un borrador filtrado de orden ejecutiva, reportado por POLITICO el 19 de noviembre de 2025, muestra a la Casa Blanca preparando una estrategia coordinada de todo el gobierno para derribar leyes estatales sobre IA mediante litigios y maniobras regulatorias en lugar de nuevas leyes.

Según la filtración, la orden crearía un “Grupo de Trabajo de Litigios sobre IA” en el Departamento de Justicia encargado de impugnar regulaciones estatales de IA por violar la Cláusula de Comercio Dormida o por estar preemptadas por leyes federales existentes. El Departamento de Comercio tendría la tarea de catalogar las leyes estatales de IA “gravosas” en 90 días, creando esencialmente una lista de objetivos. La Comisión Federal de Comercio examinaría si algunas reglas estatales sobre IA violan la Ley de la FTC, y la Comisión Federal de Comunicaciones establecería estándares federales de divulgación de IA para comunicaciones, estándares diseñados, al menos en parte, para preemptar requisitos estatales en conflicto.

Se describe que los grupos de la industria tecnológica apoyan ampliamente esta estrategia, argumentando que un mosaico de leyes estatales crea un caos de cumplimiento, especialmente para los grandes desarrolladores de modelos y plataformas que operan a nivel nacional. Pero la orden filtrada también subraya una realidad política: los proyectos de ley de preeminencia explícita de la IA se han estancado repetidamente en el Congreso, incluso cuando los estados aprueban rápidamente sus propias leyes sobre IA. Para la Casa Blanca, la preeminencia por litigio puede parecer una solución pragmática; para los estados, parece un intento de eludir el debate democrático sobre el equilibrio adecuado de poder federal y estatal en la era de la IA.

SB 53 de California: un caso de prueba para la IA de frontera

En ningún lugar es más visible el choque sobre la preeminencia de la IA que en California, que se ha posicionado como regulador de facto del sector tecnológico. En 2025 el estado promulgó la SB 53, la Ley de Transparencia en la Inteligencia Artificial de Frontera, dirigida a los grandes desarrolladores de IA, aquellos con más de 500 millones de dólares en ingresos y modelos entrenados por encima de ciertos umbrales de cómputo. Esas empresas ahora deben publicar evaluaciones públicas de “riesgos catastróficos” como el diseño de armas biológicas, ciberataques a gran escala o la pérdida de control humano sobre los sistemas de IA.

La SB 53 también exige que las empresas revelen cómo cumplen con los estándares nacionales e internacionales de seguridad en IA, presenten informes sobre “incidentes críticos de seguridad” y mantengan canales para denunciantes. El gobernador Gavin Newsom y el autor del proyecto, el senador Scott Wiener, enmarcaron explícitamente la ley como una forma de llenar un “vacío regulatorio” dejado por el Congreso, señalando que California está preparada para avanzar incluso mientras los legisladores federales discuten sobre marcos nacionales. Ese marco planteó inmediatamente una pregunta: ¿intentarán las futuras reglas federales, o la orden ejecutiva filtrada, preemptar la SB 53?

La reacción de la industria a la SB 53 ha sido dividida, revelando fracturas dentro de los habituales llamados del sector tecnológico a normas nacionales uniformes. Algunas grandes empresas e inversores en IA han instado a Washington a establecer un solo libro de reglas federales que anule los enfoques estatales como el de California. Otros, incluidos ciertos laboratorios enfocados en la seguridad, han apoyado la SB 53 como una base necesaria para la supervisión de modelos de frontera. Así, la ley sirve como un caso de prueba temprano de si los regímenes estatales de seguridad en IA pueden coexistir con, o serán desplazados por, una inminente acción federal.

El veto a la SB 1047: calibrando la ambición estatal ante los vientos federales

La estrategia de California no ha sido uniformemente maximalista. En 2024, el gobernador Newsom vetó la SB 1047, la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera. Ese proyecto habría impuesto obligaciones de seguridad y herramientas de aplicación más amplias a los “modelos de frontera” entrenados por encima de 10²⁶ FLOPs, cubriendo a cualquier desarrollador que hiciera negocios en California, independientemente de su sede. En comparación con la SB 53, la SB 1047 era más expansiva e intervencionista.

En su mensaje de veto, Newsom expresó su preocupación de que la legislación pudiera excederse de manera que chocara con futuros marcos federales. El gobernador no rechazó la premisa de la regulación de la seguridad en IA; más bien, le preocupaba atar a California a un régimen que podría ser preemptado o crear fricciones significativas con la política nacional. La posterior redacción y aprobación de la más limitada SB 53 reflejó un esfuerzo por mantener a California a la vanguardia de la gobernanza de la IA sin invitar a una invalidación federal directa.

Esta secuencia, vetar la SB 1047 y luego promulgar la SB 53, ilustra cómo los estados intentan calibrar sus leyes de IA anticipando luchas por la preeminencia. Los legisladores quieren avanzar agresivamente en seguridad y transparencia, pero también deben considerar cómo los tribunales podrían ver las reglas estatales una vez que las agencias federales, armadas con órdenes ejecutivas o nuevas leyes, afirmen su propia autoridad en la gobernanza de la IA. En este sentido, California es tanto líder como referente para otros estados que contemplan la regulación de modelos de frontera bajo restricciones federales inciertas.

Seguridad infantil, deepfakes y los límites de la preeminencia

Si bien gran parte del debate sobre la preeminencia de la IA se centra en cuestiones abstractas de comercio e innovación, algunos de los campos de batalla más cargados emocionalmente son daños concretos como la explotación infantil y los deepfakes íntimos. La SB 20 de Texas, la Ley para Detener la Pornografía Infantil Generada por IA, es un ejemplo destacado. Promulgada en 2025, la ley penaliza la posesión, promoción o producción de material visual obsceno que parezca mostrar a un menor, incluyendo imágenes generadas por IA e incluso dibujos animados.

Los partidarios en Texas describen la SB 20 como parte de un esfuerzo más amplio para abordar cómo la IA puede facilitar la explotación infantil, invocando los poderes policiales tradicionales del estado sobre la seguridad pública y el bienestar infantil. Argumentan que esperar una respuesta federal es insostenible cuando las herramientas de IA ya pueden fabricar imágenes de abuso altamente realistas. Los críticos, incluidos defensores de las libertades civiles, cuestionan la constitucionalidad de la ley y sus implicaciones para la libertad de expresión y el arte; sin embargo, demuestra la intensidad con la que algunos estados están regulando los daños a los niños mediados por IA.

Este tipo de leyes crea un problema especialmente delicado para una preeminencia federal amplia. Si Washington intenta eliminar o limitar drásticamente las reglas estatales sobre IA, ¿debe hacer excepciones para estatutos de protección infantil como la SB 20? Los fiscales generales estatales ya han sugerido que cualquier marco nacional de IA que les impida procesar la explotación infantil relacionada con IA sería políticamente y legalmente explosivo. En la práctica, esto puede obligar a los legisladores federales a adoptar un enfoque más matizado de la preeminencia, preservando un margen sustancial para respuestas estatales ante los abusos más graves facilitados por la IA.

Pisos federales vs. techos federales: la Ley TAKE IT DOWN

La Ley bipartidista TAKE IT DOWN, promulgada en mayo de 2025, muestra otra forma en que la política federal y estatal de IA puede interactuar: estableciendo un “piso” nacional en lugar de un “techo”. La ley exige a las plataformas eliminar imágenes íntimas deepfake no consensuadas, abordando una crisis creciente de contenido sexual fabricado por IA utilizado para acosar, extorsionar o silenciar a las víctimas. Lo crucial es que lo hace a nivel federal sin excluir explícitamente que los estados promulguen remedios más fuertes o amplios.

Para muchos en la industria tecnológica, reglas federales como TAKE IT DOWN resultan atractivas precisamente porque prometen una base uniforme. Sin embargo, algunas empresas preferirían que tales reglas también funcionaran como techos, desplazando las leyes estatales más agresivas o idiosincráticas. Por el contrario, la NCSL y numerosos legisladores estatales argumentan que las leyes federales de IA deben ser estándares mínimos, no máximos, permitiendo a los estados ir más allá cuando las condiciones locales o la demanda pública lo justifiquen.

Esta tensión entre piso y techo se está convirtiendo rápidamente en una línea divisoria central en la gobernanza de la IA. Un piso federal, como TAKE IT DOWN, ofrece protección nacional dejando espacio a los estados para innovar. Un techo federal, como en la moratoria propuesta de 10 años, congela la experimentación política estatal y concentra el poder en Washington. La dirección que elija el Congreso en esta cuestión determinará si los estados siguen siendo co-reguladores de la IA o quedan relegados a un papel marginal.

Vacíos en derechos de autor, trabajo y privacidad: por qué los estados resisten

La resistencia de los estados a la preeminencia se basa en una observación práctica: el Congreso ha dejado grandes vacíos en la gobernanza de la IA. La carta de la NCSL de 2025 destaca la actividad legislativa estatal en torno a la IA y la privacidad, regímenes más amplios de protección de datos, impactos laborales y protección al consumidor. Desde leyes sobre datos biométricos hasta auditorías de contratación algorítmica, los estados argumentan que no solo están llenando un vacío, sino desarrollando enfoques matizados informados por las economías y valores locales.

La transparencia en derechos de autor es un ejemplo revelador. Propuestas federales como la Ley de Divulgación de Derechos de Autor en IA Generativa del representante Adam Schiff, que exigiría la divulgación de obras protegidas por derechos de autor utilizadas para entrenar IA generativa, se han estancado en Washington. Ante la ausencia de reglas nacionales claras, los estados ven el uso de material protegido para el entrenamiento de IA, y sus efectos en creadores e industrias culturales, como un área donde deben conservar flexibilidad regulatoria.

El trabajo y la privacidad son similares. A medida que la IA transforma los lugares de trabajo y las capacidades de vigilancia, los legisladores estatales han presentado proyectos de ley sobre toma de decisiones automatizada en la contratación, monitoreo de trabajadores basado en IA y perfilado de consumidores impulsado por IA. Muchos de estos esfuerzos serían anulados o congelados bajo una preeminencia federal amplia, dejando a trabajadores y consumidores dependientes de un proceso federal más lento y estancado. Para la NCSL y sus miembros, ese es precisamente el resultado que el federalismo debe evitar.

La Orden Ejecutiva 14179 y la inclinación federal hacia la preeminencia

La retórica federal se ha inclinado cada vez más hacia la centralización. La Orden Ejecutiva 14179, firmada el 23 de enero de 2025 y titulada “Eliminando barreras al liderazgo estadounidense en Inteligencia Artificial”, instruye al gobierno federal a “revisar o rescindir políticas que entren en conflicto” con una agenda de IA pro-innovación y a desarrollar un plan de acción para mantener la dominancia de EE. UU. en IA. Si bien la orden no preempta explícitamente leyes estatales, su lenguaje sobre eliminar “barreras” ha sido interpretado por comentaristas como una señal de inclinación hacia la preeminencia.

Para los funcionarios estatales, la OE 14179 parece menos una estrategia industrial neutral y más el primer paso en una campaña para justificar la anulación de regulaciones estatales sobre IA en nombre de la competitividad. Cuando se combina con el borrador filtrado de orden ejecutiva dirigido a los regímenes estatales de IA y la propuesta de moratoria de 10 años de la Cámara, el panorama es el de una postura federal emergente que ve las reglas estatales como obstáculos a minimizar, no como salvaguardas complementarias.

La posición de la NCSL en 2025 desafía directamente este consenso emergente. Los estados no disputan el objetivo del liderazgo estadounidense en IA; en cambio, argumentan que una gobernanza robusta y localmente receptiva es un activo competitivo, no una carga. Al identificar riesgos temprano, proteger a los residentes y construir confianza pública, las leyes estatales pueden, en última instancia, facilitar, no dificultar, la aceptación y el despliegue a gran escala de los sistemas de IA.

La lucha por la preeminencia de la IA no es simplemente una disputa técnica de jurisdicción; es una decisión sobre cómo Estados Unidos gobernará una tecnología transformadora. Los estados han dejado claro, a través de la carta de la NCSL y una ola de legislación desde California hasta Texas, que no tienen intención de abandonar su papel como primeros en responder a los riesgos y oportunidades de la IA. Los esfuerzos federales por imponer techos amplios, ya sea mediante una moratoria de 10 años, la preeminencia por litigio o mandatos ejecutivos generales, chocarán con esa determinación.

Durante la próxima década, el camino más sostenible probablemente será un enfoque por capas: pisos federales sólidos en áreas como la explotación deepfake y la transparencia básica, combinados con espacio para que los estados vayan más allá en cuestiones como la seguridad infantil, el trabajo, la privacidad y la supervisión de modelos de frontera. Si Washington finalmente adopta ese modelo o se aferra a la preeminencia determinará no solo el equilibrio de poder entre los gobiernos federal y estatales, sino también cuán legítima y confiable parecerá la gobernanza de la IA al público que debe vivir con sus consecuencias.

¿Listo para comenzar?

Empieza a automatizar tu contenido hoy

Únete a los creadores de contenido que confían en nuestra IA para generar artículos de blog de calidad y automatizar su flujo de publicación.

No se requiere tarjeta de crédito
Cancela en cualquier momento
Acceso instantáneo
Resumir este artículo con:
Compartir este artículo :