En todo Estados Unidos, los estados están pasando de los “principios” de IA a normas exigibles. Una oleada de nuevas leyes entra en vigor en 2026, reflejando un cambio práctico: los legisladores quieren salvaguardas para sistemas que avanzan rápidamente, al tiempo que señalan que la innovación es bienvenida.
Un resumen reciente de las “nuevas leyes tecnológicas de 2026” destacó la rapidez con la que se está expandiendo la política estatal sobre IA, desde los requisitos de transparencia para modelos de frontera en California hasta las protecciones integrales al consumidor en Colorado y el nuevo marco de gobernanza de Texas. El resultado es un mosaico que empresas, agencias públicas y consumidores sentirán en las operaciones cotidianas.
1) Por qué los estados están legislando sobre IA ahora
Los legisladores estatales están reaccionando a daños específicos y visibles: deepfakes en la política y el entretenimiento, discriminación algorítmica en decisiones de alto impacto y riesgos de seguridad de potentes modelos “de frontera”. Con un Congreso que avanza lentamente, los estados están llenando el vacío con leyes focalizadas que pueden implementarse y aplicarse a nivel local.
Otro factor es la rendición de cuentas. Muchas de las nuevas leyes se centran en la divulgación, informando a las personas cuándo se usa la IA, qué riesgos existen y cómo reportar problemas. Estos enfoques buscan crear trazabilidad documental que reguladores y tribunales puedan usar cuando los sistemas fallen.
Por último, el ritmo de despliegue está imponiendo calendarios. Como señala el resumen de The Verge sobre las leyes de 2026, múltiples normas relacionadas con la IA están programadas para entrar en vigor en 2026, lo que significa que las organizaciones deben prepararse desde ahora para el cumplimiento, la documentación y los avisos al público.
2) SB 53 de California: normas de transparencia para la IA de frontera
La SB 53 de California, firmada el 29 de septiembre de 2025, se titula “Transparency in Frontier Artificial Intelligence Act (TFAIA)”. Según la oficina del Gobernador, crea requisitos de transparencia para modelos de frontera, reporte de incidentes y protecciones para denunciantes, herramientas destinadas a aflorar problemas de seguridad de forma temprana en lugar de después de un fallo grave.
La cobertura de Reuters enfatiza que la SB 53 se aplica a las principales empresas de IA y exige divulgaciones de seguridad que aborden riesgos catastróficos. El mismo informe describió sanciones económicas que pueden alcanzar hasta 1 millón de dólares por infracción y mencionó un umbral de ingresos para ciertos reportes (por ejemplo, empresas con más de 500 millones de dólares de ingresos).
Políticamente, la SB 53 se plantea como un equilibrio. El gobernador Gavin Newsom describió el objetivo como establecer regulaciones “para proteger a nuestras comunidades” y, al mismo tiempo, garantizar que “la industria de la IA siga prosperando”. El senador Scott Wiener calificó el enfoque como “salvaguardas de sentido común” diseñadas para ayudar a las empresas a “comprender y reducir el riesgo”.
3) SB 243 de California: normas para chatbots de compañía y menores
California también promulgó la SB 243 (capitulada el 13 de octubre de 2025, listada como Capítulo 677, Estatutos de 2025 en el seguimiento legislativo). Resúmenes secundarios de cumplimiento la describen como efectiva a partir del 1 de enero de 2026 y centrada en los “chatbots de compañía”, especialmente cuando pueden ser utilizados por menores.
Según resume la California Lawyers Association, la ley incluye avisos dirigidos a menores, recordatorios de descanso y protocolos de mitigación de suicidio/autolesiones. Esto refleja una tendencia estatal más amplia: regular no la “IA” en abstracto, sino categorías concretas de productos que pueden moldear emociones, relaciones y la salud mental.
La aplicación y la supervisión son fundamentales. Una alerta para clientes de Skadden señala obligaciones de reporte anual ante la Oficina de Prevención del Suicidio de California, y también destaca las sanciones de la ley y un derecho de acción privada (según se resume en esa alerta). Para las empresas, esto convierte las funciones de seguridad en entregables de cumplimiento: políticas, registros e informes que deben resistir el escrutinio.
4) SB 524 de California: divulgación de IA en informes policiales
La SB 524 de California, firmada el 13 de octubre de 2025, se centra en el uso gubernamental de la IA, específicamente en la documentación policial. La ley exige a la policía divulgar el uso de IA en los informes policiales, respondiendo a la preocupación de que el contenido generado por IA pueda confundirse con hechos verificados una vez que ingresa en un registro oficial.
En un comunicado de prensa, el senador Jesse Arreguín enmarcó el proyecto en la fiabilidad y la transparencia, señalando los riesgos de que aparezcan “alucinaciones de la IA” en la documentación oficial. La lógica es sencilla: si un informe utilizó asistencia de IA, los lectores posteriores (fiscales, defensa, jueces, periodistas) deben saberlo.
Este tipo de norma probablemente influirá en las adquisiciones y la formación. Las agencias pueden tener que estandarizar cuándo se puede usar la IA, cómo se verifican los resultados y qué lenguaje exacto deben incluir los agentes para divulgar la participación de la IA.
5) El marco integral de Colorado y su fecha de cumplimiento aplazada
La SB 24-205 de Colorado, “Consumer Protections for Artificial Intelligence”, fue aprobada el 17 de mayo de 2024. El resumen del proyecto describe un sistema centrado en “sistemas de IA de alto riesgo”, que exige a implementadores y desarrolladores utilizar “cuidado razonable” para prevenir la discriminación algorítmica, con obligaciones de divulgación y aplicación a cargo del Fiscal General.
Pero el calendario de cumplimiento ha cambiado. La SB25B-004 de Colorado, firmada el 28 de agosto de 2025, trasladó la fecha de cumplimiento al 30 de junio de 2026 (mientras que la propia SB25B-004 entró en vigor el 25 de noviembre de 2025). Análisis jurídicos, incluido el de Greenberg Traurig, señalan el cambio desde la fecha anterior del 1 de febrero de 2026 y anticipan nuevas enmiendas en 2026.
Para las empresas, Colorado recuerda que el cumplimiento en materia de IA no es un proyecto de “una sola vez”. Una fecha aplazada puede ayudar en la planificación, pero los ajustes legislativos continuos significan que los equipos deben monitorear los requisitos, actualizar las evaluaciones de riesgo y prepararse para definiciones cambiantes de “alto riesgo” y “cuidado razonable”.
6) HB 149 de Texas: una ley de gobernanza con sanciones civiles
La HB 149 de Texas, la “Texas Responsible Artificial Intelligence Governance Act”, aparece en el seguimiento legislativo como efectiva a partir del 1 de enero de 2026. Como se resume en recopilaciones de medios de Texas, la ley introduce nuevas reglas y prohibiciones relacionadas con ciertos usos de la IA, incluyendo cuestiones vinculadas a deepfakes explícitos generados por IA.
Los detalles de implementación importan tanto como el texto legal. Chron.com informó sobre un despliegue de gobernanza en Texas que incluye un consejo de IA, un portal de reportes y multas civiles, lo que sugiere que Texas está construyendo no solo reglas, sino también la maquinaria administrativa para recibir denuncias y orientar la aplicación.
El impacto práctico es que las organizaciones que operan en Texas pueden enfrentarse a un entorno de cumplimiento centrado en reportes, gobernanza y sanciones, más que en simples avisos al consumidor. Eso puede desplazar las prioridades internas hacia procesos formales de revisión, documentación y vías de escalamiento.
7) Salud mental y “terapia con IA”: Utah, Nevada e Illinois refuerzan la supervisión
Varios estados están confluyendo en un tema: sistemas de IA que parecen proporcionar servicios de salud mental o conductual. La AB 406 de Nevada (vigente desde el 1 de julio de 2025) restringe los sistemas de IA “programados específicamente” para prestar servicios que constituyan atención profesional de salud mental/conductual y limita ciertas afirmaciones sobre lo que puede hacer una herramienta de IA. El texto de la ley de la sesión de Nevada destaca disposiciones (incluidas la “Sección 7” y la “Sección 8”) que abordan tanto las capacidades del sistema como el uso por parte de los proveedores.
Utah también está afinando su enfoque. Davis Polk resumió enmiendas de 2025 que acotaron las obligaciones de divulgación de IA generativa de modo que la divulgación se active ante una “solicitud clara e inequívoca”, a la vez que extendieron la fecha de derogación a julio de 2027. Utah también añadió protecciones dirigidas a “chatbots de salud mental”, incluyendo requisitos descritos en comentarios sobre la HB 452 y proyectos relacionados (según lo resumido por medios como Mondaq y Alston & Bird vía JDSupra).
También se cita a Illinois por adoptar una línea más dura con la “terapia con IA”. The Washington Post informó sobre restricciones en Illinois vinculadas al escrutinio de chatbots, incluyendo una aplicación basada en denuncias y multas señaladas en el informe. Por separado, una ley de Illinois con vigencia a partir del 1 de enero de 2026 fue descrita en un resumen local como limitante del uso discriminatorio de la IA en decisiones de empleo y como exigente de divulgación al solicitante, mostrando que el enfoque del estado en IA abarca tanto el bienestar del consumidor como la equidad en el lugar de trabajo.
8) Deepfakes e identidad: la ELVIS Act de Tennessee como modelo temprano
La ELVIS Act de Tennessee, firmada el 21 de marzo de 2024 y vigente desde el 1 de julio de 2024, amplió las protecciones del tipo derecho de publicidad para incluir la “voz”. La oficina del Gobernador la presentó como una respuesta al cambiante panorama de la IA, con el gobernador Bill Lee enfatizando la necesidad de protección legal a medida que la tecnología cambia.
Lo que hace notable a la ELVIS Act es su alcance. El análisis de Skadden la describió como dirigida no solo a creadores de deepfakes y clones de voz, sino también a proveedores de herramientas y sistemas utilizados para crearlos. Esa estructura, que mira más allá del usuario final hacia el ecosistema habilitador, puede influir en otros estados que elaboran leyes contra los deepfakes.
A medida que se acerca 2026, los deepfakes siguen siendo un ejemplo motivador para los legisladores, especialmente en contextos electorales. El resumen de The Verge también mencionó referencias a divulgaciones sobre IA en elecciones, reforzando que la regulación de medios sintéticos se está convirtiendo en una parte estándar de las agendas estatales sobre IA.
9) La realidad del cumplimiento: seguir un mosaico que cambia rápidamente
Con tantos calendarios y categorías , transparencia de modelos de frontera, controles contra la discriminación de alto riesgo, salvaguardas para chatbots, divulgaciones en informes policiales, el cumplimiento se está volviendo multidisciplinario. Los equipos jurídicos, de seguridad, de producto, de confianza y seguridad, de RR. HH. y de adquisiciones tienen todos un papel, y los plazos varían según el estado y el caso de uso.
Las organizaciones dependen cada vez más de herramientas estructuradas de seguimiento. La National Conference of State Legislatures (NCSL) mantiene una base de datos de legislación sobre Inteligencia Artificial actualizada mensualmente (según una actualización señalada el 4 de diciembre de 2025), ofreciendo una forma centralizada de monitorear proyectos y leyes promulgadas en los distintos estados.
La estrategia más resiliente es construir una gobernanza interna de IA que pueda adaptarse: inventarios de modelos y proveedores, estándares de documentación, vías de reporte de incidentes, plantillas de divulgación para usuarios y registros listos para auditorías. Incluso cuando las leyes difieren, estos controles básicos ayudan a reducir las prisas cuando entra en vigor un nuevo requisito estatal.
Los estados que despliegan nuevas leyes de IA no solo “están haciendo algo sobre la IA”, están estableciendo expectativas concretas sobre transparencia, seguridad, prevención de la discriminación y comunicación veraz en contextos sensibles como la salud mental, el empleo y el trabajo policial.
A medida que más leyes entren en vigor en 2026, la historia principal es la aceleración. California, Colorado, Texas, Utah, Nevada, Illinois y Tennessee muestran qué tan rápido se está desplazando el centro de gravedad hacia una supervisión exigible. Para las empresas y las agencias públicas, la próxima ventaja competitiva puede ser simple: la capacidad de demostrar, con documentación y gobernanza, que la IA se está utilizando de forma responsable.