La Unión Europea no está abandonando su ley insignia sobre IA, pero claramente está recalibrando una de sus partes más exigentes. A mediados de abril de 2026, las instituciones de la UE están avanzando formalmente para retrasar los plazos de la Ley de IA para los sistemas de IA de alto riesgo, desplazando el calendario de cumplimiento más allá de la fecha de inicio originalmente prevista del 2 de agosto de 2026. La razón principal es práctica más que ideológica: las normas, orientaciones y el apoyo institucional necesarios para que las empresas y los reguladores apliquen las reglas no están listos.
Esto importa porque la parte de alto riesgo de la Ley de IA cubre algunos de los usos más sensibles de la inteligencia artificial en la economía europea y en el sector público. Entre ellos se incluyen aplicaciones en biometría, educación, empleo, infraestructuras críticas, servicios esenciales, aplicación de la ley, justicia y gestión de fronteras. En otras palabras, el retraso no afecta a un rincón técnico menor de la ley. Afecta a las obligaciones centrales para los sistemas de IA considerados con mayor potencial de impacto sobre los derechos, la seguridad y el acceso al mercado.
Un retraso formal, no una reversión de la política
La idea clave es que los legisladores de la UE han decidido retrasar las reglas de la Ley de IA sobre alto riesgo más allá del plazo original de agosto de 2026. Según el Parlamento Europeo, el objetivo es garantizar que “las orientaciones y normas para ayudar a las empresas en la implementación estén listas”, al tiempo que se introducen fechas fijas que aporten seguridad jurídica. Esta formulación es importante porque muestra que el retraso se presenta como una forma de hacer que la ley sea aplicable, no más débil.
La dirección general es ahora clara en las principales instituciones de la UE. Las preguntas frecuentes de la Comisión Europea sobre la Ley de IA siguen describiendo el calendario base originalmente incorporado en la ley, pero también señalan que el 19 de noviembre de 2025 la Comisión propuso ajustar el cronograma mediante el paquete Digital Omnibus. La razón, según la Comisión, fue que las medidas de apoyo se habían retrasado, poniendo en riesgo una aplicación fluida de las obligaciones para sistemas de alto riesgo el 2 de agosto de 2026.
Así que la situación actual se entiende mejor como una transición del calendario original de la Ley de IA a uno nuevo, más realista desde el punto de vista operativo. Las reglas para la IA de alto riesgo no están siendo eliminadas. En cambio, la UE las está desplazando formalmente hacia más adelante, y finales de 2027 y mediados de 2028 están surgiendo como las nuevas fechas de referencia para el cumplimiento.
Los nuevos plazos para los diferentes tipos de IA de alto riesgo
El calendario revisado distingue entre dos grandes categorías de sistemas de IA de alto riesgo. Para los sistemas de IA de alto riesgo autónomos específicamente enumerados en la Ley de IA, tanto el Parlamento Europeo como el Consejo apuntan a un nuevo plazo propuesto del 2 de diciembre de 2027. Este grupo incluye sistemas utilizados en ámbitos como la biometría, las infraestructuras críticas, la educación, el empleo, los servicios esenciales, la aplicación de la ley, la justicia y la gestión de fronteras.
Para los sistemas de IA de alto riesgo integrados en productos regulados, el plazo propuesto es posterior. El Consejo señala que la nueva fecha de aplicación sería el 2 de agosto de 2028, y el Parlamento adoptó la misma fecha para la IA cubierta por las leyes sectoriales de seguridad y vigilancia del mercado de la UE. Se trata de casos en los que el cumplimiento en materia de IA se cruza con marcos de producto ya existentes, lo que hace que la implementación sea más compleja y, a menudo, más dependiente de procesos de conformidad específicos del sector.
Esta estructura en dos fases es significativa para las empresas porque confirma que no todas las obligaciones de la IA de alto riesgo llegarán al mismo tiempo. Las empresas que desarrollan sistemas autónomos pueden enfrentarse a un calendario, mientras que los fabricantes y proveedores que trabajan con IA integrada en productos regulados pueden operar con otro. Esa distinción debería ser ahora central en la planificación del cumplimiento.
Por qué la fecha original de 2026 se volvió irrealista
El texto adoptado por el Parlamento expone las razones prácticas del retraso en términos inusualmente directos. Afirma que la “disponibilidad tardía de normas, especificaciones comunes y orientaciones alternativas”, combinada con el “establecimiento tardío de las autoridades nacionales competentes”, haría que el plazo original del 2 de agosto de 2026 resultara demasiado costoso e impracticable. No se trata simplemente de una vaga referencia a desafíos de implementación. Es un reconocimiento explícito de que la infraestructura jurídica necesaria para aplicar las reglas está incompleta.
La Comisión ha reiterado el mismo diagnóstico en sus preguntas frecuentes sobre la Ley de IA. Afirma que la propuesta de ajustar el calendario surgió “en el contexto de un retraso en la preparación de normas para apoyar la aplicación de los requisitos de alto riesgo y en la puesta en marcha de las autoridades competentes en los Estados miembros de la UE”, lo que ponía “en riesgo una entrada en aplicación fluida el 2 de agosto de 2026”. En la práctica, las instituciones están admitiendo que no se puede esperar que las empresas cumplan obligaciones altamente técnicas antes de que existan las herramientas interpretativas y administrativas.
Esto explica por qué el debate se ha centrado menos en si la Ley de IA debe regular los sistemas de alto riesgo y más en si los propios reguladores estaban preparados. La respuesta parece haber sido no. Sin normas, orientaciones y autoridades nacionales operativas, el calendario original corría el riesgo de generar confusión, aplicación desigual y costes de cumplimiento evitables en todo el mercado único.
Las normas y orientaciones se convirtieron en el cuello de botella crítico
Una fuente importante de presión provino de los retrasos en la elaboración de normas. Según la cobertura de IAPP, los dos organismos europeos de normalización que trabajan en normas de IA incumplieron un plazo de otoño de 2025 y luego pasaron a apuntar a finales de 2026. Esa brecha ayuda a explicar por qué los legisladores consideraron cada vez más irrealista la fecha de cumplimiento de agosto de 2026. Si las normas técnicas se entregan después de que se espera que las empresas cumplan, la secuencia está invertida.
El problema también era visible en el propio trabajo de orientación de la Comisión. IAPP informó de que la Comisión tenía hasta el 2 de febrero de 2026 para publicar orientaciones sobre el artículo 6, la disposición que determina cuándo un sistema de IA califica como de alto riesgo, pero incumplió ese plazo. Dado que el artículo 6 desempeña un papel central en la clasificación, la incertidumbre en este punto tenía implicaciones importantes para desarrolladores, implementadores, importadores y otros operadores que intentaban comprender si se les aplicaban los requisitos más estrictos.
Los propios reguladores reconocieron abiertamente el problema. En declaraciones citadas por IAPP de una audiencia del Parlamento Europeo de enero de 2026, la directora general adjunta de la Comisión, Renate Nikolay, dijo: “Estas normas no están listas”, y añadió que se necesitaba más tiempo para que la UE pudiera proporcionar “seguridad jurídica al sector”. Esa declaración resumió el núcleo del asunto: sin normas y orientaciones oportunas, la seguridad jurídica era imposible.
Cómo el Digital Omnibus está reconfigurando el calendario
El calendario original de la Ley de IA está siendo ahora superado por la propuesta Digital Omnibus. Las preguntas frecuentes de la Comisión siguen describiendo el calendario base, según el cual las reglas para la IA de alto riesgo habrían empezado a aplicarse en agosto de 2026 y algunas obligaciones relativas a productos integrados en agosto de 2027. Pero ese calendario base convive ahora con un proceso político y legislativo diseñado para revisarlo, porque la estructura de apoyo a la implementación quedó rezagada.
El Consejo ha presentado este cambio de calendario como parte de un impulso más amplio de la UE para simplificar la regulación y mejorar la competitividad. Según su versión, la Comisión presentó el paquete Digital Omnibus el 19 de noviembre de 2025 en el contexto de reducir la carga regulatoria preservando al mismo tiempo los objetivos de la ley. Esto es políticamente notable porque sitúa el calendario del cumplimiento en materia de IA dentro del debate más amplio sobre cómo Europa puede regular las tecnologías digitales sin socavar la innovación y la capacidad industrial.
Dicho esto, simplificación aquí no significa desregulación en sentido amplio. Más bien, significa secuenciar las obligaciones para que las empresas reciban normas, orientaciones y apoyo administrativo antes de enfrentarse a la aplicación plena de los requisitos más exigentes para la IA de alto riesgo. Por tanto, el Digital Omnibus está surgiendo como un vehículo tanto para el realismo en la implementación como para la política de competitividad.
El Parlamento y el Consejo están en gran medida alineados
Una de las características más llamativas del debate actual es el grado de convergencia institucional. El Parlamento Europeo respaldó el retraso con una votación abrumadora de 569 a favor, 45 en contra y 23 abstenciones. Ese resultado indica un amplio apoyo político a posponer determinadas obligaciones relativas a la IA de alto riesgo y a introducir simplificaciones relacionadas, incluso dentro de un ámbito políticamente sensible de la regulación digital.
El Consejo también ha respaldado la dirección principal del proceso. Apoya el 2 de diciembre de 2027 para los sistemas autónomos de IA de alto riesgo y el 2 de agosto de 2028 para la IA de alto riesgo integrada en productos. Además, el Consejo aplazó hasta el 2 de diciembre de 2027 los plazos para que las autoridades nacionales competentes establezcan entornos controlados de pruebas regulatorias de IA, reconociendo que los marcos de experimentación y pruebas supervisadas también requieren más tiempo.
Más allá de los propios plazos, el Consejo quiere que la Comisión emita orientaciones adicionales para la IA de alto riesgo cubierta por las leyes sectoriales de armonización. El objetivo es ayudar a los operadores a cumplir minimizando la carga. Esto importa porque muestra que las instituciones no solo están ampliando los plazos, sino también intentando cubrir la falta de orientación práctica que contribuyó al retraso en primer lugar.
Un desencadenante flexible con fechas límite rígidas
El texto jurídico adoptado por el Parlamento propone un mecanismo más matizado que un simple aplazamiento fijo. Según este enfoque, la Comisión confirmaría cuándo están disponibles las principales medidas de apoyo. Una vez realizada esa confirmación, las reglas para la IA de alto riesgo comenzarían a aplicarse tras seis meses para los sistemas del anexo III y tras doce meses para los sistemas del anexo I.
Al mismo tiempo, el Parlamento combinó esa flexibilidad con fechas tope estrictas. Para los sistemas autónomos del anexo III, la fecha límite máxima sería el 2 de diciembre de 2027. Para los sistemas del anexo I, generalmente vinculados a productos regulados, la fecha tope sería el 2 de agosto de 2028. Este enfoque híbrido intenta combinar una activación basada en la preparación con fechas claras en torno a las cuales los mercados puedan planificarse.
Para los equipos de cumplimiento, este mecanismo es especialmente importante. Sugiere que, aunque las fechas de referencia sean finales de 2027 y mediados de 2028, las empresas deberían seguir vigilando cualquier confirmación de la Comisión sobre la disponibilidad de normas y orientaciones. Si ese desencadenante llega antes de lo previsto, la cuenta atrás práctica hacia las obligaciones comenzaría antes de la fecha tope final.
El resto de la Ley de IA sigue avanzando
El debate sobre el retraso es específico de las obligaciones de alto riesgo, no de toda la Ley de IA. Según las preguntas frecuentes de la Comisión, otras partes de la ley ya están en vigor o siguen calendarios de implementación separados. Las prohibiciones, definiciones y reglas sobre alfabetización en IA se aplican desde el 2 de febrero de 2025, mientras que las disposiciones de gobernanza y las obligaciones para la IA de propósito general se aplican desde el 2 de agosto de 2025.
Esa distinción es esencial porque algunos comentarios públicos corren el riesgo de dar la impresión de que la Ley de IA ha quedado congelada por completo. No es así. La UE sigue desarrollando su marco regulatorio sobre IA, y las empresas siguen sujetas a obligaciones fuera del capítulo de alto riesgo. Las empresas que asuman que el retraso crea una pausa general pueden pasar por alto deberes que ya están activos.
También hay fechas relacionadas, aunque separadas, que emergen del mismo paquete legislativo. El Parlamento respaldó el 2 de noviembre de 2026 como fecha de cumplimiento para las reglas de marcado de agua aplicables al audio, imagen, vídeo o texto creados por IA. En esa misma posición de marzo de 2026, los eurodiputados también propusieron prohibir los sistemas de IA “nudifier” utilizados para crear o manipular imágenes sexualmente explícitas o íntimas que se asemejen a una persona real identificable sin su consentimiento. Así que, aunque las obligaciones de alto riesgo se estén desplazando hacia más adelante, la agenda política en torno a la seguridad y la responsabilidad en IA sigue muy viva.
La conclusión práctica es sencilla: la UE retrasa los plazos de la IA de alto riesgo, pero lo hace para hacer que la aplicación de la norma sea más creíble y la implementación más coherente. La dirección actual, basada en las preguntas frecuentes de la Comisión, el mandato del Consejo del 13 de marzo de 2026 y la posición adoptada por el Parlamento el 26 de marzo de 2026, es un desplazamiento desde la fecha de inicio original del 2 de agosto de 2026 hacia finales de 2027 para los sistemas autónomos de alto riesgo y mediados de 2028 para la IA integrada en productos regulados.
Para las empresas, la respuesta más inteligente no es pausar los preparativos, sino afinarlos. La clasificación de los sistemas, la probable necesidad de documentación técnica, la gestión de riesgos, los procesos de conformidad y las futuras orientaciones siguen siendo importantes. Lo que ha cambiado es el calendario, no el destino. La UE está señalando que la regulación de la IA de alto riesgo llegará con un calendario más realista, y se espera que la infraestructura de cumplimiento se ponga al día antes de que entren en vigor las obligaciones más estrictas.