Los gobiernos están pasando rápidamente de debatir si el contenido generado por IA debe ser etiquetado a especificar exactamente cómo debe etiquetarse, por quién y en qué formatos. El cambio está impulsado por una realidad simple: ahora es fácil producir texto, audio, imágenes y vídeo sintéticos a gran escala, y las audiencias a menudo no pueden distinguir lo auténtico sin ayuda.
En 2025 y 2026, la Unión Europea está construyendo una vía de cumplimiento que combina la ley vinculante (la Ley de IA de la UE) con orientación práctica de implementación (un código de práctica dedicado al marcado y etiquetado). Al mismo tiempo, China ha adoptado sus propias medidas de etiquetado, lo que demuestra que “etiquetar la salida” se está convirtiendo en una línea base de política a nivel mundial, aunque los detalles difieren según la jurisdicción.
1) Por qué “etiquetar la salida de la IA” se convirtió de repente en prioridad regulatoria
Los medios generados por IA han pasado de ser una novedad a formar parte de la comunicación cotidiana: chats de atención al cliente, textos de marketing, contenido político, imágenes de influencers y clips de voz/vídeo. A medida que la calidad aumenta y los costes disminuyen, el riesgo es menos sobre “la existencia de la IA” y más sobre confusión, manipulación y atribución, especialmente cuando el contenido se comparte sin contexto.
Los responsables políticos enmarcan cada vez más la transparencia como un requisito para la confianza. El etiquetado pretende ayudar a las personas a interpretar lo que ven y oyen, al tiempo que apoya a las herramientas de detección posteriores y a la aplicación por parte de las plataformas. Por eso las normas recientes se centran tanto en la divulgación dirigida a las personas (lo que los usuarios pueden percibir) como en el marcado técnico (lo que las máquinas pueden detectar a escala).
Otra razón es la aplicabilidad. Los reguladores han aprendido que los principios éticos amplios son difíciles de auditar. El marcado de la salida, especialmente cuando está estandarizado, crea obligaciones medibles: ¿lo marcó el proveedor?, ¿se puede detectar?, y ¿lo divulgó el desplegador cuando era obligatorio?
2) Artículo 50 de la Ley de IA de la UE: marcado y divulgación vinculantes (desde el 2 ago 2026)
La Ley de IA de la UE introduce deberes de transparencia específicos para el contenido sintético en el Artículo 50. Según el Artículo 50, los proveedores de sistemas de IA que generan contenido sintético deben garantizar que las salidas estén “marcadas en un formato legible por máquina y sean detectables como generadas o manipuladas artificialmente”, abarcando texto, audio, imágenes y vídeo sintéticos. La disposición entrará en vigor el 2 de agosto de 2026. Fuente: https://artificialintelligenceact.eu/article/50
El Artículo 50 también separa una segunda categoría de responsabilidad: los desplegadores, aquellos que usan sistemas de IA en contextos del mundo real, deben divulgar ciertos deepfakes y ciertos textos generados o manipulados por IA cuando exista una dimensión de interés público. En otras palabras, la ley no trata “crear el modelo” y “usar el modelo” como la misma tarea; asigna diferentes obligaciones de transparencia a cada uno.
Esta estructura doble es importante para la implementación. Un proveedor podría incorporar marcadores técnicos en las salidas, mientras que un desplegador (una redacción, campaña, marca u operador de plataforma) puede tener deberes adicionales para informar a las audiencias cuando el contenido sea sintético, especialmente donde el potencial de engaño sea mayor.
3) El nuevo Código de Práctica de la Comisión Europea sobre marcado y etiquetado
Para hacer operativo el Artículo 50 en la práctica, la Comisión Europea lanzó trabajos sobre un código de práctica específicamente dedicado al marcado y etiquetado del contenido generado por IA el 5 de noviembre de 2025, con un proceso de redacción de siete meses. La Comisión enmarca el código como una forma de ayudar a los proveedores a cumplir las obligaciones de transparencia de la Ley de IA y de apoyar el marcado legible por máquina en audio sintético, imágenes, vídeo y texto, así como los deberes de divulgación para los desplegadores (deepfakes y algunos textos de interés público). Fuente: https://digital-strategy.ec.europa.eu/en/news/commission-launches-work-code-practice-marking-and-labelling-ai-generated-content
La idea política clave detrás de un código es la estandarización. Un requisito legal como “marcado en un formato legible por máquina” puede interpretarse de muchas maneras; un código puede converger el mercado hacia enfoques repetibles, como marcas de agua, metadatos, credenciales de contenido, firmas u otras señales detectables, sin tener que enmendar la ley cada vez que cambie la tecnología.
También proporciona un punto de referencia compartido para auditorías y adquisiciones. Si compradores, plataformas y reguladores pueden remitirse a una base común basada en un código, el cumplimiento deja de ser una interpretación ad hoc y pasa a ser la implementación de controles conocidos que pueden probarse y documentarse.
4) Cronograma: borrador en dic 2025, revisiones en 2026, aplicación en ago 2026
El primer borrador del Código de Práctica sobre Transparencia del Contenido Generado por IA de la UE se publicó el 17 de diciembre de 2025. Las actualizaciones indican que se espera un segundo borrador alrededor de marzo de 2026, con una versión final prevista alrededor de junio de 2026. Fuente: https://www.techuk.org/resource/dispatch-from-brussels-updates-on-eu-tech-policy-december.
Este calendario no es accidental. El Artículo 50 será aplicable el 2 de agosto de 2026, por lo que un código final a mediados de 2026 daría a proveedores y desplegadores una ventana estrecha pero realista para implementar el marcado, la divulgación en la interfaz de usuario, la documentación y las pruebas de cumplimiento antes de que entren en vigor las obligaciones.
El cronograma también señala que el cumplimiento de la transparencia se está convirtiendo en un requisito de producto, no solo en una declaración de política. Las organizaciones que esperen hasta el último momento pueden tener dificultades para adaptar el marcado a canalizaciones de generación complejas, integraciones con socios y flujos de trabajo de publicación multicanal.
5) Quién hace qué: marcado por el proveedor vs divulgación por el desplegador
El análisis legal del borrador del código de la UE destaca cómo operacionaliza el Artículo 50 al separar responsabilidades: los proveedores se encargan del aspecto técnico (marcado/detectabilidad), mientras que los desplegadores se encargan del aspecto dirigido al público (divulgaciones en contextos específicos). Esto hace que el marco de transparencia sea más accionable porque asigna las tareas al actor que tiene las palancas adecuadas. Fuente: https://www.ddg.fr/actualite/transparency-of-ai-generated-content-in-depth-legal-analysis-of-the-draft-code-of-practice-implementing-article-50-of-the-eu-ai-act
Para los proveedores, el reto central es diseñar un marcado que sobreviva a condiciones del mundo real: recompresión de vídeo, capturas de pantalla de imágenes, copiar/pegar de texto, ediciones por parte de usuarios y conversiones de formato. El requisito de que las salidas sean “detectables” va más allá de una insignia superficial hacia señales que puedan comprobarse de forma fiable por máquinas.
Para los desplegadores, el reto es la gobernanza y el contexto. Un desplegador puede necesitar políticas sobre cuándo se activa una divulgación de deepfake, cómo mostrarla, cómo registrar decisiones y cómo asegurar que agencias o contratistas terceros sigan las mismas reglas. En la práctica, muchos desplegadores necesitarán una “lista de verificación de contenido sintético” integrada en los flujos de trabajo de publicación.
6) Estandarizar etiquetas sin arruinar la creatividad o la libertad de expresión
El análisis de políticas mediáticas señala que el borrador de diciembre de 2025 de la Comisión pretende estandarizar el “etiquetado y marcado claros” de los medios sintéticos como parte de la aplicación de la Ley de IA. También discute la idea de divulgaciones “mínimas/no intrusivas” en contextos artísticos o satíricos, un intento de equilibrar la transparencia con la expresión creativa legítima. Fuente: https://www.techpolicy.press/what-the-eus-new-ai-code-of-practice-means-for-labeling-deepfakes
Esta es una tensión de diseño importante. Si las etiquetas son demasiado sutiles, no cumplen su propósito. Si las etiquetas son demasiado prominentes o rígidas, pueden distorsionar obras artísticas, estigmatizar usos benignos o empujar a los creadores a evitar el cumplimiento. Una buena política (y un buen diseño de producto) intenta preservar la comprensión del usuario mientras minimiza la perturbación.
Por eso muchos marcos de transparencia confían implícitamente en un enfoque en capas: marcado legible por máquina para ecosistemas y herramientas de detección, además de etiquetado legible por humanos cuando la audiencia necesita saber, particularmente para deepfakes o comunicaciones de interés público donde el riesgo de engaño es alto.
7) Más allá de Europa: las medidas de etiquetado de China muestran una dirección global
China también ha avanzado en formalizar el etiquetado. Las “Medidas para el Etiquetado del Contenido Generado y Sintetizado por Inteligencia Artificial” fueron coemitidas el 7 de marzo de 2025 y, según comentarios legales, entran en vigor el 1 de septiembre de 2025. Las medidas se describen como exigentes de “logos” para contenido generado/sintetizado por IA, obligando a los usuarios a declarar proactivamente contenido generado/sintetizado por IA al publicar, y requiriendo que los proveedores de servicios de distribución de contenido en red regulen las actividades de generación sintética. Fuente: https://mmlcgroup.com/china-ai-determination/
La dirección de China se basa en orientaciones técnicas anteriores. Un resumen de una guía práctica TC260 de agosto de 2023 describe deberes de etiquetado para distintos tipos de medios, indicando que los proveedores deben añadir etiquetas en imágenes/vídeos/otro contenido generado de forma coherente con la gobernanza más amplia de síntesis profunda de China. Fuente: https://www.insideprivacy.com/artificial-intelligence/labeling-of-ai-generated-content-new-guidelines-released-in-china/
La conclusión para las empresas internacionales no es que la UE y China sean idénticas , no lo son, , sino que el etiquetado se está convirtiendo en una expectativa común de cumplimiento. Los equipos de producto pueden necesitar modos de etiquetado específicos por región, registros de evidencia y controles de política que puedan adaptarse a distintos desencadenantes legales (declaraciones de proveedor vs usuario, deberes de la plataforma y modelos de aplicación).
8) Implementación en la industria: desde la UX “Generado por IA” hasta marcadores legibles por máquina
La regulación está impulsando la transparencia desde un “algo deseable” a una característica estándar de interfaz e infraestructura. Un ejemplo práctico es la guía de UI “Etiqueta de salida de IA generativa” (“Generated by AI”), publicada el 8 de abril de 2024, que propone patrones concretos de interfaz para dejar explícitos los resultados producidos por IA y mejorar la confianza del usuario. Fuente: https://cloudscape.design/patterns/genai/output-label/
Pero las etiquetas en la interfaz de usuario por sí solas probablemente no satisfagan requisitos como el marcado legible por máquina y la detectabilidad del Artículo 50. Muchas organizaciones necesitarán ambos: un indicador visible para el usuario en contextos relevantes y un marcador técnico que pueda ser detectado por herramientas automatizadas, incluso después de que el contenido viaje entre plataformas.
En paralelo, la UE ya está experimentando con instrumentos “de código” para guiar el cumplimiento. Un código de práctica para IA de propósito general (voluntario) se publicó el 10 de julio de 2025 para ayudar a los proveedores a alinearse con los requisitos de la Ley de IA en áreas como transparencia, derechos de autor y seguridad, y la cobertura informativa subrayó el contexto de implementación por fases de la Ley de IA. Fuentes: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai y https://apnews.com/article/a3df6a1a8789eea7fcd17bffc750e291
El nuevo código y la nueva ley convergen en el mismo mensaje: si generas contenido sintético, debes esperar etiquetarlo, y hacerlo de formas que los humanos puedan entender y las máquinas puedan verificar. El Artículo 50 de la Ley de IA de la UE establece la obligación vinculante y la fecha de aplicación (2 de agosto de 2026), mientras que el código de práctica dedicado de la Comisión está diseñado para estandarizar cómo el ecosistema implementa realmente el marcado y la divulgación.
Para proveedores y desplegadores, la tarea práctica ahora es tratar el etiquetado como una capacidad del sistema: implementar marcado legible por máquina para salidas de texto, audio, imágenes y vídeo; diseñar divulgaciones claras dirigidas a las personas para deepfakes y contextos de interés público; y desarrollar gobernanza para que la transparencia se mantenga cuando el contenido se edite, vuelva a publicar o mezcle. Las organizaciones que empiecen pronto tendrán más fácil convertir el cumplimiento en credibilidad.