Los generadores de contenido con IA impulsan un nuevo código de etiquetado de la UE

Author auto-post.io
02-23-2026
10 min. de lectura
Resumir este artículo con:
Los generadores de contenido con IA impulsan un nuevo código de etiquetado de la UE

Los generadores de contenido de IA han facilitado la producción de textos, voces, imágenes y vídeos convincentes a gran escala. Esa conveniencia también ha amplificado daños conocidos en línea: desinformación, fraude, suplantación e engaño al consumidor, porque los medios sintéticos pueden crearse y compartirse más rápido de lo que las personas pueden verificarlos.

En respuesta, la Comisión Europea avanza hacia un marco práctico de etiquetado y marcado en virtud de la Ley de IA de la UE. Se está elaborando un nuevo “código de buenas prácticas” voluntario para ayudar a las organizaciones a cumplir con las obligaciones de transparencia de la Ley de IA, especialmente respecto a los deepfakes y ciertas comunicaciones generadas por IA, antes de que las normas sean aplicables el 2 de agosto de 2026.

Por qué la UE promueve ahora el etiquetado del contenido generado por IA

La Comisión ha enmarcado el próximo código como una respuesta directa a riesgos del mundo real: campañas de desinformación, esquemas de fraude, suplantaciones y engaño al consumidor. Cuando el contenido sintético es difícil de distinguir del material auténtico, la confianza en el ecosistema informativo se erosiona, especialmente durante elecciones, crisis o eventos que mueven los mercados.

En el centro del enfoque de la UE está la transparencia: dejar más claro cuándo las personas están viendo, escuchando o leyendo contenido generado o manipulado por IA. El objetivo no es prohibir los medios sintéticos, sino reducir la probabilidad de que se utilicen para engañar a las audiencias de maneras que provoquen daños.

La Comisión también enfatiza la implementación práctica. Un régimen de etiquetado solo funciona si puede aplicarse de manera consistente en plataformas y herramientas, y si puede auditarse cuando los reguladores pregunten cómo cumplió una organización. Por eso el código se presenta como orientación técnica y operativa en lugar de una declaración puramente política.

Cómo el Artículo 50 de la Ley de IA establece la base de transparencia

El anclaje legal de la iniciativa es el Artículo 50 de la Ley de IA de la UE, que establece obligaciones de transparencia para ciertos sistemas y resultados de IA. Según la redacción de la Comisión, el Artículo 50 “incluye obligaciones… para marcar contenido generado o manipulado por IA en un formato legible por máquina”, junto con divulgaciones dirigidas a los usuarios en casos definidos.

El marcado legible por máquina importa porque permite la detección automatizada, por parte de plataformas, verificadores de hechos y otras herramientas, a escala de internet. Las etiquetas legibles por humanos por sí solas pueden ser eliminadas, recortadas, re-codificadas o simplemente ignoradas, mientras que los esquemas de marcado robustos intentan acompañar al contenido (o al menos permanecer detectables) a través de transformaciones comunes.

Crucialmente, el Artículo 50 va acompañado de un cronograma de aplicación. En los materiales de la Comisión y comentarios posteriores, se repite una fecha clave de cumplimiento: el 2 de agosto de 2026, cuando estas obligaciones de transparencia se vuelven aplicables. El código de buenas prácticas pretende ofrecer un camino más claro para cumplir con ese plazo.

De la consulta al borrador: el cronograma de la UE que debes seguir

El trabajo de la Comisión no comenzó con el primer borrador. El 4 de septiembre de 2025 lanzó una consulta y una llamada de expresión de interés para desarrollar directrices de transparencia de IA y un código de buenas prácticas, invitando a las partes interesadas a compartir sus opiniones hasta el 9 de octubre de 2025. Este fue el paso precursor que puso el proceso en marcha.

El 5 de noviembre de 2025, la Comisión inició formalmente el trabajo sobre un nuevo código de buenas prácticas voluntario para marcar y etiquetar contenido generado por IA, cubriendo deepfakes y texto/audio/imagen/vídeo sintético. La Comisión vinculó el esfuerzo a las obligaciones de transparencia de la Ley de IA, resaltando el marcado legible por máquina y la divulgación clara, especialmente en comunicaciones de interés público.

Luego, el 17 de diciembre de 2025, la Comisión publicó el primer borrador del Código de Buenas Prácticas y abrió una ventana de comentarios públicos que finalizó el 23 de enero de 2026. El cronograma declarado por la Comisión es específico: un segundo borrador está previsto para mediados de marzo de 2026, el código final se dirige a junio de 2026, y las reglas de transparencia subyacentes se aplican a partir del 2 de agosto de 2026.

Qué cubre el primer borrador: proveedores frente a desplegadores

La Comisión describe el borrador como estructurado en dos secciones. La primera sección se centra en las obligaciones de los proveedores relacionadas con el marcado y la detección, cómo el contenido generado o manipulado por IA debe marcarse “en formatos legibles por máquina para permitir la detección”. Esto tiene por objeto hacer que el cumplimiento sea técnicamente factible y demostrable.

La segunda sección se centra en los desplegadores, organizaciones que usan sistemas de IA en contextos reales, y sus obligaciones de etiquetar deepfakes y cierto texto generado por IA en escenarios de interés público. En otras palabras, el código intenta clarificar tanto las responsabilidades técnicas aguas arriba como las responsabilidades de divulgación aguas abajo.

Los materiales de política de la Comisión también reflejan esta división operativamente: dos grupos de trabajo alineados con la estructura del Artículo 50, uno para Proveedores y otro para Desplegadores. Para los proveedores, la ambición es desarrollar soluciones que sean “eficaces, interoperables, robustas y fiables”, en la medida de lo técnicamente factible.

Marcado legible por máquina: qué es y por qué es difícil

El marcado legible por máquina suele significar incrustar señales que los sistemas de detección puedan leer, a menudo mediante marcas invisibles (watermarking), metadatos, técnicas criptográficas de procedencia o enfoques híbridos. El énfasis de la Comisión en formatos legibles por máquina indica una preferencia por la detección escalable frente a las etiquetas puramente visuales que pueden eliminarse fácilmente.

Pero el marcado robusto es técnicamente difícil. El contenido se comprime, redimensiona, traduce, vuelve a grabar y remixa; los atacantes también pueden intentar un “lavado” deliberado para eliminar patrones detectables. Por eso la interoperabilidad y la fiabilidad se destacan como objetivos de diseño: un ecosistema de etiquetado fragmentado podría fallar en la práctica incluso si cada herramienta individual afirma cumplir.

Desde una perspectiva de cumplimiento, los detalles técnicos importarán: qué “marcado” cuenta, cómo debe probarse la detección y qué evidencia puede conservar un proveedor para demostrar que aplicó el marcado adecuadamente. El código se enmarca explícitamente como orientación práctica destinada a ser usable en demostraciones de cumplimiento, no meramente principios aspiracionales.

Divulgación y etiquetado: deepfakes y texto de IA de interés público

Junto con el marcado legible por máquina, el código apunta a obligaciones de “divulgación clara”, especialmente para los deepfakes. La idea básica es sencilla: si el contenido está manipulado o generado de maneras que podrían inducir a error, las audiencias deben ser informadas de forma clara y oportuna.

La Comisión también destaca expectativas de divulgación para cierto texto generado por IA en comunicaciones de interés público. Aunque los detalles se pulirán a través de los borradores, la dirección es clara: cuando las salidas de IA puedan moldear la comprensión pública de asuntos importantes, se espera transparencia para que los destinatarios puedan calibrar la confianza y buscar verificación cuando sea necesario.

Operativamente, esto probablemente se traduzca en cambios en productos y comunicaciones para los desplegadores: etiquetas en la interfaz, avisos sobre el contenido, explicaciones contextuales y políticas internas sobre cuándo deben aparecer las divulgaciones. También plantea cuestiones prácticas para las organizaciones que distribuyen contenido en canales donde los formatos de etiquetado difieren (web, plataformas sociales, transmisiones solo de audio, vídeo de emisión y derivados impresos).

Gobernanza: un proceso impulsado por las partes interesadas liderado por la Oficina Europea de IA

La Comisión caracteriza la redacción como un “proceso inclusivo, de siete meses, impulsado por las partes interesadas” liderado por expertos independientes nombrados por la Oficina Europea de IA. El objetivo es incorporar la realidad técnica de la industria, las preocupaciones de la sociedad civil sobre los daños y las necesidades del sector público para la aplicabilidad.

Según la entrada de la Comisión en su biblioteca sobre el primer borrador, es “el resultado de un esfuerzo colaborativo que involucró a cientos de participantes” e incluye contribuciones de los Estados miembros. Esa amplitud pretende fortalecer la legitimidad y aumentar la probabilidad de que el código final sea factible en distintos mercados y sectores.

Este diseño de gobernanza también señala cómo la UE espera que funcione el código: no como un anexo técnico de nicho, sino como un punto de referencia compartido sobre lo que significa un “buen” cumplimiento. Aunque el código sea voluntario, la amplia participación de las partes interesadas puede hacerlo influyente en la práctica.

Por qué un código voluntario aún puede convertirse en la norma de facto

El comentario legal de enero de 2026 sostuvo que el borrador del código de etiquetado probablemente se convierta en un “referente” para las expectativas regulatorias. Esa es una dinámica común en la regulación tecnológica de la UE: los instrumentos voluntarios pueden endurecerse efectivamente en normas cuando se citan repetidamente en auditorías, requisitos de contratación y diálogos supervisorios.

El propio cronograma de la Comisión respalda esa interpretación. Con un primer borrador en diciembre de 2025, comentarios hasta el 23 de enero de 2026, más borradores en la primera mitad de 2026 y un final previsto para junio de 2026, las organizaciones verán presión para alinearse pronto y poder cumplir la fecha de aplicación del 2 de agosto de 2026 para las obligaciones de transparencia del Artículo 50.

Los informes secundarios sobre el lanzamiento del 5 de noviembre de 2025 también reforzaron la misma ventana de redacción de siete meses y la aplicabilidad en agosto de 2026. La implicación práctica es que los equipos responsables de producto, confianza y seguridad, legales y de seguridad pueden tratar el código como una hoja de ruta a corto plazo en lugar de lectura opcional.

No lo confundas con el código de prácticas separado de la GPAI

Una razón de confusión es que la UE ha estado activa en múltiples “códigos de buenas prácticas” vinculados a la implementación de la Ley de IA. El 10 de julio de 2025, la UE publicó un código de buenas prácticas voluntario separado para la IA de propósito general (GPAI), centrado en áreas como transparencia, derechos de autor y seguridad para modelos GPAI.

Ese código de la GPAI no es el mismo que el código de marcado y etiquetado para contenido generado por IA. El código de etiquetado está explícitamente orientado alrededor de las obligaciones de transparencia del Artículo 50, el marcado legible por máquina y la divulgación para deepfakes y ciertas comunicaciones generadas por IA, en lugar de responsabilidades amplias de los proveedores para modelos de propósito general.

Para las organizaciones, la distinción importa porque distintos equipos pueden ser responsables de cada tema. La gobernanza del modelo y el cumplimiento de datos de entrenamiento pueden corresponder al trabajo relacionado con la GPAI, mientras que el watermarking, las herramientas de procedencia y los flujos de trabajo de divulgación de contenido corresponden al esfuerzo de etiquetado y marcado del Artículo 50.

El impulso de la UE para un código de etiquetado de contenido de IA refleja una apuesta pragmática: la transparencia puede reducir los daños sin detener la innovación. Al emparejar el marcado legible por máquina con obligaciones claras de divulgación, la Comisión pretende hacer que los medios sintéticos sean más responsables y más fáciles de detectar, especialmente en contextos de alto riesgo.

Con el primer borrador ya publicado (17 de diciembre de 2025), comentarios cerrados el 23 de enero de 2026, un segundo borrador previsto para mediados de marzo de 2026 y un final dirigido a junio de 2026, el plazo es corto. Incluso como instrumento voluntario, el código está dispuesto a influir en cómo proveedores y desplegadores se preparan para las obligaciones de transparencia del Artículo 50 que se aplican desde el 2 de agosto de 2026.

¿Listo para comenzar?

Empieza a automatizar tu contenido hoy

Únete a los creadores de contenido que confían en nuestra IA para generar artículos de blog de calidad y automatizar su flujo de publicación.

No se requiere tarjeta de crédito
Cancela en cualquier momento
Acceso instantáneo
Resumir este artículo con:
Compartir este artículo :