Les générateurs de contenu IA ont rendu facile la production à grande échelle de textes, voix, images et vidéos crédibles. Cette commodité a également amplifié des préjudices en ligne bien connus : désinformation, fraudes, usurpations d’identité et tromperies à l’égard des consommateurs, car les médias synthétiques peuvent être créés et partagés plus vite que les personnes ne peuvent les vérifier.
En réponse, la Commission européenne s’oriente vers un cadre pratique d’étiquetage et de marquage dans le cadre du règlement sur l’IA de l’UE. Un nouveau « code de conduite » volontaire est en cours d’élaboration pour aider les organisations à respecter les obligations de transparence du règlement, notamment pour les deepfakes et certaines communications générées par l’IA, avant l’entrée en vigueur des règles le 2 août 2026.
Pourquoi l’UE pousse maintenant à l’étiquetage des contenus générés par l’IA
La Commission a présenté le futur code comme une réponse directe aux risques réels : campagnes de désinformation, escroqueries, usurpations d’identité et tromperie des consommateurs. Lorsque le contenu synthétique est difficile à distinguer du matériel authentique, la confiance dans l’écosystème informationnel se dégrade, en particulier lors d’élections, de crises ou d’événements susceptibles d’influencer les marchés.
Au centre de l’approche de l’UE se trouve la transparence : préciser quand les personnes voient, entendent ou lisent du contenu généré ou manipulé par l’IA. L’objectif n’est pas d’interdire les médias synthétiques, mais de réduire la probabilité qu’ils soient utilisés pour tromper des publics de manière préjudiciable.
La Commission insiste également sur la mise en œuvre pratique. Un régime d’étiquetage ne fonctionne que s’il peut être appliqué de manière cohérente sur les plateformes et les outils, et s’il peut être audité lorsque les régulateurs demandent comment une organisation s’est conformée. C’est pourquoi le code est positionné comme une orientation technique et opérationnelle plutôt que comme une simple déclaration de principe.
Comment l’article 50 du règlement sur l’IA fixe le socle de transparence
Le fondement juridique de l’initiative est l’article 50 du règlement européen sur l’IA, qui établit des obligations de transparence pour certains systèmes et résultats d’IA. Dans la formulation de la Commission, l’article 50 « inclut des obligations… de marquer le contenu généré ou manipulé par l’IA dans un format lisible par machine », parallèlement à des divulgations destinées aux utilisateurs dans des cas définis.
Le marquage lisible par machine est important car il permet la détection automatisée, par les plateformes, les vérificateurs de faits et d’autres outils, à l’échelle d’Internet. Les étiquettes lisibles par l’humain seules peuvent être supprimées, recadrées, réencodées ou tout simplement ignorées, tandis que des schémas de marquage robustes visent à accompagner le contenu (ou du moins à rester détectables) à travers les transformations courantes.
De manière cruciale, l’article 50 est assorti d’un calendrier d’application. Dans les documents de la Commission et les commentaires ultérieurs, une date de conformité clé est répétée : le 2 août 2026, date à laquelle ces obligations de transparence deviennent applicables. Le code de conduite est destiné à fournir une voie plus claire vers la conformité avant cette échéance.
De la consultation à la rédaction : le calendrier de l’UE à suivre
Le travail de la Commission n’a pas commencé avec le premier projet. Le 4 septembre 2025, elle a lancé une consultation et un appel à manifestations d’intérêt pour développer des lignes directrices sur la transparence de l’IA et un code de conduite, invitant les parties prenantes à donner leur avis d’ici le 9 octobre 2025. Il s’agissait de l’étape préparatoire qui a mis le processus en mouvement.
Le 5 novembre 2025, la Commission a officiellement lancé les travaux sur un nouveau code de conduite volontaire pour le marquage et l’étiquetage des contenus générés par l’IA, couvrant les deepfakes et les textes/audio/images/vidéos synthétiques. La Commission a relié cet effort aux obligations de transparence du règlement sur l’IA, en mettant en avant le marquage lisible par machine et une divulgation claire, en particulier dans les communications d’intérêt public.
Puis, le 17 décembre 2025, la Commission a publié le premier projet du Code de conduite et ouvert une période de consultation publique se terminant le 23 janvier 2026. Le calendrier annoncé par la Commission est précis : un deuxième projet est attendu à la mi-mars 2026, le code final est visé pour juin 2026, et les règles de transparence sous-jacentes s’appliquent à partir du 2 août 2026.
Ce que couvre le premier projet : fournisseurs vs déployeurs
La Commission décrit le projet comme structuré en deux sections. La première se concentre sur les obligations des fournisseurs liées au marquage et à la détection, sur la manière dont le contenu généré ou manipulé par l’IA devrait être marqué « dans des formats lisibles par machine pour permettre la détection ». L’objectif est de rendre la conformité techniquement faisable et démontrable.
La seconde section porte sur les déployeurs, les organisations qui utilisent des systèmes d’IA en contexte réel, et leurs obligations d’étiqueter les deepfakes et certains textes générés par l’IA dans des scénarios d’intérêt public. Autrement dit, le code tente de clarifier à la fois les responsabilités techniques en amont et les responsabilités de divulgation en aval.
Les documents politiques de la Commission reflètent également cette division sur le plan opérationnel : deux groupes de travail alignés sur la structure de l’article 50, l’un pour les Fournisseurs et l’autre pour les Déployeurs. Pour les fournisseurs, l’ambition est de développer des solutions « efficaces, interopérables, robustes et fiables », dans la mesure du techniquement possible.
Marquage lisible par machine : ce que c’est et pourquoi c’est difficile
Le marquage lisible par machine signifie généralement l’intégration de signaux que les systèmes de détection peuvent lire, souvent via le watermarking, des métadonnées, des techniques cryptographiques de provenance, ou des approches hybrides. L’accent mis par la Commission sur les formats lisibles par machine montre une préférence pour la détection à grande échelle plutôt que pour des étiquettes visuelles purement humaines aisément supprimables.
Mais un marquage robuste est techniquement difficile. Le contenu est compressé, redimensionné, traduit, réenregistré et remanié ; des acteurs malveillants peuvent aussi tenter un « nettoyage » délibéré pour supprimer les motifs détectables. C’est pourquoi l’interopérabilité et la fiabilité sont mises en avant comme objectifs de conception : un écosystème d’étiquetage fragmenté pourrait échouer en pratique même si chaque outil individuel revendique la conformité.
Du point de vue de la conformité, les détails techniques auront de l’importance : ce qui compte comme « marquage », comment la détection doit être testée, et quelles preuves un fournisseur peut conserver pour démontrer qu’il a appliqué le marquage correctement. Le code est explicitement présenté comme une orientation pratique destinée à être utilisable dans des démonstrations de conformité, et non comme de simples principes aspirants.
Divulgation et étiquetage : deepfakes et textes d’IA d’intérêt public
Parallèlement au marquage lisible par machine, le code vise des obligations de « divulgation claire », en particulier pour les deepfakes. L’idée de base est simple : si le contenu est manipulé ou généré d’une manière susceptible d’induire en erreur, le public doit en être informé de façon claire et en temps utile.
La Commission souligne également des attentes de divulgation pour certains textes générés par l’IA dans des communications d’intérêt public. Bien que les détails soient affinés au fil des projets, l’orientation est claire : lorsque les sorties d’IA peuvent façonner la compréhension publique d’enjeux importants, la transparence est attendue afin que les destinataires puissent ajuster leur degré de confiance et rechercher une vérification si nécessaire.
Sur le plan opérationnel, cela se traduira probablement par des changements de produit et de communication pour les déployeurs : étiquettes d’interface utilisateur, avis sur le contenu, explications contextuelles et politiques internes précisant quand les divulgations doivent apparaître. Cela soulève aussi des questions pratiques pour les organisations qui diffusent du contenu sur des canaux aux formats d’étiquetage différents (web, plateformes sociales, flux audio uniquement, vidéo diffusée et dérivés imprimés).
Gouvernance : un processus piloté par les parties prenantes sous la direction du Bureau européen de l’IA
La Commission caractérise la rédaction comme un « processus inclusif, de sept mois, piloté par les parties prenantes » dirigé par des experts indépendants nommés par le Bureau européen de l’IA. L’objectif est d’incorporer la réalité technique de l’industrie, les préoccupations de la société civile concernant les préjudices, et les besoins du secteur public en matière d’applicabilité et d’exécution.
Selon l’entrée de la Commission dans sa bibliothèque relative au premier projet, il s’agit « du résultat d’un effort collaboratif impliquant des centaines de participants » et incluant des contributions des États membres. Cette ampleur vise à renforcer la légitimité et à augmenter la probabilité que le code final soit applicable dans différents marchés et secteurs.
Cette conception de gouvernance signale aussi la manière dont l’UE attend que le code fonctionne : non comme une annexe technique de niche, mais comme un point de référence partagé pour ce à quoi ressemble une « bonne » conformité. Même si le code est volontaire, une large participation des parties prenantes peut le rendre influent en pratique.
Pourquoi un code volontaire peut tout de même devenir la norme de facto
Des commentaires juridiques en janvier 2026 ont soutenu que le projet de code d’étiquetage est susceptible de devenir un « référentiel » pour les attentes réglementaires. C’est une dynamique commune dans la régulation technologique de l’UE : les instruments volontaires peuvent effectivement se durcir en normes lorsqu’ils sont cités à plusieurs reprises dans des audits, des exigences d’achat public et des dialogues de supervision.
Le calendrier annoncé par la Commission va dans ce sens. Avec un premier projet en décembre 2025, une période de retour d’information jusqu’au 23 janvier 2026, d’autres projets au premier semestre 2026 et un final visé pour juin 2026, les organisations seront incitées à s’aligner tôt afin de pouvoir respecter la date d’application du 2 août 2026 pour les obligations de transparence de l’article 50.
Des comptes rendus secondaires sur le lancement du 5 novembre 2025 ont également confirmé la même fenêtre de rédaction de sept mois et l’applicabilité en août 2026. L’implication pratique est que les équipes responsables des produits, de la confiance et sécurité, du juridique et de la sécurité considéreront probablement le code comme une feuille de route à court terme plutôt que comme une lecture facultative.
Ne pas confondre avec le code de conduite GPAI distinct
Une source de confusion est que l’UE a été active sur plusieurs « codes de conduite » liés à la mise en œuvre du règlement sur l’IA. Le 10 juillet 2025, l’UE a publié un code de conduite volontaire distinct pour les IA à usage général (GPAI), axé sur des domaines tels que la transparence, le droit d’auteur et la sécurité pour les modèles GPAI.
Ce code GPAI n’est pas le même que le code de marquage et d’étiquetage pour le contenu généré par l’IA. Le code d’étiquetage est explicitement orienté autour des obligations de transparence de l’article 50, du marquage lisible par machine et de la divulgation pour les deepfakes et certaines communications générées par l’IA, plutôt que sur les responsabilités larges des fournisseurs de modèles à usage général.
Pour les organisations, la distinction est importante car des équipes différentes peuvent être responsables de chaque sujet. La gouvernance des modèles et la conformité aux données d’entraînement peuvent relever des travaux liés au GPAI, tandis que le watermarking, les outils de provenance et les flux de travail de divulgation de contenu relèvent de l’effort d’étiquetage et de marquage de l’article 50.
La poussée de l’UE pour un code d’étiquetage du contenu IA reflète un pari pragmatique : la transparence peut réduire les préjudices sans freiner l’innovation. En associant le marquage lisible par machine à des obligations de divulgation claires, la Commission vise à rendre les médias synthétiques plus responsables et plus faciles à détecter, en particulier dans des contextes à fort enjeu.
Avec le premier projet déjà publié (17 décembre 2025), la consultation close le 23 janvier 2026, un deuxième projet attendu à la mi-mars 2026 et un final visé pour juin 2026, la fenêtre est courte. Même en tant qu’instrument volontaire, le code est prêt à façonner la manière dont fournisseurs et déployeurs se préparent aux obligations de transparence de l’article 50 qui s’appliquent à partir du 2 août 2026.