OpenAI a lancé Sora 2 avec une promesse claire en matière de traçabilité : chaque vidéo Sora inclurait à la fois des signaux de provenance visibles et invisibles. Les documents de lancement de l’entreprise décrivaient un filigrane visible « Créé avec Sora » combiné à des métadonnées C2PA intégrées et à des outils de traçabilité internes conçus pour aider les plateformes, les chercheurs et les utilisateurs à identifier le contenu généré.
Malgré cette promesse, des rapports d’octobre 2025 ont commencé à mettre en évidence un écart entre la théorie et la réalité. Plusieurs utilisateurs et tests ont constaté que les sorties de Sora 2, en particulier via l’API et certaines générations web/Pro, arrivaient sans le filigrane visible, tandis que des outils et workflows indépendants permettaient de supprimer les marques visibles en quelques secondes.
Comment le filigrane de Sora 2 était censé fonctionner
Au lancement, OpenAI a décrit une approche de traçabilité en couches : un filigrane visible pour une reconnaissance humaine immédiate, ainsi que des signaux invisibles tels que les métadonnées C2PA et la journalisation interne pour une traçabilité médico-légale. Le signal visible devait être un indice sur la vidéo que tout spectateur pouvait repérer, tandis que les métadonnées invisibles servaient d’enregistrement lisible par machine lié à la provenance de la génération.
Les filigranes visibles sont généralement simples : des pixels ou des images superposés indiquant « Créé avec Sora » ou équivalent. La traçabilité invisible repose sur des standards comme C2PA (Coalition for Content Provenance and Authenticity) et l’intégration de métadonnées dans les fichiers ou les journaux serveurs, afin que les plateformes et hébergeurs en aval puissent vérifier l’origine même lorsque les indices visuels sont modifiés.
L’approche duale visait à couvrir à la fois la détection occasionnelle (les humains remarquant la marque) et la vérification rigoureuse (contrôles et audits des plateformes). En pratique, la résilience relative de chaque couche dépend de la manière dont les fichiers sont manipulés, ré-encodés ou réhébergés par les utilisateurs et intermédiaires.
Premiers signes : marques visibles manquantes ou supprimées
En octobre 2025, de nombreux rapports d’utilisateurs ont fait état de vidéos Sora 2 dépourvues du filigrane visible « Créé avec Sora » malgré les affirmations d’OpenAI lors du lancement. Certains de ces cas étaient liés à des sorties via l’API et à certains chemins de génération web.
Ces rapports ont soulevé des questions immédiates : le filigrane était-il optionnel dans certains paramètres, désactivé par une mise à jour, ou perdu lors d’un traitement de fichier anodin ? La documentation d’OpenAI mettait en avant les signaux visibles et invisibles au lancement, mais les observations de la communauté montraient que les marques visibles n’étaient pas universellement présentes.
Cette divergence a relancé l’examen de la posture de traçabilité de Sora, d’autant plus que des controverses de modération très médiatisées, comme la décision de suspendre certaines représentations de personnages historiques, ont amplifié les préoccupations sur la manière dont les médias générés sont étiquetés et contrôlés.
Outils tiers de suppression : rapidité et accessibilité
Une fois les lacunes constatées, ou même lorsque les filigranes étaient présents, des services tiers ont rapidement répondu à la demande de suppression des marques visibles. En octobre 2025, une variété d’outils en un clic et de services payants proposaient la suppression quasi instantanée des filigranes Sora 2, revendiquant une suppression image par image ou un inpainting par IA rendant les marques invisibles à l’œil nu.
Parmi les exemples figuraient Media.io, NanoPhoto.ai, LunaAI.video et des domaines dédiés comme Sora2WatermarkRemover.com. Les tests et avis publiés par des médias ont rapporté que plusieurs services supprimaient ou masquaient le filigrane visible « sans couture » dans de nombreux cas, tandis que d’autres laissaient des artefacts visibles.
Des plateformes communautaires comme Reddit ont amplifié la diffusion : des utilisateurs partageaient des liens, des scripts, des dépôts GitHub et des tutoriels pas à pas automatisant la suppression, parfois combinée à des paramètres de génération pour produire des sorties « sans filigrane ». Le résultat : un écosystème large et accessible pour contourner les indices visibles.
Attaques techniques et limites des marques invisibles
Au-delà du simple inpainting et du recadrage, la recherche académique a mis en évidence des menaces plus profondes pour les schémas de filigrane. Un article arXiv d’octobre 2025 a démontré que des attaques de régénération d’images basées sur la diffusion pouvaient briser des filigranes invisibles robustes et en dégrader la détectabilité, suggérant que la traçabilité cachée n’est pas invulnérable.
Ces méthodes basées sur la diffusion fonctionnent en régénérant le contenu de sorte que les signaux intégrés ne soient plus préservés de manière fiable. Pour la vidéo, des approches similaires peuvent opérer image par image ou via un re-rendu basé sur des modèles pour effacer ou masquer à la fois les marques visibles et certaines marques cachées.
Cette recherche souligne une réalité technique cruciale : aucune approche de filigrane n’est infaillible face à un adversaire motivé. Les superpositions de pixels visibles comme certaines méthodes de métadonnées invisibles peuvent être contournées par des outils modernes de génération et de restauration, à moins que des protections supplémentaires ne soient ajoutées.
Conséquences pour la traçabilité, la modération et la désinformation
Lorsque les filigranes visibles peuvent être supprimés en quelques secondes, la barrière pour tromper les spectateurs occasionnels s’abaisse. Des journalistes et experts ont averti que la suppression d’un indice visible rend la traçabilité bien plus difficile pour le grand public, augmentant le risque de propagation de deepfakes et d’amplification de la désinformation.
Même lorsque les métadonnées invisibles subsistent, la suppression du filigrane combinée à un ré-encodage, à des captures d’écran ou à un repost peut supprimer ou rompre la chaîne de traçabilité, à moins que les plateformes et hébergeurs en aval ne vérifient et n’appliquent activement la provenance. En résumé : les métadonnées aident, mais seulement si les systèmes en aval les vérifient.
Les enjeux de modération ont augmenté avec des incidents réels. Les controverses plus larges d’OpenAI sur la modération de contenu ont attiré l’attention sur la question de savoir si les filigranes visibles seuls étaient suffisants pour empêcher les réutilisations nuisibles, notamment dans des contextes viraux où la rapidité et la partageabilité priment sur les traces médico-légales.
Réponses juridiques, réglementaires et politiques
Les acteurs nationaux et institutionnels ont réagi rapidement. Les gouvernements et institutions culturelles, y compris des demandes d’autorités japonaises concernant des préoccupations stylistiques, ont signalé les sorties Sora pour des questions de droits d’auteur, de droits moraux et de ressemblance. Les régulateurs ont accéléré les enquêtes sur la manière dont la traçabilité et le filigrane interagiraient avec les lois existantes.
En parallèle, des analystes juridiques ont souligné que les documents publics d’OpenAI mettaient en avant la traçabilité et les fonctions d’opt-out/consentement, mais que les Conditions d’Utilisation de l’entreprise ne semblaient pas inclure d’interdiction explicite et exécutoire d’altérer ou de supprimer les filigranes visibles de ses propres fichiers. Cette lacune compliquait les options d’application.
Les décideurs politiques et les opérateurs de plateformes font face à un choix : exiger la préservation et la vérification de la traçabilité invisible sur toutes les plateformes d’hébergement, adopter des règles limitant la vente d’outils de suppression de filigrane, ou pousser à des standards techniques de filigrane plus robustes. Chaque option comporte des compromis en matière de liberté d’expression, d’applicabilité et de faisabilité technique.
Leçons pratiques et prochaines étapes recommandées
Pour les plateformes et chercheurs : ne vous fiez pas uniquement aux marques visibles. Mettez en place des vérifications automatisées de la provenance qui valident les métadonnées C2PA et les journaux serveurs avant d’autoriser le partage ou la promotion ; envisagez de signaler les contenus dont les métadonnées sont absentes ou altérées. La détection nécessite une vérification active, pas seulement un filigrane passif.
Pour les créateurs et consommateurs : soyez sceptiques face aux indices visuels comme seule source de vérité. Si la traçabilité est importante , pour les rédactions, archives ou ayants droit , exigez que la provenance lisible par machine soit préservée et auditée, et privilégiez les hébergeurs qui requièrent ou affichent les métadonnées de vérification avec le contenu.
Pour les décideurs politiques et organismes de normalisation : investissez dans des standards robustes qui rendent plus difficile et illégal, lorsque c’est approprié, le retrait de la provenance, tout en favorisant l’interopérabilité des contrôles de traçabilité. Soutenez la recherche sur des conceptions de filigrane qui survivent au ré-encodage et à la régénération par modèle, et financez des régimes de tests indépendants.
En résumé, l’épisode du filigrane Sora 2 montre que les filigranes visibles peuvent être un moyen de dissuasion utile contre les usages abusifs occasionnels, mais sont insuffisants comme seul contrôle. L’écosystème d’outils de suppression, d’attaques par diffusion et de contrôles en aval laxistes signifie que la traçabilité doit être assurée par une combinaison de mesures techniques, de plateforme et de politique.
Pour relever ce défi, il faudra une coordination entre développeurs d’IA, plateformes, organismes de normalisation et régulateurs. Le défi est à la fois technique et social : rendre la traçabilité fiable sans restreindre indûment l’utilisation légitime des outils créatifs.