Microsoft fait passer la provenance de l'IA d'une préoccupation de niche à un contrôle courant en milieu de travail. À partir de la seconde moitié de février 2026, Microsoft 365 déploie l'ajout de filigranes pour l'audio et la vidéo générés ou modifiés par Copilot, une fonctionnalité gérée par les administrateurs conçue pour signaler quand des médias ont été produits ou modifiés avec de l'IA.
Ce changement est important car le contenu IA ne se limite plus aux images et au texte ; il inclut de plus en plus des voix off, des extraits de réunions et des vidéos courtes utilisées pour la formation, le marketing et les communications internes. La nouvelle approche de Microsoft combine un marquage visible (lorsqu'il est activé) avec des métadonnées en coulisses qui peuvent persister même lorsque le filigrane est désactivé.
1) Ce que Microsoft déploie dans Microsoft 365
Microsoft indique que des filigranes peuvent être ajoutés au contenu audio et vidéo « généré ou modifié en utilisant l'IA dans Microsoft 365 », le déploiement commençant dans la seconde moitié de février 2026. La fonctionnalité est régie par un paramètre Cloud Policy au niveau de l'organisation, ce qui signifie que ce sont les administrateurs du locataire, et non les utilisateurs finaux, qui contrôlent l'application du filigrane.
La couverture autour de la sortie indique que l'accent initial est mis sur l'audio, avec un support vidéo plus large qui suivra peu après. PCWorld a rapporté le 26 février 2026 que le filigrane commence par l'audio et que l'extension à la vidéo est attendue pour mars 2026, et il note également que les administrateurs doivent activer la fonctionnalité.
Windows Central a de la même façon décrit la « politique de filigrane IA » comme désactivée par défaut et nécessitant l'activation par l'administrateur via Cloud Policy. En pratique, cette posture par défaut signale que Microsoft considère le filigranage comme un choix de conformité que les organisations doivent explicitement effectuer, plutôt qu'un comportement universel imposé automatiquement aux utilisateurs.
2) Le basculement exact de la politique d'administration, et ce que « contrôlé par la politique » signifie réellement
Dans la documentation Microsoft Learn, le basculement au niveau de l'organisation porte explicitement le nom suivant : « Inclure un filigrane lorsque le contenu provenant de Microsoft 365 est généré ou modifié par l'IA ». Il se trouve dans le service Cloud Policy pour Microsoft 365, que de nombreuses organisations utilisent déjà pour gérer les paramètres entre les applications et les utilisateurs.
Parce qu'il s'agit d'un paramètre administrateur du locataire, le filigranage devient partie intégrante d'une gouvernance plus large : une entreprise peut décider d'étiqueter de manière cohérente les médias modifiés par l'IA dans tous les départements, ou de restreindre le filigranage à certaines populations (selon la manière dont le périmètre de Cloud Policy est configuré).
Cela re-cadre aussi le « filigranage » en tant que contrôle de conformité plutôt qu'en tant que fonctionnalité d'édition. Les utilisateurs peuvent créer ou modifier des médias avec Copilot, mais c'est l'organisation qui décide si une marque visible apparaît, de la même manière que les politiques de prévention de perte de données, de rétention ou d'étiquetage de sensibilité sont gérées de manière centralisée.
3) Le texte et le placement du filigrane sont fixes (pas de personnalisation)
Les organisations espérant adapter le filigrane à leur marque ou à leur formulation juridique doivent prévoir des limitations. Microsoft Learn indique que vous ne pouvez pas personnaliser l'emplacement ni le libellé du filigrane, ce qui signifie qu'il s'agit d'une marque standardisée définie par Microsoft.
D'un point de vue cohérence, un libellé et un placement fixes peuvent réduire l'ambiguïté et empêcher des implémentations « créatives » qui affaibliraient l'objectif de divulgation. Une marque uniforme est plus facile à reconnaître pour les spectateurs, les auditeurs et les outils en aval à travers différents locataires.
Mais l'absence de personnalisation peut aussi introduire des frictions pour certains cas d'usage. Par exemple, les entreprises produisant des médias destinés aux clients peuvent préférer un libellé plus nuancé (par ex., « assisté par l'IA ») ou avoir besoin d'une langue localisée, et le comportement documenté implique une présentation unique pour tous.
4) Filigranage optionnel, mais la provenance IA peut toujours être intégrée en tant que métadonnées
Même si le filigrane est désactivé, Microsoft indique que des informations supplémentaires sont toujours ajoutées aux métadonnées pour le contenu généré ou modifié par l'IA. Microsoft Learn note que « Même si vous décidez de garder ces filigranes désactivés, des informations supplémentaires sont ajoutées aux métadonnées », préservant ainsi des signaux de provenance en coulisses.
Windows Central a également souligné ce point, décrivant des métadonnées qui peuvent indiquer l'utilisation de Copilot/IA même lorsque le filigrane visible est désactivé. Autrement dit, désactiver le filigrane n'efface pas nécessairement la preuve que l'IA a été impliquée ; cela supprime seulement l'indication visible.
La documentation de Microsoft donne des exemples de ce que ces champs de métadonnées peuvent inclure : quel modèle d'IA a été utilisé, quelle application a généré le contenu, ou quand il a été créé/modifié. Pour les organisations axées sur l'auditabilité, cette division , filigrane visible optionnel plus métadonnées persistantes , offre une approche à plusieurs niveaux de transparence.
5) Les images sont traitées différemment : filigranage contrôlé par l'utilisateur, voie distincte
Microsoft Learn trace une frontière claire : le paramètre de filigrane Cloud Policy pour Microsoft 365 « ne s'applique pas aux images ». Cela signifie qu'un administrateur ne peut pas utiliser le même basculement organisationnel pour imposer des filigranes sur les images de la même manière que pour l'audio et la vidéo.
Au lieu de cela, Microsoft indique que le filigranage des images est contrôlé par l'utilisateur via Paramètres & Confidentialité > Confidentialité sur myaccount.microsoft.com, cette expérience étant attendue dans la seconde moitié de février 2026. Concrètement, cela place le filigranage des images plus proche d'une préférence personnelle que d'un mandat centralisé de conformité.
Ce choix de conception peut refléter la complexité des flux de travail d'images, où les créateurs peuvent nécessiter un traitement différent pour les brouillons, les actifs internes et les livrables finaux. Cela signifie aussi que les organisations souhaitant un étiquetage strict et cohérent des images devront probablement s'appuyer sur des contrôles complémentaires, de la formation, des politiques et des processus de révision, plutôt que de compter sur un simple bouton d'administration.
6) Qui ne l'obtient pas (encore) : exclusions pour les clouds gouvernementaux
Une limitation importante est le périmètre de déploiement. Microsoft Learn indique que la politique n'est pas disponible pour les clients gouvernementaux américains utilisant les offres GCC, GCC High ou DoD, excluant certains environnements qui, on pourrait soutenir, ont le plus besoin de contrôles de provenance.
Pour les organisations du secteur public dans ces clouds, cela crée une lacune provisoire : elles pourraient devoir s'appuyer davantage sur des exigences internes de divulgation, un étiquetage manuel ou des solutions de provenance tierces jusqu'à ce que Microsoft étende la disponibilité.
Cela souligne aussi un schéma courant dans les déploiements cloud, où les locataires commerciaux reçoivent d'abord les capacités tandis que les clouds souverains ou réglementés spécialisés suivent plus tard en raison de contraintes supplémentaires de conformité, de validation et d'exploitation.
7) C2PA, identifiants de contenu et la stratégie de provenance plus large de Microsoft
Le déploiement du filigranage par Microsoft s'inscrit dans un cadre de provenance plus large qui inclut la Coalition for Content Provenance and Authenticity (C2PA). Microsoft Learn fait référence à la C2PA dans le contexte de la provenance, et Microsoft a précédemment présenté les identifiants comme se présentant sous deux formes : le filigranage (visible/invisible) et la provenance basée sur les métadonnées.
Dans ses documents de politique de sécurité IA d'octobre 2023, Microsoft a décrit l'intégration d'une provenance scellée cryptographiquement via un « C2PA Manifest », soulignant une poussée industrielle vers un historique de contenu évident en cas de falsification. C'est crucial car de simples marques visuelles peuvent être recadrées ou floutées, tandis que la provenance cryptographique vise à survivre aux manipulations typiques, du moins en termes de détectabilité.
Les travaux antérieurs de Microsoft sur les images illustrent sa vision à ce sujet. Les notes de version de Bing Image Creator (sept. 2023) indiquaient qu'il ajoute un filigrane numérique invisible conforme à la C2PA, et Microsoft a réitéré dans un billet de blog Bing Search de décembre 2024 que Image Creator utilise un filigrane visible plus des « content credentials » basés sur la C2PA. The Register a également rapporté qu'un porte-parole avait déclaré que les images générées par l'IA sont identifiées à l'aide de Content Credentials qui confirment l'heure et la date via un filigrane invisible basé sur les exigences de la C2PA.
8) Implications pratiques pour les entreprises : conformité, confiance et changements de flux de travail
Pour les entreprises, la question immédiate n'est pas de savoir si le filigranage existe, mais comment l'opérationnaliser. Étant donné que la politique de filigrane Microsoft 365 est désactivée par défaut (comme rapporté par Windows Central), les équipes conformité doivent décider d'activer largement la fonctionnalité, de la piloter dans certains départements ou de la réserver aux catégories de contenu à haut risque.
Il y a aussi une composante communication : les employés doivent comprendre ce que signifie le filigrane (« généré ou modifié par l'IA »), quand il apparaît et pourquoi il peut apparaître dans des contenus destinés aux clients. Sans orientation, les équipes peuvent percevoir les filigranes comme un « bug » à éviter plutôt que comme une fonctionnalité de transparence à adopter.
Enfin, la séparation entre filigranage visible et provenance basée sur les métadonnées modifie la revue et la découverte en aval. Même si une organisation choisit de garder les filigranes désactivés pour des raisons esthétiques, la présence de métadonnées de type modèle/application/horodatage peut toujours affecter la découverte légale, les enquêtes d'audit, la diligence raisonnable des fournisseurs et l'attribution interne, surtout à mesure que davantage d'outils apprennent à lire et mettre en avant les signaux alignés sur la C2PA.
Le déploiement par Microsoft du filigrane d'IA pour l'audio et la vidéo générés ou modifiés par Copilot marque une étape notable vers une divulgation routinière de l'IA dans les outils de productivité quotidiens. Avec un commutateur clair dans Cloud Policy, un comportement de filigrane fixe et des métadonnées qui peuvent persister même lorsque les filigranes sont désactivés, l'entreprise pousse la provenance à la fois dans la couche visible et dans la couche médico-légale.
Le prochain défi sera la cohérence entre les types de médias et les environnements : les images suivent une voie différente, contrôlée par l'utilisateur, et les clouds gouvernementaux clés sont exclus pour l'instant. Quoi qu'il en soit, la direction est claire : filigranes, métadonnées et identifiants de contenu alignés sur la C2PA deviennent une infrastructure fondamentale pour la manière dont les organisations instaurent la confiance dans le contenu assisté par l'IA.