OpenAI a confirmé un nouvel accord avec le Pentagone pour des déploiements d’IA classifiés, une étape importante dans la manière dont des outils d’IA avancés passent d’environnements commerciaux à des environnements de sécurité nationale. L’annonce, datée du 28 février 2026, intervient alors que l’adoption militaire de l’IA générative fait l’objet d’un examen approfondi quant à la possibilité de la contenir dans des limites éthiques et juridiques significatives.
Pour répondre à ces préoccupations, OpenAI a publié à la fois des « lignes rouges » politiques et les détails du contrat qui tentent de concilier la demande du Pentagone pour une large utilisabilité avec des restrictions sur la surveillance, les armes autonomes et la prise de décisions automatisées à enjeux élevés. La société soutient que l’accord est construit autour de garde-fous en couches : contrôles techniques, supervision humaine et clauses contractuelles exécutoires.
Pourquoi cet accord avec le Pentagone est important maintenant
L’accord intervient après une année au cours de laquelle le Pentagone a signé plusieurs accords liés à l’IA avec des laboratoires de premier plan. Reuters a rapporté le 1er mars 2026 que le Département a signé des accords « d’une valeur pouvant aller jusqu’à 200 millions de dollars chacun » avec des grandes entreprises d’IA, dont OpenAI, Anthropic et Google, signalant une montée rapide des achats.
Parallèlement, le débat politique plus large s’est durci. TechCrunch et d’autres médias ont résumé les tensions entre la préférence du Pentagone pour des modèles utilisables à « toutes fins licites » et l’insistance des laboratoires d’IA sur des limites strictes concernant la surveillance et l’autonomie létale, des désaccords qui sont devenus centraux dans la commercialisation de l’IA de pointe dans les contextes de défense.
Dans ce contexte, la décision d’OpenAI de publier les garde-fous qu’elle a négociés est en soi notable. Plutôt que de se reposer sur des déclarations génériques du type « faites-nous confiance », OpenAI a présenté l’accord comme un modèle pour des normes industrielles et a appelé le Département de la Guerre (DoW) à offrir les mêmes conditions à toutes les entreprises d’IA afin de « désescalader » les conflits et de standardiser les garde-fous.
Les « trois lignes rouges » d’OpenAI pour les déploiements en défense
Le 28 février 2026, OpenAI a confirmé l’accord et a articulé publiquement « trois lignes rouges » qu’elle dit ne pas franchir. La première est l’interdiction de surveillance domestique de masse, une tentative explicite de limiter l’utilisation de l’IA pour la surveillance étendue des personnes américaines.
La deuxième ligne rouge est l’interdiction de diriger des armes autonomes. OpenAI a également renforcé ce point dans une Q&A, répondant « Non » à la question : « Cet accord permettra-t-il au Département de la Guerre d’utiliser les modèles d’OpenAI pour propulser des armes autonomes ? »
La troisième ligne rouge interdit les décisions automatisées à enjeux élevés, telles que le type de notation « crédit social » ou des déterminations analogues et conséquences prises sans contrôle humain. OpenAI a présenté cela comme une interdiction directe des systèmes de décision automatisés qui pourraient modifier de manière significative la vie des personnes sans responsabilité humaine accountable.
Langage contractuel : « toutes les fins licites », avec exceptions
OpenAI a également publié des clauses contractuelles indiquant que le DoW peut utiliser le système d’IA pour « toutes les fins licites ». Cette formulation importe car elle reflète une exigence centrale du Pentagone et a été un point de tension dans les négociations récentes de l’industrie, comme résumé par TechCrunch et largement couvert par les médias.
Cependant, OpenAI affirme que l’accord restreint les armes autonomes et exige l’approbation humaine pour les décisions à enjeux élevés. La société a également cité la Directive 3000.09 du Département de la Défense des États-Unis (datée du 25 janvier 2023) et fait référence à la vérification, la validation et les tests, positionnant l’accord comme aligné sur les cadres politiques existants du DoD pour la gouvernance de l’autonomie et des systèmes d’armes.
OpenAI a en outre souligné le caractère exécutoire : elle affirme qu’une violation par le DoW des termes contractuels pourrait déclencher une résiliation. Comme l’a dit la société, « Nous pourrions le résilier… Nous ne pensons pas que cela arrivera. » L’inclusion d’une clause de résiliation vise à transformer des principes en conséquences plutôt qu’en lignes directrices aspiratoires.
Garanties contre la surveillance et affirmations de conformité légale
Une crainte publique centrale est que des modèles puissants déployés au sein du gouvernement puissent permettre une surveillance généralisée. Les déclarations d’OpenAI du 28 février 2026 ont abordé directement ce risque en affirmant que le traitement par les services de renseignement d’informations privées doit être conforme au quatrième amendement ainsi qu’aux principaux textes et autorités de surveillance américains.
OpenAI a spécifiquement fait référence à la loi sur la sécurité nationale de 1947, à la FISA (1978), au décret exécutif 12333 et aux directives du DoD comme cadres régissant. L’intention de la société semble double : signaler que des contraintes juridiques s’appliquent et rassurer les sceptiques que le déploiement n’est pas une porte dérobée pour contourner les limites constitutionnelles et statutaires.
OpenAI a également répondu dans une autre Q&A de façon explicite : « Cet accord permettra-t-il au Département de la Guerre d’utiliser les modèles d’OpenAI pour mener une surveillance de masse sur des personnes américaines ? » Sa réponse a été « Non. » Les critiques pourront débattre de la signification pratique de « surveillance de masse », mais la société a choisi un langage sans ambiguïté pour afficher un engagement clair.
Contrôles techniques : déploiement uniquement dans le cloud et la « pile de sécurité »
OpenAI décrit les protections comme « multi-couches », un point également souligné dans le reportage de Reuters du 1er mars 2026. L’une des affirmations techniques centrales est que le déploiement uniquement dans le cloud constitue une mesure de protection, car il permet une supervision centralisée et l’application de politiques, plutôt que de distribuer les modèles sur des appareils plus difficiles à contrôler.
La société soutient que des armes entièrement autonomes nécessiteraient un déploiement en périphérie (« edge »), impliquant que le maintien des systèmes dans un environnement cloud autorisé rend plus difficile l’intégration des modèles dans des plateformes déconnectées ou intégrées à des armes. Bien que le déploiement dans le cloud ne soit pas une solution complète contre les usages abusifs, il peut influencer sensiblement l’auditabilité, la possibilité de mise à jour et la capacité à révoquer l’accès.
OpenAI a également déclaré qu’elle conserve le « contrôle total » sur sa pile de sécurité et ne déploiera pas sans garde-fous de sécurité, avec des chercheurs en alignement et en sécurité « dans la boucle ». Reuters a de même rapporté qu’OpenAI conserve la discrétion sur la pile de sécurité et prévoit que du personnel d’OpenAI habilité reste impliqué, renforçant un modèle dans lequel le fournisseur garde une influence par une tutelle technique continue.
Vérification, surveillance et contrôle « indépendant » des lignes rouges
OpenAI affirme que son « architecture de déploiement » permet une vérification indépendante que ses lignes rouges ne sont pas franchies, y compris « l’exécution et la mise à jour de classificateurs ». En pratique, cela suggère des systèmes d’application de politiques capables de détecter du contenu ou des flux de travail interdits, et susceptibles d’être améliorés au fur et à mesure que de nouveaux risques émergent.
La surveillance est également présentée comme opérationnelle plutôt que purement contractuelle. Sam Altman a déclaré qu’OpenAI « construira des garde-fous techniques » et déploiera des ingénieurs « avec le Pentagone… pour assurer leur sécurité ». Cette approche implique un modèle d’intégration pratique dans lequel le personnel d’OpenAI aide à configurer, évaluer et surveiller les déploiements dans des environnements sensibles.
La question de savoir si la vérification indépendante peut être véritablement indépendante dépend des détails de gouvernance (qui audite, ce qui est consigné et ce qui est partagé). Pourtant, le positionnement explicite d’OpenAI , architecture plus classificateurs plus implication humaine , signale une tentative d’aller au-delà des documents politiques statiques vers des contrôles mesurables.
GenAI.mil comme contexte de déploiement plus large
Cet accord pour réseau classifié n’existe pas en isolation. Le 9 février 2026, OpenAI for Government a annoncé « Bringing ChatGPT to GenAI.mil », le décrivant comme la plateforme d’IA d’entreprise sécurisée du DoW utilisée par « 3 millions de personnels civils et militaires ».
OpenAI a déclaré que le déploiement GenAI.mil fonctionne dans une infrastructure cloud gouvernementale autorisée et que les données traitées y sont isolées et « ne sont pas utilisées pour entraîner ou améliorer les modèles publics ou commerciaux d’OpenAI ». Pour de nombreux observateurs, la séparation des données est une exigence de base pour l’utilisation gouvernementale, notamment dans des contextes de défense où la sensibilité des données opérationnelles est élevée.
Le communiqué du DoW du 9 février 2026 affirmait que GenAI.mil avait dépassé « un million d’utilisateurs uniques » en « deux mois depuis le déploiement », et signalait « 100 % de disponibilité depuis le lancement ». Il indiquait aussi que le partenariat rendrait les modèles d’OpenAI disponibles à « l’ensemble des 3 millions de personnels du Département », soulignant que l’échelle d’adoption, et non seulement l’éthique des cas limites, déterminera les résultats réels.
Effets d’entraînement dans l’industrie et contexte Anthropic
Plusieurs reportages ont présenté l’accord d’OpenAI comme faisant partie d’un recentrage plus large de la Silicon Valley autour du travail de défense. Le Washington Post a décrit un impact plus vaste dans le secteur technologique, contrastant le désir du gouvernement pour des outils flexibles et les tentatives des laboratoires d’intégrer des garde-fous éthiques, notant qu’OpenAI a trouvé un compromis tout en maintenant une supervision technique.
The Guardian et Business Insider ont de même mis en avant les interdictions déclarées par OpenAI sur la surveillance de masse et les armes autonomes, ainsi que son insistance à conserver le contrôle des mécanismes de sécurité. Ces thèmes sont au cœur de la légitimité publique : sans limites crédibles, soutiennent les critiques, les achats d’IA risquent d’accélérer les capacités sans responsabilité.
OpenAI a également pris une mesure inhabituelle en déclarant explicitement que Anthropic ne devrait pas être désigné comme un « risque pour la chaîne d’approvisionnement ». Au-delà des dynamiques concurrentielles immédiates, cette déclaration soutient l’appel d’OpenAI à des garde-fous standardisés entre les fournisseurs, et suggère que la société cherche à empêcher que des négociations éthiques ne soient requalifiées en déloyauté en matière de sécurité nationale.
L’accord d’OpenAI avec le Pentagone, assorti de garde-fous, est une tentative de codifier un nouveau modèle : un large accès gouvernemental à une IA avancée, associé à des lignes rouges publiées, des mécanismes d’application techniques et des clauses contractuelles permettant la résiliation en cas d’abus. Le message de la société, notamment sur la surveillance domestique de masse et les armes autonomes, vise à tracer une ligne nette entre « l’habilitation à la défense » et les applications inacceptables.
Cependant, le test ultime sera opérationnel : comment la « vérification indépendante » fonctionne en pratique, comment les approbations humaines sont appliquées et à quel point les contrôles basés sur le cloud empêchent une dérive vers des usages interdits à mesure que l’adoption s’étend. Avec GenAI.mil qui se déploie auprès de millions de personnels et des contrats d’IA du Pentagone atteignant des centaines de millions, la question n’est plus de savoir si l’IA sera intégrée aux flux de travail de la défense, mais si les garde-fous promis tiendront face à la pression du monde réel.