OpenAI ha confirmado un nuevo acuerdo con el Pentágono para despliegues clasificados de IA, un hito importante en la forma en que las herramientas avanzadas de IA pasan de entornos comerciales a entornos de seguridad nacional. El anuncio, fechado el 28 de febrero de 2026, llega en medio de un intenso escrutinio sobre si la adopción militar de IA generativa puede limitarse dentro de límites éticos y legales significativos.
Para abordar esas preocupaciones, OpenAI publicó tanto “líneas rojas” de política como detalles contractuales que intentan conciliar la demanda del Pentágono de amplia utilidad con restricciones sobre vigilancia, armas autónomas y toma de decisiones automatizada en situaciones de alto impacto. La compañía sostiene que el acuerdo se basa en salvaguardas en capas: controles técnicos, supervisión humana y términos contractuales exigibles.
Por qué importa ahora este acuerdo con el Pentágono
El acuerdo se produce después de un año en el que el Pentágono ha estado firmando múltiples contratos relacionados con IA con los principales laboratorios. Reuters informó el 1 de marzo de 2026 que el Departamento había firmado acuerdos “por hasta 200 millones de dólares cada uno” con grandes empresas de IA, incluidas OpenAI, Anthropic y Google, lo que señala un impulso de adquisición en rápido crecimiento.
Al mismo tiempo, el debate político más amplio se ha agudizado. TechCrunch y otros medios resumieron las tensiones entre la preferencia del Pentágono porque los modelos sean utilizables para “todos los fines legales” y la insistencia de los laboratorios de IA en límites estrictos alrededor de la vigilancia y la autonomía letal, desacuerdos que se han convertido en centrales para la comercialización de la IA de vanguardia en contextos de defensa.
En ese contexto, la decisión de OpenAI de publicar los marcos que negoció es en sí notable. En lugar de confiar en declaraciones genéricas de “confíe en nosotros”, OpenAI enmarcó el acuerdo como una plantilla para normas de la industria e instó al Departamento de Guerra (DoW) a ofrecer los mismos términos a todas las empresas de IA para “desescalar” el conflicto y estandarizar las salvaguardas.
Las “tres líneas rojas” de OpenAI para despliegues en defensa
El 28 de febrero de 2026, OpenAI confirmó el acuerdo y articuló públicamente “tres líneas rojas” que dice que no cruzará. La primera es no a la vigilancia doméstica masiva, un intento explícito de limitar el uso de la IA para el monitoreo amplio de personas en EE. UU.
La segunda línea roja es no dirigir armas autónomas. OpenAI también reforzó este punto en un Q&A, respondiendo “No” a la pregunta: “¿Permitirá este acuerdo que el Departamento de Guerra utilice modelos de OpenAI para impulsar armas autónomas?”
La tercera línea roja prohíbe decisiones automatizadas de alto impacto, como puntajes al estilo de “crédito social” o determinaciones igualmente trascendentales que se tomen sin control humano. OpenAI enmarcó esto como una prohibición directa de sistemas de decisión automatizados que puedan cambiar significativamente la vida de las personas sin responsabilidad humana responsable.
Lenguaje contractual: “todos los fines legales”, con excepciones
OpenAI también publicó el lenguaje contractual que establece que el DoW puede usar el sistema de IA para “todos los fines legales”. Esa redacción importa porque refleja un requisito central del Pentágono y ha sido un punto de conflicto en las negociaciones recientes de la industria, tal como resumió TechCrunch y cubrieron ampliamente otros medios.
Sin embargo, OpenAI afirma que el acuerdo restringe las armas autónomas y requiere aprobación humana para decisiones de alto impacto. La compañía también citó la Directiva 3000.09 del Departamento de Defensa de EE. UU. (fechada el 25 de enero de 2023) y se referenció a verificación, validación y pruebas, posicionando el acuerdo como alineado con los marcos de política existentes del DoD sobre gobernanza de la autonomía y sistemas de armas.
OpenAI además enfatizó la exigibilidad: dice que una violación por parte del DoW de los términos del contrato podría desencadenar la terminación. Como dijo la compañía, “Podríamos rescindirlo… No esperamos que eso ocurra.” La inclusión de lenguaje de terminación pretende convertir principios en consecuencias en lugar de guías aspiracionales.
Salvaguardas de vigilancia y afirmaciones de cumplimiento legal
Un temor público central es que los modelos potentes desplegados dentro del gobierno puedan habilitar una vigilancia masiva. Las declaraciones del 28 de febrero de 2026 de OpenAI abordaron directamente ese riesgo al afirmar que el manejo de información privada relacionado con inteligencia debe cumplir con la Cuarta Enmienda así como con los principales estatutos y autoridades de vigilancia de EE. UU.
OpenAI hizo referencia específicamente a la Ley de Seguridad Nacional de 1947, la FISA (1978), la Orden Ejecutiva 12333 y las directivas del DoD como marcos normativos. La intención de la compañía parece ser doble: señalar que se aplican restricciones legales y tranquilizar a los escépticos de que el despliegue no es una puerta trasera para eludir los límites constitucionales y legales.
OpenAI también respondió en un segundo Q&A explícito: “¿Permitirá este acuerdo que el Departamento de Guerra utilice los modelos de OpenAI para llevar a cabo vigilancia masiva sobre personas en EE. UU.?” Su respuesta fue “No.” Los críticos pueden debatir el significado práctico de “vigilancia masiva”, pero la compañía eligió un lenguaje inequívoco para marcar un compromiso claro.
Controles técnicos: despliegue solo en la nube y la “pila de seguridad”
OpenAI describe las protecciones como “multicapa”, un punto también destacado en la cobertura de Reuters del 1 de marzo de 2026. Una de las afirmaciones técnicas centrales es que el despliegue solo en la nube es una salvaguarda, porque permite la monitorización centralizada y la aplicación de políticas, en lugar de distribuir modelos en dispositivos que son más difíciles de controlar.
La compañía argumenta que las armas totalmente autónomas requerirían despliegue en el edge, lo que implica que mantener los sistemas en un entorno de nube autorizado hace más difícil integrar modelos en plataformas desconectadas o integradas con armas. Si bien el despliegue en la nube no es una solución completa contra el uso indebido, puede afectar materialmente la auditabilidad, la capacidad de actualizar y la posibilidad de revocar el acceso.
OpenAI también declaró que conserva el “control total” sobre su pila de seguridad y no desplegará sin salvaguardas de seguridad, con investigadores de alineamiento y seguridad “en el circuito”. Reuters informó de manera similar que OpenAI conserva discreción sobre la pila de seguridad y planea que personal autorizado de OpenAI permanezca involucrado, reforzando un modelo en el que el proveedor mantiene influencia a través de la custodia técnica continua.
Verificación, supervisión y comprobación “independiente” de las líneas rojas
OpenAI dice que su “arquitectura de despliegue” permite la verificación independiente de que sus líneas rojas no se han cruzado, incluyendo “ejecución y actualización de clasificadores”. En la práctica, eso sugiere sistemas de aplicación de políticas que pueden detectar contenidos o flujos de trabajo prohibidos y que pueden mejorarse a medida que surgen nuevos riesgos.
La supervisión también se enmarca como operacional más que puramente contractual. Sam Altman dijo que OpenAI “construirá salvaguardas técnicas” y desplegará ingenieros “con el Pentágono… para asegurar su seguridad.” Ese enfoque implica un modelo de integración práctico en el que el personal de OpenAI ayuda a configurar, evaluar y monitorear despliegues en entornos sensibles.
Si la verificación independiente puede ser realmente independiente depende de detalles de gobernanza (quién audita, qué se registra y qué se comparte). Aun así, el posicionamiento explícito de OpenAI , arquitectura más clasificadores más participación humana, señala un intento de ir más allá de documentos de política estáticos hacia controles medibles.
GenAI.mil como contexto del despliegue más amplio
Este acuerdo para redes clasificadas no existe de forma aislada. El 9 de febrero de 2026, OpenAI for Government anunció “Llevar ChatGPT a GenAI.mil”, describiéndolo como la plataforma segura de IA empresarial del DoW utilizada por “3 millones de personal civil y militar”.
OpenAI dijo que el despliegue en GenAI.mil funciona en infraestructura de nube gubernamental autorizada y que los datos procesados allí están aislados y “no se usan para entrenar o mejorar los modelos públicos o comerciales de OpenAI.” Para muchos observadores, la separación de datos es un requisito básico para el uso gubernamental, especialmente en entornos de defensa donde la sensibilidad de los datos operativos es alta.
El comunicado del DoW del 9 de febrero de 2026 afirmó que GenAI.mil superó “un millón de usuarios únicos” en “dos meses desde el despliegue” e informó “100% de tiempo de actividad desde el lanzamiento.” También dijo que la asociación hará que los modelos de OpenAI estén disponibles para “los 3 millones de miembros del Departamento,” subrayando que la escala de adopción, no solo la ética de los casos límite, dará forma a los resultados en el mundo real.
Efectos en la industria y el contexto de Anthropic
Múltiples informes enmarcaron el acuerdo de OpenAI como parte de una recalibración más amplia de Silicon Valley en torno al trabajo de defensa. The Washington Post describió un impacto más amplio en el sector tecnológico, contrastando el deseo del gobierno de herramientas flexibles con los intentos de los laboratorios de incorporar salvaguardas éticas, y señalando que OpenAI alcanzó un compromiso mientras mantenía la supervisión técnica.
The Guardian y Business Insider destacaron de manera similar las prohibiciones declaradas por OpenAI sobre la vigilancia masiva y las armas autónomas, y su énfasis en mantener el control sobre los mecanismos de seguridad. Estos temas son centrales para la legitimidad pública: sin límites creíbles, argumentan los críticos, la adquisición de IA corre el riesgo de acelerar capacidades sin responsabilidad.
OpenAI también dio un paso inusual al declarar explícitamente que Anthropic no debería ser designada como un “riesgo en la cadena de suministro.” Más allá de las dinámicas competitivas inmediatas, esa declaración respalda el llamado de OpenAI a salvaguardas estandarizadas entre proveedores y sugiere que la compañía intenta evitar que las disputas éticas se reencuadren como deslealtad a la seguridad nacional.
El acuerdo del Pentágono de OpenAI con salvaguardas es un intento de codificar un nuevo patrón: amplio acceso gubernamental a IA avanzada, emparejado con líneas rojas publicadas, mecanismos de cumplimiento técnico y términos contractuales que permiten la terminación si se hace un uso indebido. El mensaje de la compañía, especialmente sobre la vigilancia doméstica masiva y las armas autónomas, busca trazar una línea clara entre la “facilitación de la defensa” y las aplicaciones inaceptables.
Aun así, la prueba definitiva será operativa: cómo funciona la “verificación independiente” en la práctica, cómo se hacen cumplir las aprobaciones humanas y cuán eficaces son los controles basados en la nube para evitar la deriva hacia usos prohibidos a medida que la adopción se escala. Con GenAI.mil expandiéndose entre millones de personas y contratos de IA del Pentágono que alcanzan cientos de millones, la pregunta ya no es si la IA se integrará en los flujos de trabajo de defensa, sino si las salvaguardas prometidas podrán mantenerse bajo la presión del mundo real.