El acuerdo en la nube entre OpenAI y AWS anunciado el 3 de noviembre de 2025 marca un cambio importante en el panorama de infraestructura para la IA de frontera. OpenAI reveló una asociación de siete años con Amazon Web Services valorada en unos 38 mil millones de dólares, una transacción que coloca de inmediato a AWS en el centro del entrenamiento y la inferencia a gran escala para uno de los laboratorios de IA más influyentes.
Más allá de la cifra, el pacto señala el paso de OpenAI a un modelo multicloud tras una reciente reestructuración y renegociación de sus lazos con Microsoft. El acuerdo, estructurado como un contrato cliente-proveedor en lugar de un intercambio de acciones, refleja la urgencia de ambas partes por escalar la computación y diversificar las líneas de suministro para cargas de trabajo críticas de IA.
Resumen y términos del acuerdo
OpenAI y AWS firmaron un contrato multianual de siete años anunciado el 3 de noviembre de 2025 y que se informa tiene un valor de unos 38 mil millones de dólares en compromisos totales. Las empresas lo describieron como una compra directa de capacidad, con OpenAI como cliente de AWS y no como un acuerdo de propiedad cruzada.
El acuerdo especifica que la capacidad objetivo se desplegará para finales de 2026, con margen explícito para expandirse en 2027 y más allá. Ambas empresas dijeron que OpenAI comenzaría inmediatamente a utilizar la computación de AWS como parte de esta asociación, mientras que la capacidad comprometida total se irá implementando a lo largo del tiempo.
La naturaleza transaccional del acuerdo es importante: los ejecutivos de AWS enfatizaron que se trata de una relación comercial de suministro. Esa claridad alivia algunas cuestiones regulatorias y de gobernanza, a la vez que refuerza los lazos comerciales entre un hiperescalador y un laboratorio de IA que necesita una computación vasta y confiable.
Escala, capacidad y especificaciones técnicas
Los informes indican que OpenAI tendrá acceso a cientos de miles de GPUs NVIDIA alojadas en AWS, con la capacidad de escalar a decenas de millones de CPUs para cargas de trabajo de entrenamiento e inferencia. Estas cifras subrayan la enorme huella computacional necesaria para ejecutar modelos de frontera.
Se espera que AWS despliegue aceleradores de la generación Blackwell de NVIDIA como los GB200 y GB300 en clústeres densos EC2 UltraServer (hardware estilo P6e / UltraServer) optimizados para entrenamiento de modelos a gran escala e inferencia de baja latencia. La combinación de GPUs Blackwell y racks UltraServer está diseñada para maximizar el rendimiento y la eficiencia en trabajos masivos de entrenamiento de transformers.
Para operar estos racks GPU densos a hiperescala, AWS ha desarrollado innovaciones térmicas y de refrigeración a medida, incluyendo intercambiadores de calor en fila y otras soluciones a nivel de rack, permitiendo la operación segura y continua de los clústeres Blackwell en centros de datos construidos para demandas extremas de energía y refrigeración.
Despliegue, cronograma y uso inmediato
Aunque se prevé que toda la capacidad comprometida esté en línea para finales de 2026, ambas empresas dijeron que OpenAI comenzaría a usar la computación de AWS de inmediato bajo el nuevo acuerdo. Esto permite a OpenAI probar, iterar y trasladar cargas de trabajo en paralelo mientras se pone en línea la infraestructura mayor.
El contrato también permite la expansión en 2027 y más allá, proporcionando flexibilidad a medida que evolucionan las necesidades de computación de OpenAI. Declaraciones públicas y coberturas señalan que el enfoque por fases aliviará parte de la presión de suministro a corto plazo, alineando la capacidad a largo plazo con las hojas de ruta de los modelos.
La adopción inmediata más un plan de despliegue multianual significa que AWS debe gestionar tanto el aprovisionamiento urgente como las entregas coordinadas de hardware, desde GPUs hasta servidores y redes, mientras OpenAI equilibra las cargas de trabajo entre varios proveedores de nube como parte de su estrategia multicloud.
Implicaciones estratégicas para OpenAI
Sam Altman enmarcó el movimiento como esencial para escalar la IA de frontera: Escalar la IA de frontera requiere una computación masiva y confiable. Nuestra asociación con AWS fortalece el ecosistema de computación que impulsará esta nueva era y llevará la IA avanzada a todos. Esa postura pública vincula la infraestructura con el producto y las ambiciones de mercado.
El acuerdo sigue a la reestructuración de la relación comercial de OpenAI con Microsoft que eliminó las restricciones de exclusividad en la nube, abriendo la puerta a asociaciones multicloud. Al diversificar proveedores, OpenAI reduce el riesgo de dependencia de un solo proveedor y gana poder de negociación en la adquisición y planificación de capacidad mientras persigue un crecimiento agresivo.
Las ambiciones de computación de OpenAI son enormes; Sam Altman describió anteriormente planes para aproximadamente 30 gigavatios de computación de IA y citó cifras de costo total de propiedad a varios años en el rango de ~1,4 billones de dólares para el despliegue, por lo que compromisos externos tan grandes como el acuerdo con AWS son pasos pragmáticos hacia esa escala sin poseer toda la infraestructura física.
Reacción del mercado y contexto competitivo
Los inversores reaccionaron rápidamente al anuncio: las acciones de Amazon subieron con fuerza tras la noticia, con saltos intradía y previos a la apertura reportados en los dígitos medios, reflejando el entusiasmo por AWS como proveedor dominante de infraestructura de IA. El mercado ve que AWS logra una victoria estratégica como socio comercial de computación de OpenAI.
Los analistas dicen que el acuerdo es un gran voto de confianza para AWS frente a rivales como Microsoft y Google, y que intensifica la demanda de GPUs de clase Blackwell de NVIDIA. Los grandes compromisos de laboratorios prominentes remodelan la competencia en la nube al concentrar cargas de trabajo de IA donde los hiperescaladores demuestran hardware y experiencia operativa a medida.
Algunas coberturas estiman que OpenAI podría consumir una parte significativa de la capacidad de IA de los hiperescaladores, potencialmente porcentajes de dos dígitos de la capacidad dedicada a IA en los grandes proveedores para mediados de 2026, lo que alteraría la economía de la nube y obligaría a los proveedores a expandir rápidamente el suministro de chips, la energía de los centros de datos y la infraestructura de refrigeración.
Desafíos operativos e implicaciones para la industria
Desplegar cientos de miles de GPUs de alta gama plantea desafíos logísticos y operativos: las cadenas de suministro para las GPUs Blackwell, el ensamblaje de servidores, las redes y la energía y refrigeración necesarias para sostener petaflops de computación se convierten en limitaciones estratégicas. Periodistas y analistas han señalado la necesidad de ampliar la densidad de energía en los centros de datos y la refrigeración avanzada para operar racks densos de Blackwell.
Las plataformas UltraServer/P6e de AWS y las soluciones térmicas a medida se citan como habilitadores para contratos de este tipo, pero la escala amplifica las preguntas sobre el impacto en la red eléctrica, la huella de carbono y la preparación de la infraestructura regional. Operar decenas de millones de CPUs y vastas flotas de GPUs también requerirá una cuidadosa planificación de capacidad y permisos locales en los mercados de centros de datos.
Por último, el acuerdo tiene efectos en cadena en toda la cadena de suministro: NVIDIA verá una demanda intensificada de sus últimos aceleradores, los OEM de servidores deberán aumentar la producción y componentes como la memoria de alto ancho de banda, la entrega de energía y el equipo de redes se convertirán en cuellos de botella a menos que el ecosistema escale rápidamente junto con la demanda.
De cara al futuro, el acuerdo en la nube entre OpenAI y AWS será juzgado por la rapidez y eficiencia con que la capacidad comprometida se ponga en línea y cómo OpenAI equilibra las cargas de trabajo entre múltiples nubes. El pacto es tanto un acuerdo práctico de suministro de computación como una declaración estratégica sobre el futuro de la infraestructura de IA a hiperescala.
Para AWS, alojar un laboratorio de IA líder a este nivel refuerza su posicionamiento como proveedor principal de computación de IA optimizada. Para la industria en general, el acuerdo eleva las apuestas en torno al suministro de GPUs, soluciones energéticas y de refrigeración, y las dinámicas comerciales que sustentarán la próxima ola de productos de IA y ofertas empresariales.