Es una apuesta estratégica, silenciosa, que ya está redefiniendo el equilibrio de poder en la industria de la inteligencia artificial.
Lo que comenzó como una colaboración técnica entre dos equipos de desarrollo —uno en San Francisco, otro en Santa Clara— se ha convertido en el pilar de lo que podría ser la infraestructura de IA más grande jamás construida. Seis gigavatios de potencia computacional, equivalente a la demanda energética de una ciudad como Guadalajara, estarán alimentados por los aceleradores AMD Instinct MI450 a partir del segundo semestre de 2026. No son solo chips. Son módulos completos, diseñados para funcionar como unidades autónomas de cómputo: refrigeración integrada, redes optimizadas, control térmico en tiempo real.
Detrás de esa cifra gigantesca hay una historia menos visible, pero más decisiva: el trabajo silencioso durante los últimos 18 meses en Triton, el compilador de kernels de GPU de OpenAI. AMD no solo adaptó su hardware para que funcionara; reconfiguró su roadmap según los cuellos de botella reales que detectaban los científicos de OpenAI. “No fue un acuerdo de compra. Fue un proceso de co-diseño”, confirma una fuente cercana al proyecto. El resultado fue el MI450: un chip nacido no de especificaciones teóricas, sino de horas de entrenamiento en producción real.
La adquisición de ZT Systems este año, que muchos vieron como una maniobra secundaria, ahora parece una jugada maestra. Con su experiencia en sistemas de alto rendimiento para centros de datos masivos, ZT permitió a AMD dar un salto cualitativo: dejar de vender componentes y empezar a entregar “cápsulas de IA” —unidades preensambladas, optimizadas para energía y escalabilidad, llamadas Helios. Estas no son servidores. Son bloques de construcción para la próxima generación de infraestructura digital.
El acuerdo incluye un mecanismo casi inédito: OpenAI tiene la opción de adquirir hasta 160 millones de acciones de AMD —casi el 10% de la compañía— siempre que se cumplan hitos técnicos y el precio de la acción supere los 600 dólares. No es un contrato de suministro. Es un acuerdo de alianza de riesgo compartido. Ambas empresas tienen ahora un incentivo directo para que el sistema funcione, no solo en laboratorio, sino en la escala real del mundo.
El cambio más profundo no está en los watts, ni en los teraflops, sino en cómo se piensa ahora la infraestructura. Ya no se habla de “cuántos chips necesitas”. Se pregunta: ¿cuánta energía puedes entregar? ¿Dónde puedes enfriar? ¿Cuánto tiempo tardas en desplegar un nuevo nodo? La respuesta, en los nuevos centros de datos, es modular, prefabricada, entregada como un paquete cerrado. Y AMD, con Helios, ya tiene el prototipo listo.
El impacto de esto no se limita a los balances de AMD. Es un punto de inflexión para toda la cadena de suministro de IA. Si OpenAI, la organización que define las fronteras del modelo de lenguaje, confía su futuro a una alternativa a Nvidia, entonces el mercado ya no es un monopolio. Es un ecosistema en reconfiguración. Y los que antes eran considerados “segunda opción” ahora son parte del núcleo de la próxima revolución tecnológica.
