OpenAI redobla su apuesta por Cerebras con un acuerdo multimillonario para reducir su dependencia de NVIDIA
por Edgar OteroOpenAI ha dado un nuevo paso en su estrategia para ampliar capacidad de cómputo y depender menos de un solo proveedor de chips. Según una información publicada por Reuters el 16 de abril de 2026 a partir de un reporte de The Information, la compañía habría acordado gastar más de 20.000 millones de dólares en servidores impulsados por chips de Cerebras durante los próximos tres años, en una operación que además podría darle una participación minoritaria en la empresa.
La noticia llega apenas unos meses después de que OpenAI anunciara en enero una colaboración con Cerebras para integrar 750 megavatios de computación de baja latencia en su plataforma, con despliegue gradual hasta 2028. Aquel acuerdo ya dejaba claro que la empresa no buscaba solo más potencia bruta, sino también una infraestructura específica para acelerar inferencia, es decir, el momento en que un modelo genera respuestas, código, imágenes o ejecuta agentes en tiempo real.
Lo relevante ahora es la escala. Si en enero se hablaba de un acuerdo valorado en más de 10.000 millones de dólares, la nueva información apunta a compromisos que duplican esa cifra y que, sumando financiación adicional para centros de datos, podrían acercarse a 30.000 millones de dólares. Reuters señala que no pudo verificar de forma independiente esos términos, y ni OpenAI ni Cerebras habrían querido comentarlos oficialmente, pero el movimiento encaja con una dirección que la propia OpenAI ya había dejado ver en sus mensajes recientes.
De hecho, en la ronda de financiación de 122.000 millones de dólares cerrada este mes, OpenAI ya explicaba que quería construir un portafolio de infraestructura mucho más amplio, con socios distintos en la nube, centros de datos y silicio. En ese contexto, la compañía dejó claro que ya no quiere solo un chatbot, sino una plataforma unificada capaz de sostener búsqueda, programación, agentes y automatización a gran escala.
Más capacidad para OpenAI y menos dependencia de un único fabricante
El trasfondo de esta operación apunta directamente a uno de los grandes cuellos de botella de la inteligencia artificial actual, a saber, el acceso a chips y servidores suficientes para entrenar y, sobre todo, ejecutar modelos cada vez más demandados. NVIDIA sigue siendo el actor dominante en este terreno, pero los grandes desarrolladores de IA intentan diversificar proveedores para no quedar atrapados por precios, disponibilidad o limitaciones de suministro.

Ahí es donde entra Cerebras. Fundada en 2015 y con sede en Sunnyvale, la compañía se ha hecho conocida por sus chips wafer-scale, diseñados con una arquitectura muy distinta a la de las GPU tradicionales. Su propuesta pasa por concentrar gran capacidad de computación, memoria y ancho de banda en un único chip de gran tamaño para reducir cuellos de botella en inferencia. No compite con NVIDIA en todos los frentes, pero sí intenta ocupar un espacio muy concreto. La idea es ofrecer respuestas más rápidas en cargas de trabajo de IA de gran volumen.
Ese posicionamiento encaja bien con la dirección de producto de OpenAI. La empresa no solo quiere modelos más potentes, sino también experiencias más fluidas, con menor latencia y mejor integración entre herramientas. Esa lógica aparece también en su hoja de ruta de software, donde trabaja en fusionar navegador, ChatGPT y Codex en una única aplicación de escritorio para reducir fricción entre tareas de productividad y desarrollo.
Visto así, Cerebras no sería solo un proveedor adicional, sino una pieza útil para cubrir una necesidad concreta dentro de una infraestructura más distribuida. OpenAI ya trabaja con Microsoft, Oracle, AWS, Google Cloud, AMD y otros socios, además de explorar chip propio junto a Broadcom. El mensaje es que el futuro de la IA no pasa por apostarlo todo a NVIDIA, por mucho que siga siendo la referencia del sector.
Una alianza que también refuerza a Cerebras en plena carrera por salir a bolsa
La operación también tiene implicaciones importantes para Cerebras. Según Reuters, el acuerdo con OpenAI sería central para sus planes de salida a bolsa y podría incluir warrants que den a OpenAI una participación de hasta el 10 % si el gasto comprometido sigue creciendo. Además, The Information sostiene que OpenAI habría aceptado aportar alrededor de 1.000 millones de dólares para ayudar a financiar centros de datos destinados a ejecutar sus productos de IA.
Para Cerebras, asociarse con uno de los mayores consumidores de cómputo del sector supone mucho más que un contrato comercial. Le da visibilidad, volumen y un cliente capaz de validar su tecnología en uno de los escenarios más exigentes del mercado. También refuerza su relato ante potenciales inversores en un momento en que la compañía, según ese mismo reporte, buscaría levantar 3.000 millones de dólares con una valoración cercana a los 35.000 millones.
Para OpenAI esto supone más capacidad, más control sobre su cadena de suministro y más margen para escalar servicios sin depender de un único ecosistema de hardware. Si el acuerdo termina confirmándose en esos términos, no será solo una compra de servidores. También será una apuesta estratégica por diversificar la procedencia de los chips.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!




