Dos de 20 mil millones de dólares: OpenAI y Nvidia libran una "batalla de razonamiento"

Nulo

Escritor: xiaopi

En diciembre de 2025, Nvidia silenciosamente gastó 20 mil millones de dólares en la compra de una empresa de chips de IA llamada Groq.

El 17 de abril de 2026, OpenAI anunció que compraría más de 20 mil millones de dólares en chips a otra empresa de chips de IA, Cerebras. El mismo día, Cerebras presentó oficialmente su solicitud de IPO en Nasdaq, con una valoración objetivo de 35 mil millones de dólares.

Dos transacciones, con montos casi idénticos. Una es una adquisición, la otra es una compra. Una proviene del mayor vendedor de chips de IA del mundo, la otra del mayor comprador de IA del mundo.

No son dos eventos independientes, son dos movimientos simétricos en la misma guerra. El campo de batalla se llama: inferencia de IA.

La gran mayoría no ha notado esta guerra. Porque no hay explosiones, solo anuncios financieros línea por línea, y discusiones técnicas que circulan en círculos de ingenieros en Silicon Valley. Pero su impacto puede ser más profundo que cualquier lanzamiento de IA en los últimos dos años, porque está redistribuyendo el control de un mercado que casi con certeza será el más grande en la historia de la tecnología.

¿Qué es la inferencia, por qué en 2026 la palabra clave ya no es “entrenamiento”?

Antes de hablar de los 200 mil millones, hay que entender un contexto: el campo de los chips de IA está experimentando un cambio de foco.

El entrenamiento y la inferencia son las dos fases del consumo de potencia de IA. El entrenamiento consiste en crear modelos: alimentar una enorme cantidad de datos a una red neuronal para que aprenda cierta habilidad. Este proceso generalmente ocurre una sola vez o se actualiza periódicamente. La inferencia es usar el modelo: cada vez que un usuario hace una pregunta, ChatGPT da una respuesta, y eso es una solicitud de inferencia.

En 2023, la mayor parte del gasto en potencia de IA a nivel global se destinaba al entrenamiento, la inferencia era secundaria.

Pero esta proporción está cambiando rápidamente.

Según datos de mercado de Deloitte y CES 2026, en 2025 la inferencia ya representaba el 50% del gasto total en potencia de IA; en 2026, esa proporción saltará a dos tercios. El CEO de Lenovo, Yang Yuanqing, lo expresó más claramente en CES: la estructura del gasto en IA cambiará de “80% entrenamiento + 20% inferencia” a “20% entrenamiento + 80% inferencia”.

La lógica no es complicada. El entrenamiento es un costo único, la inferencia es un costo continuo. GPT-4 se entrenó una sola vez, pero responde a miles de millones de usuarios todos los días; cada conversación es una solicitud de inferencia. Tras la implementación a escala, el consumo acumulado de inferencia supera ampliamente al del entrenamiento.

¿Y qué significa esto? Significa que la porción más rentable de la industria de IA está moviéndose de los “chips de entrenamiento” a los “chips de inferencia”. Y estos dos tipos de chips requieren arquitecturas completamente diferentes.

El problema de Nvidia: los chips diseñados para entrenamiento no son naturalmente adecuados para inferencia

Los H100 y H200 de Nvidia son monstruos diseñados para entrenamiento. Su principal ventaja es un rendimiento de cálculo extremadamente alto: el entrenamiento requiere realizar muchas multiplicaciones en matrices masivas, y las GPU son excelentes en este tipo de “cálculo paralelo multinúcleo”.

Pero el cuello de botella en inferencia no es el cálculo, sino el ancho de banda de memoria.

Cuando un usuario hace una pregunta, el chip necesita “mover” los pesos del modelo desde la memoria hasta la unidad de cálculo, antes de poder generar una respuesta. Este proceso de “movimiento” es la verdadera fuente de latencia en inferencia. Las GPU de Nvidia usan memoria de alta banda ancha (HBM) externa, y este movimiento inevitable introduce latencia — para ChatGPT, que procesa decenas de millones de solicitudes por segundo, esta latencia, multiplicada por la escala, se convierte en un cuello de botella real en rendimiento.

Los ingenieros internos de OpenAI notaron este problema cuando optimizaban Codex (herramienta de generación de código), y descubrieron que, sin importar cómo ajustaran los parámetros, la velocidad de respuesta seguía limitada por la arquitectura de las GPU de Nvidia.

En otras palabras, la desventaja de Nvidia en inferencia no es cuestión de esfuerzo, sino de arquitectura.

La tarjeta WSE-3 de Cerebras tomó un camino completamente diferente. Este chip es tan grande que requiere encapsulado a nivel de oblea — con un área de 46,255 milímetros cuadrados, más grande que la palma de una mano — integrando 900,000 núcleos de IA y 44 GB de SRAM de alta velocidad en una sola oblea de silicio. La memoria está directamente pegada a los núcleos de cálculo, acortando la “distancia de movimiento” de centímetros a micrómetros. Como resultado, la velocidad de inferencia es de 15 a 20 veces más rápida que la H100 de Nvidia.

Cabe aclarar: Nvidia no se queda de brazos cruzados. Su arquitectura Blackwell (B200), lanzada recientemente, ofrece un rendimiento de inferencia cuatro veces superior al H100, y ya está en despliegue masivo. Pero Blackwell persigue un objetivo móvil — Cerebras también está en iteración, y en el mercado de chips surgen competidores que ya no son solo Cerebras.

Los 20 mil millones de Nvidia: una carta de admisión tras la mayor adquisición de la historia

El 24 de diciembre de 2025, Nvidia anunció su mayor adquisición hasta la fecha.

El objetivo era Groq.

Groq es un competidor similar a Cerebras, también especializado en chips SRAM optimizados para inferencia — se llama LPU (Unidad de Procesamiento de Lenguaje), y en evaluaciones públicas era el chip con la velocidad de inferencia más rápida del mundo. Nvidia gastó 20 mil millones de dólares para comprar toda la tecnología central y el equipo fundador de Groq, incluyendo al fundador Jonathan Ross y varios ingenieros de chips de alto nivel provenientes del equipo TPU de Google.

Esta fue la mayor adquisición de Nvidia desde la compra de Mellanox en 2019 por 7 mil millones, triplicando esa cifra.

Para muchos analistas, lo que esta inversión transmite va más allá del monto: Nvidia cree que tiene una brecha estructural en inferencia, y que esa brecha es tan grande que vale la pena gastar 20 mil millones para cerrarla.

Si Nvidia realmente creyera que sus GPU son invencibles en inferencia, no necesitaría comprar Groq. En esencia, esta compra es una orden de compra tecnológica valorada en 20 mil millones — un reconocimiento de que la arquitectura SRAM embebida tiene ventajas reales en escenarios de inferencia, y que Nvidia, con su línea de productos actual, no puede cubrir esa ventaja de forma natural. Por eso, paga el precio más alto para comprar una tecnología que no puede cubrir con sus propios productos.

Por supuesto, la narrativa oficial tras la adquisición es otra: “integración profunda con Groq, para ofrecer soluciones de inferencia más completas”. La traducción técnica sería: nos damos cuenta de que lo que tenemos no basta, así que compramos lo que nos falta.

Los 20 mil millones de OpenAI: comprar chips es solo la superficie, la inversión en participación es la clave

Volviendo a OpenAI.

En enero de 2026, OpenAI firmó un acuerdo de compra de capacidad de cálculo por 10 mil millones de dólares con Cerebras, con un plazo de tres años. La cobertura mediática se centró en “OpenAI diversifica proveedores de chips”, con tono neutral.

Pero los detalles revelados el 17 de abril cambian radicalmente la naturaleza de la operación:

Primero, el monto de compra pasó de 10 mil millones a 20 mil millones, duplicándose.

Segundo, OpenAI obtendrá warrants (derechos de compra de acciones) de Cerebras, y a medida que aumente la compra, su participación podría llegar hasta el 10% del total de acciones de Cerebras.

Tercero, OpenAI también proporcionará 1,000 millones de dólares en fondos para construcción de centros de datos para Cerebras — en otras palabras, está ayudando a Cerebras a construir su fábrica.

Estos tres detalles, en conjunto, dibujan un escenario completamente diferente: OpenAI no solo está comprando chips, sino que está incubando un proveedor.

Este patrón tiene precedentes claros en la historia tecnológica. En 2006, Apple empezó a colaborar con Samsung para diseñar chips de la serie A, inicialmente con acuerdos de compra en volumen, pero a medida que Apple profundizó su participación, terminó desarrollando sus propios chips M, y el control de la cadena de suministro pasó de Intel y Samsung a Apple misma. Lo que hace OpenAI es algo similar — pero con una diferencia clave: Apple desde el principio controlaba el diseño de los chips, mientras que OpenAI todavía es un comprador, y una vez que Cerebras salga a bolsa, seguirá desarrollándose de forma independiente y atendiendo a más clientes. El fin de esta estrategia no necesariamente es que OpenAI controle completamente a Cerebras, sino que ambas partes construyan una comunidad ecológica de dependencia mutua.

Por un lado, usando 20 mil millones y participación accionaria para asegurar un suministro continuo de potencia de inferencia fuera de Nvidia; por otro, OpenAI está colaborando con Broadcom para desarrollar su propio chip ASIC, que se espera entre finales de 2026 y principios de 2027 entre en producción en masa. La estrategia de doble vía apunta a la autonomía en potencia de cálculo.

La IPO de Cerebras: ¿qué estás comprando?

El 17 de abril, Cerebras presentó oficialmente su solicitud de IPO en Nasdaq, con una valoración de 35 mil millones de dólares y un plan de recaudación de 3 mil millones.

Esa valoración, que en septiembre de 2025 era de 8.1 mil millones, se ha multiplicado por más de cuatro. En febrero, había completado una ronda de financiamiento con una valoración de 23 mil millones, y los 35 mil millones en la IPO representan un sobreprecio del 52% respecto a esa cifra.

Quienes conocen la historia de Cerebras saben que esta es su segunda tentativa de salir a bolsa. La primera fue en 2024, pero fue retirada debido a que su cliente principal, G42 (Fondo de Inversión en Tecnología Soberana de los Emiratos Árabes), representaba entre el 83% y 97% de sus ingresos en ese año, y CFIUS (Comité de Inversión Extranjera en EE. UU.) intervino por motivos de seguridad nacional.

En esta ocasión, G42 ya no figura en la lista de accionistas, en su lugar está OpenAI.

En otras palabras, la estructura de concentración de clientes de Cerebras no se ha resuelto fundamentalmente: el nombre del gran cliente cambió, pero la dependencia sigue allí. Los inversores deben juzgar si ese cliente es mejor o peor. Desde la perspectiva crediticia, OpenAI es claramente mejor que G42; desde la estrategia, OpenAI también es un competidor potencial, ya que su desarrollo de chips propios, una vez maduro, representa una amenaza real para Cerebras.

Para ser justos, Cerebras también está expandiendo su base de clientes, y en el prospecto de emisión se prevé que se listarán más fuentes de ingreso diversificadas, mejorando la concentración. Pero antes de que los chips propios de OpenAI entren en producción en masa, la respuesta a esta duda aún no está clara.

Al comprar acciones de Cerebras, en realidad estás apostando a que: OpenAI seguirá eligiendo a Cerebras, y que los chips ASIC propios de OpenAI no llegarán antes de lo previsto. Ambas cosas no son seguras.

Por supuesto, hay razones para ser optimista: si el mercado de inferencia crece según las proyecciones, incluso una pequeña participación de Cerebras en ese mercado sería muy significativa en términos absolutos. La cuestión no es si Cerebras tendrá oportunidad, sino si la valoración de 35 mil millones ya refleja el escenario más optimista.

Dos transacciones de 20 mil millones, apareciendo de forma simétrica entre finales de 2025 y abril de 2026.

Una, de la mayor vendedora de chips de IA del mundo, comprando tecnología de un competidor en inferencia.

Otra, del mayor comprador de IA del mundo, incubando una empresa que desafía a Nvidia en el mercado de inferencia.

El gasto de 20 mil millones de Nvidia es una defensa: cierra a un costo elevado una brecha tecnológica que no puede cubrir por sí misma.

El gasto de 20 mil millones de OpenAI es un ataque: invierte en construir una autopista de inferencia que no dependa de Nvidia, y obtiene una participación en esa vía.

Esta guerra no tiene disparos, pero el flujo de fondos nunca miente. Estas dos transacciones muestran claramente: el control de la infraestructura básica de inferencia de IA está en disputa. Y ese mercado, en 2026, representará dos tercios del gasto total en potencia de cálculo del sector.

La IPO de Cerebras es la señal de que esta guerra ha comenzado.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado