Cerebras inicia la gira de presentación para la oferta pública inicial, con un objetivo de $115 a $125 por acción

Cerebras Systems comenzará a presentar sus acciones a los inversores el lunes, con planes de vender acciones a un precio entre $115 y $125 cada una, según una fuente con conocimiento de los planes que habló con Reuters.

El fabricante de chips de inteligencia artificial intenta salir a bolsa por segunda vez. La compañía retiró su primer intento en octubre del año pasado.

Cerebras reportó resultados financieros más sólidos para el año que terminó el 31 de diciembre. La compañía obtuvo $510 millones en ingresos, un aumento respecto a los $290.3 millones del año anterior. También obtuvo una ganancia de $1.38 por acción, en comparación con una pérdida de $9.90 por acción en el año anterior.

Morgan Stanley, Citigroup, Barclays y UBS están gestionando la venta de acciones.

La industria está cambiando

La estrategia de Cerebras no es aleatoria. La industria de la IA está cambiando del desarrollo de nuevos modelos de IA a su uso práctico. Este cambio es una oportunidad dorada para las pequeñas empresas que compiten con el monopolio de Nvidia (NASDAQ: NVDA). Como informó Cryptopolitan, incluso OpenAI no está convencido del hardware de inferencia de Nvidia.

Esto se debe a que ejecutar modelos de IA, conocidos como inferencia, requiere capacidades diferentes a las de entrenarlos. Esto crea oportunidades para fabricantes de chips especializados para encontrar su lugar en el mercado. Procesar grandes lotes de información necesita un equilibrio diferente de potencia de cálculo, memoria y velocidades de transferencia de datos que ejecutar un chatbot de IA o un asistente de codificación.

Esta variedad en los requisitos ha hecho que el mercado de inferencia sea más diverso. Algunas tareas funcionan mejor con chips gráficos tradicionales, mientras que otras necesitan equipos más avanzados.

La compra de Groq por parte de Nvidia en diciembre pasado por $20 mil millones muestra cómo se está desarrollando esto. Groq construyó chips con memoria SRAM rápida que podían procesar respuestas de IA más rápido que los chips gráficos estándar. Pero la compañía tuvo dificultades para escalar porque sus chips tenían potencia de cálculo limitada y estaban construidos con tecnología antigua.

Nvidia resolvió este problema dividiendo el trabajo. Usa sus chips gráficos habituales para la parte pesada de generar respuestas de IA, llamada prellenado, mientras que usa los chips de Groq para el paso de decodificación más rápido que requiere menos cálculo pero necesita acceso rápido a los datos.

Otras grandes empresas están haciendo algo similar. Amazon Web Services anunció su propio sistema dividido poco después de una importante conferencia tecnológica. Combina sus chips personalizados Trainium para el trabajo de prellenado con los chips de Cerebras, del tamaño de una oblea, para las operaciones de decodificación.

Intel también se unió, revelando planes para combinar chips gráficos con procesadores de otra startup llamada SambaNova. Los chips gráficos manejarán el prellenado, mientras que los chips de SambaNova se encargarán de la decodificación.

La mayoría de las pequeñas empresas de chips han tenido éxito con el trabajo de decodificación. La memoria SRAM no almacena mucha información, pero es extremadamente rápida. Con suficientes chips, o con un chip muy grande como los que fabrica Cerebras, estos sistemas sobresalen en tareas de decodificación. Pero las empresas no se detienen allí.

Nuevas tecnologías desafían el enfoque de chips divididos

Lumai, otra startup, anunció esta semana que construyó un chip que usa luz en lugar de electricidad para las operaciones matemáticas en el núcleo del trabajo de IA. Este enfoque usa mucho menos energía que los chips tradicionales.

La compañía espera que sus próximos sistemas Iris Tetra entreguen un exaOPS de rendimiento en IA mientras usan solo 10 kilovatios de energía para 2029.

Los chips combinan componentes basados en luz y eléctricos, pero la luz realiza la mayor parte del trabajo durante la inferencia. Lumai planea usar estos chips primero como reemplazos independientes de los chips gráficos en trabajos de procesamiento por lotes. Más tarde, la compañía quiere usarlos también para el trabajo de prellenado.

No todos piensan que dividir el trabajo entre diferentes chips tiene sentido. Tenstorrent lanzó esta semana sus sistemas Galaxy Blackhole, y el CEO Jim Keller criticó el enfoque.

“Cada empresa en la industria se está uniendo para construir el acelerador, el acelerador, el acelerador. Las CPU ejecutan código. Las GPU aceleran las CPU. Las TPU aceleran las GPU. Las LPU aceleran las TPU. Y así sucesivamente. Esto conduce a soluciones complejas que probablemente no serán compatibles con los cambios en los modelos y usos de IA. En Tenstorrent, pensamos que algo más general y simple funcionaría mejor,” dijo Keller.

Las mentes más inteligentes en cripto ya leen nuestro boletín. ¿Quieres unirte? Únete a ellos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado