Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Gate Blog
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 40 modelos de IA, con 0% de costos adicionales
Cerebras inicia la gira de presentación para la oferta pública inicial, con un objetivo de $115 a $125 por acción
Cerebras Systems comenzará a presentar sus acciones a los inversores el lunes, con planes de vender acciones a un precio entre $115 y $125 cada una, según una fuente con conocimiento de los planes que habló con Reuters.
El fabricante de chips de inteligencia artificial intenta salir a bolsa por segunda vez. La compañía retiró su primer intento en octubre del año pasado.
Cerebras reportó resultados financieros más sólidos para el año que terminó el 31 de diciembre. La compañía obtuvo $510 millones en ingresos, un aumento respecto a los $290.3 millones del año anterior. También obtuvo una ganancia de $1.38 por acción, en comparación con una pérdida de $9.90 por acción en el año anterior.
Morgan Stanley, Citigroup, Barclays y UBS están gestionando la venta de acciones.
La industria está cambiando
La estrategia de Cerebras no es aleatoria. La industria de la IA está cambiando del desarrollo de nuevos modelos de IA a su uso práctico. Este cambio es una oportunidad dorada para las pequeñas empresas que compiten con el monopolio de Nvidia (NASDAQ: NVDA). Como informó Cryptopolitan, incluso OpenAI no está convencido del hardware de inferencia de Nvidia.
Esto se debe a que ejecutar modelos de IA, conocidos como inferencia, requiere capacidades diferentes a las de entrenarlos. Esto crea oportunidades para fabricantes de chips especializados para encontrar su lugar en el mercado. Procesar grandes lotes de información necesita un equilibrio diferente de potencia de cálculo, memoria y velocidades de transferencia de datos que ejecutar un chatbot de IA o un asistente de codificación.
Esta variedad en los requisitos ha hecho que el mercado de inferencia sea más diverso. Algunas tareas funcionan mejor con chips gráficos tradicionales, mientras que otras necesitan equipos más avanzados.
La compra de Groq por parte de Nvidia en diciembre pasado por $20 mil millones muestra cómo se está desarrollando esto. Groq construyó chips con memoria SRAM rápida que podían procesar respuestas de IA más rápido que los chips gráficos estándar. Pero la compañía tuvo dificultades para escalar porque sus chips tenían potencia de cálculo limitada y estaban construidos con tecnología antigua.
Nvidia resolvió este problema dividiendo el trabajo. Usa sus chips gráficos habituales para la parte pesada de generar respuestas de IA, llamada prellenado, mientras que usa los chips de Groq para el paso de decodificación más rápido que requiere menos cálculo pero necesita acceso rápido a los datos.
Otras grandes empresas están haciendo algo similar. Amazon Web Services anunció su propio sistema dividido poco después de una importante conferencia tecnológica. Combina sus chips personalizados Trainium para el trabajo de prellenado con los chips de Cerebras, del tamaño de una oblea, para las operaciones de decodificación.
Intel también se unió, revelando planes para combinar chips gráficos con procesadores de otra startup llamada SambaNova. Los chips gráficos manejarán el prellenado, mientras que los chips de SambaNova se encargarán de la decodificación.
La mayoría de las pequeñas empresas de chips han tenido éxito con el trabajo de decodificación. La memoria SRAM no almacena mucha información, pero es extremadamente rápida. Con suficientes chips, o con un chip muy grande como los que fabrica Cerebras, estos sistemas sobresalen en tareas de decodificación. Pero las empresas no se detienen allí.
Nuevas tecnologías desafían el enfoque de chips divididos
Lumai, otra startup, anunció esta semana que construyó un chip que usa luz en lugar de electricidad para las operaciones matemáticas en el núcleo del trabajo de IA. Este enfoque usa mucho menos energía que los chips tradicionales.
La compañía espera que sus próximos sistemas Iris Tetra entreguen un exaOPS de rendimiento en IA mientras usan solo 10 kilovatios de energía para 2029.
Los chips combinan componentes basados en luz y eléctricos, pero la luz realiza la mayor parte del trabajo durante la inferencia. Lumai planea usar estos chips primero como reemplazos independientes de los chips gráficos en trabajos de procesamiento por lotes. Más tarde, la compañía quiere usarlos también para el trabajo de prellenado.
No todos piensan que dividir el trabajo entre diferentes chips tiene sentido. Tenstorrent lanzó esta semana sus sistemas Galaxy Blackhole, y el CEO Jim Keller criticó el enfoque.
“Cada empresa en la industria se está uniendo para construir el acelerador, el acelerador, el acelerador. Las CPU ejecutan código. Las GPU aceleran las CPU. Las TPU aceleran las GPU. Las LPU aceleran las TPU. Y así sucesivamente. Esto conduce a soluciones complejas que probablemente no serán compatibles con los cambios en los modelos y usos de IA. En Tenstorrent, pensamos que algo más general y simple funcionaría mejor,” dijo Keller.
Las mentes más inteligentes en cripto ya leen nuestro boletín. ¿Quieres unirte? Únete a ellos.