La arquitectura de la nueva generación de chips de supercomputación AI ha sido lanzada oficialmente, logrando avances significativos en sus indicadores de rendimiento. En comparación con la generación anterior, el costo en la fase de inferencia se ha reducido a una décima parte, lo que representa un punto de inflexión para la economía del despliegue de modelos a gran escala. Al mismo tiempo, la cantidad de GPU necesarias para el entrenamiento se ha reducido en un 75 %, lo que significa que las empresas pueden realizar las mismas tareas de cálculo con menos hardware. La eficiencia energética ha mejorado en cinco veces, lo que implica una reducción significativa en el consumo de energía y la presión de disipación de calor bajo la misma capacidad de cálculo.
Las innovaciones en la capa de arquitectura técnica también son notables: por primera vez, se ha logrado la capacidad de cálculo confidencial a nivel de bastidor, y el ancho de banda de interconexión entre GPU ha alcanzado un impresionante nivel de 260 TB/s, una tasa de flujo de datos que puede soportar escenarios de cálculo paralelo a gran escala. Toda la plataforma ha sido rediseñada de manera integral, abandonando los métodos tradicionales de cables flexibles y ventiladores, y adoptando una organización de hardware más compacta y eficiente. El núcleo del motor está compuesto por seis componentes modulares, ofreciendo mayor flexibilidad para la personalización y expansión. El lanzamiento de esta generación sin duda transformará la estructura de costos y las formas de despliegue en el mercado de la capacidad de cálculo AI.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
21 me gusta
Recompensa
21
9
Republicar
Compartir
Comentar
0/400
BtcDailyResearcher
· 01-09 14:58
¿Una décima parte del costo? Ahora los amigos de las granjas deben estar preocupados
---
Ancho de banda de 260TB/s... Este número me mareó, pero parece que alguien va a tener que hacer recortes
---
¿Eficiencia cinco veces mayor? Esto es un salvavidas para los que pagan la factura de electricidad, empiezan a considerar cambiar de chips
---
Otra ronda de iteraciones y otra ronda de cambios, esta velocidad realmente es difícil de seguir
---
¿GPU necesita recortar un 75%... Eh, las acciones de los fabricantes de tarjetas gráficas van a caer?
---
El diseño modular suena bien, solo que tengo miedo de que sea otra estrategia de marketing, hay que ver los resultados reales para creer
---
Si esto realmente es tan impresionante como dicen, el panorama del mercado de potencia de AI cambiará por completo
---
Reducir los costos a una décima parte es realmente absurdo, qué difícil debe haber sido para los que compraron chips antes
---
Por primera vez escucho sobre computación confidencial a nivel de rack, parece que también nos van a cortar otra vez
---
Aceleremos las iteraciones, parece que cada tres meses hay que actualizar la pila tecnológica
Ver originalesResponder0
AirdropHermit
· 01-09 10:02
¿Una décima parte del costo? ¿Es esto real? Parece que va a explotar esta vez
Esto puede aumentar la eficiencia en cinco veces, los grandes inversores deben estar comprando a toda prisa
260TB/s... Solo con escuchar ese número ya parece irreal, ¿realmente puede lograrse?
El costo de inferencia se reduce directamente a una décima parte, por fin las pequeñas empresas tienen una oportunidad
Reducir el uso de GPU en un 75% manteniendo la misma potencia de cálculo, ¿quién puede resistirse a esto?
El nivel de rack puede garantizar cálculos confidenciales, esta arquitectura está bastante bien pensada
Si no te subes a esta ola, parece que vas a perder dinero
Ver originalesResponder0
GateUser-6bc33122
· 01-07 00:38
¿Una décima parte del coste? Ahora sí que hay oportunidad para emprender con grandes modelos
Ver originalesResponder0
RektHunter
· 01-06 15:51
¡Vaya, reducir el costo de inferencia a una décima parte! Ahora las pequeñas empresas también podrán jugar con grandes modelos, la monopolización del poder de cálculo que existía antes se va a romper.
Este número de 260TB/s es increíble, la comunicación entre GPUs debe ser increíble... Pero, ¿realmente podrá funcionar de manera estable?
Reducir el uso de GPUs en un 75%, ¡qué concepto! El dinero ahorrado en electricidad y hardware... Mejor no pensar en ello, otra vez va a subir de precio.
Si esto realmente es tan potente, ¡el panorama de la industria tendrá que cambiar!
Ver originalesResponder0
SandwichTrader
· 01-06 15:50
¿Una décima parte del costo? Ahora las grandes modelos realmente van a empezar a competir
---
260TB/s, esa cifra ya es impresionante, pero ¿el sistema de refrigeración puede con ello?
---
GPU reducida en un 75%, ¿qué significa esto? ¡Las pequeñas y medianas empresas finalmente podrán jugar con IA!
---
Otra vez modular y con cálculo confidencial, parece que esta arquitectura no es tan simple
---
¿Eficiencia energética cinco veces mayor? Entonces, ¿todo ese tiempo se estaba desperdiciando en electricidad? Jaja
---
¿Hablar de reestructurar los costos? Solo para ganar mercado, la misma vieja historia
---
¿260TB/s, de verdad? Con esa velocidad, ¿qué no se puede hacer? Todo volará
---
¿Confío en que el costo sea una décima parte? Pero, ¿realmente han bajado los costos de hardware en la cadena de suministro?
---
¿Dejar de lado los ventiladores y probar un nuevo método de refrigeración? ¿No dará problemas otra vez?
---
Por fin alguien se está esforzando en reducir costos, los planes anteriores eran demasiado caros
Ver originalesResponder0
tokenomics_truther
· 01-06 15:44
¿260 TB/s? Esa cifra suena a locura, pero si realmente se puede reducir el costo de inferencia a una décima parte, la oportunidad para los mineros ha llegado.
Ver originalesResponder0
MEVictim
· 01-06 15:41
¿Una décima parte del coste? Si eso fuera cierto, debería haber ocurrido hace tiempo, no vuelvas a presentar datos en papel
Ver originalesResponder0
OnchainArchaeologist
· 01-06 15:39
¿Una décima parte del coste? Ahora el emprendimiento con grandes modelos ya no es tan costoso, por fin podemos respirar
La reducción del 75% en GPU, ¿es esto real... los costes empresariales se han reducido a la mitad?
Ancho de banda de 260 TB/s, una cifra increíble, ahora el flujo de datos ya no será un cuello de botella
Eficiencia energética cinco veces mayor, la refrigeración ya no necesita ser tan extrema, ¡es increíble!
El diseño modular tiene imaginación, el espacio para personalización futura es grande
Reducir el coste de inferencia a una décima parte, esta actualización realmente cambia las reglas del juego
La arquitectura de la nueva generación de chips de supercomputación AI ha sido lanzada oficialmente, logrando avances significativos en sus indicadores de rendimiento. En comparación con la generación anterior, el costo en la fase de inferencia se ha reducido a una décima parte, lo que representa un punto de inflexión para la economía del despliegue de modelos a gran escala. Al mismo tiempo, la cantidad de GPU necesarias para el entrenamiento se ha reducido en un 75 %, lo que significa que las empresas pueden realizar las mismas tareas de cálculo con menos hardware. La eficiencia energética ha mejorado en cinco veces, lo que implica una reducción significativa en el consumo de energía y la presión de disipación de calor bajo la misma capacidad de cálculo.
Las innovaciones en la capa de arquitectura técnica también son notables: por primera vez, se ha logrado la capacidad de cálculo confidencial a nivel de bastidor, y el ancho de banda de interconexión entre GPU ha alcanzado un impresionante nivel de 260 TB/s, una tasa de flujo de datos que puede soportar escenarios de cálculo paralelo a gran escala. Toda la plataforma ha sido rediseñada de manera integral, abandonando los métodos tradicionales de cables flexibles y ventiladores, y adoptando una organización de hardware más compacta y eficiente. El núcleo del motor está compuesto por seis componentes modulares, ofreciendo mayor flexibilidad para la personalización y expansión. El lanzamiento de esta generación sin duda transformará la estructura de costos y las formas de despliegue en el mercado de la capacidad de cálculo AI.