La nouvelle génération d'architecture de puces d'IA ultra-rapides est officiellement lancée, avec des performances qui ont réalisé des avancées significatives. Par rapport à la génération précédente, le coût de l'inférence a été réduit à un dixième, ce qui constitue un tournant pour la rentabilité du déploiement de modèles à grande échelle. Par ailleurs, le nombre de GPU nécessaire pour l'entraînement a été réduit de 75 %, ce qui signifie que les entreprises peuvent réaliser les mêmes tâches de calcul avec moins de matériel. En termes d'efficacité énergétique, une amélioration de cinq fois a été atteinte, ce qui réduit considérablement la consommation d'énergie et la pression thermique pour une puissance de calcul équivalente.



Les innovations au niveau de l'architecture technique sont également remarquables — pour la première fois, la capacité de calcul confidentiel a été réalisée au niveau du rack, avec une bande passante inter-GPU atteignant un niveau impressionnant de 260 TB/s. Ce débit de flux de données est suffisant pour soutenir des scénarios de calcul parallèle à très grande échelle. La plateforme a été entièrement repensée, abandonnant les câbles souples et les solutions de ventilateurs traditionnels, pour adopter une organisation matérielle plus compacte et efficace. Le moteur central est composé de six modules modulaires, offrant une plus grande flexibilité pour la personnalisation et l'extension. La sortie de cette génération de produits va sans aucun doute remodeler la structure des coûts et les méthodes de déploiement du marché de la puissance de calcul IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 9
  • Reposter
  • Partager
Commentaire
0/400
BtcDailyResearchervip
· 01-09 14:58
Un dixième du coût ? Les amis des mines doivent commencer à paniquer maintenant --- 260TB/s de bande passante... ce chiffre me donne le vertige, mais on dirait qu'il va y avoir des licenciements --- Efficacité augmentée de cinq fois ? C'est une véritable bénédiction pour les fans de factures d'électricité, ils commencent à envisager de changer de puce --- Une nouvelle itération, un nouveau tour de redistribution, cette vitesse est vraiment difficile à suivre --- GPU à réduire de 75%... Eh, les actions des fabricants de cartes graphiques vont-elles baisser ? --- La conception modulaire semble une bonne idée, mais j'ai peur que ce soit encore un coup de marketing, il faut voir les résultats concrets pour y croire --- Si cette chose est vraiment aussi puissante que la promotion le dit, le marché de la puissance de calcul AI pourrait changer radicalement --- Réduire le coût à un dixième est vraiment absurde, quelle douleur pour ceux qui ont acheté les puces plus tôt --- C'est la première fois que j'entends parler de calcul confidentiel au niveau rack, on dirait qu'on va encore se faire avoir --- Il faut accélérer l'itération, on dirait qu'il faut mettre à jour la pile technologique tous les trois mois
Voir l'originalRépondre0
AirdropHermitvip
· 01-09 10:02
Putain, un dixième du coût ? C'est vrai, on dirait que ça va tout exploser cette fois Cette amélioration de l'efficacité énergétique par un facteur de cinq, les gros investisseurs vont devoir acheter à tout prix 260TB/s... ce chiffre est complètement délirant, est-ce vraiment réalisable ? Le coût de l'inférence réduit directement d'un dixième, les petites entreprises ont enfin une chance Réduire de 75 % le nombre de GPU tout en conservant la même puissance de calcul, qui pourrait résister à ça ? L'architecture permet de garantir la confidentialité au niveau du rack, c'est plutôt bien pensé Ne pas monter à bord de cette vague, ça pourrait vous faire perdre gros
Voir l'originalRépondre0
GateUser-6bc33122vip
· 01-07 00:38
Un dixième du coût ? Cette fois, lancer une grande modélisation devient vraiment viable.
Voir l'originalRépondre0
RektHuntervip
· 01-06 15:51
Putain, réduire le coût de l'inférence à un dixième ? Maintenant, même les petites entreprises peuvent jouer avec de grands modèles, la monopolisation de la puissance de calcul va être brisée Ce chiffre de 260TB/s est incroyable, la communication entre GPU est si fluide... Mais est-ce vraiment stable ? Réduire le nombre de GPU de 75 %, c'est quoi le concept, cette économie d'électricité et d'argent matériel... Bon, j'en ai assez, ça va encore monter en flèche
Voir l'originalRépondre0
SandwichTradervip
· 01-06 15:50
1/10 du coût ? Cette fois, les grands modèles vont vraiment commencer à se concurrencer --- 260TB/s, ce chiffre est impressionnant, mais le refroidissement peut-il vraiment être géré ? --- Réduction de 75 % du GPU, qu'est-ce que cela signifie, les PME peuvent enfin jouer avec l'IA ? --- Encore une fois, modulaire et confidentiel, cette architecture ne semble pas si simple --- Efficacité énergétique multipliée par cinq ? Donc tout ce temps, on a gaspillé de l'électricité, hein haha --- Parler de restructuration des coûts, ce n'est pas autre chose que pour conquérir le marché, c'est la vieille méthode --- 260TB/s, est-ce vrai ? Avec cette vitesse, tout peut voler, non ? --- Je crois à un dixième du coût, mais le coût des composants en amont a-t-il vraiment diminué ? --- Abandonner la solution avec ventilateur, cette nouvelle méthode de refroidissement est-elle fiable, sans causer d'autres problèmes ? --- Enfin, quelqu'un qui se concentre sur la réduction des coûts, les solutions précédentes étaient trop chères
Voir l'originalRépondre0
tokenomics_truthervip
· 01-06 15:44
260 To/s ? Ce chiffre semble incroyable, mais si l'on peut réellement réduire le coût de l'inférence à un dixième, alors l'opportunité pour les mineurs est là
Voir l'originalRépondre0
MEVictimvip
· 01-06 15:41
Un dixième du coût ? Si c'était vrai, cela aurait dû apparaître depuis longtemps, ne soyez pas encore une fois des données en papier
Voir l'originalRépondre0
OnchainArchaeologistvip
· 01-06 15:39
Un dixième du coût ? Cette fois, lancer une startup avec un grand modèle n'est plus aussi coûteux, on peut enfin souffler Réduction de 75 % des GPU, est-ce vrai... le coût pour l'entreprise est directement divisé par deux Une bande passante de 260 TB/s, c'est incroyable, le flux de données n'est plus un goulot d'étranglement Amélioration de l'efficacité énergétique par cinq, le refroidissement n'a plus besoin d'être aussi extrême, c'est génial Une conception modulaire avec beaucoup d'imagination, un grand potentiel pour la personnalisation future Le coût de l'inférence réduit à un dixième, cette mise à jour change vraiment la donne
Voir l'originalRépondre0
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)