19 février, selon des médias étrangers comme Wccftech, le PDG de Nvidia, Jensen Huang, a teasé la prochaine conférence GTC 2026 en déclarant qu’il dévoilera lors de l’événement une nouvelle puce « jamais vue auparavant », suscitant une large attention dans l’industrie. En tant que leader dans le domaine des puces AI, cette annonce majeure de Nvidia est considérée comme une étape pour renforcer davantage sa position de leader dans l’infrastructure AI.
Selon des sources, le discours principal de la conférence GTC 2026 aura lieu le 15 mars à San José, en Californie, et se concentrera sur une nouvelle ère dans la compétition pour l’infrastructure AI. Jensen Huang a admis que le développement de ces nouvelles puces est extrêmement difficile, « toutes les technologies approchent de leurs limites », mais compte tenu de ses antécédents, l’industrie attend beaucoup de ces nouveaux produits Nvidia.
Actuellement, le modèle précis de la nouvelle puce n’a pas été divulgué, mais il est largement supposé qu’elle proviendra de deux principales séries de puces : d’une part, une dérivée de la série Rubin (comme le Rubin CPX précédemment dévoilé), qui a été présentée lors du CES 2026, comprenant six nouvelles puces entièrement en production ; d’autre part, la prochaine génération de la série Feynman, qualifiée de « produit révolutionnaire », où Nvidia explore une intégration étendue basée sur la SRAM ou via une technologie de stacking 3D pour intégrer des LPU, mais les détails restent à confirmer.
Il est également important de noter que Nvidia adapte ses produits à la demande en puissance de calcul AI, passant de la série Hopper et Blackwell, axées sur la pré-formation de modèles, à la série Grace Blackwell Ultra et Vera Rubin, axées sur l’inférence. Ces nouveaux produits devraient cibler spécifiquement la réduction de la latence et le goulot d’étranglement de la bande passante mémoire. Jensen Huang a déclaré que la collaboration étendue et l’investissement sont essentiels pour maintenir la position de leader de Nvidia, qui s’efforce de couvrir toute la chaîne de l’industrie AI, incluant l’énergie, les semi-conducteurs, les centres de données et d’autres secteurs, afin de favoriser le développement global de l’industrie AI.
(Source : Daily Science and Technology Board)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
黄仁勋 : Annoncera en mars une nouvelle puce « sans précédent dans le monde »
19 février, selon des médias étrangers comme Wccftech, le PDG de Nvidia, Jensen Huang, a teasé la prochaine conférence GTC 2026 en déclarant qu’il dévoilera lors de l’événement une nouvelle puce « jamais vue auparavant », suscitant une large attention dans l’industrie. En tant que leader dans le domaine des puces AI, cette annonce majeure de Nvidia est considérée comme une étape pour renforcer davantage sa position de leader dans l’infrastructure AI.
Selon des sources, le discours principal de la conférence GTC 2026 aura lieu le 15 mars à San José, en Californie, et se concentrera sur une nouvelle ère dans la compétition pour l’infrastructure AI. Jensen Huang a admis que le développement de ces nouvelles puces est extrêmement difficile, « toutes les technologies approchent de leurs limites », mais compte tenu de ses antécédents, l’industrie attend beaucoup de ces nouveaux produits Nvidia.
Actuellement, le modèle précis de la nouvelle puce n’a pas été divulgué, mais il est largement supposé qu’elle proviendra de deux principales séries de puces : d’une part, une dérivée de la série Rubin (comme le Rubin CPX précédemment dévoilé), qui a été présentée lors du CES 2026, comprenant six nouvelles puces entièrement en production ; d’autre part, la prochaine génération de la série Feynman, qualifiée de « produit révolutionnaire », où Nvidia explore une intégration étendue basée sur la SRAM ou via une technologie de stacking 3D pour intégrer des LPU, mais les détails restent à confirmer.
Il est également important de noter que Nvidia adapte ses produits à la demande en puissance de calcul AI, passant de la série Hopper et Blackwell, axées sur la pré-formation de modèles, à la série Grace Blackwell Ultra et Vera Rubin, axées sur l’inférence. Ces nouveaux produits devraient cibler spécifiquement la réduction de la latence et le goulot d’étranglement de la bande passante mémoire. Jensen Huang a déclaré que la collaboration étendue et l’investissement sont essentiels pour maintenir la position de leader de Nvidia, qui s’efforce de couvrir toute la chaîne de l’industrie AI, incluant l’énergie, les semi-conducteurs, les centres de données et d’autres secteurs, afin de favoriser le développement global de l’industrie AI.
(Source : Daily Science and Technology Board)