AMD lance le défi des puces AI, mais Nvidia est toujours seul

Auteur : Zhao Jian

Source : Jiazi Guangnian

Crédit image : Généré par les outils Unbounded AI

Le PDG de Nvidia, Huang Renxun, essaie de donner à l'industrie l'impression que l'IA est égale à Nvidia.

Aujourd'hui, avec l'explosion des grands modèles de langage d'IA, les puces GPU de Nvidia pour l'intelligence artificielle sont presque le seul choix pour compléter une formation en IA qui nécessite une puissance de calcul extrêmement élevée.

Ce déséquilibre extrême entre l'offre et la demande a rendu les GPU de Nvidia difficiles à trouver, même le PDG d'OpenAI, Sam Altman, se plaint que la pénurie de puces ait affecté le développement de ChatGPT.

Huang Renxun doit être content d'entendre ça. En 2023, portée par la demande d'IA, la valeur marchande de Nvidia dépassera mille milliards de dollars américains.

Cependant, certaines personnes tentent de briser le statut de "solitaire cherchant la défaite" de Nvidia dans le domaine de l'intelligence artificielle.

Mercredi, AMD (Advanced Semiconductor) a officiellement lancé la puce phare annuelle Instinct MI300 lors de sa première conférence de lancement de produit "intelligence artificielle et centre de données", une super puce qui peut rivaliser avec la série Grace Hopper de Nvidia.

Instinct MI300 a deux versions : MI300X n'a qu'un GPU, qui est spécialement conçu pour la formation de modèles d'IA et contient 153 milliards de transistors ; MI300A est un APU qui intègre plusieurs CPU, GPU et mémoire à large bande passante (AMD proposé dans le concept de produit 2011), emballé avec 146 milliards de transistors.

La sortie d'Instinct MI300 signifie que Nvidia n'est plus la seule option pour les entreprises d'IA en matière de puissance de calcul. AMD a en effet réussi à attirer certaines licornes stars de l'IA, comme Hugging Face, AMD va optimiser le modèle pour son CPU, GPU et autres matériels d'IA.

Instinct MI300 porte les ambitions d'AMD dans le domaine de l'intelligence artificielle. La PDG d'AMD, Lisa Su, a récemment déclaré : "Si vous regardez dans cinq ans, vous verrez l'intelligence artificielle dans chaque produit d'AMD, et cela deviendra le plus grand moteur de croissance."

AMD est le vieux rival de Nvidia, la compétition entre les deux sur le marché des GPU dure depuis 17 ans, et s'est la plupart du temps soldée par la victoire de Nvidia.

Et cette fois, AMD, qui a déjà fait ses preuves sur le marché des CPU une fois, peut-il copier son expérience réussie sur le marché des GPU ?

1.AMD veut la couronne AI de Nvidia

AMD est une ancienne société de semi-conducteurs bien connue dans le monde, fondée en 1969. Selon les données de classement des sociétés mondiales de semi-conducteurs publiées par Gartner cette année, AMD se classe septième.

Le CPU est le berceau d'AMD. En 1981, AMD a obtenu l'autorisation des processeurs de la série Intel X86 et est devenu le deuxième de l'industrie d'un seul coup pendant la période de bonus de l'ère des PC, et le deuxième de cette industrie le fait depuis des décennies.

En plus du CPU, AMD a progressivement établi une configuration de puce complète de "CPU + GPU + DPU + FPGA" grâce à des fusions et acquisitions continues.

Certaines des fusions et acquisitions les plus importantes comprennent :

  • En juillet 2006, AMD a dépensé 5,4 milliards de dollars pour acquérir ATI, le n° 2 de l'industrie des GPU à l'époque, lançant officiellement la compétition GPU avec Nvidia ;
  • En février 2022, AMD a dépensé 49,8 milliards de dollars pour finaliser l'acquisition du fabricant de FPGA Xilinx afin de renforcer sa disposition dans le domaine des centres de données ;
  • En avril 2022, AMD a annoncé l'acquisition du fabricant de puces DPU Pensando pour 1,9 milliard de dollars américains afin de continuer à développer son activité de centres de données.

La structure commerciale d'AMD est divisée en quatre grands secteurs : centres de données, clients, jeux et activités embarquées.

Le centre de données comprend tous les revenus liés aux serveurs d'AMD ; les revenus des clients concernent principalement les ordinateurs de bureau et les ordinateurs personnels, qui étaient autrefois l'une des activités principales d'AMD, mais maintenant la proportion des revenus n'est pas élevée ; l'activité de jeu concerne principalement le produit GPU ligne, Sony, Microsoft est un client majeur stable ; l'activité embarquée provient principalement de l'activité Xilinx d'origine.

Alors que l'intelligence artificielle devient une tendance, le centre de données est devenu une entreprise à laquelle les grands géants du cloud accordent une grande importance et dans laquelle ils investissent massivement, et c'est aussi un champ de bataille pour Nvidia, Intel et AMD.

Lors de la précédente réunion sur le rapport financier du premier trimestre 2023, AMD a souligné que l'IA est actuellement le premier objectif stratégique de l'entreprise, et AMD s'est engagé à créer une matrice de produits d'IA plus diversifiée.

Hier, la conférence de lancement de produit d'AMD était pour la première fois sur le thème "l'intelligence artificielle et le centre de données". Su Zifeng a souligné lors de la conférence de presse que, grâce aux modèles linguistiques à grande échelle, les opportunités de marché pour l'intelligence artificielle augmentent et que le potentiel du marché pourrait passer de 30 milliards de dollars américains actuels à environ 150 milliards de dollars américains d'ici 2027.

AMD ne veut pas manquer ce festin d'IA, mais Nvidia est une montagne à surmonter.

Dans le dernier rapport financier trimestriel, le chiffre d'affaires des centres de données d'AMD s'élevait à 1,295 milliard de dollars, contre 1,293 milliard de dollars au trimestre précédent, soit pratiquement aucune croissance. En revanche, le chiffre d'affaires des centres de données de Nvidia au premier trimestre de cette année a atteint un niveau record, en hausse de 14 % en glissement annuel pour atteindre 4,28 milliards de dollars, soit plus de trois fois celui d'AMD.

Selon le fonds spéculatif quantitatif Khaveen Investments, la part de marché des GPU des centres de données de Nvidia atteindra 88 % en 2022, et AMD et Intel se partageront le reste.

Bien qu'AMD soit un ancien acteur sur le marché des GPU, ses anciens produits de la série GPU étaient principalement utilisés dans les domaines du traitement d'image et du raisonnement de l'IA, tandis que la formation à l'IA, qui nécessite davantage de calcul parallèle, est entrée sur le marché plus tard.

La sortie d'Instinct MI300 signifie qu'AMD tente de changer la domination de Nvidia sur le marché de la formation à l'IA.

2. Entrez dans la formation IA

L'Instinct MI300 est le premier "APU" hautes performances pour le centre de données - un concept lancé par AMD.

En 2011 (la cinquième année après l'acquisition d'ATI par AMD), AMD a comparé les cerveaux gauche et droit des humains avec le CPU et le GPU dans sa conception de produit, et sur cette base, il a proposé une stratégie de produit hétérogène "CPU + GPU" et l'a nommé APU .

Analogue au cerveau humain, AMD estime que le cerveau gauche ressemble plus à un processeur, responsable du traitement logique des informations, telles que les opérations en série, les nombres et l'arithmétique, la pensée analytique, la compréhension, la classification, le tri, etc., tandis que le cerveau droit ressemble plus à un GPU, responsable du calcul parallèle, des modalités multiples, de la pensée créative et de l'imagination, etc.

Photo de Huatai Research

Cependant, en 2011, AMD était au creux de la « décennie perdue ». Que ce soit dans la gamme CPU ou dans la gamme GPU, il n'a pas réussi à produire suffisamment d'excellents produits, et le développement de l'APU n'a pas été satisfaisant.

Au moment de mars 2020, AMD a publié une nouvelle version de microarchitecture CDNA, spécialement conçue pour le calcul haute performance et le calcul IA dans les centres de données. Auparavant, le GPU d'AMD utilisait la même architecture pour résoudre simultanément les besoins des scénarios de jeu et d'informatique, ce qui n'est pas propice à l'optimisation de différents scénarios.

Les produits de la série Instinct sont conçus pour le calcul haute performance HPC et le calcul IA. Le nouveau MI300 poursuit pleinement Grace Hopper de Nvidia en termes de spécifications et de performances.

Instinct MI300 adopte le processus 5 nm de TSMC et dispose de deux versions différentes : MI300X ne dispose que d'un GPU, conçu pour la formation de modèles d'IA, et contient 153 milliards de transistors ; MI300A est une combinaison de plusieurs CPU, GPU et mémoire à large bande passante L'APU contient 146 milliards de transistors .

AMD affirme que l'Instinct MI300 a des performances d'IA 8 fois supérieures à celles de la génération précédente MI250, ce qui peut réduire le temps de formation de très grands modèles d'IA tels que ChatGPT et DALL-E de plusieurs mois à plusieurs semaines, ce qui permet d'économiser des millions de dollars en factures d'électricité.

AMD a présenté le modèle Falcon du MI300x exécutant 40 milliards de paramètres lors de la conférence de presse, ce qui lui a permis d'écrire un poème sur San Francisco. "Les modèles deviennent de plus en plus gourmands en capacité, et vous avez en fait besoin de plusieurs GPU pour exécuter les derniers grands modèles de langage", a déclaré Su, notant qu'avec plus de mémoire sur les puces AMD, les développeurs n'auront pas besoin d'autant de GPU multiples.

AMD n'a pas encore annoncé le prix du MI300, mais la direction a déclaré lors de la conférence téléphonique sur les résultats de l'exercice 23T1 que les produits de centre de données poursuivraient le style de tarification rentable précédent, en se concentrant d'abord sur l'ouverture du marché.

AMD s'attend à ce que le MI300 soit lancé d'ici la fin de cette année et sera installé dans le supercalculateur exascale EI Capitan du Lawrence Livermore National Laboratory et dans d'autres modèles d'IA client cloud à grande échelle.

L'analyste de Morgan Stanley, Joseph Moore, a donné des conseils optimistes, affirmant qu'AMD a enregistré des "commandes stables" de la part des clients, et que les revenus liés à l'IA de la société en 2024 devraient atteindre 400 millions de dollars, et pourraient même atteindre 1,2 milliard de dollars - cette attente C'est 12 fois autant qu'avant.

Cependant, bien qu'AMD soit presque la seule entreprise capable de défier Nvidia, cela doit être un processus très difficile.

** 3. Les douves de Nvidia **

Après le lancement du produit AMD, le marché des capitaux a réagi de manière médiocre : le cours de l'action AMD a chuté de plus de 3 %, au contraire, le cours de l'action Nvidia a augmenté de 3,9 % et sa valeur marchande a de nouveau dépassé le billion de dollars américains.

Aux yeux des investisseurs, la puce annuelle MI300 d'AMD semble encore difficile à ébranler les fondations de Nvidia.

Par exemple, AMD n'a pas révélé lors de la conférence quels clients majeurs il a reçu un soutien pour sa puce annuelle. Kevin Krewell, analyste principal chez TIRIAS Research, a déclaré : "Je pense qu'aucun (gros client) n'a indiqué qu'il utiliserait le MI300X ou le MI300A, ce qui risque de décevoir Wall Street. Ils espèrent qu'AMD annoncera qu'il a déjà fait du Design- sage a remplacé Nvidia."

Les clients actuellement divulgués ne sont que la licorne à grande échelle open source Hugging Face et le Lawrence Livermore National Laboratory divulgués plus tôt. Mais les deux ne sont pas du même ordre de grandeur que les géants du cloud qui ont une plus grande demande de puces pour centres de données.

En termes de performances de la puce elle-même, bien que le MI300 surpasse Nvidia dans certains paramètres, tels que le nombre de transistors est supérieur aux 54 milliards de l'A100, Nvidia pourrait bientôt rattraper cela grâce à des itérations de produits.

En fait, Nvidia le fait déjà. Le 29 mai, deux semaines avant la conférence AMD, Nvidia a officiellement lancé la nouvelle super puce GH200 Grace Hopper lors de la conférence pré-show COMPUTEX 2023, avec 200 milliards de transistors, supérieurs au MI300.

Plus important encore, Nvidia a également annoncé que Google, Microsoft et Meta seraient les premiers grands clients à adopter cette super puce.

** En plus de l'excellent produit lui-même, l'autre douve imprenable de Nvidia est son écologie CUDA. **

NVIDIA a lancé l'écosystème CUDA en 2007. En utilisant CUDA, les développeurs peuvent utiliser le GPU de Nvidia pour le traitement informatique général, pas seulement le traitement graphique.

CUDA fournit une interface de programmation intuitive qui permet aux développeurs d'écrire du code parallèle en C, C++, Python et d'autres langages.

Le maître de l'IA Wu Enda a un jour commenté ceci : "Avant l'émergence de CUDA, il n'y a peut-être pas plus de 100 personnes dans le monde qui peuvent utiliser la programmation GPU. Après avoir CUDA, utiliser le GPU est devenu une chose très facile."

AMD a lancé ROCm en 2016 dans le but d'établir un écosystème pouvant remplacer CUDA. En 2023, les développeurs CUDA atteindront 4 millions, y compris les grandes entreprises clientes telles qu'Adobe. Plus il y a d'utilisateurs, meilleure est l'adhérence.Il faudra du temps à ROCm, qui a démarré tardivement, pour construire un écosystème de développeurs.

"Alors qu'AMD est compétitif en termes de performances matérielles, les gens ne croient toujours pas que les solutions logicielles d'AMD peuvent rivaliser avec Nvidia", a déclaré Anshel Sag, analyste chez Moor Insights & Strategy.

Il s'agit d'un fossé unique appartenant à Nvidia. Il est extrêmement difficile pour AMD de percer.

4. Le succès d'AMD peut être difficile à reproduire

Pour AMD, la chose la moins redoutée est peut-être de relever le défi.

De 2006 à 2016, ce fut la "décennie perdue" d'AMD. Au cours de cette période, les deux principaux concurrents d'AMD, Intel et Nvidia, subissent des itérations de produits régies par la loi de Moore.

Intel pratique la "stratégie du pendule Tick-Tock" et effectue une mise à jour itérative majeure du produit tous les deux ans (processus d'un an, conception de la micro-architecture d'un an) ; Nvidia est basé sur la "loi de Huang" proposée par Huang Renxun - chaque doublant le performance en 6 mois - sous la direction de l'entreprise, le produit sera mis à jour tous les six mois.

AMD n'a pas réussi à suivre le rythme de mise à jour des produits des deux leaders de l'industrie, et le développement de l'entreprise était sur le point de s'effondrer jusqu'à ce que Su Zifeng prenne la relève en tant que cinquième PDG d'AMD en 2014.

L'AMD que Su Lifeng vient de reprendre est un gâchis. Son marché des ordinateurs portables est occupé par Intel, le marché émergent des smartphones est divisé par Nvidia, Qualcomm et Samsung, et la part de marché des serveurs est passée de 1/4 de l'original à seulement 2 %. AMD a dû licencier environ un quart de ses employés, et le cours de son action a oscillé autour de 2 dollars, et les analystes ont déclaré qu'il était "ininvestissable".

À cette époque, le PDG d'Intel, Ke Zaiqi, a commenté AMD : "Cette société ne reviendra plus jamais, alors ne vous inquiétez pas de vous concentrer sur le nouveau concurrent Qualcomm."

Mais tout le monde connaît l'histoire après cela. Sous la houlette de Su Zifeng, AMD a mené un beau revirement sur le marché des CPU, non seulement il a progressivement érodé la part de marché d'Intel, mais son cours de bourse a aussi historiquement dépassé Intel en février 2022.

Si AMD a réussi à percer sur le marché des CPU, c'est qu'il a su saisir les erreurs stratégiques de son rival Intel.

Dans le maillon de la fabrication de puces, AMD et Intel ont choisi des voies différentes. AMD a cédé son activité de fabrication de puces en 2009, a créé une joint-venture avec la fonderie indépendante Gexin, et s'est uniquement concentrée sur la conception de puces (Fabless), ce qui a permis à AMD de choisir une fonderie tierce indépendante (Foundry). Intel intègre la conception et la fabrication de puces (IDM) depuis sa création.

Au début du développement de l'industrie des semi-conducteurs, un IDM hautement intégré verticalement comme Intel était le modèle le plus courant. Le co-fondateur d'AMD, Jerry Sanders, a également prononcé un dicton célèbre : "Les vrais hommes ont des fabs." Mais ironiquement, AMD a eu l'opportunité de mener à bien la contre-attaque précisément parce qu'il a ensuite cédé la fab.

Après 2014, le processus de fabrication des puces d'Intel a rencontré des difficultés techniques, et le taux de rendement des puces de 10 nm (équivalent au 7 nm de TSMC) n'était pas bon, ce qui a entraîné de multiples retards dans la production de masse de 10 nm initialement prévue pour le second semestre 2016, et a finalement été sortie au second semestre 2019. La stratégie Tick-Tock sur laquelle Intel insistait auparavant a également été abandonnée pour des raisons de technologie de processus.

Le fondateur d'Intel, Gordon Moore, a proposé la loi de Moore, mais Intel souffre maintenant de la "malédiction de la loi de Moore". Cela permet à AMD de saisir l'opportunité de dépasser.

En 2018, AMD a coopéré pour la première fois avec GlobalFoundries pour lancer l'architecture Zen+ avec un processus de 12 nm, surpassant pour la première fois Intel avec un processus de 14 nm. Puis en 2019, AMD a coopéré avec TSMC pour lancer l'architecture Zen 2 du procédé 7 nm (équivalent du 10 nm d'Intel), leader d'Intel. Depuis lors, Intel a pris du retard sur AMD en termes de processus de fabrication, et cela ne s'est pas amélioré jusqu'à présent.

Aujourd'hui, un scénario similaire de "le deuxième enfant défie le boss" semble être rejoué, mais le champ de bataille a été changé du CPU au GPU. Bien qu'AMD soit toujours dirigé par "Su Ma", Nvidia dirigé par Huang Renxun est plus populaire qu'Intel à l'époque.

Dans la Silicon Valley, Huang Renxun est connu comme un homme agressif qui aime porter des vestes en cuir noires et est toujours prêt à se battre.Lorsque le cours de l'action est monté à 100 $, il s'est même tatoué le logo Nvidia sur son bras.

En 2016, Huang Renxun n'a pas pris AMD au sérieux, il a directement commenté qu'il y avait un écart de "9 et 0" entre Nvidia et AMD. Début 2019, AMD s'est empressé de sortir la carte graphique 7nm devant Nvidia, Huang Renxun ne semblait pas s'en soucier en surface, et a dit directement que "cette carte graphique est très ordinaire".

Aujourd'hui, AMD a une fois de plus défié Nvidia avec de meilleurs produits. D'un côté, le béat AMD, de l'autre, Nvidia, qui cherche à être vaincu par Dugu.Une guerre GPU contre l'intelligence artificielle vient de commencer.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)