“La pénurie de mémoire” sévit dans le monde entier, devenant un obstacle clé dans la compétition IA ? Un autre grand nom de la Silicon Valley s'exprime
Actuellement, les entreprises d’intelligence artificielle (IA) sont engagées dans une compétition féroce pour obtenir davantage de puces mémoire. L’ensemble du secteur fait face à une grave pénurie d’approvisionnement : les coûts s’envolent, la livraison des produits est retardée, et certaines entreprises — notamment dans le domaine de l’électronique grand public — ont commencé à augmenter leurs prix.
Le PDG de DeepMind, Demis Hassabis, a récemment évoqué dans une interview la crise mondiale de la « pénurie de mémoire ».
Il a déclaré que l’ensemble de la chaîne d’approvisionnement des puces mémoire est limitée, et que les défis matériels « restreignent fortement le déploiement massif (de l’IA) ». La demande du marché pour Google Gemini et d’autres modèles d’IA dépasse déjà la capacité actuelle de l’entreprise.
« De plus, cela limite également en partie les travaux de recherche », a indiqué Hassabis. « Pour tester de nouvelles idées à grande échelle et en vérifier la faisabilité, il faut un grand nombre de puces pour soutenir ces efforts. »
Que ce soit chez Google, Meta, OpenAI ou d’autres géants technologiques, les chercheurs ont un besoin urgent de puces — et la mémoire en est un composant clé. Le PDG de Meta, Mark Zuckerberg, a déclaré que, outre le financement, l’un des aspects les plus importants pour les chercheurs en IA est d’accéder au maximum de puces possible.
Hassabis a souligné qu’aussi longtemps qu’il y aura des limitations de capacité, un « goulot d’étranglement » se formera.
« Toute la chaîne d’approvisionnement est tendue », a déclaré Hassabis, « nous sommes plutôt chanceux car nous disposons de nos propres unités de traitement tensoriel (TPU), avec une capacité de conception de puces autonome. »
Depuis longtemps, Google développe en interne ses propres TPU pour un usage interne. La société loue également ces TPU via ses services cloud à des clients externes — ce qui met aussi Nvidia sous pression.
Mais même avec ses TPU maison, Google ne peut échapper à la forte concurrence sur le marché des mémoires. Hassabis a affirmé : « En fin de compte, les fournisseurs de composants clés restent peu nombreux. »
Actuellement, trois entreprises dominent la production mondiale de puces mémoire : Samsung, Micron et SK Hynix. Ces sociétés doivent répondre à la demande des géants de l’IA pour des puces à grande échelle, tout en maintenant leurs relations avec leurs clients de longue date dans l’électronique grand public, ce qui rend leur situation particulièrement difficile.
Ce qui complique encore la situation, c’est que le type de mémoire nécessaire aux entreprises d’IA diffère de celui des fabricants d’ordinateurs personnels (PC). Les producteurs de grands modèles de langage ont besoin de puces HBM (High Bandwidth Memory).
Le PDG d’Intel, Pat Gelsinger, a récemment averti que le goulet d’étranglement du développement de l’IA s’est déplacé du « calcul » vers la « mémoire » et vers des systèmes d’infrastructure plus larges. Il a clairement indiqué que la pénurie de mémoire ne sera pas résolue avant 2028.
(Article source : La Tribune de la Bourse de la Science et de la Technologie)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
“La pénurie de mémoire” sévit dans le monde entier, devenant un obstacle clé dans la compétition IA ? Un autre grand nom de la Silicon Valley s'exprime
Actuellement, les entreprises d’intelligence artificielle (IA) sont engagées dans une compétition féroce pour obtenir davantage de puces mémoire. L’ensemble du secteur fait face à une grave pénurie d’approvisionnement : les coûts s’envolent, la livraison des produits est retardée, et certaines entreprises — notamment dans le domaine de l’électronique grand public — ont commencé à augmenter leurs prix.
Le PDG de DeepMind, Demis Hassabis, a récemment évoqué dans une interview la crise mondiale de la « pénurie de mémoire ».
Il a déclaré que l’ensemble de la chaîne d’approvisionnement des puces mémoire est limitée, et que les défis matériels « restreignent fortement le déploiement massif (de l’IA) ». La demande du marché pour Google Gemini et d’autres modèles d’IA dépasse déjà la capacité actuelle de l’entreprise.
« De plus, cela limite également en partie les travaux de recherche », a indiqué Hassabis. « Pour tester de nouvelles idées à grande échelle et en vérifier la faisabilité, il faut un grand nombre de puces pour soutenir ces efforts. »
Que ce soit chez Google, Meta, OpenAI ou d’autres géants technologiques, les chercheurs ont un besoin urgent de puces — et la mémoire en est un composant clé. Le PDG de Meta, Mark Zuckerberg, a déclaré que, outre le financement, l’un des aspects les plus importants pour les chercheurs en IA est d’accéder au maximum de puces possible.
Hassabis a souligné qu’aussi longtemps qu’il y aura des limitations de capacité, un « goulot d’étranglement » se formera.
« Toute la chaîne d’approvisionnement est tendue », a déclaré Hassabis, « nous sommes plutôt chanceux car nous disposons de nos propres unités de traitement tensoriel (TPU), avec une capacité de conception de puces autonome. »
Depuis longtemps, Google développe en interne ses propres TPU pour un usage interne. La société loue également ces TPU via ses services cloud à des clients externes — ce qui met aussi Nvidia sous pression.
Mais même avec ses TPU maison, Google ne peut échapper à la forte concurrence sur le marché des mémoires. Hassabis a affirmé : « En fin de compte, les fournisseurs de composants clés restent peu nombreux. »
Actuellement, trois entreprises dominent la production mondiale de puces mémoire : Samsung, Micron et SK Hynix. Ces sociétés doivent répondre à la demande des géants de l’IA pour des puces à grande échelle, tout en maintenant leurs relations avec leurs clients de longue date dans l’électronique grand public, ce qui rend leur situation particulièrement difficile.
Ce qui complique encore la situation, c’est que le type de mémoire nécessaire aux entreprises d’IA diffère de celui des fabricants d’ordinateurs personnels (PC). Les producteurs de grands modèles de langage ont besoin de puces HBM (High Bandwidth Memory).
Le PDG d’Intel, Pat Gelsinger, a récemment averti que le goulet d’étranglement du développement de l’IA s’est déplacé du « calcul » vers la « mémoire » et vers des systèmes d’infrastructure plus larges. Il a clairement indiqué que la pénurie de mémoire ne sera pas résolue avant 2028.
(Article source : La Tribune de la Bourse de la Science et de la Technologie)