Défiez l'hégémonie du Nvidia H100 ! IBM simule la puce de réseau neuronal artificiel du cerveau humain, ce qui améliore l'efficacité de 14 fois et résout le problème de consommation d'énergie du modèle d'IA
Récemment, IBM a lancé une toute nouvelle puce d'IA analogique de 14 nm, 14 fois plus efficace que le GPU leader, ce qui peut permettre au H100 d'en valoir la peine.
Adresse papier :
Actuellement, le plus grand obstacle au développement de l’IA générative est son étonnante consommation d’énergie. Les ressources nécessaires à l’IA ne peuvent pas croître de manière durable.
IBM, de son côté, recherche des moyens de remodeler l'informatique IA. L’une de leurs réalisations est la méthode de calcul de mémoire simulée/intelligence artificielle simulée, qui peut réduire la consommation d’énergie en utilisant les caractéristiques clés des réseaux neuronaux fonctionnant dans les cerveaux biologiques.
Cette approche minimise le temps et les efforts que nous consacrons au calcul.
Le monopole de Nvidia est-il sur le point d'être renversé ?
## Le dernier plan d'IBM pour l'avenir de l'IA : les puces d'IA analogiques sont 14 fois plus économes en énergie
Selon un rapport du média étranger Insider, Dylan Patel, analyste en chef de la société de recherche sur les semi-conducteurs SemiAnalysis, a analysé que le coût d'exploitation quotidien de ChatGPT dépassait 700 000 dollars américains.
ChatGPT nécessite beaucoup de puissance de calcul pour générer des réponses basées sur les invites des utilisateurs. La plupart des coûts sont engagés sur des serveurs coûteux.
À l’avenir, le coût des modèles de formation et des infrastructures d’exploitation ne fera que monter en flèche.
IBM a publié dans Nature que cette nouvelle puce peut réduire la pression liée à la création et à l'exploitation d'entreprises d'IA générative telles que Midjourney ou GPT-4 en réduisant la consommation d'énergie.
Ces puces analogiques sont construites différemment des puces numériques, qui peuvent manipuler des signaux analogiques et comprendre les gradients entre 0 et 1, mais uniquement pour différents signaux binaires.
Calcul de mémoire simulé/IA simulée
Et la nouvelle approche d'IBM consiste à simuler le calcul de la mémoire, ou en abrégé, à simuler l'IA. Il réduit la consommation d'énergie en exploitant une caractéristique clé des réseaux neuronaux opérant dans les cerveaux biologiques.
Dans le cerveau des humains et des autres animaux, la force (ou « poids ») des synapses détermine la communication entre les neurones.
Pour les systèmes d'IA analogiques, IBM stocke ces poids synaptiques dans les valeurs de conductance des dispositifs de mémoire résistifs à l'échelle nanométrique (tels que la mémoire à changement de phase PCM) et utilise les lois des circuits pour réduire le besoin d'envoyer constamment des données entre la mémoire et processeur, effectuez l’opération Multiply-accumulate (MAC) - l’opération principale dans DNN.
Les H100 et A100 de Nvidia alimentent désormais de nombreuses plates-formes d'IA générative.
Cependant, si IBM réitère le prototype de puce et réussit à le commercialiser sur le marché de masse, cette nouvelle puce pourrait très bien remplacer Nvidia en tant que nouveau pilier.
Cette puce IA analogique de 14 nm peut coder 35 millions de dispositifs de mémoire à changement de phase pour chaque composant et simuler jusqu'à 17 millions de paramètres.
Et la puce imite le fonctionnement du cerveau humain, la micropuce effectuant des calculs directement en mémoire.
Le système de la puce peut réaliser une reconnaissance et une transcription vocales efficaces, avec une précision proche de celle du matériel numérique.
Cette puce atteint environ 14 fois les performances, et les simulations précédentes montrent que l'efficacité énergétique de ce matériel est même de 40 à 140 fois supérieure à celle des principaux GPU actuels.
Réseau crossbar PCM, programmation et traitement du signal numérique
Cette révolution de l’IA générative ne fait que commencer. Les réseaux de neurones profonds (DNN) ont révolutionné le domaine de l'IA, prenant de l'importance avec le développement de modèles fondamentaux et d'IA générative.
Cependant, l’exécution de ces modèles sur des architectures informatiques mathématiques traditionnelles limite leurs performances et leur efficacité énergétique.
Bien que des progrès aient été réalisés dans le développement de matériel pour l’inférence de l’IA, bon nombre de ces architectures séparent physiquement les unités de mémoire et de traitement.
Cela signifie que les modèles d'IA sont généralement stockés dans des emplacements de mémoire discrets et que les tâches informatiques nécessitent un brassage constant des données entre la mémoire et les unités de traitement. Ce processus peut ralentir considérablement les calculs, limitant ainsi l’efficacité énergétique maximale pouvant être atteinte.
Caractéristiques de performances des dispositifs PCM, utilisant la configuration de phase et l'admission pour stocker les poids synaptiques de style analogique
La puce d'accélération d'intelligence artificielle basée sur la mémoire à changement de phase (PCM) d'IBM élimine cette limitation.
La mémoire à changement de phase (PCM) peut réaliser l'intégration du calcul et du stockage, et effectuer directement une multiplication matrice-vecteur dans la mémoire, évitant ainsi le problème de la transmission des données.
Dans le même temps, la puce d'IA analogique d'IBM permet d'accélérer efficacement le raisonnement de l'intelligence artificielle grâce à l'intégration du calcul et du stockage au niveau matériel, ce qui constitue un progrès important dans ce domaine.
Deux défis clés de la simulation de l'IA
Afin de donner vie au concept d’IA simulée, deux défis clés doivent être surmontés :
La précision de calcul de la matrice mémoire doit être comparable à celle des systèmes numériques existants
La matrice de mémoire peut s'interfacer de manière transparente avec d'autres unités informatiques numériques et la structure de communication numérique sur la puce d'intelligence artificielle analogique.
IBM fabrique la puce accélératrice d'intelligence artificielle basée sur la mémoire à changement de phase dans son centre technologique d'Albany Nano.
La puce se compose de 64 cœurs de calcul de mémoire analogique et chaque cœur contient 256 × 256 unités synaptiques à bandes croisées.
Et, intégré à chaque puce se trouve un convertisseur analogique-numérique temporel compact pour la conversion entre les mondes analogique et numérique.
L’unité de traitement numérique légère de la puce peut également exécuter des fonctions simples d’activation de neurones non linéaires et des opérations de mise à l’échelle.
Chaque noyau peut être considéré comme une tuile capable d'effectuer une multiplication matrice-vecteur et d'autres opérations associées à une couche (telle qu'une couche convolutive) d'un modèle de réseau neuronal profond (DNN).
La matrice de poids est codée dans la valeur de conductance simulée du dispositif PCM et stockée sur la puce.
Une unité de traitement numérique globale est intégrée au milieu du cœur de la puce pour mettre en œuvre des opérations plus complexes que la multiplication matrice-vecteur, ce qui est critique pour l'exécution de certains types de réseaux neuronaux (tels que LSTM).
Les chemins de communication numérique sont intégrés sur puce entre tous les cœurs et les unités de traitement numérique globales pour le transfert de données entre les cœurs et entre les cœurs et les unités globales.
a : instantané d'automatisation de la conception électronique et micrographie de puce, vous pouvez voir 64 cœurs et 5616 pads
b : Schéma schématique des différents composants de la puce, comprenant 64 cœurs, 8 unités de traitement numérique globales et les liaisons de données entre cœurs
c : Structure d'un seul cœur de calcul en mémoire basé sur PCM
d : La structure de l'unité de traitement numérique globale pour les calculs liés au LSTM
À l’aide de la puce, IBM a mené une étude approfondie sur la précision informatique du calcul de la mémoire analogique et a obtenu une précision de 92,81 % sur l’ensemble de données d’images CIFAR-10.
a : Structure du réseau ResNet-9 pour CIFAR-10
b : la manière de mapper ce réseau sur la puce
c : précision du test CIFAR-10 implémenté par le matériel
Il s’agit de la précision la plus élevée rapportée jusqu’à présent pour une puce utilisant une technologie similaire.
IBM combine également de manière transparente l'informatique analogique en mémoire avec plusieurs unités de traitement numérique et structures de communication numériques.
La multiplication matricielle d'entrée-sortie de 8 bits de la puce a un débit unitaire de surface de 400 GOPS/mm2, ce qui est plus de 15 fois supérieur à celui des puces informatiques à mémoire multicœur précédentes basées sur une mémoire résistive, tout en atteignant une efficacité énergétique considérable.
Dans la tâche de prédiction de caractères et la tâche de génération d'annotations d'images, IBM a comparé les résultats mesurés sur le matériel avec d'autres méthodes et a démontré la structure du réseau, la programmation du poids et les résultats de mesure des tâches associées exécutées sur la puce IA simulée.
Mesures LSTM pour la prédiction de caractères
Mesures de réseau LSTM pour la génération d'annotations d'images
processus de programmation du poids
**Les douves de Nvidia sont sans fond ? **
Le monopole de Nvidia est-il si facile à briser ?
Naveen Rao est un entrepreneur en neurosciences devenu technologie qui a tenté de rivaliser avec Nvidia, le premier fabricant mondial d'intelligence artificielle.
"Tout le monde développe sur Nvidia", a déclaré Rao. "Si vous souhaitez lancer du nouveau matériel, vous devez rattraper votre retard et rivaliser avec Nvidia".
Rao a travaillé sur des puces conçues pour remplacer les GPU de Nvidia dans une start-up rachetée par Intel, mais après avoir quitté Intel, il a utilisé les puces de Nvidia dans MosaicML, une startup de logiciels qu'il dirigeait.
Rao a déclaré que Nvidia a non seulement ouvert un énorme fossé avec d'autres produits sur la puce, mais a également réussi à se différencier en dehors de la puce en créant une vaste communauté de programmeurs d'IA ——
Les programmeurs d'IA utilisent la technologie de l'entreprise pour innover.
Depuis plus d’une décennie, Nvidia s’est construit une avance presque inattaquable dans la production de puces capables d’effectuer des tâches d’IA complexes telles que la reconnaissance d’images, faciales et vocales, ainsi que de générer du texte pour des chatbots tels que ChatGPT.
L'ancien parvenu de l'industrie a réussi à dominer la fabrication de puces d'IA parce qu'il a reconnu très tôt les tendances de l'IA, construit des puces sur mesure pour ces tâches et développé des logiciels critiques qui ont facilité le développement de l'IA.
Depuis lors, le co-fondateur et PDG de Nvidia, Jensen Huang, a placé la barre plus haut pour Nvidia.
Cela fait de Nvidia un fournisseur unique pour le développement de l’IA.
Alors que Google, Amazon, Meta, IBM et d'autres fabriquent également des puces IA, Nvidia représente actuellement plus de 70 % des ventes de puces IA, selon le cabinet d'études Omdia.
En juin de cette année, la valeur marchande de Nvidia dépassait les 1 000 milliards de dollars, ce qui en faisait le fabricant de puces le plus précieux au monde.
"Les clients attendront 18 mois pour acheter des systèmes Nvidia au lieu d'acheter des puces disponibles dans le commerce auprès de startups ou d'autres concurrents. C'est incroyable", ont déclaré les analystes de FuturumGroup.
NVIDIA, repenser les méthodes informatiques
Jensen Huang a cofondé Nvidia en 1993, fabriquant des puces permettant de restituer des images dans les jeux vidéo. Les microprocesseurs standards de l’époque étaient efficaces pour effectuer des calculs complexes en séquence, mais Nvidia a créé des GPU capables de gérer simultanément plusieurs tâches simples.
En 2006, Jensen Huang a poussé le processus encore plus loin. Il a publié une technologie logicielle appelée CUDA qui aide les GPU à être programmés pour de nouvelles tâches, transformant les GPU de puces à usage unique en puces à usage plus général pouvant assumer d'autres tâches dans des domaines tels que les simulations physiques et chimiques.
En 2012, des chercheurs ont utilisé des GPU pour atteindre une précision humaine dans des tâches telles que l'identification de chats dans des images, une avancée majeure et un précurseur de développements récents tels que la génération d'images à partir d'indices textuels.
Cet effort, que Nvidia estime coûter à plus de 30 milliards de dollars sur une décennie, fait de Nvidia plus qu'un simple fournisseur de pièces détachées. En plus de collaborer avec des scientifiques et des start-ups de haut niveau, l'entreprise a constitué une équipe directement impliquée dans les activités d'IA telles que la création et la formation de modèles linguistiques.
De plus, les besoins des praticiens ont conduit Nvidia à développer plusieurs couches de logiciels clés au-delà de CUDA, qui comprenaient également des bibliothèques de centaines de lignes de code prédéfinies.
Côté matériel, Nvidia a acquis la réputation de fournir régulièrement des puces plus rapides tous les deux ou trois ans. En 2017, Nvidia a commencé à régler les GPU pour gérer des calculs spécifiques d'IA.
En septembre dernier, Nvidia a annoncé la production d'une nouvelle puce appelée H100, qui a été améliorée pour gérer les opérations dites Transformer. De tels calculs s’avèrent être la base de services tels que ChatGPT, que Huang a qualifié de « moment iPhone » de l’intelligence artificielle générative.
Aujourd'hui, à moins que les produits d'autres fabricants puissent concurrencer positivement le GPU de Nvidia, il est possible de briser le monopole actuel de Nvidia sur la puissance de calcul de l'IA.
Est-ce possible pour la puce IA analogique d'IBM ?
Les références:
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Défiez l'hégémonie du Nvidia H100 ! IBM simule la puce de réseau neuronal artificiel du cerveau humain, ce qui améliore l'efficacité de 14 fois et résout le problème de consommation d'énergie du modèle d'IA
Source originale : Xinzhiyuan
Récemment, IBM a lancé une toute nouvelle puce d'IA analogique de 14 nm, 14 fois plus efficace que le GPU leader, ce qui peut permettre au H100 d'en valoir la peine.
Actuellement, le plus grand obstacle au développement de l’IA générative est son étonnante consommation d’énergie. Les ressources nécessaires à l’IA ne peuvent pas croître de manière durable.
IBM, de son côté, recherche des moyens de remodeler l'informatique IA. L’une de leurs réalisations est la méthode de calcul de mémoire simulée/intelligence artificielle simulée, qui peut réduire la consommation d’énergie en utilisant les caractéristiques clés des réseaux neuronaux fonctionnant dans les cerveaux biologiques.
Cette approche minimise le temps et les efforts que nous consacrons au calcul.
Le monopole de Nvidia est-il sur le point d'être renversé ?
Selon un rapport du média étranger Insider, Dylan Patel, analyste en chef de la société de recherche sur les semi-conducteurs SemiAnalysis, a analysé que le coût d'exploitation quotidien de ChatGPT dépassait 700 000 dollars américains.
ChatGPT nécessite beaucoup de puissance de calcul pour générer des réponses basées sur les invites des utilisateurs. La plupart des coûts sont engagés sur des serveurs coûteux.
À l’avenir, le coût des modèles de formation et des infrastructures d’exploitation ne fera que monter en flèche.
Ces puces analogiques sont construites différemment des puces numériques, qui peuvent manipuler des signaux analogiques et comprendre les gradients entre 0 et 1, mais uniquement pour différents signaux binaires.
Calcul de mémoire simulé/IA simulée
Et la nouvelle approche d'IBM consiste à simuler le calcul de la mémoire, ou en abrégé, à simuler l'IA. Il réduit la consommation d'énergie en exploitant une caractéristique clé des réseaux neuronaux opérant dans les cerveaux biologiques.
Dans le cerveau des humains et des autres animaux, la force (ou « poids ») des synapses détermine la communication entre les neurones.
Pour les systèmes d'IA analogiques, IBM stocke ces poids synaptiques dans les valeurs de conductance des dispositifs de mémoire résistifs à l'échelle nanométrique (tels que la mémoire à changement de phase PCM) et utilise les lois des circuits pour réduire le besoin d'envoyer constamment des données entre la mémoire et processeur, effectuez l’opération Multiply-accumulate (MAC) - l’opération principale dans DNN.
Les H100 et A100 de Nvidia alimentent désormais de nombreuses plates-formes d'IA générative.
Cependant, si IBM réitère le prototype de puce et réussit à le commercialiser sur le marché de masse, cette nouvelle puce pourrait très bien remplacer Nvidia en tant que nouveau pilier.
Et la puce imite le fonctionnement du cerveau humain, la micropuce effectuant des calculs directement en mémoire.
Le système de la puce peut réaliser une reconnaissance et une transcription vocales efficaces, avec une précision proche de celle du matériel numérique.
Cette puce atteint environ 14 fois les performances, et les simulations précédentes montrent que l'efficacité énergétique de ce matériel est même de 40 à 140 fois supérieure à celle des principaux GPU actuels.
Cette révolution de l’IA générative ne fait que commencer. Les réseaux de neurones profonds (DNN) ont révolutionné le domaine de l'IA, prenant de l'importance avec le développement de modèles fondamentaux et d'IA générative.
Cependant, l’exécution de ces modèles sur des architectures informatiques mathématiques traditionnelles limite leurs performances et leur efficacité énergétique.
Bien que des progrès aient été réalisés dans le développement de matériel pour l’inférence de l’IA, bon nombre de ces architectures séparent physiquement les unités de mémoire et de traitement.
Cela signifie que les modèles d'IA sont généralement stockés dans des emplacements de mémoire discrets et que les tâches informatiques nécessitent un brassage constant des données entre la mémoire et les unités de traitement. Ce processus peut ralentir considérablement les calculs, limitant ainsi l’efficacité énergétique maximale pouvant être atteinte.
La puce d'accélération d'intelligence artificielle basée sur la mémoire à changement de phase (PCM) d'IBM élimine cette limitation.
La mémoire à changement de phase (PCM) peut réaliser l'intégration du calcul et du stockage, et effectuer directement une multiplication matrice-vecteur dans la mémoire, évitant ainsi le problème de la transmission des données.
Dans le même temps, la puce d'IA analogique d'IBM permet d'accélérer efficacement le raisonnement de l'intelligence artificielle grâce à l'intégration du calcul et du stockage au niveau matériel, ce qui constitue un progrès important dans ce domaine.
Deux défis clés de la simulation de l'IA
Afin de donner vie au concept d’IA simulée, deux défis clés doivent être surmontés :
La précision de calcul de la matrice mémoire doit être comparable à celle des systèmes numériques existants
La matrice de mémoire peut s'interfacer de manière transparente avec d'autres unités informatiques numériques et la structure de communication numérique sur la puce d'intelligence artificielle analogique.
IBM fabrique la puce accélératrice d'intelligence artificielle basée sur la mémoire à changement de phase dans son centre technologique d'Albany Nano.
La puce se compose de 64 cœurs de calcul de mémoire analogique et chaque cœur contient 256 × 256 unités synaptiques à bandes croisées.
Et, intégré à chaque puce se trouve un convertisseur analogique-numérique temporel compact pour la conversion entre les mondes analogique et numérique.
L’unité de traitement numérique légère de la puce peut également exécuter des fonctions simples d’activation de neurones non linéaires et des opérations de mise à l’échelle.
Chaque noyau peut être considéré comme une tuile capable d'effectuer une multiplication matrice-vecteur et d'autres opérations associées à une couche (telle qu'une couche convolutive) d'un modèle de réseau neuronal profond (DNN).
La matrice de poids est codée dans la valeur de conductance simulée du dispositif PCM et stockée sur la puce.
Une unité de traitement numérique globale est intégrée au milieu du cœur de la puce pour mettre en œuvre des opérations plus complexes que la multiplication matrice-vecteur, ce qui est critique pour l'exécution de certains types de réseaux neuronaux (tels que LSTM).
Les chemins de communication numérique sont intégrés sur puce entre tous les cœurs et les unités de traitement numérique globales pour le transfert de données entre les cœurs et entre les cœurs et les unités globales.
b : Schéma schématique des différents composants de la puce, comprenant 64 cœurs, 8 unités de traitement numérique globales et les liaisons de données entre cœurs
c : Structure d'un seul cœur de calcul en mémoire basé sur PCM
d : La structure de l'unité de traitement numérique globale pour les calculs liés au LSTM
À l’aide de la puce, IBM a mené une étude approfondie sur la précision informatique du calcul de la mémoire analogique et a obtenu une précision de 92,81 % sur l’ensemble de données d’images CIFAR-10.
b : la manière de mapper ce réseau sur la puce
c : précision du test CIFAR-10 implémenté par le matériel
Il s’agit de la précision la plus élevée rapportée jusqu’à présent pour une puce utilisant une technologie similaire.
IBM combine également de manière transparente l'informatique analogique en mémoire avec plusieurs unités de traitement numérique et structures de communication numériques.
La multiplication matricielle d'entrée-sortie de 8 bits de la puce a un débit unitaire de surface de 400 GOPS/mm2, ce qui est plus de 15 fois supérieur à celui des puces informatiques à mémoire multicœur précédentes basées sur une mémoire résistive, tout en atteignant une efficacité énergétique considérable.
Dans la tâche de prédiction de caractères et la tâche de génération d'annotations d'images, IBM a comparé les résultats mesurés sur le matériel avec d'autres méthodes et a démontré la structure du réseau, la programmation du poids et les résultats de mesure des tâches associées exécutées sur la puce IA simulée.
**Les douves de Nvidia sont sans fond ? **
Le monopole de Nvidia est-il si facile à briser ?
Naveen Rao est un entrepreneur en neurosciences devenu technologie qui a tenté de rivaliser avec Nvidia, le premier fabricant mondial d'intelligence artificielle.
"Tout le monde développe sur Nvidia", a déclaré Rao. "Si vous souhaitez lancer du nouveau matériel, vous devez rattraper votre retard et rivaliser avec Nvidia".
Rao a travaillé sur des puces conçues pour remplacer les GPU de Nvidia dans une start-up rachetée par Intel, mais après avoir quitté Intel, il a utilisé les puces de Nvidia dans MosaicML, une startup de logiciels qu'il dirigeait.
Rao a déclaré que Nvidia a non seulement ouvert un énorme fossé avec d'autres produits sur la puce, mais a également réussi à se différencier en dehors de la puce en créant une vaste communauté de programmeurs d'IA ——
Les programmeurs d'IA utilisent la technologie de l'entreprise pour innover.
L'ancien parvenu de l'industrie a réussi à dominer la fabrication de puces d'IA parce qu'il a reconnu très tôt les tendances de l'IA, construit des puces sur mesure pour ces tâches et développé des logiciels critiques qui ont facilité le développement de l'IA.
Depuis lors, le co-fondateur et PDG de Nvidia, Jensen Huang, a placé la barre plus haut pour Nvidia.
Alors que Google, Amazon, Meta, IBM et d'autres fabriquent également des puces IA, Nvidia représente actuellement plus de 70 % des ventes de puces IA, selon le cabinet d'études Omdia.
En juin de cette année, la valeur marchande de Nvidia dépassait les 1 000 milliards de dollars, ce qui en faisait le fabricant de puces le plus précieux au monde.
NVIDIA, repenser les méthodes informatiques
Jensen Huang a cofondé Nvidia en 1993, fabriquant des puces permettant de restituer des images dans les jeux vidéo. Les microprocesseurs standards de l’époque étaient efficaces pour effectuer des calculs complexes en séquence, mais Nvidia a créé des GPU capables de gérer simultanément plusieurs tâches simples.
En 2006, Jensen Huang a poussé le processus encore plus loin. Il a publié une technologie logicielle appelée CUDA qui aide les GPU à être programmés pour de nouvelles tâches, transformant les GPU de puces à usage unique en puces à usage plus général pouvant assumer d'autres tâches dans des domaines tels que les simulations physiques et chimiques.
Cet effort, que Nvidia estime coûter à plus de 30 milliards de dollars sur une décennie, fait de Nvidia plus qu'un simple fournisseur de pièces détachées. En plus de collaborer avec des scientifiques et des start-ups de haut niveau, l'entreprise a constitué une équipe directement impliquée dans les activités d'IA telles que la création et la formation de modèles linguistiques.
De plus, les besoins des praticiens ont conduit Nvidia à développer plusieurs couches de logiciels clés au-delà de CUDA, qui comprenaient également des bibliothèques de centaines de lignes de code prédéfinies.
Côté matériel, Nvidia a acquis la réputation de fournir régulièrement des puces plus rapides tous les deux ou trois ans. En 2017, Nvidia a commencé à régler les GPU pour gérer des calculs spécifiques d'IA.
En septembre dernier, Nvidia a annoncé la production d'une nouvelle puce appelée H100, qui a été améliorée pour gérer les opérations dites Transformer. De tels calculs s’avèrent être la base de services tels que ChatGPT, que Huang a qualifié de « moment iPhone » de l’intelligence artificielle générative.
Est-ce possible pour la puce IA analogique d'IBM ?
Les références: