Bienvenue à Eye on AI, avec la journaliste en IA Sharon Goldman. Dans cette édition : Les centres de données dans l’espace sont faisables, mais pas encore prêts pour le lancement…Accenture lie les promotions aux connexions AI…La pionnière de l’IA Fei-Fei Li lance la startup World Labs qui lève 1 milliard de dollars. Le partenariat de Nvidia avec Meta marque une nouvelle ère pour la puissance de calcul.
Vidéo recommandée
L’industrie de l’IA est en pleine montée en puissance—littéralement—et elle devient de plus en plus désespérée. Les centres de données représentent déjà environ 4 % de la consommation électrique aux États-Unis, une part qui devrait plus que doubler d’ici 2030, car l’exploitation et la formation de modèles d’IA nécessitent de plus en plus de gigawatts. Les analystes prévoient que la demande mondiale en énergie pour les centres de données pourrait augmenter jusqu’à 165 % d’ici la fin de la décennie, même si les infrastructures de nouvelle génération et de transmission accusent plusieurs années de retard par rapport aux besoins. En réponse, les hyperscalers se précipitent—concluant des accords pour construire leurs propres centrales à gaz, explorant de petits réacteurs nucléaires, et cherchant de l’énergie partout où ils peuvent en trouver.
Dans ce contexte, il n’est pas surprenant que certains des plus grands acteurs de l’industrie commencent à regarder vers l’espace pour une solution.
Dans un article publié ce matin, je m’intéresse à la façon dont—alors que les entreprises technologiques sont sur la bonne voie pour dépenser plus de 5 trillions de dollars dans le monde sur des centres de données IA terrestres d’ici la fin de la décennie—Elon Musk affirme que l’avenir de la puissance de calcul IA se trouve dans l’espace, alimenté par l’énergie solaire. Musk a suggéré que l’économie et l’ingénierie pourraient s’aligner en seulement quelques années, prédisant même qu’en cinq ans, plus de capacité de calcul IA pourrait être en orbite que sur Terre.
L’idée de centres spatiaux orbitaux n’est pas nouvelle. Dès 2015, Fortune posait déjà la question : Et si nous mettions des serveurs dans l’espace ?
Ce qui a changé, c’est l’urgence. La crise énergétique actuelle a relancé cette idée dans une conversation sérieuse, avec des startups comme Starcloud qui attirent l’attention, et des leaders de la grande technologie comme l’ancien PDG de Google, Eric Schmidt, le PDG d’Alphabet, Sundar Pichai, et Jeff Bezos d’Amazon, qui se tournent tous vers les possibilités de lancer des centres de données en orbite.
Cependant, si Musk et d’autres optimistes soutiennent que l’informatique IA dans l’espace pourrait devenir rentable assez rapidement, de nombreux experts estiment que toute échelle significative reste à des décennies. Les contraintes liées à la génération d’énergie, à la dissipation thermique, à la logistique de lancement et au coût rendent encore cela peu pratique—et pour l’instant, la majorité des investissements en IA continue de se concentrer sur l’infrastructure terrestre. Des pilotes à petite échelle de calcul orbital pourraient être réalisables dans les prochaines années, argumentent-ils, mais l’espace reste un mauvais substitut aux centres de données terrestres pour un avenir proche.
Il n’est pas difficile de comprendre l’attrait, cependant : en discutant avec des sources pour cette histoire, il est devenu clair que l’idée de centres de données dans l’espace n’est plus de la science-fiction—la physique est en grande partie vérifiée. « Nous savons comment lancer des fusées ; nous savons comment mettre des engins spatiaux en orbite ; et nous savons comment construire des panneaux solaires pour produire de l’énergie », m’a dit Jeff Thornburg, vétéran de SpaceX qui a dirigé le développement du moteur Raptor de SpaceX. « Et des entreprises comme SpaceX montrent que nous pouvons produire en masse des véhicules spatiaux à moindre coût. »
Le problème, c’est que tout le reste, de la construction de vastes panneaux solaires à la réduction des coûts de lancement, avance beaucoup plus lentement que le cycle de hype actuel de l’IA. Néanmoins, Thornburg a déclaré qu’à long terme, la pression énergétique qui motive l’intérêt pour les centres de données orbitaux ne disparaîtra probablement pas. « Les ingénieurs trouveront des moyens de faire fonctionner cela », a-t-il dit. « À long terme, il s’agit simplement de savoir combien de temps cela nous prendra. »
Le PDG de Google, Sundar Pichai, affirme que les dépenses en IA ont encore du sens malgré la crainte d’une bulle – par Beatrice Nolan
Bill Gates se désiste à la dernière minute du sommet sur l’IA en Inde, dernier coup porté à un événement marqué par un chaos organisationnel – par Beatrice Nolan
Elon Musk pousse à la construction de centres de données dans l’espace. Mais ils ne résoudront pas les problèmes d’énergie de l’IA de sitôt – par Sharon Goldman
Qui est Peter Steinberger, le créateur d’OpenClaw ? Le développeur millénial a attiré l’attention de Sam Altman et Mark Zuckerberg – par Eva Roytburg
Exclusif : Bain et Greylock misent 42 millions de dollars sur le fait que les agents IA pourront enfin résoudre le problème le plus épineux de la cybersécurité – par Lily Mae Lazarus
ACTUALITÉS SUR L’IA
Accenture lie les promotions aux connexions AI. Accenture commence à suivre l’utilisation de ses outils d’IA internes par ses employés seniors—et à intégrer ces données dans les décisions de promotion—mettant en lumière la difficulté pour même les cabinets de conseil fortement axés sur l’IA à faire changer leurs cadres supérieurs. Selon des communications internes consultées par le Financial Times, la promotion à des postes de leadership exigera désormais une « adoption régulière » des outils d’IA, avec Accenture surveillant les connexions individuelles de certains cadres supérieurs dans le cadre des revues de talents de cet été. Cette démarche reflète un défi plus large dans les cabinets de conseil et comptabilité, où les dirigeants affirment que les partenaires seniors sont beaucoup plus résistants à l’adoption de l’IA que les employés juniors, ce qui pousse à une approche de « carotte et bâton ». Bien qu’Accenture indique avoir formé plus de 550 000 employés à l’IA générative et réorganisé autour d’une unité « Reinvention Services » centrée sur l’IA, cette politique a suscité des critiques internes—notamment des reproches concernant la fiabilité de certains outils—et souligne l’écart grandissant entre l’ambition IA et son utilisation quotidienne en entreprise.
La pionnière de l’IA Fei-Fei Li voit sa startup World Labs lever 1 milliard de dollars.Bloomberg rapporte que World Labs, une startup fondée par la pionnière de l’IA Fei-Fei Li, a levé 1 milliard de dollars pour poursuivre le développement de « modèles mondiaux », une approche visant à aider les systèmes d’IA à raisonner et à opérer dans le monde physique en trois dimensions. La levée comprenait un investissement de 200 millions de dollars d’Autodesk, ainsi que le soutien d’Andreessen Horowitz, Nvidia et Advanced Micro Devices, selon la société. World Labs rejoint un groupe croissant de startups axées sur ces modèles mondiaux, y compris une venture menée par Yann LeCun, alors que les investisseurs regardent au-delà des grands modèles linguistiques vers des systèmes IA mieux adaptés à la robotique et à la découverte scientifique. La société a lancé son premier produit, Marble, fin l’année dernière, qui génère des environnements 3D à partir de textes ou d’images, et indique que ce nouveau capital accélérera ses travaux dans ces domaines. Li est surtout connue pour avoir créé ImageNet, un ensemble de données fondamental qui a permis des avancées majeures en vision par ordinateur ; la startup n’a pas divulgué sa valorisation, mais Bloomberg News avait précédemment évoqué une discussion autour d’un chiffre d’environ 5 milliards de dollars.
Le partenariat de Nvidia avec Meta marque une nouvelle ère pour la puissance de calcul. Un article récent de Wired soutient que le dernier accord de Nvidia avec Meta marque un changement dans la façon dont la puissance de calcul IA est construite. Il ne s’agit plus seulement d’acheter des GPU plus puissants pour entraîner des modèles IA ; les entreprises ont désormais besoin d’une pile complète de puces pour les faire fonctionner à grande échelle. En plus des milliards de dollars de GPU Nvidia, Meta achète également les CPU Grace de Nvidia—ce qui en fait la première grande entreprise technologique à s’engager publiquement dans ces puces à grande échelle. Les analystes expliquent que cette démarche reflète la dépendance accrue des nouveaux systèmes IA, notamment les IA dites « agentiques » qui exécutent des tâches en continu, aux CPU traditionnels pour coordonner les données, gérer les flux de travail et soutenir l’inférence. Un rapport récent de Semianalysis souligne ce point, en notant que certains centres de données IA nécessitent désormais des dizaines de milliers de CPU juste pour gérer les données produites par les GPU—un fardeau infrastructurel qui n’existait presque pas avant la montée de l’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'IA commence à manquer d'énergie. L'espace ne sera pas une échappatoire pendant des décennies
Bienvenue à Eye on AI, avec la journaliste en IA Sharon Goldman. Dans cette édition : Les centres de données dans l’espace sont faisables, mais pas encore prêts pour le lancement…Accenture lie les promotions aux connexions AI…La pionnière de l’IA Fei-Fei Li lance la startup World Labs qui lève 1 milliard de dollars. Le partenariat de Nvidia avec Meta marque une nouvelle ère pour la puissance de calcul.
Vidéo recommandée
L’industrie de l’IA est en pleine montée en puissance—littéralement—et elle devient de plus en plus désespérée. Les centres de données représentent déjà environ 4 % de la consommation électrique aux États-Unis, une part qui devrait plus que doubler d’ici 2030, car l’exploitation et la formation de modèles d’IA nécessitent de plus en plus de gigawatts. Les analystes prévoient que la demande mondiale en énergie pour les centres de données pourrait augmenter jusqu’à 165 % d’ici la fin de la décennie, même si les infrastructures de nouvelle génération et de transmission accusent plusieurs années de retard par rapport aux besoins. En réponse, les hyperscalers se précipitent—concluant des accords pour construire leurs propres centrales à gaz, explorant de petits réacteurs nucléaires, et cherchant de l’énergie partout où ils peuvent en trouver.
Dans ce contexte, il n’est pas surprenant que certains des plus grands acteurs de l’industrie commencent à regarder vers l’espace pour une solution.
Dans un article publié ce matin, je m’intéresse à la façon dont—alors que les entreprises technologiques sont sur la bonne voie pour dépenser plus de 5 trillions de dollars dans le monde sur des centres de données IA terrestres d’ici la fin de la décennie—Elon Musk affirme que l’avenir de la puissance de calcul IA se trouve dans l’espace, alimenté par l’énergie solaire. Musk a suggéré que l’économie et l’ingénierie pourraient s’aligner en seulement quelques années, prédisant même qu’en cinq ans, plus de capacité de calcul IA pourrait être en orbite que sur Terre.
L’idée de centres spatiaux orbitaux n’est pas nouvelle. Dès 2015, Fortune posait déjà la question : Et si nous mettions des serveurs dans l’espace ?
Ce qui a changé, c’est l’urgence. La crise énergétique actuelle a relancé cette idée dans une conversation sérieuse, avec des startups comme Starcloud qui attirent l’attention, et des leaders de la grande technologie comme l’ancien PDG de Google, Eric Schmidt, le PDG d’Alphabet, Sundar Pichai, et Jeff Bezos d’Amazon, qui se tournent tous vers les possibilités de lancer des centres de données en orbite.
Cependant, si Musk et d’autres optimistes soutiennent que l’informatique IA dans l’espace pourrait devenir rentable assez rapidement, de nombreux experts estiment que toute échelle significative reste à des décennies. Les contraintes liées à la génération d’énergie, à la dissipation thermique, à la logistique de lancement et au coût rendent encore cela peu pratique—et pour l’instant, la majorité des investissements en IA continue de se concentrer sur l’infrastructure terrestre. Des pilotes à petite échelle de calcul orbital pourraient être réalisables dans les prochaines années, argumentent-ils, mais l’espace reste un mauvais substitut aux centres de données terrestres pour un avenir proche.
Il n’est pas difficile de comprendre l’attrait, cependant : en discutant avec des sources pour cette histoire, il est devenu clair que l’idée de centres de données dans l’espace n’est plus de la science-fiction—la physique est en grande partie vérifiée. « Nous savons comment lancer des fusées ; nous savons comment mettre des engins spatiaux en orbite ; et nous savons comment construire des panneaux solaires pour produire de l’énergie », m’a dit Jeff Thornburg, vétéran de SpaceX qui a dirigé le développement du moteur Raptor de SpaceX. « Et des entreprises comme SpaceX montrent que nous pouvons produire en masse des véhicules spatiaux à moindre coût. »
Le problème, c’est que tout le reste, de la construction de vastes panneaux solaires à la réduction des coûts de lancement, avance beaucoup plus lentement que le cycle de hype actuel de l’IA. Néanmoins, Thornburg a déclaré qu’à long terme, la pression énergétique qui motive l’intérêt pour les centres de données orbitaux ne disparaîtra probablement pas. « Les ingénieurs trouveront des moyens de faire fonctionner cela », a-t-il dit. « À long terme, il s’agit simplement de savoir combien de temps cela nous prendra. »
Voici donc plus de nouvelles sur l’IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SUR L’IA
Le PDG de Google, Sundar Pichai, affirme que les dépenses en IA ont encore du sens malgré la crainte d’une bulle – par Beatrice Nolan
Bill Gates se désiste à la dernière minute du sommet sur l’IA en Inde, dernier coup porté à un événement marqué par un chaos organisationnel – par Beatrice Nolan
Elon Musk pousse à la construction de centres de données dans l’espace. Mais ils ne résoudront pas les problèmes d’énergie de l’IA de sitôt – par Sharon Goldman
Qui est Peter Steinberger, le créateur d’OpenClaw ? Le développeur millénial a attiré l’attention de Sam Altman et Mark Zuckerberg – par Eva Roytburg
Exclusif : Bain et Greylock misent 42 millions de dollars sur le fait que les agents IA pourront enfin résoudre le problème le plus épineux de la cybersécurité – par Lily Mae Lazarus
ACTUALITÉS SUR L’IA
Accenture lie les promotions aux connexions AI. Accenture commence à suivre l’utilisation de ses outils d’IA internes par ses employés seniors—et à intégrer ces données dans les décisions de promotion—mettant en lumière la difficulté pour même les cabinets de conseil fortement axés sur l’IA à faire changer leurs cadres supérieurs. Selon des communications internes consultées par le Financial Times, la promotion à des postes de leadership exigera désormais une « adoption régulière » des outils d’IA, avec Accenture surveillant les connexions individuelles de certains cadres supérieurs dans le cadre des revues de talents de cet été. Cette démarche reflète un défi plus large dans les cabinets de conseil et comptabilité, où les dirigeants affirment que les partenaires seniors sont beaucoup plus résistants à l’adoption de l’IA que les employés juniors, ce qui pousse à une approche de « carotte et bâton ». Bien qu’Accenture indique avoir formé plus de 550 000 employés à l’IA générative et réorganisé autour d’une unité « Reinvention Services » centrée sur l’IA, cette politique a suscité des critiques internes—notamment des reproches concernant la fiabilité de certains outils—et souligne l’écart grandissant entre l’ambition IA et son utilisation quotidienne en entreprise.
La pionnière de l’IA Fei-Fei Li voit sa startup World Labs lever 1 milliard de dollars. Bloomberg rapporte que World Labs, une startup fondée par la pionnière de l’IA Fei-Fei Li, a levé 1 milliard de dollars pour poursuivre le développement de « modèles mondiaux », une approche visant à aider les systèmes d’IA à raisonner et à opérer dans le monde physique en trois dimensions. La levée comprenait un investissement de 200 millions de dollars d’Autodesk, ainsi que le soutien d’Andreessen Horowitz, Nvidia et Advanced Micro Devices, selon la société. World Labs rejoint un groupe croissant de startups axées sur ces modèles mondiaux, y compris une venture menée par Yann LeCun, alors que les investisseurs regardent au-delà des grands modèles linguistiques vers des systèmes IA mieux adaptés à la robotique et à la découverte scientifique. La société a lancé son premier produit, Marble, fin l’année dernière, qui génère des environnements 3D à partir de textes ou d’images, et indique que ce nouveau capital accélérera ses travaux dans ces domaines. Li est surtout connue pour avoir créé ImageNet, un ensemble de données fondamental qui a permis des avancées majeures en vision par ordinateur ; la startup n’a pas divulgué sa valorisation, mais Bloomberg News avait précédemment évoqué une discussion autour d’un chiffre d’environ 5 milliards de dollars.
Le partenariat de Nvidia avec Meta marque une nouvelle ère pour la puissance de calcul. Un article récent de Wired soutient que le dernier accord de Nvidia avec Meta marque un changement dans la façon dont la puissance de calcul IA est construite. Il ne s’agit plus seulement d’acheter des GPU plus puissants pour entraîner des modèles IA ; les entreprises ont désormais besoin d’une pile complète de puces pour les faire fonctionner à grande échelle. En plus des milliards de dollars de GPU Nvidia, Meta achète également les CPU Grace de Nvidia—ce qui en fait la première grande entreprise technologique à s’engager publiquement dans ces puces à grande échelle. Les analystes expliquent que cette démarche reflète la dépendance accrue des nouveaux systèmes IA, notamment les IA dites « agentiques » qui exécutent des tâches en continu, aux CPU traditionnels pour coordonner les données, gérer les flux de travail et soutenir l’inférence. Un rapport récent de Semianalysis souligne ce point, en notant que certains centres de données IA nécessitent désormais des dizaines de milliers de CPU juste pour gérer les données produites par les GPU—un fardeau infrastructurel qui n’existait presque pas avant la montée de l’IA.