Torygreen

vip
Âge 2.7 Année
Pic de niveau 0
Aucun contenu pour l'instant
la foule qui pense que l'IA est surdimensionnée n'a jamais essayé d'acheter un h100 ce trimestre
passer une semaine à essayer d'acheter des h100 en ce moment signifie : un engagement de 12 mois chez aws ( utilisation 24/7 verrouillée avant même de voir un seul gpu), liste d'attente gcp sans délai estimé, lambda et coreweave tous deux épuisés, chaque fournisseur plus petit vous donne la même réponse avec des mots différents
la construction d'hyperscalers se mesure en années, les pénuries de CPU retardent les gpu qui existent, et la demande continue de croître pendant que les hyperscalers dé
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Apparemment, Nvidia a discrètement rendu visite à des entreprises d'équipements électriques coréennes, leur demandant de repenser l'infrastructure des centres de données autour d'une architecture en courant continu de 800 V.
C'est une admission que le modèle d'IA centralisé a atteint un mur physique, chaque nouvelle génération de puces nécessitant désormais une rénovation de sous-station quelque part dans la pile.
Les centres de données mondiaux fonctionnent déjà à une utilisation de 12 à 18 pour cent.
Les fermes de minage de crypto-monnaies disposent de GPU puissants qui restent inactif
ETH1,64%
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
beaucoup de gens architecturent encore autour d'une dépendance de calcul qui a disparu depuis longtemps
qwen3 32b, par exemple, est en ligne sur des GPU communautaires distribués en ce moment, parallélisme de pipeline fonctionnant à travers des nœuds sans qu'un seul opérateur contrôle, inférence sans permission sur Internet ouvert
trois couches, toutes ouvertes : poids ouverts (alibaba les a publiés), calcul sans permission (matériel communautaire, sans garde-fou), transport ouvert (pas de cluster privé, pas de porte d'API). la propriété ne s'applique à aucune d'entre elles
le modèle men
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
google cloud next commence cette semaine et chaque taureau hyperscaler est sur le point de célébrer le mouvement exact qui, historiquement, tue la marge qu'ils détiennent depuis longtemps
avant : google a payé à nvidia une majoration sur chaque h100. la marge coule vers santa clara.
maintenant : google est en pourparlers avec marvell pour un silicium personnalisé plus une nouvelle variante TPU spécifique à l'inférence. le capex devient interne.
amazon l'a fait avec graviton en 2018. microsoft a annoncé maia en 2023. chaque fois, l'hyperscaler a cessé de payer la majoration de son fournis
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
nous discutons encore du nombre de centres de données à construire alors que l'offre est déjà présente dans chaque allée
la réponse à l'expansion est la planification de campus de 50 acres sur des cycles de construction pluriannuels
des trillions d'agents transigent en continu, 24/7, contre des capteurs physiques, des machines, et entre eux
je pense au PC de jeu 4090 qui reste inactif à 2h du matin, à la puce Apple M fermée sur un bureau, à la Tesla garée depuis jeudi, et les chiffres commencent à changer
c'est du calcul obscur, une offre inexploité que l'utilisateur a déjà payée, située à la
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La valorisation de Figma a été impactée parce qu'Anthropic a tweeté une page de destination.
> Ce qui a changé : le nom de la marque et l'ambiance.
> Ce qui n'a pas changé : le modèle sous-jacent, la tarification de l'API, la qualité de la sortie, ou la façon dont votre équipe de conception travaille réellement demain.
Le marché a simplement passé tout le week-end à avoir une crise de panique totale sur le marketing, pas la technologie.
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Voici quelque chose d'intéressant que j'ai découvert : 33 % des centres de données américains prévus sont en réalité en cours d'expédition.
> les autres 67 % : retardés ou annulés purement et simplement
> meta construit 10 centrales à gaz rien que pour alimenter une seule installation
> la Chine a doublé sa capacité de calcul en IA en 2 mois sans une seule puce américaine
> +220 % de demande d'énergie prévue d'ici 2030, avec une file d'attente pour les permis qui s'étend sur des années
le frein est physique. permis, files d'attente pour l'interconnexion électrique, délais de construction.
Les
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Dario a besoin que mythos soit une douve
Les laboratoires comblent les lacunes en capacité avec plus de calcul, un meilleur post-formation, et des cycles d’évaluation plus rapides
Les modèles à poids ouverts comme llama, qwen, et deepseek livrent avec des capacités comparables à celles des modèles fermés quelques mois plus tard, en tant que téléchargements gratuits
Pour vous, c’est un meilleur modèle chaque trimestre et aucune lab ne tente de vous pousser vers leurs plans maximaux
La douve est un calcul décentralisé où des milliers de GPU fonctionnent comme un superordinateur à travers
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Vous payez OpenAI $20 pour une passe précise et @Meta vient de lancer 1 modèle qui a fait paraître les 12 derniers modèles d'OpenAI comme des corrections de bugs
OpenAI a publié chaque mois, annonçant chaque mise à jour et publiant chaque benchmark
Muse Spark de Meta est devenu opérationnel et a atteint des scores d'évaluation que la plupart des gens ne pensaient pas que Meta pourrait atteindre
Pire lors du lancement, silencieux pendant des mois, puis une seule version a arrêté tout le monde... vous avez confondu le silence avec un échec et les mises à jour mensuelles avec des progrès
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
le laboratoire unique le plus puissant ne peut plus seul tenir la frontière.
l'écart de valeur est l'admission du marché, et les fondateurs qui lisent encore les benchmarks de modèles lisent la mauvaise page.
la prime privée de valeur d'Anthropic est le marché qui intègre la durée de vie.
le delta mesure quel laboratoire est moins piégé par la structure de coûts sous-jacente à chacun d'eux.
l'infrastructure de calcul est la couche système : l'écart entre ce que paient les laboratoires de la frontière pour le temps H100 et ce que le marché global des centres de données maintient en idle
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Les gens pensent encore que coder est le métier.
Ce n’est pas le cas.
Le code n’était que l’interface que nous utilisions pour exprimer des solutions. C’était le goulot d’étranglement, pas la valeur.
L’IA élimine ce goulot d’étranglement.
Maintenant, la contrainte change :
- Pouvez-vous définir clairement le problème ?
- Pouvez-vous le décomposer en parties solvables ?
- Pouvez-vous vérifier que le résultat est réellement correct ?
J’ai remarqué que les ingénieurs qui ont du mal avec l’IA sont ceux qui ont lié leur identité à la vitesse de frappe ou à la mémoire de syntaxe. Ce
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Claude Mythos a révélé des milliers de zero-days parce qu'il possède la seule chose que votre équipe de sécurité n'a pas :
aucune participation dans la justesse du code
il lit l'intégralité des bases de code à froid. il ne comprend pas la politique de votre organisation, la pression des délais ou les egos impliqués dans la mise en œuvre
le modèle n'a aucune raison de sauter les parties difficiles "humaines"... il est donc moins performant pour briefing un CISO, mais imbattable pour la tâche qui trouve réellement les bugs
Anthropic l'a verrouillé car un seul modèle a offert à chaque bas
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Sam Altman est la dernière personne à devoir rédiger une régulation de l'IA et il le sait.
Sam a appelé à un « nouveau contrat social » entre les entreprises d'IA et la société, tandis que sa société déploie gpt-5.4, o3, et des agents de classe opérateur à un rythme qu'aucune législation sur Terre ne peut suivre.
aws ne peut pas se décentraliser sans cannibaliser ses propres marges, et chaque « cadre d'autorégulation » dans l'histoire de la tech s'est terminé avec les mêmes quelques entités rédigeant les règles qu'elles ont convenu de suivre.
si vous faites tourner votre modèle sur aws o
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
La proposition des « itérations infinies » suppose une puissance de calcul infinie.
Chaque appel coûte de l'argent, passe par l'infrastructure de quelqu'un d'autre, et consomme des tokens que le résultat soit brillant ou médiocre.
L'itération n'est économique que si vous savez déjà ce que vous cherchez.
> Quelqu'un avec 10 ans de goût accumulé fait 3 itérations et livre.
> Quelqu'un sans cette expérience en fait 300 et ne peut toujours pas dire laquelle est bonne.
Et personne n'a encore pris en compte cela :
Plus il y a de sorties d'IA, plus vous avez besoin de vérification humaine
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Qualifier la fermeture d'OpenClaw d'Anthropic de "rug" est la chose la plus honnête que la communauté des constructeurs d'IA ait dite à son sujet depuis des mois.
Le système de gestion d'OpenClaw permettait aux utilisateurs intensifs d'exécuter entre 1k et 5k $ de calcul par jour sur un plan à 200 $ par mois.
Une décision produit, et tous ceux qui avaient basé leur structure de coûts sur cet écart ont vu leurs tarifs réajustés du jour au lendemain.
Le fournisseur contrôle le compteur... Anthropic, OpenAI, peu importe.
Vous n'avez aucune place à la table lorsque le modèle de tarificatio
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Sam a construit OpenAI sur une seule hypothèse
exécuter son propre modèle serait toujours trop coûteux
Llama et Mistral remettent en question sa thèse et menacent son modèle économique
Sam peut le voir, lire les mêmes threads de fuite que vous lisez... et il ne peut toujours pas se restructurer
Au moment où OpenAI ouvre les poids, ils tuent la barrière qui justifie la valorisation et tout le monde peut faire de l'inférence localement sans appel API, sans abonnement, sans événement de revenu pour OpenAI
Chaque fork et fine-tune est un client en moins payant la marge de Sam
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Sam Altman a levé $122b et personne ne veut en acheter $600m , en partie à cause des actions OpenAI qui restent en secondaire sans offres d'achat.
> Les banques renoncent aux frais juste pour déplacer l'offre.
> Les vendeurs rivalisent sur le prix pour sortir.
Les marchés primaires sont une allocation contrôlée : les VC sont appelés lors des levées lorsque le tableau de capital est propre.
Mais les marchés secondaires fonctionnent sur une demande volontaire : personne n'est obligé de détenir ou de faire une offre.
Anthropic a dépassé sa dernière valorisation de levée, alors qu'OpenA
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Votre facture cloud est sur le point d'exploser et vous n'avez pas modifié une seule ligne de code
Claude écrit du code, ouvre des applications, trouve des bugs, les corrige, déploie. pas d'humain dans la boucle
Chaque agent autonome est une session GPU permanente
> les développeurs humains travaillent 8h/jour. les agents travaillent 24h
> 10 millions de développeurs x 24/7 = 240 millions d'heures GPU/jour que personne n'avait prévu
Sam lève des trillions pour des centres de données qui prennent 3 ans à construire. ils seront pleins avant même d'être terminés
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Le IPO de Sam $1T est le cas le plus fort en faveur du calcul décentralisé, mais il ne le sait pas encore.
Wall Street valorise l'intelligence comme des champs pétrolifères. coûts fixes massifs, location à long terme pour chaque appel API.
Ce modèle ne fonctionne que tant que le contrôle reste centralisé pour le calcul, les poids du modèle, l'accès et la tarification.
Mais l'intelligence commence à se comporter comme une utilité, et historiquement, les utilités ne restent pas fermées :
> la demande de calcul croît plus vite que l'offre
> des GPU inactifs qui restent inutilisés dans
Voir l'original
  • Récompense
  • Commentaire
  • Reposter
  • Partager
  • Épingler