*Données dernièrement actualisées : 2026-04-18 10:23 (UTC+8)
Au 2026-04-18 10:23, Anthropic (ANTHROPIC) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, ANTHROPIC a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.
Statistiques clés de ANTHROPIC
En savoir plus sur Anthropic (ANTHROPIC)
Articles de Gate Learn
Anthropic "coupe" Windsurf, le codage AI devient une "guerre par procuration" entre les géants de l'IA
L'acquisition par OpenAI de la plateforme de programmation IA Windsurf a provoqué un émoi dans l'industrie, tandis que l'arrêt par Anthropic de l'approvisionnement du modèle Claude à Windsurf a intensifié la concurrence sur le marché.
2025-06-11
Les 72 heures de la crise d'identité d'Anthropic
En l’espace de soixante-douze heures, Anthropic a fait face à un ultimatum du Pentagone, à des accusations publiques d’Elon Musk et au retrait de ses propres engagements de sécurité. De son refus de concevoir des armes militaires autonomes à la révision de RSP 3.0 et l’abandon de la ligne rouge « pause training », cette société — reconnue comme un acteur majeur de l’« AI sûre » — doit désormais gérer un écart croissant entre son image de marque et sa réalité opérationnelle. Cet article examine les enjeux politiques, les pressions sur la valorisation et l’effritement du narratif de sécurité qui alimentent cette crise identitaire.
2026-03-05
Fuite du code source de Claude Code : Analyse sectorielle approfondie — Anthropic envisage bien plus qu'un assistant de codage IA
L’incident de fuite du code source de Claude Code révèle qu’il ne s’agit pas seulement d’une erreur d’ingénierie : il constitue aussi une première illustration de la stratégie produit d’Anthropic, qui semble privilégier les opérations en arrière-plan, l’exécution automatisée, la collaboration multi-agents et l’automatisation des autorisations. Cet article propose, sous l’angle de l’industrie, une analyse des axes que pourrait emprunter Anthropic avec Claude Code.
2026-04-02Blogs
Combien de grands modèles de langage d’IA GateRouter a-t-il intégrés ? Dernières données en date d’avril 2026
Au 7 avril 2026, GateRouter a officiellement intégré plus de 20 modèles d’IA de premier plan, couvrant les principaux fournisseurs mondiaux d’IA tels que OpenAI, Anthropic, Google, xAI et DeepSeek.
2026-04-07
Démêler le débat sur l’éthique et la souveraineté dans l’IA : éclairages du secteur sur le refus d’Anthropic face au Département de la Défense
Anthropic, une entreprise spécialisée dans l’intelligence artificielle, a choisi de renoncer à un contrat de 200 millions de dollars plutôt que d’accorder au département de la Défense des États-Unis un accès illimité à ses modèles.
2026-02-28
Les demandes de faillite de FTX augmentent sur les marchés de gré à gré, l'État récupère 7,3 milliards de dollars
La valeur des réclamations pour faillite de FTX augmente à mesure que la bourse récupère des actifs d’une valeur de plus de 7,3 milliards de dollars.
2023-10-10
FAQ de Anthropic (ANTHROPIC)
Quel est le cours de l'action Anthropic (ANTHROPIC) aujourd'hui ?
Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Anthropic (ANTHROPIC) ?
Quel est le ratio cours/bénéfice (P/E) de Anthropic (ANTHROPIC) ? Que signifie-t-il ?
Quelle est la capitalisation boursière de Anthropic (ANTHROPIC) ?
Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Anthropic (ANTHROPIC) ?
Faut-il acheter ou vendre Anthropic (ANTHROPIC) maintenant ?
Quels sont les facteurs pouvant influencer le cours de l’action Anthropic (ANTHROPIC) ?
Comment acheter l'action Anthropic (ANTHROPIC) ?
Avertissement sur les risques
Avertissement
Autres Marchés de Trading
Anthropic (ANTHROPIC) Dernières Actualités
Anthropic reçoit près de 120 000 demandes d’auteurs dans le cadre d’un règlement de 1,5 Md$ pour violation du droit d’auteur
Message de Gate News, 18 avril — Près de 120 000 auteurs et titulaires de droits d’auteur ont déposé des demandes afin de se partager un règlement collectif de 1,5 milliard de dollars d’Anthropic, concernant l’utilisation non autorisée de livres dans l’entraînement à l’IA, selon des documents judiciaires déposés en Californie. Les demandes couvrent 91 % de plus de 480 000 œuvres éligibles. Une audience est prévue le 14 mai pour Anthropic, au cours de laquelle un juge décidera d’accorder une approbation finale à ce qui a été décrit comme le plus important règlement d’un dossier de droit d’auteur aux États-Unis. Le procès est né après que des auteurs ont allégué qu’Anthropic avait utilisé des livres piratés pour entraîner Claude. Dans une décision de juin 2025, le juge William Alsup a estimé que l’entraînement sur des livres obtenus légalement était « essentiellement transformateur » et constituait un usage loyal. Toutefois, le juge a conclu que le téléchargement et le stockage de plus de 7 millions de livres piratés provenant de sites tels que Library Genesis (LibGen) et Pirate Library Mirror (PiLiMi) pour construire une bibliothèque centrale portaient atteinte aux droits des titulaires de droits d’auteur, même si ces livres n’étaient pas nécessairement utilisés pour l’entraînement à l’IA. L’éligibilité au règlement exigeait que les titres figurent sur la « liste des œuvres » approuvée par le tribunal, ce qui signifiait qu’ils faisaient partie des fichiers LibGen et PiLiMi qu’Anthropic avait téléchargés et qu’ils avaient été enregistrés en temps voulu auprès du U.S. Copyright Office. En conséquence, environ 482 460 livres éligibles restaient admissibles sur plus de 7 millions d’exemplaires téléchargés. Le versement de 1,5 milliard de dollars représente moins de 1 % de la valorisation d’$183 billion d’Anthropic. Certains observateurs considèrent le règlement comme un avantage concurrentiel potentiel pour des entreprises d’IA bien financées, car les petites sociétés peuvent avoir du mal à gérer des coûts de litige similaires, et l’affaire pourrait accélérer l’adoption par l’industrie de données sous licence plutôt que de sources piratées.
2026-04-18 00:11Mike Krieger d’Anthropic démissionne du conseil d’administration de Figma
Message de Gate News, 18 avril — Le directeur produit d’Anthropic, Mike Krieger, a quitté le conseil d’administration de Figma, selon un dépôt SEC révélé par la société de logiciels de conception le 14 avril. Figma a indiqué que ce départ n’était lié à aucun désaccord au sujet de ses activités, de ses politiques ou de ses pratiques. Krieger a rejoint Anthropic en 2024 et a intégré son équipe Labs en janvier. La démission fait suite au partenariat de Figma avec Anthropic en février pour intégrer des modèles d’IA Claude comme assistants de conception au sein de la plateforme de Figma.
2026-04-17 23:01DeepSeek vise $300M à une valorisation de $10B , alors que les valorisations d’OpenAI et d’Anthropic alimentent le débat sur le marché
Message de Gate News, 17 avril — D’après The Information, DeepSeek discute pour lever au moins $300 million à une valorisation de $10 billion, une fraction de celles des principales sociétés d’IA américaines : OpenAI est valorisée à $852 billion, tandis qu’Anthropic est évaluée jusqu’à $800 billion. L’écart de valorisation a déclenché un débat chez les investisseurs pour savoir si DeepSeek représente une bonne affaire ou si les sociétés d’IA américaines sont trop chères. Le modèle R1 de DeepSeek, lancé en janvier 2025, a été entraîné pour environ 5,6 millions de dollars — une fraction des centaines de millions généralement dépensés par les laboratoires américains —, déclenchant un choc boursier qui a effacé près de $1 trillion de valeur en actions américaines en une seule journée, tandis que Nvidia perdait près de $600 billion en capitalisation boursière. Depuis lors, les classements de performance entre les modèles américains et chinois ont occupé la première place à plusieurs reprises ; en mars 2026, d’après l’AI Index 2026 de l’université Stanford, le modèle phare d’Anthropic ne détient qu’un avantage de performance de 2,7 %. Côté revenus, OpenAI a annoncé un taux de croissance annualisé de $25 billion en février, tandis qu’Anthropic a bondi de $9 billion à la fin de 2025 à $30 billion d’ici mars, porté principalement par la demande pour Claude Code. Au T1 2026, seulement quatre deals — OpenAI, Anthropic, xAI et Waymo — représentaient 63 % du capital total levé dans le monde. SpaceX-xAI vise une valorisation de type IPO susceptible de dépasser 1,75 trillion de dollars, potentiellement la plus grande IPO de l’histoire du marché. Certains investisseurs ont exprimé des inquiétudes au sujet de la valorisation actuelle d’OpenAI : un actionnaire a confié au Financial Times que justifier le prix de $852 billion nécessite de supposer une valorisation d’IPO de 1,2 trillion de dollars ou plus. L’écart extrême de valorisation entre DeepSeek et les leaders américains de l’IA soulève désormais la question de savoir si l’appétit spéculatif, plutôt que la capacité à générer des revenus, est ce qui alimente les prix du marché.
2026-04-17 03:21Sequoia Capital lève $7 milliards pour un nouveau fonds piloté par Alfred Lin et Pat Grady
Message de Gate News, 17 avril — Sequoia Capital a levé environ $7 milliards pour un nouveau fonds co-géré par Alfred Lin et Pat Grady, marquant le premier grand cycle de levées de fonds de la société sous leur direction. Le capital est destiné à soutenir de grandes entreprises privées, en particulier des startups d’IA, dont OpenAI et Anthropic, qui nécessitent d’importants investissements dans les infrastructures de calcul. Le fonds de $7 milliards est d’environ deux fois la taille du fonds de 3,4 milliards de dollars que Sequoia a levé en 2022, offrant nettement plus de capital à déployer dans le secteur de l’IA gourmand en investissements. Cette levée de fonds reflète un changement stratégique chez Sequoia. Historiquement, la société a évité de financer des concurrents directs au sein de la même catégorie — en 2020, elle a renoncé à un investissement de $21 millions dans la société de paiements Finix afin d’éviter des conflits avec la société de portefeuille Stripe. Aujourd’hui, Sequoia détient des participations dans des entreprises d’IA concurrentes, notamment OpenAI et xAI (, l’aventure d’IA d’Elon Musk), signalant une nouvelle approche de la construction du portefeuille à l’ère de l’IA.
2026-04-17 01:13Anthropic publie Claude Opus 4.7 avec des garde-fous de cybersécurité
Message de Gate News, 17 avril — Anthropic a annoncé Claude Opus 4.7, un modèle d’IA doté de garde-fous conçus pour bloquer les requêtes de cybersécurité à haut risque. La publication s’appuie sur Claude Opus 4.6, lancé en février, et précède un déploiement plus large des modèles Mythos de classe plus avancés d’Anthropic. Mythos Preview, présenté plus tôt ce mois-ci, reste plus performant que Opus 4.7, mais il n’est actuellement disponible que pour un nombre limité d’entreprises via Project Glasswing, le programme de cybersécurité d’Anthropic. Opus 4.7 apporte d’importantes améliorations aux flux de travail agentiques et aux capacités de vision. Les performances de codage autonome sont passées à 64,3 % sur SWE-bench Pro, un banc d’essai largement utilisé pour des tâches d’ingénierie logicielle, contre 53,4 % dans la version précédente. La gestion d’images prend désormais en charge une résolution supérieure à trois fois, avec une précision de perception visuelle améliorée de 54,5 % à 98,5 % sur des tests standard. Des limitations volontaires en matière de cybersécurité ont été mises en place pendant l’entraînement ; sur CyberGym, un banc d’essai des performances de cybersécurité, Opus 4.7 a obtenu 73,1 %, en dessous des 83,1 % de Mythos Preview. Anthropic a restreint Mythos Preview après des tests effectués avant la mise sur le marché, qui ont révélé des milliers de vulnérabilités présentant une sévérité élevée, y compris une faille dans OpenBSD non détectée depuis 27 ans. Les chercheurs en sécurité menant des recherches sur les vulnérabilités, des tests d’intrusion ou des exercices de red team peuvent s’adresser au Cyber Verification Program d’Anthropic pour un accès défensif sans refus par défaut. Les retours liés aux garde-fous d’Opus 4.7 permettront d’informer les futures publications de modèles.





































































































































































































































































