*Data last updated: 2026-05-04 04:46 (UTC+8)
As of 2026-05-04 04:46, Anthropic (ANTHROPIC) is priced at $0, with a total market cap of --, a P/E ratio of 0,00, and a dividend yield of 0,00 %. Today, the stock price fluctuated between $0 and $0. The current price is 0,00 % above the day's low and 0,00 % below the day's high, with a trading volume of --. Over the past 52 weeks, ANTHROPIC has traded between $0 to $0, and the current price is 0,00 % away from the 52-week high.
ANTHROPIC Key Stats
Erfahren Sie mehr über Anthropic (ANTHROPIC)
Gate Learn Articles
Die 72 Stunden der Identitätskrise bei Anthropic
Innerhalb von nur zweiundsiebzig Stunden stand Anthropic vor einem Ultimatum des Pentagon, öffentlichen Anschuldigungen durch Elon Musk und dem Rückzug eigener Sicherheitsversprechen. Das Unternehmen, das sich als Vorreiter für „sichere KI“ positioniert, hat von der Ablehnung autonomer militärischer Waffensysteme über die Überarbeitung von RSP 3.0 bis hin zur Aufgabe der „Pause Training“-Grenze inzwischen eine wachsende Kluft zwischen Markenimage und operativer Realität zu bewältigen. Dieser Artikel beleuchtet die politischen Kräfteverhältnisse, den Bewertungsdruck sowie das Zerbrechen des Sicherheitsnarrativs, die diese Identitätskrise antreiben.
2026-03-05
Anthropic "schneidet ab" Windsurf, KI-Codierung wird zum "Stellvertreterkrieg" unter KI-Giganten
Die Übernahme der KI-Programmierplattform Windsurf durch OpenAI hat in der Branche für Aufsehen gesorgt, während die Einstellung der Bereitstellung des Claude-Modells durch Anthropic an Windsurf den Wettbewerb auf dem Markt weiter angeheizt hat.
2025-06-11
Anthropic hat einen Bericht mit dem Titel „KI stiehlt Arbeitsplätze“ veröffentlicht: Je höher das Bildungsniveau, desto mehr Arbeitsplätze fallen weg.
Der aktuelle Bericht von Anthropic unterstreicht eindrucksvoll: Künstliche Intelligenz revolutioniert das Feld komplexer Bildungsaufgaben in beispielloser Geschwindigkeit. Gymnasiale Aufgaben werden neunmal schneller erledigt, während Hochschularbeiten mit dem Zwölffachen der bisherigen Geschwindigkeit abgeschlossen werden. Mensch–KI-Kollaborationen erreichen mittlerweile Sitzungsdauern von bis zu neunzehn Stunden und machen damit eine sich abzeichnende „Deskilling“-Krise sichtbar, in der echte intellektuelle Auseinandersetzung immer häufiger durch monotone Verwaltungstätigkeiten ersetzt wird.
2026-01-21
Blogs
Wie viele KI-Sprachmodelle hat GateRouter integriert? Aktuelle Datenstand: April 2026
Stand 07. April 2026 hat GateRouter offiziell die Integration mit mehr als 20 führenden KI-Modellen abgeschlossen und deckt dabei die wichtigsten globalen KI-Anbieter wie OpenAI, Anthropic, Google, xAI und DeepSeek ab.
2026-04-07
Die Debatte um Ethik und Souveränität in der KI: Brancheneinblicke zu Anthropics Ablehnung des US-Verteidigungsministeriums
Anthropic, ein Unternehmen im Bereich Künstliche Intelligenz, entschied sich, auf einen Vertrag im Wert von 200 Millionen US-Dollar zu verzichten, anstatt dem US-Verteidigungsministerium uneingeschränkten Zugang zu seinen Modellen zu gewähren.
2026-02-28
FTX-Konkursansprüche steigen auf OTC-Märkten, Estate erholt $7,3 Milliarden
Der Wert der FTX-Insolvenzforderungen steigt, da die Börse Vermögenswerte im Wert von mehr als 7,3 Milliarden US-Dollar zurückgewinnt.
2023-10-10
Anthropic (ANTHROPIC) FAQ
What's the stock price of Anthropic (ANTHROPIC) today?
What are the 52-week high and low prices for Anthropic (ANTHROPIC)?
What is the price-to-earnings (P/E) ratio of Anthropic (ANTHROPIC)? What does it indicate?
What is the market cap of Anthropic (ANTHROPIC)?
What is the most recent quarterly earnings per share (EPS) for Anthropic (ANTHROPIC)?
Should you buy or sell Anthropic (ANTHROPIC) now?
What factors can affect the stock price of Anthropic (ANTHROPIC)?
How to buy Anthropic (ANTHROPIC) stock?
Risk Warning
Disclaimer
Other Trading Markets
Anthropic (ANTHROPIC) Latest News
Tencent hat in der neuesten Hy3-Modell-Trainingsphase den Claude-Code von Anthropic verwendet, berichtet The Information
Laut The Information nutzten Tencent-Mitarbeiter während der Post-Training-Phase von Hy3, dem neuesten großen Sprachmodell des Unternehmens, den Claude Code von Anthropic. Grundlage seien interne Tencent-Memos und Quellen, obwohl Anthropic kommerzielle Dienste für chinesische Unternehmen aufgrund von Bedenken im Bereich der nationalen Sicherheit ausdrücklich untersagt hat. Hy3 verfügt über eine Mischung-aus-Experten-Architektur mit 295B Parametern. In der RLHF-Phase (reinforcement learning from human feedback) setzten Tencent-Mitarbeiter als menschliche Evaluatoren ein; die Nutzung war pro Person auf tausende Tokens begrenzt. Interne Memos enthielten Installationsanleitungen für Claude Code. Tencent-Mitarbeiter verwendeten Claude Code, um qualitativ hochwertige Referenzbeispiele zur Bewertung anonymer Modell-Ausgaben zu generieren – statt dessen, was sie als Distillation bezeichneten. Ein Sprecher von Anthropic erklärte, das Unternehmen überwache aktiv nach Distillation-Angriffen, ging jedoch nicht direkt auf die Nutzung von Claude Code durch Tencent ein.
2026-05-03 02:09Anthropic verhandelt über den Kauf von KI-Inferenz-Chips von dem britischen Startup Fractile bei einer Bewertung von 1 Milliarde US-Dollar oder mehr
Laut Beating verhandelt Anthropic über den Kauf von Inferenzchips bei dem in London ansässigen Startup Fractile, das mehr als 100 Millionen US-Dollar an Finanzierungen anstrebt und eine Bewertung von über 1 Milliarde anpeilt. Fractile, gegründet Ende 2022, nutzt eine SRAM-basierte Architektur, um den Inferenzstromverbrauch und die Kosten im Vergleich zu GPU-abhängigen Ansätzen zu senken. Der mögliche Auftrag ist zu einem zentralen Verkaufsargument für die aktuelle Finanzierungsrunde von Fractile geworden, an der Investoren wie Founders Fund, 8VC und Accel beteiligt sind. Anthropic diversifiziert seine Chip-Beschaffungsstrategie: Das Unternehmen hat 300 Milliarden US-Dollar in Microsoft Azure für Nvidia-Server investiert und kürzlich zugestimmt, Googles maßgeschneiderte Chips für den Einsatz außerhalb von Google Cloud zu kaufen.
2026-05-03 01:21US-Notenbank-Gouverneurin Bowman: Regulierungsbehörden müssen berücksichtigen, wie sie auf neue Technologien wie Anthropic Mythos reagieren sollen
PANews, 2. Mai. Die US-Notenbankdirektorin Bowman erklärte, dass die Aufsichtsbehörden überlegen müssten, wie neue Technologien wie Anthropics Mythos am besten reguliert werden könnten. „Einerseits ermöglicht diese Fähigkeit Unternehmen, Schwachstellen zu bearbeiten, die sie selbst identifiziert haben, wodurch die Cybersicherheit gestärkt wird“, sagte Bowman, „aber andererseits könnte sie, wenn sie böswillig eingesetzt wird, dazu genutzt werden, Schwachstellen zu erkennen und auszunutzen.“ Anthropic hat die Veröffentlichung seines neuesten KI-Modells eingeschränkt, während es Schutzmaßnahmen gegen diese mächtige neue Technologie bewertet. Das Modell brachte zudem dazu, dass Regierungsbeamte unter der Trump-Regierung begannen, über die Möglichkeit von Cyberangriffen nachzudenken, die eine Bedrohung für die Finanzstabilität darstellen könnten.
2026-05-02 00:50Barris vom Federal Reserve sagt: Aufsichtsbehörden müssen berücksichtigen, wie neue KI-Technologien wie Mythos am 2. Mai reguliert werden sollen
Laut BlockBeats sagte der US-Notenbank-Bankenaufsichtsregulator Michael Barr am 2. Mai, dass Aufsichtsbehörden berücksichtigen müssen, wie neue Technologien wie Mythos von Anthropic am besten reguliert werden können. Barr merkte an, dass solche Fähigkeiten Unternehmen zwar dabei helfen können, Schwachstellen zu erkennen und zu beheben, um die Cybersicherheit zu verbessern, aber auch missbraucht werden könnten, um Schwächen zu identifizieren und auszunutzen. Anthropic hat die Veröffentlichung seines neuesten KI-Modells eingeschränkt, während es Schutzmaßnahmen für diese leistungsstarke Technologie bewertet.
2026-05-01 02:09Anthropic startet am 1. Mai die Claude-Sicherheits-Beta für Enterprise-Nutzer
Laut BlockBeats hat Anthropic am 1. Mai bekanntgegeben, dass Claude Security, ein Code-Security-Tool, einen öffentlichen Betatest für Claude-Enterprise-Nutzer eröffnet hat. Das Tool scannt Code-Repositories nach Sicherheitslücken, führt eine zusätzliche Verifizierung durch, um Fehlalarme zu reduzieren, und erstellt automatisch Fix-Empfehlungen zur Prüfung durch Entwickler. Seit dem Forschungs-Voransichtsbetrieb im Februar haben Hunderte von Organisationen Claude Security in Produktionsumgebungen eingesetzt und dabei Probleme identifiziert, die von herkömmlichen Scannern übersehen wurden.

















































































































































































































































































































































































