Richter verbietet dem Pentagon die Kennzeichnung von Anthropic als Bedrohung der nationalen Sicherheit

Decrypt

Kurzfassung

  • Ein Bundesrichter hat das Pentagon daran gehindert, Anthropic als Risiko für die Lieferkette zu kennzeichnen, da er feststellte, dass dieser Schritt wahrscheinlich die First Amendment- und die Rechte auf ein faires Verfahren des Unternehmens verletzt.
  • Der Streit entstand aus einem 200 Millionen Dollar schweren KI-Vertrag des Verteidigungsministeriums, der zusammenbrach, nachdem Anthropic sich weigerte, die Nutzung seines Modells für Massenüberwachung oder lethale autonome Kriegsführung zuzulassen.
  • Das Urteil stellt vorübergehend den Status von Anthropic bei den Bundesauftragnehmern wieder her und könnte beeinflussen, wie KI-Unternehmen Nutzungsgrenzen in Regierungsverträgen festlegen.

Ein Bundesrichter hat das Pentagon daran gehindert, Anthropic als Risiko für die Lieferkette zu kennzeichnen, und entschied am Donnerstag, dass die Kampagne der Regierung gegen das KI-Unternehmen seine First Amendment- und Rechte auf ein faires Verfahren verletzt. U.S. District Judge Rita Lin erließ eine einstweilige Verfügung vom Northern District of California zwei Tage nach den mündlichen Argumenten beider Seiten, in einem Fall, den Beobachter als unvermeidlich aufgrund der eigenen Unterlagen der Regierung ansehen. “Es gibt nichts im geltenden Gesetz, das die orwellianische Vorstellung unterstützt, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden kann, weil es mit der Regierung nicht einverstanden ist”, schrieb Richterin Lin.

 Das interne Protokoll war nach Angaben von Andrew Rossow, Anwalt für Öffentlichkeitsarbeit und CEO von AR Media Consulting, fatal für den Fall der Regierung, der Decrypt mitteilte, dass die Bezeichnung “durch das Verhalten der Presse ausgelöst wurde, nicht durch eine Sicherheitsanalyse.” “Die Regierung hat im Wesentlichen ihre eigene Motivation niedergeschrieben, und es war Rache”, sagte Rossow. Der Streit dreht sich um einen zweijährigen, 200 Millionen Dollar schweren Vertrag, der Anthropic im Juli 2025 vom Chief Digital and Artificial Intelligence Office des Kriegsministeriums zugesprochen wurde.

Die Verhandlungen zur Bereitstellung von Claude auf der GenAI.Mil-Plattform des Ministeriums scheiterten, nachdem sich beide Seiten nicht auf Nutzungsbeschränkungen einigen konnten. Anthropic bestand auf zwei Bedingungen: dass Claude nicht für die Massenüberwachung von Amerikanern oder für den lethalen Einsatz in autonomer Kriegsführung verwendet wird, da das Modell für keinen dieser Zwecke sicher genug sei. Bei einem Treffen am 24. Februar sagte Kriegsminister Pete Hegseth den Vertretern von Anthropic, dass das Ministerium, wenn das Unternehmen seine Einschränkungen bis zum 27. Februar nicht aufhebt, es sofort als Risiko für die Lieferkette kennzeichnen würde. Anthropic weigerte sich, nachzugeben. Am selben Tag veröffentlichte Präsident Trump eine Anordnung auf Truth Social, in der er jede Bundesbehörde aufforderte, die Technologie des Unternehmens “sofort einzustellen” und Anthropic als “radikal links, woke Unternehmen” bezeichnete. Etwas mehr als eine Stunde später beschrieb Hegseth die Haltung von Anthropic als “eine Meisterklasse in Arroganz und Verrat” und ordnete an, dass kein Auftragnehmer, der mit dem Militär Geschäfte macht, kommerzielle Aktivitäten mit der Firma durchführen darf. Die offizielle Bezeichnung als Risiko für die Lieferkette folgte durch einen Brief am 3. März. Anthropic verklagte die Regierung am 9. März und warf ihr Verstöße gegen die First Amendment, das Recht auf ein faires Verfahren und das Verwaltungsverfahrensgesetz vor. “Anthropic zu bestrafen, weil es öffentliche Aufmerksamkeit auf die Vertragsposition der Regierung lenkt, ist klassische illegale Vergeltung gemäß dem First Amendment”, schrieb Richterin Lin in der Anordnung vom Donnerstag.

Die Anordnung, die für sieben Tage ausgesetzt wurde, blockiert alle drei Maßnahmen der Regierung, verlangt einen Compliance-Bericht bis zum 6. April und stellt den Status quo vor den Ereignissen des 27. Februar wieder her. Waffe im rechtlichen Sinne Die Bezeichnung als “Risiko für die Lieferkette” war historisch gesehen ausländischen Geheimdiensten, Terroristen und anderen feindlichen Akteuren vorbehalten. Sie war zuvor nie auf ein inländisches Unternehmen angewendet worden, bevor es Anthropic gab. Verteidigungsauftragnehmer begannen in den Wochen nach der Anordnung von Richterin Lin, ihre Abhängigkeit von Anthropic zu bewerten und in vielen Fällen zu beenden, wie die Anordnung feststellte. Und die Haltung der Regierung könnte unvorhergesehene Konsequenzen haben, argumentieren Experten. In der Tat könnte das Urteil vom Donnerstag die KI-Unternehmen “dazu drängen, ethische Leitplanken bei der Zusammenarbeit mit Regierungen zu formalisieren”, sagte Pichapen Prateepavanich, Politikstrategin und Gründerin des Infrastrukturunternehmens Gather Beyond, gegenüber Decrypt. In gewissem Maße deutet das Urteil auch darauf hin, dass Unternehmen “klare Nutzungsgrenzen setzen können, ohne automatisch vergeltende regulatorische Maßnahmen auszulösen”, fügte sie hinzu. Aber dies “beseitigt nicht die Spannung”, fügte sie hinzu. Was das Urteil einschränkt, ist “die Fähigkeit, diese Meinungsverschiedenheit in eine breitere Exklusion oder Kennzeichnung zu eskalieren, die nach Vergeltung aussieht.” Dennoch ist die Anwendung der aktuellen gesetzlichen Befugnisse zur Bezeichnung eines Unternehmens als Risiko für die Lieferkette “weil es sich weigerte, Sicherheitsleitplanken zu entfernen” keine Ausweitung des Statuts zum Risiko für die Lieferkette, erklärte Rossow. Vielmehr fungiert es als eine “Waffe der Gesetzgebung”.

“Dies ist Teil eines fortlaufenden Verhaltensmusters des Weißen Hauses, wann immer sie herausgefordert werden, was zu unverhältnismäßigen, emotional getriebenen und voreingenommenen Drohungen und staatlicher Erpressung führt”, fügte er hinzu. Wenn die “Theorie” der Regierung akzeptiert wird, würde dies einen “gefährlichen” Präzedenzfall schaffen, bei dem KI-Unternehmen aufgrund von Sicherheitsrichtlinien, die der Regierung nicht gefallen, “schwarzgelistet” werden können, “bevor irgendein Schaden eintritt”, ohne ein faires Verfahren, unter dem Banner der nationalen Sicherheit, sagte Rossow.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare