Der Gründer des Verteidigungstechnologieunternehmens Anduril Industries, Palmer Luckey, gab kürzlich ein Interview, in dem er seine Ansichten zur Anwendung künstlicher Intelligenz im modernen Krieg, zur Notwendigkeit nuklearer Abschreckung und zur globalen geopolitischen Lage äußerte. Luckey betonte, dass bei den aktuellen Konflikten zwischen den USA und dem Iran die Geschwindigkeit der technologischen Entwicklung und die Einsatzbereitschaft autonomer Systeme entscheidend für den Erfolg der Verteidigungsstrategie sein werden. Dieser Artikel basiert auf einem Interview mit Palmer Luckey in The Axios Show mit dem Titel „Anduril’s Palmer Luckey über KI, Nuklearwaffen und den Iran-Krieg“.
Was ist Anduril für ein Unternehmen?
Wenn man Anduril in einem Satz erklären müsste, sagt Luckey, dass es sich um ein Verteidigungstechnologieunternehmen handelt, das seine eigene Finanzierung für Forschung und Entwicklung nutzt, anstatt auf kostensteigernde Regierungsverträge angewiesen zu sein. Luckey weist darauf hin, dass dieses Modell es dem Unternehmen ermöglicht, bürokratische Hürden zu umgehen und Projekte auch bei politischen Veränderungen oder unbeständigen Haushaltsmitteln voranzutreiben, was jährlich Milliarden Dollar für die Steuerzahler einsparen kann.
Anduril ist effizient und liefert „Ghost Shark“ ein Jahr früher
Luckey ist stolz darauf, dass das Pentagon die schnelle Reaktionsfähigkeit von Anduril anerkennt, die im Vergleich zu traditionellen Großauftragnehmern wie Lockheed Martin oder Boeing eine effizientere Unternehmenskultur aufweist. Durch die Einstellung zahlreicher ehemaliger Militärangehöriger und Technikexperten stellt Anduril sicher, dass die Produkte präzise den Frontlinienanforderungen entsprechen. Besonders hebt Luckey hervor, dass das autonome Unterwasserfahrzeug Ghost Shark von Anduril bereits ein Jahr vor dem geplanten Termin ausgeliefert wurde.
Luckey sagt, er werde definitiv Nuklearwaffen entwickeln
Auf die Frage nach der Entwicklung von Nuklearwaffen äußert Luckey klar seine Unterstützung für die Forschung und den Erhalt von Nuklearwaffen. Er ist der Ansicht, dass Fissions- und Fusionswaffen historisch eine wichtige Rolle bei der Stabilisierung der globalen Lage gespielt haben. Er zeigt sich jedoch vorsichtig bei chemischen und biologischen Waffen. Bezüglich der „Aggressivität“ künstlicher Intelligenz in Waffensystemen lehnt Luckey es ab, die Entscheidungsgewalt an private Unternehmen zu übertragen. Er betont, dass die letztendliche Verantwortung für den Einsatz von Gewalt bei einer von gewählten Vertretern geführten Militärführung liegen muss. Zudem begrüßt er die Entscheidung des kalifornischen Gouverneurs Newsom, ein Gesetz zur Einschränkung der KI-Forschung abzulehnen, da eine Überregulierung die Wettbewerbsfähigkeit des US-Militärs schwächen und Sicherheitslücken verursachen könnte.
Das Verteidigungsministerium listet Anthropic als Risiko in der Lieferkette, um einen Abwärtsspiraleffekt zu vermeiden
Luckey unterstützt die Entscheidung des Verteidigungsministeriums, Anthropic als Risiko in der Lieferkette zu klassifizieren. Er weist auf das Problem der Konflikte zwischen „Befehlsgewalt“ und „Verantwortlichkeit“ hin. Wenn Technologieunternehmen unklare Einschränkungen bei der Nutzung ihrer Produkte (z. B. bei aggressiven Waffen oder Überwachung) festlegen dürfen, gewähren sie privaten Führungskräften de facto Macht, die über die des US-Präsidenten und der Streitkräfte hinausgeht, was eine einseitige Einflussnahme auf militärische Einsätze ermöglicht.
Luckey analysiert, dass die harte Haltung des Verteidigungsministeriums darauf abzielt, eine Abwärtsspirale zu verhindern, bei der unterschiedliche Unternehmen aufgrund ihrer Werte und rechtlichen Definitionen (z. B. was als „Zivilist“ oder „Angriff“ gilt) die militärische Planung beeinflussen. Er betont, dass die Verantwortung für den Einsatz von Gewalt bei gewählten Regierungsvertretern liegen sollte, nicht bei privaten Unternehmen. Obwohl Anthropic eigene Verfahren hat, ist die Haltung des Verteidigungsministeriums notwendig, um die nationale Sicherheit vor einseitigen Unternehmensinteressen zu schützen.
USA vom Weltpolizisten zum weltweiten Waffenhändler
Angesichts der Lage im Nahen Osten und der Bedrohung durch den Iran schlägt Luckey die sogenannte „World Gun Store“-Theorie vor: Die USA sollten sich vom direkten Einsatz von Bodentruppen als „Weltpolizist“ verabschieden und stattdessen als Anbieter fortschrittlicher autonomer Waffen und Technologien auftreten. Er beobachtet, dass die amerikanische Gesellschaft derzeit den politischen Willen für langwierige Bodenkriege fehlt. Daher sollte die Verteidigungsstrategie auf die Unterstützung von Verbündeten ausgerichtet sein, die mit den US-Interessen im Einklang stehen und sich selbst verteidigen können. Durch die Massenproduktion kosteneffizienter Ausrüstung wie Barracuda (Torpedo) oder Fury (Kampfdrohnen) könne man Abschreckung aufrechterhalten und gleichzeitig die Interessen der USA und ihrer Partner schützen, ohne direkt in Konflikte einzugreifen.
Für die Zukunft des Schlachtfelds prognostiziert Luckey, dass der „Untergrundbereich“ nach Meeres-, Land-, Luft- und Weltraumoperationen die nächste Front sein wird, sogar vor der Mondlandung. Anduril arbeitet derzeit an Prototypen für unterirdische Systeme, die kinetische und elektronische Störmaßnahmen erzeugen, um die Erdkruste als logistische und taktische Deckung zu nutzen. Im Bereich der KI-Technologie warnt Luckey, dass die USA zwar derzeit führend sind, China jedoch schnell durch die Duplikation amerikanischer KI-Modelle eine Bedrohung darstellt. Um diesem Trend entgegenzuwirken, baut Anduril die automatisierte Rüstungsfabrik Arsenal-1 aus, die auf die großflächige Produktion von Marschflugkörpern und autonomen Flugzeugen abzielt, um die Produktionskapazitäten im Rüstungswettlauf zu sichern.
Dieser Artikel mit dem Titel „Palmer Luckey spricht über Nuklearwaffen, den Iran-Krieg und die Kontroverse um Anthropic“ erschien zuerst bei ABMedia.