La confrontation au Pentagone met en danger les mesures de sécurité de l'IA anthropique et le contrat de défense de $200 millions

Tensions croissantes entre un laboratoire d’intelligence artificielle de premier plan et l’établissement de défense américain se sont intensifiées en un affrontement de haute voltige concernant l’IA anthropique et son utilisation sur le champ de bataille.

Anthropic reste ferme face à la pression du Pentagone

Anthropic a refusé les demandes du Département de la Défense des États-Unis de supprimer les limites clés de sécurité de l’IA de ses systèmes, bien que son contrat de 200 millions de dollars soit désormais en danger. La société a clairement indiqué qu’elle ne reculerait pas dans son différend avec le DoD sur la manière dont ses modèles avancés peuvent être déployés dans les réseaux militaires.

Les concurrents de la startup, OpenAI, Google et xAI, ont obtenu des récompenses similaires du DoD pouvant aller jusqu’à 200 millions de dollars en 2023. Cependant, ces entreprises ont accepté de laisser le Pentagone utiliser leurs systèmes pour toutes les missions légales dans les environnements non classifiés de l’armée, offrant au gouvernement une plus grande flexibilité opérationnelle.

En revanche, Anthropic a signé son propre contrat de 200 millions de dollars avec le DoD en juillet et est devenue le premier laboratoire d’IA à intégrer ses modèles directement dans les flux de travail des missions sur des réseaux classifiés. De plus, ses outils ont été intégrés dans des opérations de défense sensibles, plaçant la société au centre du développement de l’IA pour la sécurité nationale américaine.

Les négociations avec les responsables du Pentagone sont devenues de plus en plus tendues ces dernières semaines. Une personne familière avec les discussions a indiqué que cette friction remonte « à plusieurs mois », bien avant qu’il ne soit rendu public que Claude avait été utilisé dans une opération américaine liée à la saisie du président vénézuélien Nicolás Maduro.

Conflit sur la surveillance et les armes autonomes

Au cœur du conflit se trouve la question de jusqu’où les autorités militaires peuvent pousser des modèles d’IA puissants vers la surveillance et l’autonomie. Anthropic cherche des garanties contraignantes que sa technologie ne sera pas utilisée pour des armes entièrement autonomes ou pour une surveillance domestique massive des Américains, tandis que le DoD souhaite éviter de telles limites.

Cela dit, il ne s’agit pas d’un simple différend commercial, mais d’un conflit de haut niveau sur la sécurité de l’IA, avec des implications directes pour l’automatisation future du champ de bataille. Le Pentagone insiste sur une latitude légale maximale, tandis qu’Anthropic soutient que les systèmes actuels ne peuvent pas encore être confiés à des décisions de vie ou de mort à grande échelle.

Dans une déclaration détaillée, le PDG Dario Amodei a averti que dans « un ensemble restreint de cas », l’intelligence artificielle peut « saper, plutôt que défendre, les valeurs démocratiques ». Il a souligné que certaines applications sont « tout simplement hors des limites de ce que la technologie d’aujourd’hui peut faire de manière sûre et fiable », mettant en évidence les risques d’abus lors d’opérations militaires complexes.

En développant ses préoccupations sur la surveillance, Amodei a affirmé que des systèmes puissants permettent désormais de « rassembler ces données dispersées, individuellement inoffensives, en une image complète de la vie de toute personne, automatiquement et à grande échelle ». De plus, il a averti que cette capacité, si elle est dirigée vers l’intérieur, pourrait fondamentalement remodeler la relation entre citoyens et État.

Amodei a réitéré que Anthropic soutient l’utilisation de l’IA pour la collecte légale de renseignements étrangers. Cependant, il a ajouté que « l’utilisation de ces systèmes pour une surveillance domestique de masse est incompatible avec les valeurs démocratiques », traçant une ligne éthique ferme entre le renseignement à l’étranger et la surveillance interne des citoyens américains.

Menaces, délais et pression juridique

La lutte de pouvoir s’est intensifiée lors d’une réunion mardi au Pentagone entre Amodei et le secrétaire à la Défense Pete Hegseth. Hegseth a menacé de qualifier Anthropic de « risque dans la chaîne d’approvisionnement » ou d’invoquer la loi sur la production de défense pour contraindre la conformité. Mercredi soir, le DoD a présenté ce qu’il a appelé sa « dernière et ultime offre », donnant à l’entreprise jusqu’à 17h01 (heure de l’Est) vendredi pour répondre.

Une porte-parole d’Anthropic a reconnu avoir reçu un langage contractuel révisé mercredi, mais a déclaré qu’il représentait « pratiquement aucun progrès ». Selon elle, la nouvelle formulation, présentée comme un compromis, était accompagnée d’un langage juridique qui permettrait en pratique de « ignorer les sauvegardes essentielles à volonté », contrecarrant ainsi les protections déclarées.

Face à la pression croissante, Amodei a déclaré : « Le Département de la Guerre a indiqué qu’il ne contracterait qu’avec des entreprises d’IA qui acceptent ‘tout usage légal’ et suppriment les sauvegardes dans les cas mentionnés ci-dessus. » Il a ajouté que des responsables avaient menacé de couper Anthropic de leurs systèmes et de désigner la société comme un « risque dans la chaîne d’approvisionnement » en cas de refus ; néanmoins, il a insisté : « nous ne pouvons pas, en conscience, accéder à leur demande. »

Pour le Pentagone, la question est formulée différemment. Le porte-parole principal Sean Parnell a déclaré jeudi que le DoD n’avait « aucun intérêt » à utiliser les systèmes d’Anthropic pour des armes entièrement autonomes ou pour effectuer une surveillance de masse des Américains, notant que de telles pratiques seraient illégales. Au lieu de cela, il a affirmé que le département souhaite simplement que la société permette l’utilisation de sa technologie pour « tous les usages légaux », qualifiant cela de « demande simple et de bon sens ».

Attaques personnelles et soutien public

Le conflit est également devenu personnel à un niveau élevé. Jeudi soir, le sous-secrétaire américain à la Défense Emil Michael a attaqué Amodei sur X, affirmant que le dirigeant « ne veut rien d’autre que contrôler personnellement l’armée américaine ». Michael est allé plus loin, écrivant : « C’est dommage que Dario Amodei soit un menteur et qu’il ait une vision messianique. »

Cependant, Anthropic a reçu un soutien important de la part de certains acteurs du secteur technologique. Dans une lettre ouverte, plus de 200 employés de Google et OpenAI ont publiquement soutenu la position de la société. De plus, un ancien responsable du DoD a déclaré à la BBC que la justification de Hegseth pour l’utilisation du label « risque dans la chaîne d’approvisionnement » semblait « extrêmement fragile », soulevant des questions sur la solidité du dossier du Pentagone.

Ce face-à-face est également devenu un point de référence dans le débat plus large sur l’éthique de l’IA et la politique militaire. Les chercheurs en IA et les défenseurs des libertés civiles suivent cela de près, considérant cette affaire comme un test précoce de la capacité des agences de défense à pousser les laboratoires privés à relâcher les restrictions intégrées aux systèmes avancés.

Enjeux stratégiques pour l’IA de défense américaine

Malgré la rhétorique enflammée, Amodei a souligné qu’il « croit profondément à l’importance vitale d’utiliser l’IA pour défendre les États-Unis ». Il a présenté la question comme une question de déploiement responsable, et non d’opposition à la défense nationale, en soutenant que la crédibilité à long terme des capacités américaines en IA dépend du respect des normes démocratiques.

Un représentant d’Anthropic a déclaré que l’organisation reste « prête à poursuivre les discussions et engagée à assurer la continuité opérationnelle pour le Département et les combattants américains ». Cependant, avec le compte à rebours du délai du Pentagone qui s’amenuise et les menaces de désignation dans la chaîne d’approvisionnement toujours en suspens, les deux parties doivent faire face à la pression de résoudre cette impasse sans compromettre l’innovation cruciale.

En fin de compte, le conflit Anthropic–Pentagone sur la sécurité, la surveillance et l’autonomie est devenu un cas emblématique dans la gouvernance de l’IA militaire. Son issue influencera probablement la manière dont les futurs modèles d’IA anthropique et les systèmes concurrents seront contractés, contraints et déployés dans les opérations de défense américaines.

XAI1,95%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)