El enfrentamiento en Pentagon pone en riesgo las salvaguardas de IA de anthropic y el contrato de defensa de $200 millones

Tensión creciente entre un laboratorio de inteligencia artificial líder y el establecimiento de defensa de EE. UU. ha escalado a un enfrentamiento de alto riesgo sobre IA antropica y uso en el campo de batalla.

Anthropic se mantiene firme contra la presión del Pentágono

Anthropic ha rechazado las demandas del Departamento de Defensa de EE. UU. de eliminar límites clave de seguridad en IA de sus sistemas, aunque su contrato de 200 millones de dólares está en peligro. La compañía ha dejado claro que no retrocederá en su disputa con el DoD sobre cómo se pueden desplegar sus modelos avanzados en redes militares.

Los rivales de la startup, OpenAI, Google y xAI, aseguraron premios similares del DoD de hasta 200 millones de dólares en 2023. Sin embargo, esas empresas aceptaron permitir que el Pentágono use sus sistemas para todas las misiones legales dentro de entornos no clasificados militares, brindando mayor flexibilidad operativa al gobierno.

En contraste, Anthropic firmó su propio acuerdo de 200 millones de dólares con el DoD en julio y se convirtió en el primer laboratorio de IA en integrar sus modelos directamente en flujos de trabajo de misión en redes clasificadas. Además, sus herramientas se integraron en operaciones de defensa sensibles, colocando a la compañía en el centro del desarrollo de IA para la seguridad nacional de EE. UU.

Las negociaciones con funcionarios del Pentágono se han vuelto cada vez más tensas en las últimas semanas. Una fuente familiarizada con las conversaciones dijo que la fricción “viene de varios meses atrás,” mucho antes de que se hiciera público que Claude fue utilizado en una operación estadounidense vinculada a la incautación del presidente venezolano Nicolás Maduro.

Disputa sobre vigilancia y armas autónomas

En el centro del conflicto está hasta qué punto las autoridades militares pueden impulsar modelos de IA poderosos hacia la vigilancia y la autonomía. Anthropic busca garantías vinculantes de que su tecnología no será utilizada para armas completamente autónomas ni para vigilancia masiva de estadounidenses, mientras que el DoD quiere evitar tales límites.

Dicho esto, no se trata solo de un desacuerdo comercial, sino de una disputa de alto perfil sobre salvaguardas de IA con implicaciones directas para la automatización futura en el campo de batalla. El Pentágono insiste en la máxima libertad legal, mientras que Anthropic argumenta que los sistemas actuales aún no pueden confiarse para decisiones de vida o muerte a gran escala.

En un comunicado detallado, el CEO Dario Amodei advirtió que en “un conjunto limitado de casos” la inteligencia artificial puede “socavar, en lugar de defender, los valores democráticos.” Enfatizó que algunas aplicaciones “simplemente están fuera del alcance de lo que la tecnología actual puede hacer de manera segura y confiable,” destacando los riesgos de mal uso durante operaciones militares complejas.

Ampliando las preocupaciones sobre vigilancia, Amodei argumentó que los sistemas poderosos ahora hacen posible “reunir estos datos dispersos, individualmente inocuos, en una imagen completa de la vida de cualquier persona, automáticamente y a gran escala.” Además, advirtió que tal capacidad, si se dirige hacia adentro, podría transformar fundamentalmente la relación entre ciudadanos y el Estado.

Amodei reiteró que Anthropic apoya el uso de IA para la recopilación de inteligencia extranjera legal. Sin embargo, agregó que “utilizar estos sistemas para vigilancia masiva interna es incompatible con los valores democráticos,” trazando una línea ética clara entre la inteligencia en el extranjero y la vigilancia interna de personas en EE. UU.

Amenazas, plazos y presión legal

La lucha de poder se intensificó durante una reunión el martes en el Pentágono entre Amodei y el secretario de Defensa, Pete Hegseth. Hegseth ha amenazado con catalogar a Anthropic como un “riesgo en la cadena de suministro” o invocar la Ley de Producción de Defensa para obligar a la compañía a cumplir. La noche del miércoles, el DoD entregó lo que llamó su “última y definitiva oferta,” dando a la empresa hasta las 5:01 p. m. ET del viernes para responder.

Una portavoz de Anthropic reconoció haber recibido un lenguaje contractual revisado el miércoles, pero dijo que representaba “prácticamente ningún avance.” Según ella, la nueva redacción, presentada como un compromiso, estaba acompañada de un lenguaje legal que permitiría efectivamente que las salvaguardas críticas “se ignoren a voluntad,” socavando las protecciones declaradas.

Frente a la creciente presión, Amodei afirmó: “El Departamento de Guerra ha declarado que solo contratará con empresas de IA que accedan a ‘cualquier uso legal’ y eliminen las salvaguardas en los casos mencionados anteriormente.” Añadió que los funcionarios habían amenazado con eliminar a Anthropic de sus sistemas y designar a la firma como un “riesgo en la cadena de suministro” si se negaba; sin embargo, insistió en que “no podemos, en conciencia, acceder a su solicitud.”

Para el Pentágono, el asunto se enmarca de manera diferente. El portavoz principal, Sean Parnell, dijo el jueves que el DoD “no tiene interés” en usar los sistemas de Anthropic para armas completamente autónomas ni para realizar vigilancia masiva de estadounidenses, señalando que tales prácticas serían ilegales. En cambio, sostuvo que el departamento simplemente quiere que la compañía permita el uso de su tecnología para “todos los fines legales,” describiendo eso como una “solicitud simple y de sentido común.”

Ataques personales y apoyo público

La disputa también se ha vuelto personal a nivel de altos cargos. El jueves por la noche, el subsecretario de Defensa de EE. UU., Emil Michael, atacó a Amodei en X, alegando que el ejecutivo “no quiere más que intentar controlar personalmente al Ejército de EE. UU.”. Michael fue más allá, escribiendo: “Es una lástima que Dario Amodei sea un mentiroso y tenga un complejo de Dios.”

Sin embargo, Anthropic ha recibido un respaldo importante de partes del sector tecnológico. En una carta abierta, más de 200 empleados de Google y OpenAI apoyaron públicamente la posición de la compañía. Además, un exfuncionario del DoD dijo a la BBC que la justificación de Hegseth para usar la etiqueta de “riesgo en la cadena de suministro” parecía “extremadamente endeble,” planteando dudas sobre la solidez del caso del Pentágono.

El enfrentamiento también se ha convertido en un punto de referencia en el debate más amplio sobre ética en IA y política militar. Investigadores en IA y defensores de libertades civiles están observando de cerca, considerando el caso como una prueba temprana de hasta qué punto las agencias de defensa pueden presionar a laboratorios privados para relajar restricciones incorporadas en sistemas avanzados.

Intereses estratégicos para la IA de defensa de EE. UU.

A pesar de la escalada en el discurso, Amodei ha enfatizado que está “profundamente comprometido con la importancia existencial de usar IA para defender a Estados Unidos.” Enmarcó el asunto como una cuestión de despliegue responsable, no de oposición a la defensa nacional, argumentando que la credibilidad a largo plazo de las capacidades de IA de EE. UU. depende de mantener las normas democráticas.

Un representante de Anthropic dijo que la organización sigue “lista para continuar las conversaciones y comprometida con la continuidad operativa para el Departamento y los combatientes estadounidenses.” Sin embargo, con el reloj corriendo hacia la fecha límite del Pentágono y las amenazas de una designación en la cadena de suministro aún sobre la mesa, ambas partes enfrentan la presión de resolver el enfrentamiento sin descarrilar la innovación crítica.

En última instancia, el conflicto entre Anthropic y el Pentágono sobre salvaguardas, vigilancia y autonomía se ha convertido en un caso emblemático en la gobernanza militar de IA. Su resultado probablemente moldeará cómo se contratan, limitan y despliegan futuros modelos de IA antropica y sistemas rivales en las operaciones de defensa de EE. UU.

XAI1,95%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)