Confrontação no Pentágono coloca em risco salvaguardas de IA antropica e contrato de defesa de $200 milhões

Tensão crescente entre um laboratório de inteligência artificial líder e o estabelecimento de defesa dos EUA escalou para um confronto de alto risco sobre IA antropica e uso em campo de batalha.

Anthropic mantém-se firme contra pressão do Pentágono

A Anthropic recusou as exigências do Departamento de Defesa dos EUA de remover limites essenciais de segurança de IA dos seus sistemas, apesar de o seu contrato de 200 milhões de dólares estar agora em risco. A empresa deixou claro que não irá recuar na sua disputa com o DoD sobre como os seus modelos avançados podem ser implantados em redes militares.

Os rivais da startup, OpenAI, Google e xAI, garantiram prémios semelhantes do DoD de até 200 milhões de dólares em 2023. No entanto, essas empresas concordaram em permitir que o Pentágono use os seus sistemas para todas as missões legais dentro de ambientes militares não classificados, dando ao governo maior flexibilidade operacional.

Por outro lado, a Anthropic assinou um contrato próprio de 200 milhões de dólares com o DoD em julho e tornou-se no primeiro laboratório de IA a integrar os seus modelos diretamente nos fluxos de trabalho de missão em redes classificadas. Além disso, as suas ferramentas foram integradas em operações de defesa sensíveis, colocando a empresa no centro do desenvolvimento de IA para segurança nacional dos EUA.

As negociações com oficiais do Pentágono tornaram-se cada vez mais tensas nas últimas semanas. Uma fonte familiarizada com as conversas afirmou que a fricção “remonta a vários meses atrás”, bem antes de se tornar público que Claude foi utilizado numa operação dos EUA relacionada à apreensão do Presidente venezuelano Nicolás Maduro.

Disputa sobre vigilância e armas autónomas

No cerne do conflito está até que ponto as autoridades militares podem impulsionar modelos de IA poderosos em direção à vigilância e autonomia. A Anthropic procura garantias vinculativas de que a sua tecnologia não será usada para armas totalmente autónomas ou para vigilância doméstica em massa de americanos, enquanto o DoD quer evitar tais limites.

Dito isto, esta não é uma disputa comercial restrita, mas uma questão de salvaguardas de IA de alto perfil com implicações diretas na automação de campo de batalha futura. O Pentágono insiste na máxima latitude legal, enquanto a Anthropic argumenta que os sistemas atuais ainda não podem ser confiáveis para decisões de vida ou morte em larga escala.

Em uma declaração detalhada, o CEO Dario Amodei alertou que, em um “conjunto restrito de casos”, a inteligência artificial pode “minar, em vez de defender, valores democráticos”. Ele destacou que algumas aplicações estão “simplesmente fora dos limites do que a tecnologia atual pode fazer de forma segura e confiável”, salientando os riscos de uso indevido durante operações militares complexas.

Ao expandir as preocupações com vigilância, Amodei argumentou que sistemas poderosos agora possibilitam “montar esse conjunto disperso de dados, individualmente inócuos, numa imagem abrangente da vida de qualquer pessoa, automaticamente e em grande escala”. Além disso, alertou que tal capacidade, se direcionada internamente, poderia transformar fundamentalmente a relação entre cidadãos e o Estado.

Amodei reiterou que a Anthropic apoia o uso de IA para coleta de inteligência estrangeira legal. No entanto, acrescentou que “usar esses sistemas para vigilância doméstica em massa é incompatível com valores democráticos”, traçando uma linha ética rígida entre inteligência estrangeira e monitoramento interno de cidadãos americanos.

Ameaças, prazos e pressão legal

A luta pelo poder intensificou-se durante uma reunião na terça-feira no Pentágono entre Amodei e o Secretário de Defesa Pete Hegseth. Hegseth ameaçou rotular a Anthropic como um “risco na cadeia de abastecimento” ou invocar a Lei de Produção de Defesa para obrigar a conformidade. Na noite de quarta-feira, o DoD apresentou o que chamou de sua “última e definitiva oferta”, dando à empresa até às 17h01 ET de sexta-feira para responder.

Uma porta-voz da Anthropic confirmou ter recebido uma redação revisada do contrato na quarta-feira, mas afirmou que ela representava “quase nenhum progresso”. Segundo ela, a nova redação, apresentada como um compromisso, vinha acompanhada de uma formulação legal que permitiria efetivamente que salvaguardas críticas “fossem ignoradas à vontade”, minando as proteções declaradas.

Respondendo à crescente pressão, Amodei afirmou: “O Departamento de Guerra declarou que só contratará empresas de IA que acedam a ‘qualquer uso legal’ e removam as salvaguardas nos casos mencionados acima.” Ele acrescentou que os oficiais ameaçaram cortar a Anthropic de seus sistemas e designar a empresa como um “risco na cadeia de abastecimento” se ela se recusasse; no entanto, insistiu que “não podemos, de consciência tranquila, aceder ao seu pedido”.

Para o Pentágono, a questão é encarada de forma diferente. O porta-voz principal, Sean Parnell, afirmou na quinta-feira que o DoD “não tem interesse” em usar os sistemas da Anthropic para armas totalmente autónomas ou para realizar vigilância em massa de americanos, observando que tais práticas seriam ilegais. Em vez disso, ele sustentou que o departamento simplesmente quer que a empresa permita o uso da sua tecnologia para “todos os fins legais”, descrevendo isso como um “pedido simples e sensato”.

Ataques pessoais e apoio público

O conflito também se tornou pessoal em níveis superiores. Na quinta-feira à noite, o subsecretário de defesa dos EUA, Emil Michael, atacou Amodei na X, alegando que o executivo “quer nada mais do que tentar controlar pessoalmente o Exército dos EUA”. Michael foi mais longe, escrevendo: “É uma vergonha que Dario Amodei seja um mentiroso e tenha um complexo de Deus.”

No entanto, a Anthropic recebeu apoio significativo de setores da tecnologia. Em uma carta aberta, mais de 200 trabalhadores do Google e da OpenAI apoiaram publicamente a posição da empresa. Além disso, um ex-funcionário do DoD disse à BBC que a justificativa de Hegseth para usar o rótulo “risco na cadeia de abastecimento” parecia “extremamente frágil”, levantando dúvidas sobre a robustez do caso do Pentágono.

O confronto também se tornou um ponto de referência no debate mais amplo sobre ética de IA e política militar. Pesquisadores de IA e defensores das liberdades civis estão atentos, vendo o caso como um teste inicial de até que ponto as agências de defesa podem pressionar laboratórios privados a relaxar restrições embutidas em sistemas avançados.

Aposta estratégica para a defesa de IA dos EUA

Apesar da retórica crescente, Amodei destacou que está “profundamente na importância existencial de usar IA para defender os Estados Unidos”. Enquadrando a questão como uma de implantação responsável, não de oposição à defesa nacional, argumentou que a credibilidade a longo prazo das capacidades de IA dos EUA depende de manter as normas democráticas.

Um representante da Anthropic afirmou que a organização permanece “pronta para continuar as negociações e comprometida com a continuidade operacional para o Departamento e os combatentes americanos”. No entanto, com o relógio a contar para o prazo do Pentágono e ameaças de uma designação na cadeia de abastecimento ainda em cima da mesa, ambos os lados enfrentam pressão para resolver o impasse sem comprometer a inovação crítica.

Por fim, o confronto entre Anthropic e o Pentágono sobre salvaguardas, vigilância e autonomia tornou-se um caso emblemático na governança militar de IA. O seu desfecho provavelmente moldará a forma como futuros modelos de IA antropica e sistemas rivais serão contratados, limitados e implantados nas operações de defesa dos EUA.

XAI3,31%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)