Trump Ordena Proibição Federal de IA Anthropic Grande Tecnologia vs Confronto Governo dos EUA Num aumento dramático de tensão entre Washington e o setor de inteligência artificial, o Presidente Donald Trump ordenou que todas as agências federais deixem de usar imediatamente produtos desenvolvidos pela Anthropic, a empresa de IA conhecida pelos seus modelos Claude. A ordem, emitida a 27 de fevereiro de 2026, segue-se a uma disputa entre o Pentágono e a empresa sobre salvaguardas éticas de IA e políticas de uso para segurança nacional. A decisão inclui uma suspensão imediata em todas as agências civis e um período de transição de seis meses para o Departamento de Defesa. No centro do conflito está a recusa da Anthropic em remover certas barreiras éticas incorporadas nos seus sistemas de IA. Segundo o CEO Dario Amodei, a empresa recusou pedidos do Pentágono que permitiriam usar os seus modelos de IA para vigilância doméstica em massa ou implementação de armas totalmente autónomas. Amodei afirmou publicamente que a empresa “não pode, de boa consciência, atender às suas exigências”, argumentando que remover essas proteções comprometeria os princípios de segurança fundamentais da empresa. A administração respondeu de forma enérgica. Para além de ordenar às agências que deixem de usar produtos da Anthropic, o Secretário de Defesa classificou a empresa como um “risco na cadeia de abastecimento de segurança nacional”. Esta classificação impede efetivamente que contratantes de defesa e fornecedores ligados ao Pentágono façam negócios com a Anthropic. Uma designação altamente incomum para uma empresa de tecnologia sediada nos EUA, sendo mais comum em entidades estrangeiras consideradas ameaças à segurança. Do ponto de vista do governo, os responsáveis argumentam que as prioridades de defesa nacional não podem ser limitadas por políticas corporativas privadas. O Pentágono sustenta que as ferramentas de IA devem permanecer adaptáveis para operações militares e de inteligência legais. Os apoiantes da decisão do governo afirmam que empresas privadas não devem ditar limites operacionais para agências de defesa, especialmente quando a segurança nacional está em jogo. A Anthropic, no entanto, apresenta uma perspetiva diferente. A empresa posiciona-se como parte de uma nova geração de desenvolvedores de IA que priorizam alinhamento, segurança e limitações éticas. Argumenta que remover as salvaguardas contra vigilância em massa e decisões letais autónomas ultrapassaria uma linha vermelha com consequências sociais a longo prazo. Representantes da empresa indicaram que podem contestar a designação federal por vias legais, considerando-a sem precedentes e potencialmente prejudicial às parcerias de inovação entre o governo e a indústria privada. As implicações mais amplas vão muito além de uma disputa contratual. Este episódio destaca uma crescente tensão estrutural entre ética de IA e poder estatal. À medida que a inteligência artificial se integra mais na defesa, cibersegurança, análise de inteligência e sistemas de vigilância preditiva, a questão de quem define o uso aceitável torna-se cada vez mais urgente. Os governos procuram flexibilidade operacional. As empresas de IA procuram cada vez mais limites éticos aplicáveis. Observadores de mercados e tecnologia estão agora a acompanhar de perto como este conflito irá remodelar a estratégia de aquisição de IA federal. Se outros fornecedores de IA entrarem para substituir a Anthropic nos sistemas governamentais, isso poderá acelerar a consolidação entre fornecedores de IA alinhados com a defesa. Por outro lado, se os desafios legais forem bem-sucedidos, poderá estabelecer um precedente sobre até onde a autoridade executiva pode estender-se ao rotular empresas tecnológicas domésticas como riscos na cadeia de abastecimento. Este confronto pode, em última análise, definir uma nova era na governação de IA. Obriga a um debate fundamental: Os instrumentos avançados de IA devem estar sujeitos a limites éticos corporativos mesmo em questões de defesa nacional, ou os governos soberanos devem manter autoridade irrestrita sobre os seus ativos tecnológicos? A resposta provavelmente moldará não só a política de IA dos EUA, mas também os padrões globais de como a inteligência artificial interage com o poder militar e de vigilância nos próximos anos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
#TrumpordersfederalbanonAnthropicAI
Trump Ordena Proibição Federal de IA Anthropic Grande Tecnologia vs Confronto Governo dos EUA
Num aumento dramático de tensão entre Washington e o setor de inteligência artificial, o Presidente Donald Trump ordenou que todas as agências federais deixem de usar imediatamente produtos desenvolvidos pela Anthropic, a empresa de IA conhecida pelos seus modelos Claude. A ordem, emitida a 27 de fevereiro de 2026, segue-se a uma disputa entre o Pentágono e a empresa sobre salvaguardas éticas de IA e políticas de uso para segurança nacional. A decisão inclui uma suspensão imediata em todas as agências civis e um período de transição de seis meses para o Departamento de Defesa.
No centro do conflito está a recusa da Anthropic em remover certas barreiras éticas incorporadas nos seus sistemas de IA. Segundo o CEO Dario Amodei, a empresa recusou pedidos do Pentágono que permitiriam usar os seus modelos de IA para vigilância doméstica em massa ou implementação de armas totalmente autónomas. Amodei afirmou publicamente que a empresa “não pode, de boa consciência, atender às suas exigências”, argumentando que remover essas proteções comprometeria os princípios de segurança fundamentais da empresa.
A administração respondeu de forma enérgica. Para além de ordenar às agências que deixem de usar produtos da Anthropic, o Secretário de Defesa classificou a empresa como um “risco na cadeia de abastecimento de segurança nacional”. Esta classificação impede efetivamente que contratantes de defesa e fornecedores ligados ao Pentágono façam negócios com a Anthropic. Uma designação altamente incomum para uma empresa de tecnologia sediada nos EUA, sendo mais comum em entidades estrangeiras consideradas ameaças à segurança.
Do ponto de vista do governo, os responsáveis argumentam que as prioridades de defesa nacional não podem ser limitadas por políticas corporativas privadas. O Pentágono sustenta que as ferramentas de IA devem permanecer adaptáveis para operações militares e de inteligência legais. Os apoiantes da decisão do governo afirmam que empresas privadas não devem ditar limites operacionais para agências de defesa, especialmente quando a segurança nacional está em jogo.
A Anthropic, no entanto, apresenta uma perspetiva diferente. A empresa posiciona-se como parte de uma nova geração de desenvolvedores de IA que priorizam alinhamento, segurança e limitações éticas. Argumenta que remover as salvaguardas contra vigilância em massa e decisões letais autónomas ultrapassaria uma linha vermelha com consequências sociais a longo prazo. Representantes da empresa indicaram que podem contestar a designação federal por vias legais, considerando-a sem precedentes e potencialmente prejudicial às parcerias de inovação entre o governo e a indústria privada.
As implicações mais amplas vão muito além de uma disputa contratual. Este episódio destaca uma crescente tensão estrutural entre ética de IA e poder estatal. À medida que a inteligência artificial se integra mais na defesa, cibersegurança, análise de inteligência e sistemas de vigilância preditiva, a questão de quem define o uso aceitável torna-se cada vez mais urgente. Os governos procuram flexibilidade operacional. As empresas de IA procuram cada vez mais limites éticos aplicáveis.
Observadores de mercados e tecnologia estão agora a acompanhar de perto como este conflito irá remodelar a estratégia de aquisição de IA federal. Se outros fornecedores de IA entrarem para substituir a Anthropic nos sistemas governamentais, isso poderá acelerar a consolidação entre fornecedores de IA alinhados com a defesa. Por outro lado, se os desafios legais forem bem-sucedidos, poderá estabelecer um precedente sobre até onde a autoridade executiva pode estender-se ao rotular empresas tecnológicas domésticas como riscos na cadeia de abastecimento.
Este confronto pode, em última análise, definir uma nova era na governação de IA. Obriga a um debate fundamental: Os instrumentos avançados de IA devem estar sujeitos a limites éticos corporativos mesmo em questões de defesa nacional, ou os governos soberanos devem manter autoridade irrestrita sobre os seus ativos tecnológicos? A resposta provavelmente moldará não só a política de IA dos EUA, mas também os padrões globais de como a inteligência artificial interage com o poder militar e de vigilância nos próximos anos.