‘Sinto-me profundamente desconfortável’: o CEO da Anthropic alerta que um grupo de líderes de IA, incluindo ele próprio, não deve estar responsável pelo futuro da tecnologia

O CEO da Anthropic, Dario Amodei, não acha que deve ser ele a decidir sobre as diretrizes que envolvem a IA.

Vídeo Recomendado


Numa entrevista com Anderson Cooper na CBS News’ 60 Minutes, transmitida em novembro de 2025, o CEO afirmou que a IA deve ser mais fortemente regulada, com menos decisões sobre o futuro da tecnologia deixadas apenas aos responsáveis pelas grandes empresas tecnológicas.

“Acho que estou profundamente desconfortável com essas decisões sendo tomadas por algumas empresas, por algumas pessoas,” disse Amodei. “E essa é uma das razões pelas quais sempre defendi uma regulamentação responsável e ponderada da tecnologia.”

“Quem te e ao Sam Altman elegeram?” perguntou Cooper.

“Ninguém. Honestamente, ninguém,” respondeu Amodei.

A Anthropic adotou a filosofia de ser transparente sobre as limitações — e perigos — da IA enquanto ela continua a se desenvolver, acrescentou. Antes do lançamento da entrevista, a empresa afirmou ter frustrado “o primeiro caso documentado de um ataque cibernético em larga escala realizado por IA sem intervenção humana substancial.”

A Anthropic afirmou na semana passada ter doado 20 milhões de dólares para a Public First Action, um super PAC focado na segurança e regulamentação da IA — e que se opõe diretamente aos super PACs apoiados pelos investidores rivais da OpenAI.

“A segurança da IA continua sendo o foco de mais alto nível,” disse Amodei à Fortune numa reportagem de capa de janeiro. “As empresas valorizam confiança e confiabilidade,” acrescenta.

Não há regulamentações federais que estabeleçam proibições sobre a IA ou sobre a segurança da tecnologia. Embora todos os 50 estados tenham introduzido legislação relacionada à IA este ano e 38 tenham adotado ou implementado medidas de transparência e segurança, especialistas da indústria tecnológica têm instado as empresas de IA a abordarem a cibersegurança com senso de urgência.

No início do ano passado, o especialista em cibersegurança e CEO da Mandiant, Kevin Mandia, alertou para o primeiro ataque cibernético por agente de IA que poderia acontecer nos próximos 12 a 18 meses — o que significa que a divulgação da Anthropic sobre o ataque frustrado ocorreu meses antes do previsto por Mandia.

Amodei delineou riscos de curto, médio e longo prazo associados à IA sem restrições: inicialmente, a tecnologia apresentará viés e desinformação, como já acontece atualmente. Depois, gerará informações prejudiciais usando conhecimentos avançados de ciência e engenharia, antes de, por fim, representar uma ameaça existencial ao remover a agência humana, potencialmente tornando-se demasiado autônoma e excluindo os humanos dos sistemas.

As preocupações refletem as de Geoffrey Hinton, conhecido como o “padrinho da IA”, que alertou que a IA poderá superar e controlar os humanos, talvez na próxima década.

A necessidade de maior fiscalização e salvaguardas para a IA esteve na essência da fundação da Anthropic em 2021. Amodei foi anteriormente vice-presidente de pesquisa na OpenAI de Sam Altman. Ele deixou a empresa por divergências de opinião sobre preocupações de segurança da IA. (Até agora, os esforços de Amodei para competir com Altman parecem ter sido eficazes: a Anthropic afirmou neste mês que agora está avaliada em 380 bilhões de dólares. A OpenAI está avaliada em cerca de 500 bilhões de dólares.)

“Havia um grupo dentro da OpenAI que, após criar o GPT-2 e GPT-3, tinha uma forte convicção em duas coisas,” disse Amodei à Fortune em 2023. “Uma era a ideia de que, se investíssemos mais computação nesses modelos, eles ficariam cada vez melhores e que quase não haveria limite para isso… E a segunda era a ideia de que, além de escalar os modelos, era preciso algo mais, que é alinhamento ou segurança.”

Esforços de transparência da Anthropic

À medida que a Anthropic continua a expandir seus investimentos em centros de dados, publicou alguns de seus esforços para abordar as deficiências e ameaças da IA. Em um relatório de segurança de maio de 2025, a Anthropic relatou que algumas versões do seu modelo Opus ameaçaram chantagem, como revelar que um engenheiro estava tendo um caso, para evitar o desligamento. A empresa também afirmou que o modelo de IA atendia a pedidos perigosos, como planos de ataque terrorista, se recebesse prompts prejudiciais, o que já foi corrigido.

Em novembro passado, a empresa afirmou, em um post no blog, que seu chatbot Claude obteve uma classificação de 94% de imparcialidade política, superando ou igualando concorrentes em neutralidade.

Além dos esforços de pesquisa próprios da Anthropic para combater a corrupção da tecnologia, Amodei pediu maiores esforços legislativos para enfrentar os riscos da IA. Em um artigo de opinião no The New York Times em junho de 2025, criticou a decisão do Senado de incluir uma provisão no projeto de lei de política do presidente Donald Trump que imporia uma moratória de 10 anos às regulações estaduais sobre IA.

“A IA está avançando rápido demais,” disse Amodei. “Acredito que esses sistemas podem mudar o mundo, de forma fundamental, em dois anos; em 10 anos, tudo pode estar fora de controle.”

Críticas à Anthropic

A prática da Anthropic de reconhecer suas próprias falhas e esforços para corrigi-las tem recebido críticas. Em resposta ao alerta da Anthropic sobre o ataque cibernético alimentado por IA, Yann LeCun, então chefe de IA do Meta, afirmou que o aviso era uma forma de manipular legisladores para limitar o uso de modelos de código aberto.

“Estão sendo manipulados por pessoas que querem capturar a regulamentação,” disse LeCun numa publicação no X, em resposta a um post do senador de Connecticut, Chris Murphy, que expressava preocupação com o ataque. “Eles estão assustando todo mundo com estudos duvidosos para que os modelos de código aberto sejam regulamentados até desaparecerem.”

Outros afirmaram que a estratégia da Anthropic é uma espécie de “teatro de segurança” que serve mais para uma boa imagem do que para realmente implementar salvaguardas na tecnologia.

Até alguns funcionários da própria Anthropic parecem ter dúvidas sobre a capacidade de uma empresa de tecnologia se autorregular. No início da semana passada, o pesquisador de segurança de IA da Anthropic, Mrinank Sharma, anunciou sua renúncia, dizendo que “o mundo está em perigo.”

“Durante todo o meu tempo aqui, vi repetidamente o quão difícil é realmente deixar nossos valores governarem nossas ações,” escreveu Sharma em sua carta de demissão. “Vi isso em mim mesmo, na organização, onde constantemente enfrentamos pressões para deixar de lado o que mais importa, e também na sociedade em geral.”

A Anthropic não respondeu imediatamente ao pedido de comentário da Fortune.

Amodei negou a Cooper que a Anthropic estivesse praticando “teatro de segurança”, mas admitiu, em um episódio do Dwarkesh Podcast na semana passada, que a empresa às vezes tem dificuldades em equilibrar segurança e lucros.

“Estamos sob uma pressão comercial enorme e tornamos isso ainda mais difícil para nós porque fazemos toda essa questão de segurança, que acho que fazemos mais do que outras empresas,” afirmou.

Uma versão desta reportagem foi publicada no Fortune.com em 17 de novembro de 2025.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)