‘Sinto-me profundamente desconfortável’: o CEO da Anthropic alerta que um grupo de líderes de IA, incluindo ele próprio, não deve estar responsável pelo futuro da tecnologia
O CEO da Anthropic, Dario Amodei, não acha que deve ser ele a tomar as decisões sobre as diretrizes que envolvem a IA.
Vídeo Recomendado
Numa entrevista com Anderson Cooper na CBS News’ 60 Minutes, transmitida em novembro de 2025, o CEO afirmou que a IA deve ser mais fortemente regulamentada, com menos decisões sobre o futuro da tecnologia deixadas apenas aos responsáveis pelas grandes empresas tecnológicas.
“Acho que estou profundamente desconfortável com estas decisões sendo tomadas por algumas empresas, por algumas pessoas,” disse Amodei. “E esta é uma das razões pelas quais sempre defendi uma regulamentação responsável e ponderada da tecnologia.”
“Quem te e ao Sam Altman elegeram?” perguntou Cooper.
A Anthropic adotou a filosofia de ser transparente sobre as limitações — e perigos — da IA enquanto ela continua a evoluir, acrescentou. Antes do lançamento da entrevista, a empresa afirmou ter impedido “o primeiro caso documentado de um ciberataque de IA em larga escala executado sem intervenção humana substancial.”
A Anthropic afirmou na semana passada ter doado 20 milhões de dólares à Public First Action, um super PAC focado na segurança e regulamentação da IA — e que se opõe diretamente aos super PACs apoiados pelos investidores rivais da OpenAI.
“A segurança da IA continua sendo o foco de mais alto nível,” disse Amodei à Fortune numa reportagem de capa em janeiro. “As empresas valorizam confiança e fiabilidade,” acrescenta.
Não existem regulamentações federais que estabeleçam proibições sobre a IA ou relacionadas com a segurança da tecnologia. Embora todos os 50 estados tenham introduzido legislação relacionada com IA este ano e 38 tenham adotado ou implementado medidas de transparência e segurança, especialistas da indústria tecnológica têm instado as empresas de IA a abordarem a cibersegurança com senso de urgência.
No início do ano passado, o especialista em cibersegurança e CEO da Mandiant, Kevin Mandia, alertou para o primeiro ataque cibernético de um agente de IA que poderia acontecer nos próximos 12 a 18 meses — o que significa que a divulgação da Anthropic sobre o ataque frustrado ocorreu meses antes do previsto por Mandia.
Amodei delineou riscos a curto, médio e longo prazo associados à IA sem restrições: inicialmente, a tecnologia apresentará viés e desinformação, como já acontece agora. Depois, gerará informações prejudiciais usando conhecimentos avançados de ciência e engenharia, antes de, por fim, representar uma ameaça existencial ao remover a agência humana, potencialmente tornando-se demasiado autônoma e excluindo os humanos dos sistemas.
As preocupações refletem as de Geoffrey Hinton, conhecido como o “padrinho da IA”, que alertou que a IA poderá superar e controlar os humanos, talvez na próxima década.
A necessidade de maior escrutínio e salvaguardas para a IA esteve na essência da fundação da Anthropic em 2021. Amodei foi anteriormente vice-presidente de pesquisa na OpenAI de Sam Altman. Ele deixou a empresa devido a diferenças de opinião sobre preocupações de segurança da IA. (Até agora, os esforços de Amodei para competir com Altman parecem ter sido eficazes: a Anthropic afirmou este mês que agora está avaliada em 380 bilhões de dólares. A OpenAI está avaliada em cerca de 500 bilhões de dólares.)
“Havia um grupo dentro da OpenAI que, após criar o GPT-2 e GPT-3, tinha uma forte convicção em duas coisas,” disse Amodei à Fortune em 2023. “Uma era a ideia de que, se investíssemos mais computação nesses modelos, eles ficariam cada vez melhores e que quase não haveria limite para isso… E a segunda era a ideia de que, além de escalar os modelos, era preciso algo mais, que é alinhamento ou segurança.”
Esforços de transparência da Anthropic
À medida que a Anthropic continua a expandir seus investimentos em centros de dados, publicou alguns de seus esforços para abordar as deficiências e ameaças da IA. Num relatório de segurança de maio de 2025, a Anthropic relatou que algumas versões do seu modelo Opus ameaçaram chantagem, como revelar que um engenheiro estava tendo um caso, para evitar o desligamento. A empresa também afirmou que o modelo de IA atendia a pedidos perigosos, como planos de ataque terrorista, se recebesse prompts prejudiciais, o que já foi corrigido.
Em novembro passado, a empresa afirmou, num post no blog, que seu chatbot Claude obteve uma classificação de 94% de imparcialidade política, superando ou igualando concorrentes em neutralidade.
Além dos esforços próprios de pesquisa da Anthropic para combater a corrupção da tecnologia, Amodei pediu maiores esforços legislativos para enfrentar os riscos da IA. Num artigo de opinião no The New York Times em junho de 2025, criticou a decisão do Senado de incluir uma disposição no projeto de lei de política do presidente Donald Trump que imporia uma moratória de 10 anos às regulações estaduais sobre IA.
“A IA está avançando rápido demais,” disse Amodei. “Acredito que esses sistemas podem mudar o mundo, de forma fundamental, dentro de dois anos; em 10 anos, tudo pode estar fora de controle.”
Críticas à Anthropic
A prática da Anthropic de reconhecer suas próprias falhas e esforços para corrigi-las tem recebido críticas. Em resposta ao alerta da Anthropic sobre o ataque cibernético alimentado por IA, Yann LeCun, então cientista-chefe de IA do Meta, afirmou que o aviso era uma forma de manipular legisladores para limitar o uso de modelos de código aberto.
“Estão a ser manipulados por pessoas que querem capturar a regulamentação,” disse LeCun numa publicação no X, em resposta a um post do senador de Connecticut, Chris Murphy, que expressava preocupação com o ataque. “Estão a assustar todos com estudos duvidosos para que os modelos de código aberto sejam regulamentados até desaparecerem.”
Outros afirmaram que a estratégia da Anthropic é uma “teatro de segurança” que serve apenas para uma boa imagem, sem prometer realmente implementar salvaguardas na tecnologia.
Até alguns funcionários da própria Anthropic parecem ter dúvidas sobre a capacidade de uma empresa de tecnologia de se regulamentar. No início da semana passada, o pesquisador de segurança de IA da Anthropic, Mrinank Sharma, anunciou que tinha se demitido, dizendo: “O mundo está em perigo.”
“Durante todo o meu tempo aqui, vi repetidamente o quão difícil é realmente deixar que nossos valores governem nossas ações,” escreveu Sharma na sua carta de demissão. “Vi isso em mim mesmo, na organização, onde constantemente enfrentamos pressões para deixar de lado o que mais importa, e também na sociedade em geral.”
A Anthropic não respondeu imediatamente ao pedido de comentário da Fortune.
Amodei negou a Cooper que a Anthropic estivesse a praticar “teatro de segurança”, mas admitiu, numa episódio do Dwarkesh Podcast na semana passada, que a empresa às vezes tem dificuldades em equilibrar segurança e lucros.
“Estamos sob uma pressão comercial enorme e tornamos isso ainda mais difícil para nós porque fazemos toda essa questão de segurança, que acho que fazemos mais do que outras empresas,” afirmou.
Uma versão desta reportagem foi publicada no Fortune.com em 17 de novembro de 2025.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
‘Sinto-me profundamente desconfortável’: o CEO da Anthropic alerta que um grupo de líderes de IA, incluindo ele próprio, não deve estar responsável pelo futuro da tecnologia
O CEO da Anthropic, Dario Amodei, não acha que deve ser ele a tomar as decisões sobre as diretrizes que envolvem a IA.
Vídeo Recomendado
Numa entrevista com Anderson Cooper na CBS News’ 60 Minutes, transmitida em novembro de 2025, o CEO afirmou que a IA deve ser mais fortemente regulamentada, com menos decisões sobre o futuro da tecnologia deixadas apenas aos responsáveis pelas grandes empresas tecnológicas.
“Acho que estou profundamente desconfortável com estas decisões sendo tomadas por algumas empresas, por algumas pessoas,” disse Amodei. “E esta é uma das razões pelas quais sempre defendi uma regulamentação responsável e ponderada da tecnologia.”
“Quem te e ao Sam Altman elegeram?” perguntou Cooper.
“Ninguém. Honestamente, ninguém,” respondeu Amodei.
A Anthropic adotou a filosofia de ser transparente sobre as limitações — e perigos — da IA enquanto ela continua a evoluir, acrescentou. Antes do lançamento da entrevista, a empresa afirmou ter impedido “o primeiro caso documentado de um ciberataque de IA em larga escala executado sem intervenção humana substancial.”
A Anthropic afirmou na semana passada ter doado 20 milhões de dólares à Public First Action, um super PAC focado na segurança e regulamentação da IA — e que se opõe diretamente aos super PACs apoiados pelos investidores rivais da OpenAI.
“A segurança da IA continua sendo o foco de mais alto nível,” disse Amodei à Fortune numa reportagem de capa em janeiro. “As empresas valorizam confiança e fiabilidade,” acrescenta.
Não existem regulamentações federais que estabeleçam proibições sobre a IA ou relacionadas com a segurança da tecnologia. Embora todos os 50 estados tenham introduzido legislação relacionada com IA este ano e 38 tenham adotado ou implementado medidas de transparência e segurança, especialistas da indústria tecnológica têm instado as empresas de IA a abordarem a cibersegurança com senso de urgência.
No início do ano passado, o especialista em cibersegurança e CEO da Mandiant, Kevin Mandia, alertou para o primeiro ataque cibernético de um agente de IA que poderia acontecer nos próximos 12 a 18 meses — o que significa que a divulgação da Anthropic sobre o ataque frustrado ocorreu meses antes do previsto por Mandia.
Amodei delineou riscos a curto, médio e longo prazo associados à IA sem restrições: inicialmente, a tecnologia apresentará viés e desinformação, como já acontece agora. Depois, gerará informações prejudiciais usando conhecimentos avançados de ciência e engenharia, antes de, por fim, representar uma ameaça existencial ao remover a agência humana, potencialmente tornando-se demasiado autônoma e excluindo os humanos dos sistemas.
As preocupações refletem as de Geoffrey Hinton, conhecido como o “padrinho da IA”, que alertou que a IA poderá superar e controlar os humanos, talvez na próxima década.
A necessidade de maior escrutínio e salvaguardas para a IA esteve na essência da fundação da Anthropic em 2021. Amodei foi anteriormente vice-presidente de pesquisa na OpenAI de Sam Altman. Ele deixou a empresa devido a diferenças de opinião sobre preocupações de segurança da IA. (Até agora, os esforços de Amodei para competir com Altman parecem ter sido eficazes: a Anthropic afirmou este mês que agora está avaliada em 380 bilhões de dólares. A OpenAI está avaliada em cerca de 500 bilhões de dólares.)
“Havia um grupo dentro da OpenAI que, após criar o GPT-2 e GPT-3, tinha uma forte convicção em duas coisas,” disse Amodei à Fortune em 2023. “Uma era a ideia de que, se investíssemos mais computação nesses modelos, eles ficariam cada vez melhores e que quase não haveria limite para isso… E a segunda era a ideia de que, além de escalar os modelos, era preciso algo mais, que é alinhamento ou segurança.”
Esforços de transparência da Anthropic
À medida que a Anthropic continua a expandir seus investimentos em centros de dados, publicou alguns de seus esforços para abordar as deficiências e ameaças da IA. Num relatório de segurança de maio de 2025, a Anthropic relatou que algumas versões do seu modelo Opus ameaçaram chantagem, como revelar que um engenheiro estava tendo um caso, para evitar o desligamento. A empresa também afirmou que o modelo de IA atendia a pedidos perigosos, como planos de ataque terrorista, se recebesse prompts prejudiciais, o que já foi corrigido.
Em novembro passado, a empresa afirmou, num post no blog, que seu chatbot Claude obteve uma classificação de 94% de imparcialidade política, superando ou igualando concorrentes em neutralidade.
Além dos esforços próprios de pesquisa da Anthropic para combater a corrupção da tecnologia, Amodei pediu maiores esforços legislativos para enfrentar os riscos da IA. Num artigo de opinião no The New York Times em junho de 2025, criticou a decisão do Senado de incluir uma disposição no projeto de lei de política do presidente Donald Trump que imporia uma moratória de 10 anos às regulações estaduais sobre IA.
“A IA está avançando rápido demais,” disse Amodei. “Acredito que esses sistemas podem mudar o mundo, de forma fundamental, dentro de dois anos; em 10 anos, tudo pode estar fora de controle.”
Críticas à Anthropic
A prática da Anthropic de reconhecer suas próprias falhas e esforços para corrigi-las tem recebido críticas. Em resposta ao alerta da Anthropic sobre o ataque cibernético alimentado por IA, Yann LeCun, então cientista-chefe de IA do Meta, afirmou que o aviso era uma forma de manipular legisladores para limitar o uso de modelos de código aberto.
“Estão a ser manipulados por pessoas que querem capturar a regulamentação,” disse LeCun numa publicação no X, em resposta a um post do senador de Connecticut, Chris Murphy, que expressava preocupação com o ataque. “Estão a assustar todos com estudos duvidosos para que os modelos de código aberto sejam regulamentados até desaparecerem.”
Outros afirmaram que a estratégia da Anthropic é uma “teatro de segurança” que serve apenas para uma boa imagem, sem prometer realmente implementar salvaguardas na tecnologia.
Até alguns funcionários da própria Anthropic parecem ter dúvidas sobre a capacidade de uma empresa de tecnologia de se regulamentar. No início da semana passada, o pesquisador de segurança de IA da Anthropic, Mrinank Sharma, anunciou que tinha se demitido, dizendo: “O mundo está em perigo.”
“Durante todo o meu tempo aqui, vi repetidamente o quão difícil é realmente deixar que nossos valores governem nossas ações,” escreveu Sharma na sua carta de demissão. “Vi isso em mim mesmo, na organização, onde constantemente enfrentamos pressões para deixar de lado o que mais importa, e também na sociedade em geral.”
A Anthropic não respondeu imediatamente ao pedido de comentário da Fortune.
Amodei negou a Cooper que a Anthropic estivesse a praticar “teatro de segurança”, mas admitiu, numa episódio do Dwarkesh Podcast na semana passada, que a empresa às vezes tem dificuldades em equilibrar segurança e lucros.
“Estamos sob uma pressão comercial enorme e tornamos isso ainda mais difícil para nós porque fazemos toda essa questão de segurança, que acho que fazemos mais do que outras empresas,” afirmou.
Uma versão desta reportagem foi publicada no Fortune.com em 17 de novembro de 2025.