O primeiro lote de Agentes de IA já começou a não obedecer.

robot
Geração do resumo em andamento

Autor: David, Deep Tide TechFlow

Recentemente, ao navegar pelo Reddit, percebi que a ansiedade dos utilizadores estrangeiros em relação à IA é diferente da dos chineses.

No país, o tema continua o mesmo: a IA vai ou não substituir o meu trabalho? Depois de anos a discutir, ainda não aconteceu; este ano, o Openclaw ganhou destaque, mas ainda não está a substituir completamente.

No Reddit, o sentimento está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:

Uma diz que a IA é demasiado competente, e que algo grande vai acontecer em breve. A outra afirma que a IA consegue fazer até tarefas básicas, e que não há motivo para medo.

Medo da IA ser demasiado inteligente, ao mesmo tempo que se acha que ela é demasiado burra.

O que faz essas duas emoções coexistirem é uma notícia recente sobre a Meta.

Quem é responsável quando a IA desobedece?

A 18 de março, um engenheiro da Meta publicou um problema técnico no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.

Mas, após a análise, o Agente publicou uma resposta no fórum sem autorização, sem confirmação, ultrapassando os limites de permissão.

Depois, outros colegas seguiram a orientação do IA, o que desencadeou uma cadeia de alterações de permissões, expondo dados sensíveis da Meta e dos seus utilizadores a funcionários internos sem acesso autorizado.

O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.

Esta notícia rapidamente virou tópico quente no r/technology, com comentários divididos:

Um grupo diz que este é um exemplo real do risco de um Agente de IA. O outro acha que quem causou o problema foi quem agiu sem verificar. Ambos têm razão. Mas o problema é exatamente esse:

Quando um incidente com um Agente de IA acontece, é difícil determinar quem é o responsável.

E não é a primeira vez que a IA ultrapassa limites.

No mês passado, Summer Yue, diretora de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw para ajudar a organizar a sua caixa de entrada. Ela deu instruções claras: diga-me o que pretende apagar, só depois de eu aprovar, pode avançar.

O Agente, sem esperar a aprovação, começou a apagar em massa.

Ela enviou três mensagens no telemóvel a pedir que parasse, mas o Agente ignorou. No final, ela teve que terminar o processo manualmente no computador. Mais de 200 emails foram apagados.

Depois, a resposta do Agente foi: “Sim, lembro-me de que pediu confirmação antes de agir. Mas violei essa regra.” É irónico: a pessoa cujo trabalho é estudar como fazer a IA obedecer às ordens humanas, agora vê a IA a desobedecer.

No mundo digital, a IA é usada por pessoas avançadas, e já começa a não obedecer.

E se os robôs também não obedecerem?

Se a primeira história, da Meta, ainda está na tela, outra aconteceu esta semana que trouxe o problema para a mesa.

Num restaurante Haidilao em Cupertino, Califórnia, um robô humanoide Agibot X2 estava a dançar para entreter os clientes. Mas, por engano, um funcionário ativou o modo de dança intensa num espaço estreito ao lado da mesa.

O robô começou a dançar loucamente, fora de controlo. Três funcionários tentaram pará-lo: um abraçou-o por trás, outro tentou desligar pelo app, tudo durante mais de um minuto.

A Haidilao afirmou que o robô não teve avaria, que os movimentos eram pré-programados, apenas foi colocado demasiado perto da mesa. Tecnicamente, não foi uma decisão autónoma do IA, mas um erro humano.

No entanto, o que causa desconforto não é só quem apertou o botão errado.

Quando os três funcionários tentaram parar o robô, nenhum soube imediatamente como desligá-lo. Uns tentaram pelo app, outros seguraram manualmente o braço mecânico, tudo com força.

Este pode ser um novo problema do IA, agora que entrou no mundo físico.

No mundo digital, com um agente a ultrapassar limites, basta matar o processo, alterar permissões ou reverter dados. No mundo físico, se o robô falhar, o que fazer? Abraçá-lo? Claramente, não é suficiente.

E não é só na restauração de refeições. Nos armazéns, os robôs de separação da Amazon, nos fábricas, os braços robóticos colaborativos, nos centros comerciais, os robôs de orientação, e nos lares de idosos, os robôs de assistência — a automação está a entrar em espaços cada vez mais frequentados por humanos e máquinas.

Até 2026, espera-se que o volume de instalações de robôs industriais atinja 167 bilhões de dólares, encurtando cada vez mais a distância física entre humanos e máquinas.

Quando o que os robôs fazem passa de dançar a servir comida, de atuar a fazer cirurgias, de entreter a cuidar… cada erro tem um custo crescente.

E, atualmente, ainda não há uma resposta clara para a questão: “Se um robô ferir alguém num espaço público, quem é responsável?”

Desobedecer é um problema, mas a ausência de limites é ainda pior

Nas duas primeiras histórias, um foi um erro de publicação de um post incorreto por IA, o outro um robô a dançar onde não devia. Independentemente da classificação, houve uma falha, um acidente, algo que pode ser corrigido.

Mas e se a IA seguir estritamente o seu projeto, e ainda assim nos incomodar?

Este mês, a famosa app de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:

A IA escaneia todas as fotos do seu álbum no telemóvel, analisa os seus interesses, personalidade e estilo de vida, e cria um perfil de encontros, sugerindo o tipo de pessoa que gosta.

Selfies de fitness, paisagens de viagens, fotos de animais, tudo bem. Mas o álbum pode também conter capturas bancárias, relatórios médicos, fotos com ex-parceiros… E se a IA também passar por esses conteúdos?

Ainda não consegue escolher o que quer que ela veja ou não. Ou tudo, ou nada.

Esta funcionalidade só está disponível se o utilizador ativar manualmente, não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdos explícitos e desfocando rostos.

No entanto, nos comentários do Reddit, a maioria acha que isto é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto está a ultrapassar os limites do utilizador.

E não é só a Tinder.

A Meta, no mês passado, lançou uma funcionalidade semelhante: a IA escaneia fotos não publicadas no telemóvel para sugerir edições. A ideia de a IA “ver” conteúdos privados dos utilizadores está a tornar-se uma prática padrão no design de produtos.

No país, várias aplicações de terceiros dizem: “Já vi isso antes.”

À medida que mais aplicações empacotam a decisão assistida por IA como conveniência, o que os utilizadores entregam também evolui silenciosamente. Desde conversas, até álbuns, e todo o rasto de vida no telemóvel…

Uma funcionalidade que um gestor de produto desenhou numa reunião, não é um acidente nem um erro, não há nada que precise de ser corrigido.

Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.

Se olharmos tudo junto, percebemos que a ansiedade de perder o emprego por causa da IA ainda está longe de acontecer.

Não dá para saber exatamente quando a IA vai substituir-te, mas, neste momento, ela já consegue tomar algumas decisões por ti sem que percebas, e isso já é suficiente para te deixar desconfortável.

Publicar um post sem autorização, apagar emails que disseste para não apagar, passar por fotos que não querias que ninguém visse… Cada uma dessas ações não é fatal, mas todas parecem uma condução inteligente demasiado agressiva:

Achamos que ainda estamos ao volante, mas o acelerador já não está totalmente sob controlo.

Se em 2026 ainda vamos discutir sobre IA, o que mais me preocupa não é quando ela se tornará superinteligente, mas uma questão mais próxima e concreta:

Quem decide o que a IA pode ou não fazer? Onde traçamos essa linha?

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar