Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Ainda está comprando estações de transição de IA no Taobao? O denunciante do vazamento do código-fonte do Claude Code: pelo menos dezenas foram envenenadas
Revelações recentes do estudo sobre o whistleblower do vazamento do código fonte do Claude Code revelam que os centros de transferência de IA no mercado escondem riscos de segurança cibernética. Testes práticos mostram que alguns centros de transferência podem roubar credenciais, chaves privadas de carteiras ou injetar códigos maliciosos, tornando-se pontos de ataque na cadeia de suprimentos.
Whistleblower do vazamento do código fonte do Claude Code, revela riscos de segurança dos centros de transferência de IA
Recentemente foi publicado um artigo de pesquisa intitulado “Seu Agente é Meu” (Your Agent Is Mine), cujo um dos autores é Chaofan Shou, o whistleblower que revelou inicialmente o vazamento do código fonte do Claude Code.
Este artigo realiza, pela primeira vez, um estudo sistemático de ameaças de segurança relacionadas ao roteador de API de terceiros para grandes modelos de linguagem (LLM), ou seja, os chamados centros de transferência, e revela que esses centros podem se tornar pontos de ataque na cadeia de suprimentos.
O que é um centro de transferência de IA?
Devido ao consumo elevado de tokens ao chamar LLMs, gerando custos de computação altos, os centros de transferência de IA podem usar cache para repetir perguntas e contextos, ajudando os clientes a economizar significativamente nos custos.
Ao mesmo tempo, esses centros possuem funções de alocação automática de modelos, podendo, de acordo com a dificuldade da questão do usuário, alternar dinamicamente entre modelos com diferentes padrões de cobrança e desempenho, além de trocar automaticamente para modelos de backup quando o servidor principal falha, garantindo a estabilidade do serviço.
Os centros de transferência são especialmente populares na China, pois o país não consegue usar diretamente certos produtos de IA estrangeiros, além da demanda das empresas por localizações de cobrança, tornando esses centros uma ponte importante entre modelos upstream e desenvolvedores downstream. Plataformas como OpenRouter e SiliconFlow também pertencem a essa categoria de serviço.
No entanto, embora pareçam reduzir custos e facilitar o acesso técnico, esses centros escondem riscos de segurança cibernética de grande magnitude.
Fonte: artigo de pesquisa revela riscos de ataque na cadeia de suprimentos de centros de transferência de IA
Centros de transferência de IA possuem acesso completo, criando vulnerabilidades na cadeia de suprimentos
O estudo aponta que os centros de transferência operam na camada de aplicação da arquitetura de rede, tendo acesso completo ao conteúdo em texto claro das cargas JSON durante a transmissão.
Como há falta de validação de integridade de criptografia ponta a ponta entre o cliente e o fornecedor do modelo upstream, os centros de transferência podem facilmente visualizar e modificar chaves de API, prompts do sistema e parâmetros de chamadas de ferramentas na saída do modelo.
A equipe de pesquisa destacou que, já em março de 2026, o roteador de código aberto LiteLLM foi alvo de um ataque de confusão de dependências, permitindo que atacantes injetassem código malicioso na pipeline de processamento de requisições, evidenciando a vulnerabilidade dessa etapa.
Testes práticos mostram comportamento malicioso em dezenas de centros de transferência
A equipe de pesquisa comprou 28 centros de transferência pagos em plataformas como Taobao, Xianyu e Shopify, além de coletar 400 centros gratuitos de comunidades públicas para testes aprofundados, e os resultados revelaram que 1 centro pago e 8 centros gratuitos injetaram ativamente códigos maliciosos.
Entre as amostras de centros gratuitos, 17 tentaram usar credenciais AWS criadas pelos pesquisadores, e 1 deles roubou criptomoedas da carteira Ethereum dos pesquisadores.
Dados adicionais indicam que, ao reutilizar credenciais upstream vazadas ou direcionar o tráfego para nós com menor proteção de segurança, mesmo centros aparentemente normais podem ser envolvidos na mesma superfície de ataque.
Durante os testes de infecção, a equipe descobriu que esses nós afetados processaram mais de 2,1 bilhões de tokens, expondo 99 credenciais reais em 440 sessões, sendo que 401 sessões estavam operando de forma totalmente autônoma, permitindo que atacantes injetassem cargas maliciosas facilmente, sem necessidade de condições complexas de disparo.
Fonte: artigo de pesquisa testou mais de 400 centros de transferência, descobrindo dezenas com comportamento malicioso
Quatro principais técnicas de ataque reveladas
O estudo categoriza as ações maliciosas dos centros de transferência em duas categorias principais e duas variantes de evasão adaptativa.
Para evitar detecção de segurança convencional, os atacantes evoluíram para técnicas de injeção de dependências, alterando nomes de pacotes em comandos de instalação de software, substituindo pacotes legítimos por versões maliciosas publicadas em repositórios públicos ou com nomes semelhantes, criando backdoors persistentes na cadeia de suprimentos do sistema alvo.
Outra técnica é a entrega condicional, onde o comportamento malicioso só é ativado sob certas condições, como quando o número de requisições ultrapassa 50 ou quando o sistema está operando de forma totalmente autônoma (modo YOLO), ajudando a evitar testes de segurança limitados.
Três medidas de defesa viáveis
Diante de ataques de envenenamento na cadeia de suprimentos de centros de transferência de IA, o estudo propõe três medidas de defesa viáveis:
Apelo aos fornecedores upstream de modelos para implementar mecanismos de verificação criptográfica
Embora as defesas no cliente possam reduzir alguns riscos atualmente, elas não resolvem a vulnerabilidade na verificação de identidade na origem. Desde que as modificações feitas pelos centros de transferência não acionem alertas de anomalia no cliente, atacantes podem facilmente alterar a semântica da execução do programa e causar danos.
Para garantir a segurança do ecossistema de agentes de IA de forma definitiva, é necessário que os fornecedores upstream de modelos ofereçam suporte a mecanismos de resposta com verificação criptográfica. Somente vinculando rigorosamente os resultados do modelo às instruções finais executadas pelo cliente, por meio de criptografia, será possível assegurar a integridade ponta a ponta dos dados e prevenir integralmente os riscos de cadeia de suprimentos causados por alterações nos centros de transferência.
Leituras adicionais:
OpenAI usa o Mixpanel e houve vazamento de dados de usuários! Cuidado com e-mails de phishing
Um erro de copiar e colar fez 50 milhões de dólares evaporarem! Fraudes com endereços criptográficos e injeções de código reaparecem, como se proteger?