Análise do GEPA do Berkeley: a IA aprende novas tarefas sem atualizar pesos, com 35 vezes menos custo de treinamento do que o RL

ChainNewsAbmedia

A equipe de pesquisa da Universidade da Califórnia em Berkeley apresentou um novo método de treinamento de IA, a GEPA, que já foi aceita na ICLR 2026 como artigo Oral. A GEPA não atualiza os pesos do modelo, não exige treinamento em GPU e, em vez disso, usa um único LLM que “lê um histórico de treinamento” para reescrever repetidamente os prompts de um sistema de IA. Com isso, ela vence em média métodos de reforço learning (GRPO) em 6% nas 6 tarefas, chegando ao melhor desempenho de 20%, com 35 vezes menos tentativas de treinamento (rollouts) necessárias. Depois que a pesquisa foi organizada por uma comunidade de engenharia de IA e se espalhou, gerou discussões na plataforma X; agora ela já foi integrada ao DSPy como um otimizador de primeira classe.

O que a GEPA faz: transformar o histórico de treinamento em material didático, sem olhar apenas para a pontuação

O fluxo de trabalho dos métodos tradicionais de reforço learning (como o GRPO) é: fazer a IA executar uma tarefa, atribuir uma pontuação “+1 ou -1” com base no resultado e, em seguida, ajustar os pesos do modelo repetidamente usando essa pontuação. O problema é que, durante a execução da tarefa, o processo de IA normalmente inclui etapas de raciocínio com milhares de tokens, chamadas de ferramentas e mensagens de erro — esses detalhes ricos acabam sendo comprimidos em uma única pontuação, e a informação do processo é descartada. Por isso, o RL precisa rodar dezenas de milhares de vezes até convergir.

A abordagem da GEPA é o oposto: após cada execução da tarefa, ela entrega todo o processo (reasoning, chamadas de ferramentas e registros de erros) para outro “LLM de reflexão” ler. O LLM de reflexão funciona como um engenheiro sênior lendo um log de código: ele identifica em que etapa ocorreu o erro, por que ocorreu e como o prompt deve ser modificado; depois disso, ele reescreve diretamente o prompt do módulo correspondente. Rodando a tarefa da mesma forma, a quantidade de sinal extraída pela GEPA é muito maior do que a de uma única pontuação do RL.

Por que ela consegue vencer: trocar “dar nota” por “ler o processo inteiro”

A GEPA vence o GRPO em 6 tarefas, com média de 6% e pico de 20%; e, em comparação, outro otimizador de prompts comum, o MIPROv2, também fica para trás em mais de 10% (aumentando 12% na base matemática AIME-2025). O ponto mais crítico está no custo de treinamento: a GEPA precisa de 35 vezes menos rollouts (uma execução completa da tarefa) para atingir o mesmo desempenho.

Um outro dado: após a integração com o DSPy, o “Full Program Adapter” da GEPA consegue otimizar todo o programa do DSPy (incluindo signature, módulos e fluxo de controle). Na base de matemática MATH, alcança 93% de acurácia, superando de forma significativa a escrita original do ChainOfThought do DSPy, que era de 67%. A GEPA também se destaca especialmente em fluxos de multi-module (agentes de IA encadeados por múltiplos módulos) — permitindo localizar com precisão qual módulo específico está falhando e reescrever apenas o prompt dele, em vez de ajustar o sistema inteiro.

Quem deve usar primeiro: DSPy como cidadão de primeira classe, e o código já está aberto no GitHub

O código da GEPA foi aberto no GitHub e é integrado ao framework do DSPy na forma de dspy.GEPA; além disso, também é disponibilizada separadamente como uma library Python. A equipe de pesquisa é composta por membros de UC Berkeley, Stanford, Notre Dame, Anthropic e outras instituições. Entre os autores do artigo estão Matei Zaharia (cofundador da Databricks e principal autor do DSPy) e Omar Khattab (principal autor do DSPy).

Para a comunidade de desenvolvedores, a GEPA oferece uma nova solução para um problema recorrente: “temos muitos rollouts, mas não sabemos como aproveitá-los”. Muitas equipes já acumularam dezenas de milhares de registros de execuções de agentes, mas, além de consultar algumas amostras para corrigir bugs quando dá erro, não existe um método sistemático para converter esses registros em melhorias do modelo. O próximo ponto de observação é ver como a GEPA se comporta em casos reais de fluxos de agentes em ambiente corporativo (como automação de atendimento ao cliente e reparo automático de código) e se surgirão implementações correspondentes de GEPA fora do framework DSPy.

Este artigo de Berkeley destrincha a GEPA: sem atualizar pesos, a IA aprende novas tarefas com 35 vezes menos custo de treinamento, vencendo o RL — a matéria original mais cedo sobre isso surgiu no ABMedia, via cadeias de notícias.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Particle Network Lança Roadmap de Contas Universais, Lança o Universal Deposit SDK e Contas de Agentes de IA

De acordo com a ChainCatcher, a Particle Network lançou hoje a próxima fase do roadmap dos Universal Accounts, apresentando dois novos produtos nos próximos meses: Universal Deposit SDK, que permite aos desenvolvedores adicionar depósitos multi-chain com aproximadamente 10 linhas de código, e Universal Agent Accounts,

GateNews5h atrás

Roblox lança software de IA para desafiar Unity e Epic Games

De acordo com a Bloomberg, a Roblox está lançando um novo software de IA para competir com a Unity Technologies e a Epic Games, cujos motores dominam o desenvolvimento de jogos com grandes orçamentos. O CEO Dave Baszucki afirmou que a ferramenta tem como objetivo ajudar os criadores a construir jogos multiplayer com gráficos fotorrealistas de forma mais fácil, impulsionada por ar

GateNews10h atrás

Marinha dos EUA assina contrato de quase US$ 100 milhões de IA com a Domino Data Lab para detecção de minas no Estreito de Ormuz

De acordo com a Agência de Notícias Xinhua, o Comando de Sistemas de Guerra de Informação da Marinha dos EUA assinou recentemente um contrato com a empresa de IA Domino Data Lab, com sede em San Francisco, para adquirir e implantar soluções de software de aprendizado de máquina. O contrato, avaliado em quase US$ 100 milhões se for totalmente executado, tem como objetivo a

GateNews12h atrás

XAI Grok lança vozes personalizadas: clonagem de 2 minutos e verificação de identidade em duas etapas

xAI lança Grok Custom Voices: grava cerca de 1 minuto de áudio no console e, em até 2 minutos, gera um modelo de voz personalizado utilizável para a API de TTS e Voice Agent. Em paralelo, lança Grok 4.3 e a Voice Library. Para evitar clonagem, adota autenticação em duas etapas: primeiro, a pessoa lê uma frase de verificação e, em seguida, o sistema compara o speaker embedding para garantir que apenas o mesmo indivíduo possa gerar a voz. A Voice Library consolida o gerenciamento de vozes feitas sob medida e de vozes pré-construídas, com 80+ tipos e 28 idiomas, com expansão prevista no futuro.

ChainNewsAbmedia13h atrás

OpenAI Codex versão desktop ganha recurso de “animal de estimação”: 3 estados de prompt, incubação com base no idioma de uso

A versão de desktop do OpenAI Codex lançou recentemente a funcionalidade “Pets”, permitindo que desenvolvedores acompanhem em tempo real o status das tarefas do Codex durante a codificação por meio de um personagem animado em forma de pop-up. De acordo com a documentação oficial da OpenAI, o overlay de pets alterna com base no status atual do Codex em 3

ChainNewsAbmedia15h atrás

MoonPay Lança o Cartão MoonAgents, uma Mastercard Virtual para Agentes de IA, na sexta-feira

De acordo com a The Block, a MoonPay lançou a MoonAgents Card, um cartão de débito virtual Mastercard, na sexta-feira. O cartão foi projetado tanto para agentes de IA quanto para usuários, convertendo stablecoins em moeda fiduciária no momento do pagamento e permitindo gastos em qualquer comerciante online global que aceite Mastercard. O cartão i

GateNews05-02 13:51
Comentário
0/400
Sem comentários