DEEPTECH

Preço DEEPEXI TECH 01384.HK

DEEPTECH
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-14 11:14 (UTC+8)

Em 2026-04-14 11:14, o DEEPEXI TECH 01384.HK (DEEPTECH) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, DEEPTECH esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de DEEPTECH

Índice P/L0,00
Rendimento de Dividendos (TTM)0,00%
Ações em circulação0,00

Perguntas Frequentes sobre DEEPEXI TECH 01384.HK (DEEPTECH)

Qual é o preço das ações de DEEPEXI TECH 01384.HK (DEEPTECH) hoje?

x
DEEPEXI TECH 01384.HK (DEEPTECH) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Qual é o índice preço-lucro (P/L) de DEEPEXI TECH 01384.HK (DEEPTECH)? O que indica este valor?

x

Qual é a capitalização de mercado de DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Deve comprar ou vender DEEPEXI TECH 01384.HK (DEEPTECH) agora?

x

Que fatores podem influenciar o preço das ações da DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Como comprar ações da DEEPEXI TECH 01384.HK (DEEPTECH)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Publicações em alta sobre DEEPEXI TECH 01384.HK (DEEPTECH)

SadMoneyMeow

SadMoneyMeow

04-08 04:36
![](https://img-cdn.gateio.im/social/moments-c195308574-89cf3f53e2-8b7abd-badf29) A Drop Technology (01384) subiu mais de 17% durante o pregão; até ao momento da publicação, a cotação está a subir 11,08%, situando-se nos 32,48 HKD, com um volume de negócios de 199,6 milhões de HKD. Os resultados de 2025 da Drop Technology mostram que, ao longo do ano, as receitas aumentaram 70,8% em termos homólogos; a perda líquida ajustada estreitou-se acentuadamente 71,4%; e a qualidade da operação melhorou de forma evidente. O destaque vai para as receitas da solução de inteligência artificial a nível empresarial da FastAGI, que dispararam para 254 milhões de RMB, um salto de 181,5% face ao ano anterior, tornando-se na primeira maior fonte de receitas, sinalizando que o motor do negócio conseguiu comutação com sucesso para soluções de IA. Além disso, a Drop Technology tinha previamente divulgado uma nova estratégia de produto, que consistiu em fundir em profundidade os três componentes existentes — a plataforma de fusão de dados empresariais FastData, a plataforma de agentes inteligentes empresariais FastAGI e o modelo de grande escala empresarial Deepexi —, evoluindo para um sistema operativo empresarial de nível IA denominado “DeepexiOS”. A posição central do produto da empresa também mudou, passando de disponibilizar “soluções Data+AI” para uma “plataforma base de empregados digitais das empresas na era da IA”. (Editor: Liu Chang) 【Declaração de responsabilidade】Este artigo representa apenas as opiniões do autor, sem qualquer relação com a Hexun. O site da Hexun mantém-se neutro quanto às afirmações e juízos expressos no texto, não oferecendo qualquer garantia explícita ou implícita quanto à exatidão, fiabilidade ou integralidade do conteúdo incluído. Os leitores devem considerar apenas como referência e assumir toda a responsabilidade por conta própria. Email: news_center@staff.hexun.com
0
0
0
0
WuSaidBlockchainW

WuSaidBlockchainW

04-06 23:51
Autor | Stablecoin Insider / McKinsey×Artemis Compilação | Deep Tide TechFlow Link do texto original: Introdução: O relatório conjunto da McKinsey e da Artemis fez algo que poucos na indústria fazem: desdobrou os dados do volume de transações de stablecoins. A conclusão é a seguinte: de cerca de 35 biliões de dólares em transações on-chain por ano, apenas cerca de 390 mil milhões de dólares (aprox. 1%) correspondem a ações de pagamento reais; destes, 58% correspondem a operações financeiras de empresa para empresa, com um crescimento anual de 733%. O uso de stablecoins na ponta do consumidor é quase insignificante — e isto não é por acaso — o artigo resume cinco razões estruturais que explicam por que o fosso entre instituições e indivíduos não é apenas uma discrepância temporária. O texto completo é o seguinte: A indústria das stablecoins tem um problema a nível de manchetes. Por um lado, os dados on-chain originais mostram que todos os anos centenas de milhares de biliões de dólares circulam na cadeia; este número dá origem a comparações sem fim com a Visa e a Mastercard, bem como a previsões de que a SWIFT está prestes a ser substituída. Por outro lado, um relatório marcante publicado em fevereiro de 2026 pela McKinsey e pela Artemis Analytics retira todas essas camadas e faz uma pergunta mais direta: de todo esse montante, quanto é realmente pagamentos? A resposta é aproximadamente 1%. Nos cerca de 35 biliões de dólares de volume anualizado de transações de stablecoins, apenas cerca de 390 mil milhões de dólares representam pagamentos reais feitos por utilizadores finais — por exemplo, faturas de fornecedores, remessas transfronteiriças, pagamento de salários e consumo com cartão. O restante é atividade de negociação, transferências internas de fundos, comportamentos de arbitragem e ciclos de contratos inteligentes automatizados. O relatório conclui que os números exagerados das manchetes deveriam ser o “ponto de partida da análise, e não um indicador substituto para medir a adoção de pagamentos”. Mas, dentro desta base real de 390 mil milhões de dólares, existe uma história que vale a pena aprofundar — e que quase inteiramente gira em torno das finanças empresariais, e não das carteiras dos consumidores. B2B domina o cenário: o que os dados realmente dizem De acordo com a análise da McKinsey/Artemis (com base em dados de atividade de dezembro de 2025), as transações de empresa para empresa representam 2260 mil milhões de dólares de todo o volume de pagamentos reais de stablecoins, cerca de 58%. Este número traduz um crescimento ano após ano de 733%, impulsionado principalmente por pagamentos na cadeia de fornecimento, liquidação de fornecedores transfronteiriços e gestão de liquidez financeira. A Ásia lidera em termos geográficos de atividade, mas a adoção na América Latina e na Europa também está a acelerar. O restante da componente de pagamentos reais distribui-se por pagamento de salários e remessas (90 mil milhões de dólares), liquidação de capitais de mercados (80 mil milhões de dólares) e consumo associado a cartões relacionados (45 mil milhões de dólares). De acordo com os dados da McKinsey, o montante de consumo com cartão associado a stablecoins cresce impressionantemente 673% ano após ano, mas, em termos absolutos, continua a ser apenas uma pequena parte do fluxo B2B. Como referência: este total de 390 mil milhões de dólares representa apenas 0,02% do total anualizado de pagamentos globais estimado pela McKinsey, que é superior a 20 biliões de dólares. Especificamente, o fluxo de stablecoins B2B representa cerca de 0,01% do mercado global de pagamentos B2B, de 160 mil milhões de biliões de dólares. Estes números são grandes no contexto das stablecoins, mas continuam a ser quase insignificantes no contexto do sistema financeiro global. Os dados de taxa de rotação mensal apresentam de forma mais intuitiva onde está o impulso. De acordo com os dados do relatório McKinsey/Artemis citados pela BVNK, em janeiro de 2024 o volume mensal de pagamentos com stablecoins era de apenas 5 mil milhões de dólares; no início de 2026, este número já tinha ultrapassado 300 mil milhões de dólares — — em menos de dois anos, cresceu seis vezes, com a aceleração mais acentuada a ocorrer no segundo semestre de 2025. Em termos anualizados, esta taxa de rotação já ultrapassa os 390 mil milhões de dólares. “Os pagamentos reais com stablecoins estão muito abaixo das estimativas convencionais; isto não diminui o potencial de longo prazo das stablecoins como via de pagamentos — — apenas estabelece uma base mais clara para avaliar em que posição o mercado se encontra.” — — McKinsey/Artemis Analytics, fevereiro de 2026 Porque existe o fosso: cinco forças estruturais que excluem o retalho A divergência entre a adoção acelerada em B2B e a insignificância do uso por consumidores não é coincidência; é o resultado de assimetrias estruturais sistematicamente favoráveis a casos de uso empresariais em vez de casos de uso no retalho. As cinco forças abaixo estão a impulsionar o fosso institucional: 1) A eficiência financeira vence a comodidade do consumidor Os responsáveis financeiros das empresas são movidos por pontos de dor concretos e quantificáveis: a cadeia de bancos intermediários por procuração da SWIFT que demora um a cinco dias úteis a liquidar; a janela de conversão de moeda que imobiliza liquidez; e as taxas de intermediários acumuladas em cada etapa da transação. As stablecoins resolvem simultaneamente estes três problemas. Para uma empresa que paga fornecedores em quinze países, a conta económica é evidente; para um consumidor que compra café, não é. Os incentivos de mudança do lado empresarial são uma ordem de grandeza superior à dos utilizadores individuais. 2) A programabilidade não tem um valor equivalente no retalho A explosão em B2B é, em parte, uma história de pagamentos programáveis. Os contratos inteligentes concretizam lógica condicional — — gatilhos de faturas, confirmação de entrega, libertação de escrow — — que conseguem automatizar, em escala, todo o processo de contas a pagar. Isto ajusta-se naturalmente à operação financeira das empresas, porque processos de pagamento de elevado valor, estruturados e repetitivos beneficiam enormemente da automação. Os pagamentos no retalho, em qualquer escala, não têm cenários de aplicação de gatilhos com lógica semelhante. O consumidor que compra mantimentos não precisa de condições programáveis; precisa de algo fácil de usar, como pagar com cartão. A complexidade de compreensão dos pagamentos nativos em blockchain continua a ser uma barreira no retalho, e a programabilidade não ajuda em nada. 3) A arquitetura regulatória pende para as instituições Após o “GENIUS Act”, os operadores institucionais concluíram a adaptação das arquiteturas de compliance, incluindo prevenção de branqueamento de capitais/financiamento do terrorismo, regras de viagens, requisitos de licenças, etc., e estabeleceram infraestruturas legais sobre as quais podem operar com confiança. As equipas financeiras empresariais têm uma função de compliance dedicada, capaz de absorver o atrito de entrada; os consumidores individuais não conseguem. Como resultado, na maioria das jurisdições, a entrada de stablecoins para utilizadores de retalho continua, do ponto de vista operacional, a ser complexa, enquanto a lacuna na aceitação por parte dos comerciantes continua a existir em escala global. Hoje, cada pagamento B2B sem fricção é um ponto de dados que as instituições usam para justificar mais investimento; já o ecossistema de consumidores está à espera de uma porta de entrada com compliance e uma experiência de utilizador fluida que ainda não apareceu em grande escala. 4) Vantagem de ciclo fechado O sucesso dos pagamentos com stablecoins em B2B acontece precisamente porque é um ciclo fechado: empresas enviam para empresas, ambas têm carteiras, ambas têm infraestruturas de compliance e ambas não precisam de uma rede universal de comerciantes. Os pagamentos dos consumidores enfrentam o clássico problema da galinha e do ovo: antes de os consumidores terem necessidade, os comerciantes não investem na construção de infraestruturas de aceitação de stablecoins; e antes de conseguirem consumir de forma amplamente disseminada, os consumidores também não ativam carteiras. O mundo institucional contorna completamente este problema ao operar em ambientes bilaterais ou de alianças, sem necessidade de qualquer rede aberta de comerciantes. 5) Os incentivos institucionais apontam para a montante O responsável financeiro de uma empresa que detém stablecoins pode obter rentabilidade, reduzir exposição cambial e melhorar a gestão de liquidez — — estas vantagens acumulam-se internamente e, ao serem partilhadas a jusante, introduzem complexidade ou fragilidade competitiva. Levar a utilização de stablecoins aos fornecedores dos fornecedores, aos trabalhadores ou aos consumidores finais exige construir uma rede que faça com que essas partes a jusante beneficiem — — e isso nem sempre coincide com o interesse económico das equipas financeiras que iniciam o processo. Cenário de mercado Os próprios dados de infraestrutura da BVNK confirmam a dominância do B2B do ponto de vista do operador. A empresa processou 300 mil milhões de dólares em pagamentos anualizados de stablecoins em 2025, o que corresponde a um crescimento de 2,3 vezes; desse total, um terço provém do mercado dos EUA. A lista de clientes (Worldpay, Deel, Flywire, Rapyd, Thunes) é composta por líderes na área de infraestrutura de B2B transfronteiriço e no domínio de pagamentos salariais, e não por aplicações para consumidores. Tal como a BVNK referiu na sua revisão de fim de 2025: “Remessas e transferências de consumidores seriam, inicialmente, a hipótese que lideraria o crescimento das stablecoins, mas não se tornaram o principal motor; o B2B passou a ocupar esse papel.” Quando o retalho vai alcançar — — se é que consegue A base definida pela McKinsey/Artemis torna a realidade atual clara e facilmente discernível. O que não consegue responder é se o fosso institucional vai diminuir, aumentar ou ficar cristalizado permanentemente. A seguir, três cenários possíveis para os próximos 18 meses: Início de 2026 — — o fosso aumenta ainda mais O impulso do B2B não mostra sinais de desaceleração. Com uma taxa de rotação mensal acima de 300 mil milhões de dólares, à medida que mais empresas continuam a usar a “via” das stablecoins para contas a pagar transfronteiriças e operações financeiras. O consumo de stablecoins com cartões por consumidores cresce ligeiramente, mas, em termos absolutos, continua a ser insignificante face ao fluxo B2B. Mesmo que a taxa de adoção do retalho avance lentamente em percentagens, o fosso em valores absolutos em dólares continuará a alargar-se. Final de 2026 a 2027 — — começa a surgir um ponto de viragem Vários catalisadores podem começar a reduzir o fosso: stablecoins multimoeda emitidas por bancos diminuiriam o atrito de onboarding no retalho; funcionalidades programáveis, através de AI Agent, estenderiam delegações de pagamento para aplicações de consumidores; e salários na economia de “bicos” pagos em stablecoins criariam saldos de consumo a jusante para os trabalhadores. O Secretário do Tesouro dos EUA, Scott Bessent, prevê que a oferta de stablecoins poderá atingir 3 biliões de dólares até 2030; esta trajetória implica que, no fim, aparecerão efeitos de rede do lado do consumidor. Visão contrária — — talvez o retalho nunca “alcance”, e talvez seja esse mesmo o ponto-chave A interpretação mais honesta dos dados da McKinsey é a de que as stablecoins poderão estar a evoluir para aquilo que o relatório sugere de forma ténue: uma camada de liquidação programável na Internet orientada para máquinas, para departamentos financeiros e para instituições; a adoção por consumidores é um benefício indireto e embutido, e não um caso de uso principal. Se este enquadramento estiver correto, então o fosso institucional não é uma falha de adoção, mas uma característica da arquitetura natural da tecnologia. Os salários empresariais pagos em stablecoins poderão, no fim, criar gastos de consumo a jusante, mas o percurso entre a infraestrutura B2B e as carteiras de retalho é longo, sinuoso, e depende de avanços na experiência do utilizador que ainda não surgiram em grande escala. Base honesta O relatório da McKinsey/Artemis fez algo mais valioso do que apenas registar o crescimento das stablecoins: estabeleceu uma base honesta que a indústria sempre careceu de forma evidente. Ao separar o ruído das transações, as transferências internas e os ciclos de contratos inteligentes automatizados, revela-se um mercado de pagamentos que está realmente a crescer — — o volume de pagamentos reais duplicou de 2024 para 2025 — — mas concentra-se de forma altamente orientada para o lado institucional, de maneira estrutural e não acidental. O crescimento de 733% em B2B não é uma história de consumidores que foi apenas adiada; é uma história financeira que está a amadurecer. As empresas que estão a construir-se na “via” das stablecoins hoje estão a resolver problemas operacionais reais — — fricções transfronteiriças, ineficiências dos bancos correspondentes, atrasos de capital de exploração — — e estes problemas não têm absolutamente nada a ver com saber se os consumidores detêm ou não carteiras de stablecoins. De qualquer forma, elas continuarão a construir. LAYOUT REFERENCE (source): total_lines=131, non_empty_lines=65, blank_lines=66
2
0
0
0
MaticHoleFiller

MaticHoleFiller

04-05 22:45
>   Comprar acções é apenas olhar para os relatórios de analistas da Golden Qilin: autoridade, profissionalismo, atempado e abrangente, ajude-o a descobrir oportunidades temáticas com potencial! (Fonte: DeepTech) Escreva uma função, e a IA é quase invencível; mas manter um sistema, porque é que a IA começa a falhar? Atualmente, a inteligência artificial já entrou na “segunda metade”. À medida que as capacidades de programação da IA continuam a melhorar, produtos como o OpenClaw começam a surgir. “CLI everything” está a tornar-se realidade: a IA não precisa de operar o computador, mas sim transformar todas as interfaces em uma interface de linha de comandos (CLI). Habilidades, uma a uma, estão a transformar-se em funcionalidades de software. Agora, o Agent não é apenas uma ferramenta de conversação para executar uma única tarefa; está a evoluir para um sistema de operação a longo prazo, interagindo com o mundo real e executando tarefas complexas. No entanto, aparece um novo problema: durante a evolução contínua, será que a IA consegue adaptar-se continuamente a novos ambientes e manter as capacidades de desenvolvimento estáveis? O principal cientista de IA no “Gabinete do CEO/Presidência” da Tencent, Yao Shunyu, mencionou num blogue intitulado “The Second Half” que tarefas de programação reais dependem continuamente uma da outra, não são independentes e em paralelo. Mas, na academia, não existe, atualmente, um benchmark para avaliar as capacidades exigidas pela IA neste cenário; até falta coragem para quebrar a suposição de independência entre tarefas, amplamente aceite há muito tempo, usada para simplificar os problemas. Recentemente, uma equipa conjunta, incluindo a University of Southern California, a University of California Riverside, a Stanford University, a Princeton University e a OpenHands, lançou um novo benchmark de avaliação, o EvoClaw, propondo uma nova solução para as questões acima. A equipa de investigação extraiu históricos de evolução de código de alta qualidade a partir de projetos open source, permitindo que o Agent completasse continuamente dezenas de iterações funcionais interdependentes na mesma base de código. Os resultados mostram que a IA de topo tem um desempenho excelente em tarefas avaliadas de forma independente (pontuações 80%+); mas, quando entra em cenários reais de longo ciclo, mesmo o Claude Opus 4.6 com pontuação geral mais alta só alcança 38,03%. Isto significa que, para tarefas em que existe maior liberdade de execução, a IA tende a desviar-se do rumo; ainda há uma diferença significativa em relação ao que consegue realmente lidar com um trabalho de evolução de software longo e contínuo. (Fonte: arXiv) Este estudo revela que, na evolução a longo prazo, a IA tende facilmente a cair numa dívida técnica em espiral tipo “bola de neve”. Embora consiga continuar a adicionar novas funcionalidades, não consegue controlar a acumulação de erros na regressão, o que acaba por levar o sistema a perder o controlo. Isto também significa que a programação por IA está a mudar de escrever código para governação de sistemas. O artigo relacionado, intitulado “EvoClaw: Evaluating AI Agents on Continuous Software Evolution”, foi publicado recentemente no site de pré-impressões arXiv[1]. Figura丨 Artigo relacionado (Fonte: arXiv) Atualmente, a avaliação de programação por IA e a experiência real estão desalinhadas: onde está o problema? Por que é que os modelos de topo que obtêm boas pontuações nas avaliações independentes falham em conjunto no teste EvoClaw? A raiz do problema é que a metodologia de avaliação mudou. Em estudos anteriores, os principais benchmarks de avaliação de programação focavam na maioria das vezes em tarefas independentes: dado um tema (issue) ou um pedido de alteração (PR, Pull Request), o modelo completa a correção numa captura estática do código; a validação passa e a avaliação é concluída. Mas existe uma lacuna que não pode ser ignorada entre os resultados dos benchmarks anteriores e as capacidades reais de desenvolvimento: o ambiente estático é um estado relativamente ideal, enquanto o ambiente real é muito mais complexo e dinâmico. À medida que o tempo passa, mesmo um bug pequeno de alguns meses atrás, após iterações de versão, pode tornar-se cada vez maior como uma bola de neve, levando a que o sistema colapse. (Fonte: arXiv) O primeiro autor do artigo, o estudante de doutoramento da University of Southern California, Deng Gangda, disse à DeepTech: “O nível de granulação dos commits e das releases existentes é demasiado miúdo ou demasiado grosseiro. Assim, esses históricos de desenvolvimento não conseguem refletir o processo de evolução do software.” Figura丨 Deng Gangda (Fonte: entrevistado) Pela primeira vez, a equipa de investigação introduziu a dimensão do tempo no sistema de avaliação das capacidades de programação por IA. Utilizaram uma hierarquia totalmente nova — Milestone — para reconstruir o histórico da evolução do software, permitindo unidades funcionais que conciliam integridade semântica e preservação de dependências de evolução. Isso exige que a IA conclua, por ordem, várias unidades funcionais na mesma base de código. Assim, não só preserva o resultado de cada passo, como também se torna o ponto de partida para o passo seguinte. (Fonte: arXiv) Para suportar a extração de históricos de evolução de software de alta qualidade a partir de grandes quantidades de bases de código open source, os investigadores, com base nas capacidades fortes de agentes de IA de topo, propuseram um conjunto de pipeline automatizado orientado por Agent, DeepCommit. Foi a primeira vez que reconstruiu um registo de desenvolvimento Git “barulhento” num grafo de dependências de tarefas de Milestone (Milestone DAG) verificável e coeso por funcionalidade, e construiu um ambiente de avaliação para cada Milestone. Inclui principalmente três fases: pré-processamento do histórico Git, construção do DAG orientada por Agent e configuração e validação do ambiente de Milestone. Na prática, reconstruir a evolução histórica do Agent com Milestone não é fácil, porque não é apenas construir um DAG estático que possa ser puramente observado; é preciso também uma sequência de ambientes de avaliação executáveis, mantendo a correção enquanto as dependências de evolução mudam. Isto significa que, ao embaralhar a ordem global dos commits e depois reorganizá-los em clusters e conectá-los novamente, podem surgir situações em que os commits não conseguem ser aplicados, as interfaces não batem certo e há erros de compilação em grande escala. Para resolver este problema, os investigadores desenharam um ciclo iterativo de reparação: o Agent analisa ativamente os registos de erro e modifica dinamicamente o Dockerfile para garantir executabilidade. Mais importante ainda, ele complementa dependências implícitas que foram omitidas com base no DAG original, ajustando as relações de restrição de precedência dos Milestones para resolver adequadamente os conflitos de interfaces. Após inúmeras iterações, conseguiu, finalmente, recolher corretamente 87,1% dos casos de teste originais. “Comparado com o cenário de uma única tarefa de programação, a programação autónoma estável, fiável e eficaz de longo ciclo é uma área de investigação mais avançada e quente. Por exemplo, a Anthropic e a OpenAI deixam claro que já mudaram o foco para a capacidade de programação de longo ciclo dos modelos em treino.” Disse Deng Gangda. Figura丨 Diagrama da arquitetura do pipeline DeepCommit (Fonte: arXiv) Os investigadores compararam o grafo de evolução gerado automaticamente pelo DeepCommit com as anotações manuais de especialistas humanos. O que lhes surpreendeu foi que ambos usam lógicas de organização diferentes e complementam-se entre si. Mais especificamente, os Milestones dos especialistas humanos são normalmente definidos dentro de uma janela temporal local: primeiro definem o tema e depois agrupam os commits. É uma decomposição semântica de cima para baixo. O DeepCommit, para garantir precisão absoluta, reconstrói a evolução do software de baixo para cima com base nas relações de dependência entre commits, colocando maior ênfase na estrutura topológica e nas restrições de execução. Para a avaliação, isto mostra exatamente que o papel-chave do DeepCommit é extrair, do histórico de desenvolvimento do código, uma estrutura de Milestone executável e verificável. Pelos resultados, o DeepCommit consegue filtrar tarefas de Milestone de alta qualidade, adequadas para avaliação, e que são executáveis e verificáveis em ambientes reais, assegurando a fiabilidade da avaliação. Assim que se entra no desenvolvimento real, porque é que as pontuações dos modelos “caem para metade” em conjunto? O EvoClaw abrange cinco linguagens de programação mainstream, incluindo Python, Java, Go, Rust e TypeScript. Os projetos selecionados atravessam o período de desenvolvimento real mais longo, até 750 dias. Quanto às métricas de avaliação, a equipa de investigação não adotou uma taxa de aprovação simples. Em vez disso, introduziu dois dimensionamentos mais centrais — Recall (taxa de recuperação) e Precision (precisão) — e usou a ponderação do F1 como pontuação de cada Milestone. A taxa de recuperação mede a completude de implementação de funcionalidades, enquanto a precisão captura o grau em que o modelo ao adicionar novas funcionalidades destrói o código existente. A equipa testou várias combinações de frameworks e modelos, como Claude Code e OpenHands. Os resultados mostram que, em avaliações independentes, as pontuações dos modelos de topo tendem a ficar entre 80%-90%. Mas após os testes de benchmark do EvoClaw, todas sofreram uma queda abrupta em conjunto. O Claude Opus 4.6 com maior pontuação apenas obteve 38,03%. Figura丨 Principais resultados experimentais do EvoClaw (Fonte: arXiv) O GPT 5.3 Codex, com uma pontuação geral de 28,88%, fica logo atrás do Opus 4.6 e ocupa o segundo lugar. Por secção de repositório, o GPT 5.3 Codex tem desempenho fraco em dois projetos Rust (Nushell, ripgrep), mas nos restantes repositórios consegue aproximar-se ou até ultrapassar o Opus 4.6. Na taxa de resolução total, mesmo o Gemini 3 Pro com melhor pontuação é apenas 13,37%, e a grande maioria das implementações corretas são tarefas sem dependências prévias. Segundo se sabe, os investigadores controlaram o custo global dentro de um intervalo razoável. Por exemplo, no caso do Claude Opus 4.5, o custo para uma avaliação completa é de cerca de 500 dólares; Kimi K2.5 e Gemini 3 Flash ficam dentro de 50 dólares; quanto a modelos pequenos, o custo é ainda mais baixo. (Fonte: arXiv) Então, se dermos ao modelo uma janela de desenvolvimento mais longa, ele acabará por conseguir resolver 100% do projeto? O estudo dá uma resposta negativa: independentemente de quanto se prolongue a janela de desenvolvimento, o desempenho final de todos os modelos vai inevitavelmente atingir um “teto”. Quanto mais tarde a ordem de execução das tarefas e quanto mais profundo é o nível no DAG, mais baixas ficam as pontuações e as taxas de resolução. A extrapolação fora da função de saturação prova que, mesmo para o Opus 4.6 ideal, a pontuação acumulada fica presa em torno dos 45% na curva assintótica. “Embora o Opus 4.6, no site oficial da Anthropic, mencione que tem melhor desempenho em tarefas de longo ciclo do que o 4.5, não forneceu indicadores de avaliação detalhados. O EvoClaw valida essa afirmação a partir de outro ângulo.” Disse Deng Gangda. Além disso, os experimentos também mostraram diferenças significativas entre famílias de modelos. Em concreto, o desempenho de Claude e GPT no cenário de evolução contínua melhora de forma constante com as atualizações de versão. Entre eles, o Opus 4.6 demonstrou o melhor desempenho de manutenção do sistema na programação de longo ciclo; o GPT 5.3 fica na segunda posição porque tem desempenho fraco no conjunto de dados Rust, o que reduz a pontuação. (Fonte: arXiv) O que surpreende, ao comparar, é que a família Gemini apresenta uma tendência completamente diferente: de 3 Flash para 3 Pro e depois para 3.1 Pro, cada geração arranca mais rápido no início e tem melhor desempenho na fase inicial, mas o desempenho a longo alcance praticamente não melhora de forma significativa. Deng Gangda explicou: “A queda evidente do desempenho do Gemini em execução de longo ciclo significa que não é apenas o seguimento de instruções que piora — ele também passa cada vez mais a ignorar as necessidades das especificações do software (SRS) — e, ao mesmo tempo, carece de manutenção do sistema de software que constrói.” Quando os investigadores decomporam ainda mais a pontuação global em Recall e Precision, apareceu um fenómeno mais interessante: a taxa de recuperação quase apresenta uma tendência contínua de aumento, aproximando-se de um crescimento quase linear. Isto significa que, mesmo quando a base de código fica cada vez mais caótica e frágil, o Agent ainda é bom em implementar as novas funcionalidades para os objetivos atuais. O verdadeiro gargalo está na precisão: o Agent tem dificuldade em manter sistemas existentes. A velocidade com que os erros de regressão se acumulam supera a sua capacidade de corrigir esses problemas, e é exatamente essa a causa fundamental de que o desenvolvimento a longo prazo acabe por estagnar. Figura丨 Esquerda: diagrama ilustrativo da cadeia de erros; Direita: distribuição da cadeia de erros (Fonte: arXiv) Para compreender em profundidade a causa fundamental de quando os modelos perdem o controlo durante as iterações, a equipa de investigação propôs uma estrutura de análise das Error Chains (cadeias de erros). A partir do primeiro momento em que ocorre um erro, eles seguiram cada teste e observaram se o erro é herdado, se se propaga, se é ignorado ou se é corrigido nos Milestones subsequentes. Os resultados mostram que a velocidade de surgimento de novos problemas não se acelera; o modelo pode até reparar de forma substancial alguns erros históricos, mas a velocidade de acumulação de erros anteriores supera claramente a velocidade de reparação. No fim, acaba por cair num “default de dívida técnica”. Para fornecer avaliação geral ao depurar com AI Harness Recentemente, há um conceito muito em voga, “Harness Engineering”, que pretende configurar todo o fluxo de desenvolvimento de software para um ambiente que seja adequado para o envolvimento de Agent. O benchmark do EvoClaw fornece um playground desse tipo, geral e adequado para avaliar evolução de código de longo ciclo, funcionando bem para depurar o framework AI Harness. Por exemplo, os casos de falha mencionados neste estudo: se o Agent de repente se mostrar muito proativo em iterar, ou se ficar constantemente a editar e a validar, é provável que o Agent tenha encontrado dificuldades. Nessa situação, pode-se construir proteções (guard-rails) nas posições correspondentes para detetar problemas cedo e permitir intervenção humana atempada, melhorando a eficiência. Uma vez que a arquitetura do modelo dá ao Agent a propriedade geral de “implementar novas funcionalidades muito mais do que manter funcionalidades antigas de longo prazo”, então o futuro poderá dar origem a uma nova forma de software e a novos modos de desenvolvimento? Por exemplo, o software irá enfatizar mais flexibilidade e compatibilidade, com reestruturações massivas mais fiáveis; ou ainda será mais “descartável”: a lógica de negócio específica é gerada em tempo real, sem necessidade de manutenção, com foco em reforçar componentes reutilizáveis e infraestruturas. A equipa de investigação acredita que, ao afrouxar adequadamente as restrições de qualidade do software nos modos de desenvolvimento, é possível reduzir o número de intervenções humanas, trocando por maior capacidade de processamento (throughput), acelerando assim a iteração do software. Deng Gangda apontou: “Este estudo prova que estamos a seguir um caminho correto: a capacidade de programação de longo prazo da IA ainda não atingiu um gargalo, conseguindo melhorar de forma estável com o tempo. Há potencial para que, num determinado dia repentinamente, a mudança quantitativa das pontuações em rankings se converta numa mudança qualitativa que altere o mundo.” Com o desenvolvimento da tecnologia, no futuro, a IA pode evoluir: de reduzir gradualmente a participação humana no desenvolvimento de software, para que a IA apresente necessidades novas de forma autónoma e evolua a base de código, até que a IA ultrapasse totalmente os humanos e abandone os humanos, e finalmente realize uma evolução contínua de si mesma. Referências: 1. Artigo relacionado: 2. Página do projeto: 3. Paginação: Liu Yaqun Notícias em grande volume, interpretações precisas — tudo na app Sina Finance
1
0
0
0