RL

Preço Ralph Lauren Corp

RL
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-28 08:47 (UTC+8)

Em 2026-04-28 08:47, o Ralph Lauren Corp (RL) está cotado a €0, com uma capitalização de mercado total de €19,14B, um Índice P/L de 18,17 e um rendimento de dividendo de 0,98%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de 313,64K. Ao longo das últimas 52 semanas, RL esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de RL

Fecho de ontem€316
Capitalização de mercado€19,14B
Volume313,64K
Índice P/L18,17
Rendimento de Dividendos (TTM)0,98%
Montante de dividendos€0
EPS diluído (TTM)15,03
Rendimento líquido (exercício financeiro)€633,39M
Receita (exercício financeiro)€6,03B
Data de ganhos2026-05-21
Estimativa de EPS2,46
Estimativa de receita€1,56B
Ações em circulação60,50M
Beta (1A)1.479
Data ex-dividendo2026-03-27
Data de pagamento de dividendos2026-04-10

Sobre RL

A Ralph Lauren Corporation desenha, comercializa e distribui produtos de estilo de vida na América do Norte, Europa, Ásia e internacionalmente. A empresa oferece vestuário, incluindo uma variedade de roupas para homens, mulheres e crianças; calçado e acessórios, que compreendem sapatos casuais, sapatos de cerimónia, botas, ténis, sandálias, óculos, relógios, joalharia de moda e fina, cachecóis, chapéus, luvas e guarda-chuvas, bem como artigos de couro, como bolsas, malas, pequenos artigos de couro e cintos; produtos para o lar, incluindo linhas de cama e banho, mobiliário, tecidos e revestimentos de parede, iluminação, loiças, têxteis de cozinha, revestimentos de chão e artigos de presente; e fragrâncias. Vende vestuário e acessórios sob as marcas Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children e Chaps; fragrâncias femininas sob as marcas Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection e Ralph Collection; e fragrâncias masculinas sob as marcas Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport e Big Pony Men's. A coleção de restaurantes da empresa inclui The Polo Bar em Nova Iorque; RL Restaurant em Chicago; Ralph's em Paris; The Bar at Ralph Lauren em Milão; e o conceito Ralph's Coffee. Vende os seus produtos a lojas de departamento, lojas especializadas e lojas de golfe e profissionais, bem como diretamente aos consumidores através das suas lojas físicas, lojas concessionárias e dos seus sites de comércio digital. A empresa opera diretamente 504 lojas de retalho e 684 lojas concessionárias; e gere 175 lojas Ralph Lauren, 329 lojas de fábrica e 148 lojas e lojas através de parceiros de licenciamento. A Ralph Lauren Corporation foi fundada em 1967 e tem sede em Nova Iorque, Nova Iorque.
SetorCíclico de consumo
IndústriaVestuário - Fabricantes
CEOPatrice Jean Louis Louvet
SedeNew York City,NY,US
Colaboradores (exercício financeiro)23,40K
Receita Média (1A)€257,92K
Lucro líquido por colaborador€27,06K

Perguntas Frequentes sobre Ralph Lauren Corp (RL)

Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?

x
Ralph Lauren Corp (RL) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para Ralph Lauren Corp (RL)?

x

Qual é o índice preço-lucro (P/L) de Ralph Lauren Corp (RL)? O que indica este valor?

x

Qual é a capitalização de mercado de Ralph Lauren Corp (RL)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?

x

Deve comprar ou vender Ralph Lauren Corp (RL) agora?

x

Que fatores podem influenciar o preço das ações da Ralph Lauren Corp (RL)?

x

Como comprar ações da Ralph Lauren Corp (RL)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias Ralph Lauren Corp (RL)

2026-04-23 04:54

A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo

Mensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.

2026-03-21 00:19

Cursor confirma oficialmente que Kimi K2.5 é a base, Moonshot AI: parceria comercial autorizada

Gate News notícia, 21 de março, de acordo com a monitorização da 1M AI News, a conta oficial do Moon of Darkness @Kimi_Moonshot publicou uma mensagem de parabéns pelo lançamento do Composer 2 pela Cursor, explicando que a Cursor acessa o Kimi K2.5 através da plataforma de raciocínio e RL hospedada pela Fireworks AI, como uma colaboração comercial autorizada. O cofundador da Cursor, Aman Sanger, e o vice-presidente de educação de desenvolvedores, Lee Robinson, posteriormente confirmaram publicamente a origem da base e divulgaram detalhes técnicos. Sanger afirmou que a equipa avaliou a perplexidade de várias bases, e que o Kimi K2.5 "provou ser o mais forte", seguido de pré-treinamento adicional e reforço de aprendizagem com 4 vezes a escala, implantado através do raciocínio e amostradores RL da Fireworks AI. Robinson acrescentou que, no modelo final, cerca de 1/4 do poder de computação vem da base, enquanto os restantes 3/4 são provenientes do treino próprio da Cursor. Ambos os fundadores admitiram que não mencionar a origem da base ao publicar o blog foi um "erro", prometendo que na próxima publicação de modelo irão indicar a origem da base imediatamente. Anteriormente, Elon Musk respondeu na discussão relacionada: "Yeah, it's Kimi 2.5", aumentando ainda mais o destaque do tópico.

2026-03-20 09:47

Cursor Composer 2 é acusado de utilizar o modelo Kimi K2.5, Moonshot AI acusa falta de conformidade com licença

Notícias do Gate News, 20 de março, de acordo com a monitorização da 1M AI News, o desenvolvedor @fynnso ao testar a requisição da API Cursor descobriu que o ID do modelo real do Composer 2 é kimi-k2p5-rl-0317-s515-fast, ou seja, "Kimi K2.5 + RL". O responsável pelo pré-treinamento do Moonshot AI, Du Yulun, publicou um tweet afirmando que, após testar o tokenizer do Composer 2, constatou que era "completamente idêntico ao nosso tokenizer Kimi", e que "quase podemos confirmar que este é o resultado de um modelo nosso que foi treinado adicionalmente", questionando diretamente @ Michael Truell, cofundador do Cursor, "por que não respeitam nossa licença e não pagaram nenhuma taxa". Quando o Cursor lançou o Composer 2 em 19 de março, afirmou que a melhoria de desempenho vinha de "um pré-treinamento contínuo do modelo base, combinado com aprendizagem por reforço", mas não mencionou o Kimi K2.5 em momento algum. O Kimi K2.5 utiliza uma versão modificada da licença MIT, que estipula claramente que produtos comerciais com mais de 100 milhões de usuários ativos mensais ou mais de 20 milhões de dólares de receita mensal devem exibir de forma destacada na interface do usuário a inscrição "Kimi K2.5". Com uma avaliação do Cursor de 29,3 bilhões de dólares e uma base de usuários pagantes, a receita mensal quase certamente ultrapassa esse limite. Até o momento da publicação, o Cursor não respondeu publicamente.

2026-02-12 14:21

Gradient lançou o quadro de aprendizagem por reforço distribuída Echo-2, e planeja lançar a plataforma RLaaS Logits

Foresight News notícia, Laboratório de IA Distribuída Gradient lança o quadro de reforço distribuído Echo-2, com o objetivo de romper as barreiras de eficiência no treinamento de pesquisa em IA. Este quadro consegue reduzir os custos de pós-treinamento de modelos grandes ao implementar a desacoplamento entre Learner e Actor na camada de arquitetura, visando diminuir o custo de pós-treinamento de modelos de 30B de 4500 dólares para 425 dólares. O Echo-2 utiliza tecnologia de separação de armazenamento e computação para realizar treinamento assíncrono (Async RL), suportando descarregar o poder de amostragem para instâncias de GPU instáveis e GPUs heterogêneas baseadas em Parallax. Este quadro, aliado a técnicas como staleness bound, agendamento tolerante a falhas de instância e o protocolo de comunicação proprietário Lattica, melhora a eficiência do treinamento mantendo a precisão do modelo. Além disso, a Gradient planeja lançar a plataforma RLaaS (Reinforcement Learning as a Service) Logits, que já está aberta para agendamento por estudantes e pesquisadores.

2026-01-02 09:15

Mecanismo Capital sócio: A escala de dados de IA de entidade em 2026 será ampliada em 100 vezes

A PANews informou a 2 de janeiro que Andrew Kang, sócio da Mechanism Capital, publicou na plataforma X que, em 2025, o campo da robótica irá resolver desafios antigos da arquitetura e treino de modelos, e fará progressos significativos na tecnologia de recolha de dados, compreensão da qualidade dos dados e formulação de dados, dando confiança às empresas de inteligência artificial de que eventualmente começarão a investir em recolha de dados em grande escala, e empresas como Figure, Dyna e PI irão utilizar aprendizagem por reforço (RL) A tecnologia inovadora atingiu uma taxa de sucesso superior a 99% em vários cenários práticos de aplicação. Além disso, os avanços na tecnologia de memória derrubaram a "parede de memória", o ReMEmber da NVIDIA utiliza navegação baseada em memória, Titans e MIRAS alcançam memória em tempo de teste, e melhores modelos de posicionamento virtual (VLMs) significam que os arrays de posicionamento virtual (VLAs) têm melhores capacidades de compreensão espacial, bem como processos de anotação e processamento de dados que podem melhorar significativamente o rendimento. Em 2025, o mercado irá inicialmente valorizar a capacidade zero-shot mapping, a sensibilidade à força visual e o raciocínio físico geral trazidos pela escala de dados, e a escala dos dados físicos de IA irá expandir-se 100 vezes em 2026.

Publicações em alta sobre Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

16 Horas atrás
Segundo um comunicado de imprensa emitido em 27 de abril pelo escritório de advogados Cooley, a empresa londrina de investigação em IA Ineffable Intelligence concluiu uma ronda de seed de 1,1 mil milhões de dólares (US$1,1B), com uma avaliação pós-investimento de 5,1 mil milhões de dólares (US$5,1B). A ronda foi liderada em conjunto pela Sequoia Capital e pela Lightspeed Venture Partners, com participação de empresas como Google, Nvidia e Index Ventures. Trata-se da maior ronda de seed de sempre na Europa ao longo dos anos, e representa o início de uma nova vaga de investimento no mercado de capital de IA — “não apenas aposta em LLM”. Ronda de seed de 1,1 mil milhões de dólares: a maior da história europeia, avaliação de 5,1 mil milhões de dólares A presente ronda de financiamento da Ineffable Intelligence ultrapassa diretamente todos os registos anteriores das empresas europeias de IA na “fase de seed”. Segundo um relatório do CNBC na mesma data, a avaliação pós-investimento da empresa ascende a 5,1 mil milhões de dólares (US$5,1 mil milhões de avaliação pós-investimento). Estrutura dos investidores: Liderança conjunta: Sequoia Capital, Lightspeed Venture Partners Participação estratégica: Google, Nvidia Fundo europeu em participação: Index Ventures Para o ecossistema europeu de capital de risco em IA, o significado desta operação vai muito além de uma única empresa — valida a estrutura de financiamento “mista” composta por “VC norte-americanos de primeira linha + gigantes tecnológicos norte-americanos + fundos europeus”, que pode ser concretizada em Londres para alcançar avaliações de seed que, em princípio, só existiriam no Vale do Silício. Fundador David Silver: principal arquiteto por detrás do AlphaGo e do AlphaZero O fundador David Silver é um antigo investigador sénior da Google DeepMind e também o principal arquiteto central por detrás do AlphaGo (2016, que derrotou o campeão mundial de Go Lee Sedol) e do AlphaZero (2017, que atingiu um nível sobre-humano ao aprender sozinho xadrez e shogi). Silver é igualmente uma das principais figuras académicas no domínio da aprendizagem por reforço (Reinforcement Learning, RL). A partir da segunda metade de 2025, ele se irá separando progressivamente da DeepMind, e no primeiro trimestre de 2026 será formalmente criada a Ineffable Intelligence. Sem seguir a rota de LLM: criar “superinteligência com aprendizagem sustentável” com aprendizagem por reforço A linha de investigação da Ineffable Intelligence difere da abordagem actualmente dominante dos grandes modelos de linguagem (LLM) — incluindo OpenAI GPT, Anthropic Claude e Google Gemini. A posição pública de Silver é a seguinte: os LLM dependem do modelo de “conjuntos de dados estáticos + treino prévio”, que, na essência, tem dificuldade em ultrapassar o limite imposto pelos dados de treino; a verdadeira superinteligência (superintelligence) deve ser capaz de “aprender continuamente a partir da sua própria experiência” (continually learning from its own experience). A descrição oficial da missão da empresa é “make first contact with superintelligence” (fazer o primeiro contacto com a superinteligência). O método central é o superlearner — um agente de aprendizagem capaz de descobrir todo o conhecimento através de ambientes interativos. Os detalhes técnicos não foram divulgados, mas, pelo contexto das pesquisas anteriores de Silver, o método deverá combinar aprendizagem por reforço em grande escala, autojogo (self-play) e simulação do ambiente. Porque escolher Londres: rede de antigos alunos da DeepMind e políticas de IA do Reino Unido Escolher Londres em vez do Vale do Silício tem três razões: (1) o ecossistema de talentos em IA do Reino Unido acumulado ao longo dos 14 anos anteriores da DeepMind, em que muitos investigadores seniores não estão dispostos a mudar-se para os EUA; (2) o Governo britânico tem vindo a impulsionar activamente o “AI Safety Institute” e subsídios de capacidade de computação de 2024 a 2026, criando incentivos fiscais e de infraestruturas para empresas de IA de ponta; (3) a governação de dados e as regulamentações de privacidade são relativamente menos rígidas para entidades com base na UE, facilitando o treino de modelos grandes em comparação com a Alemanha/França. A oportunidade desta ronda de financiamento também é particularmente digna de nota — em paralelo, a avaliação em mercado secundário da Anthropic subiu para 1 trilião de dólares (com a promoção em simultâneo do Claude Mythos), e a Ineffable Intelligence, recorrendo a uma “rota alternativa” (não LLM), conseguiu uma avaliação de 5,1 mil milhões de dólares, o que mostra que os principais VC começam a encarar a “diversificação das rotas de IA” como uma alocação necessária para fazer hedge ao risco. Observações sobre impacto: competitividade da IA europeia, aposta dupla da Nvidia e estratégia da Google Esta operação tem implicações concretas para as três partes: Para o ecossistema de IA europeu, a ronda de seed de 1,1 mil milhões de dólares é a transação individual com maior carga simbólica dos últimos dez anos — a Europa deixa de ser apenas uma fonte de exportação de talentos para os EUA, podendo montar localmente equipas de investigação ao nível. Se a Ineffable Intelligence conseguir entregar resultados representativos no prazo de 2-3 anos, isso impulsionará mais vagas de empreendedores em IA no Reino Unido/Alemanha/França. Para a Nvidia, trata-se de uma alocação relativamente rara na sua carteira de investimentos em IA “fora da rota de LLM” — no passado, a Nvidia apostou sobretudo em OpenAI, Mistral, CoreWeave e outras soluções relacionadas com LLM/compute. Investir na Ineffable, em equivalência, é colocar ovos em cestos diferentes, evitando que, caso os LLM batam num muro, o plano global fique completamente bloqueado. Para a Google, co-investir na nova empresa de um ex-funcionário seu não é invulgar no Vale do Silício, mas o montante é tão grande, e além disso é anunciado publicamente (a maioria de investimentos similares tende a ser discreta), o que indica que a Google ainda tem interesse estratégico na linha defendida por Silver — possivelmente, no futuro, poderá reconstituir o alinhamento por meio de aquisições, licenciamento de tecnologia ou colaboração com a Google Cloud para capacidade de computação. O próximo ponto a observar: o calendário de publicação da primeira paper técnica ou demo de produto da Ineffable Intelligence. O ritmo anterior de publicação de papers por parte de Silver era de uma grande obra a cada 12-18 meses; prevê-se que em finais de 2026 ou início de 2027 seja visto o primeiro marco validável externamente. Este artigo Ronda de seed de 1,1 mil milhões de dólares do pai do AlphaGo: a maior da história europeia, avaliação de 5,1 mil milhões de dólares aparece pela primeira vez em Cadeia Notícias ABMedia.
0
0
0
0
MarketWhisper

MarketWhisper

04-27 05:33
![AI自進化](https://img-cdn.gateio.im/social/moments-87a9b3933a-9bbb7108c3-8b7abd-badf29) A responsável da equipa de modelos de IA da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, sendo a primeira vez que ela expõe de forma sistemática as suas perspectivas técnicas publicamente enquanto responsável técnica. Luo Fuli afirmou que a corrida dos grandes modelos já passou da era do Chat para a era dos Agents e indicou que a “auto-evolução” será o acontecimento-chave para a AGI no próximo ano. ### **Da era do Chat à era dos Agents: juízo técnico central** ![小米大模型團隊負責人羅福莉訪談](https://img-cdn.gateio.im/social/moments-87a9b3933a-8bb3456888-8b7abd-badf29) (Fonte: Bilibili) Com base no que Luo Fuli disse na entrevista do Bilibili, ela afirmou que o foco da competição de grandes modelos em 2026 passará de métricas de qualidade de conversação genérica para a capacidade de execução autónoma e contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e manter uma execução estável durante 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela sublinhou que o avanço da capacidade de “auto-evolução” significa que os sistemas de IA começam a ter capacidade de autocorreção, e nomeou também as variáveis do percurso tecnológico da Anthropic e de tecnologias como o Claude Opus 4.6, bem como o impacto destas no ecossistema global de IA. ### **Ajustes na afetação de capacidade de computação da Xiaomi e avaliação do desfasamento de Pre-train** De acordo com as revelações de Luo Fuli durante a entrevista, a Xiaomi já realizou ajustes significativos na sua estratégia de alocação de capacidade de computação. Ela explicou que a proporção de capacidade de computação usada habitualmente na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi foi ajustada para 3:1:1, comprimindo de forma acentuada a proporção de treino pós-treino e, em simultâneo, aumentando o investimento de recursos na fase de inferência. Na entrevista, ela explicou que esta mudança se deve à maturidade da estratégia de Agent RL Scaling, pelo que o pós-treino já não necessita de empilhar grandes quantidades de capacidade de computação, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidades de resposta imediata nos cenários em que os Agents são implementados. Relativamente ao problema do desfasamento de gerações (de Pre-train) nos grandes modelos no mercado doméstico, Luo Fuli afirmou que este desfasamento passou de 3 anos no passado para alguns meses, e que o foco estratégico atual está a deslocar-se para Agent RL Scaling. O percurso profissional de Luo Fuli inclui o Alibaba DAMO Academy, a empresa de quantificação Huanfang Quant e a DeepSeek (desenvolvedora principal do DeepSeek-V2), e em novembro de 2025 juntou-se à Xiaomi. ### **Especificações técnicas da série MiMo-V2 e rankings de open source** De acordo com o comunicado da Xiaomi publicado oficialmente em 19 de março de 2026 sobre a série MiMo-V2, desta vez foram publicados três modelos de uma só vez: **MiMo-V2-Pro**:total de parâmetros, ativa parâmetros 42B, arquitetura de atenção mista, suporta contexto de milhões, taxa de conclusão de tarefas 81% **MiMo-V2-Omni**:cenários de Agent de modalidade total **MiMo-V2-TTS**:cenários de síntese de voz De acordo com o comunicado, o MiMo-V2-Flash que já foi disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência atinge 3 vezes a do DeepSeek-V3.2. ### **Perguntas frequentes** #### **Como é que Luo Fuli define “auto-evolução” e por que razão considera que é o evento mais crucial para a AGI?** Com base no que Luo Fuli afirmou numa entrevista na Bilibili em 24 de abril de 2026 (BV1iVoVBgERD), ela indicou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e executar de forma estável durante 2 a 3 dias sem necessidade de intervenção humana, e classificou a “auto-evolução” como o evento mais crucial para o desenvolvimento da AGI no próximo ano. #### **Que ajustes concretos fez a Xiaomi na afetação de capacidade de computação e qual é a lógica por trás?** Com base nas revelações de Luo Fuli na entrevista, a afetação de capacidade de computação da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1, utilizada habitualmente na indústria, para 3:1:1, comprimindo de forma acentuada a proporção do treino pós-treino; ela explicou que esta mudança se deve ao facto de, após a maturidade da estratégia de Agent RL Scaling, a eficiência do pós-treino ter aumentado e às necessidades de capacidades de resposta imediata no lado da inferência para os cenários de implementação de Agents. #### **Qual é o ranking open source e o desempenho de velocidade do MiMo-V2-Flash?** De acordo com o comunicado oficial publicado pela Xiaomi em 19 de março de 2026, o MiMo-V2-Flash disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência é 3 vezes a do DeepSeek-V3.2; a taxa de conclusão de tarefas da versão flagship MiMo-V2-Pro é de 81%.
0
0
0
0