*Dados atualizados pela última vez: 2026-04-28 08:47 (UTC+8)
Em 2026-04-28 08:47, o Ralph Lauren Corp (RL) está cotado a €0, com uma capitalização de mercado total de €19,14B, um Índice P/L de 18,17 e um rendimento de dividendo de 0,98%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de 313,64K. Ao longo das últimas 52 semanas, RL esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.
Estatísticas principais de RL
Sobre RL
Saiba mais sobre Ralph Lauren Corp (RL)
Artigos Gate Learn
O que é a AI Arena (NRN)
Uma Análise Abrangente da AI Arena: Este jogo blockchain que integra IA explora sua jogabilidade central, infraestrutura, funcionalidade do token nativo $NRN, bem como oportunidades e riscos potenciais.
2025-01-07
Agentes ARC: Redefinindo a Jogabilidade de IA
Este artigo discute como o projeto ARC alavanca a inteligência artificial para abordar a questão crítica da liquidez do jogador em jogos indie e Web3, enquanto explora o desenvolvimento da ARC e o potencial do seu modelo de negócios
2024-12-10
Conectando recursos globais de GPU para revolucionar o futuro do aprendizado de máquina
io.net, aproveitando Solana, Render, Ray e Filecoin, é um sistema de GPU distribuído projetado para aproveitar recursos descentralizados de GPU para enfrentar desafios computacionais de IA e aprendizado de máquina.
2024-05-31
Perguntas Frequentes sobre Ralph Lauren Corp (RL)
Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?
Quais são os preços máximo e mínimo das últimas 52 semanas para Ralph Lauren Corp (RL)?
Qual é o índice preço-lucro (P/L) de Ralph Lauren Corp (RL)? O que indica este valor?
Qual é a capitalização de mercado de Ralph Lauren Corp (RL)?
Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?
Deve comprar ou vender Ralph Lauren Corp (RL) agora?
Que fatores podem influenciar o preço das ações da Ralph Lauren Corp (RL)?
Como comprar ações da Ralph Lauren Corp (RL)?
Aviso de Risco
Isenção de responsabilidade
Últimas Notícias Ralph Lauren Corp (RL)
A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo
Mensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.
2026-03-21 00:19Cursor confirma oficialmente que Kimi K2.5 é a base, Moonshot AI: parceria comercial autorizada
Gate News notícia, 21 de março, de acordo com a monitorização da 1M AI News, a conta oficial do Moon of Darkness @Kimi_Moonshot publicou uma mensagem de parabéns pelo lançamento do Composer 2 pela Cursor, explicando que a Cursor acessa o Kimi K2.5 através da plataforma de raciocínio e RL hospedada pela Fireworks AI, como uma colaboração comercial autorizada. O cofundador da Cursor, Aman Sanger, e o vice-presidente de educação de desenvolvedores, Lee Robinson, posteriormente confirmaram publicamente a origem da base e divulgaram detalhes técnicos. Sanger afirmou que a equipa avaliou a perplexidade de várias bases, e que o Kimi K2.5 "provou ser o mais forte", seguido de pré-treinamento adicional e reforço de aprendizagem com 4 vezes a escala, implantado através do raciocínio e amostradores RL da Fireworks AI. Robinson acrescentou que, no modelo final, cerca de 1/4 do poder de computação vem da base, enquanto os restantes 3/4 são provenientes do treino próprio da Cursor. Ambos os fundadores admitiram que não mencionar a origem da base ao publicar o blog foi um "erro", prometendo que na próxima publicação de modelo irão indicar a origem da base imediatamente. Anteriormente, Elon Musk respondeu na discussão relacionada: "Yeah, it's Kimi 2.5", aumentando ainda mais o destaque do tópico.
2026-03-20 09:47Cursor Composer 2 é acusado de utilizar o modelo Kimi K2.5, Moonshot AI acusa falta de conformidade com licença
Notícias do Gate News, 20 de março, de acordo com a monitorização da 1M AI News, o desenvolvedor @fynnso ao testar a requisição da API Cursor descobriu que o ID do modelo real do Composer 2 é kimi-k2p5-rl-0317-s515-fast, ou seja, "Kimi K2.5 + RL". O responsável pelo pré-treinamento do Moonshot AI, Du Yulun, publicou um tweet afirmando que, após testar o tokenizer do Composer 2, constatou que era "completamente idêntico ao nosso tokenizer Kimi", e que "quase podemos confirmar que este é o resultado de um modelo nosso que foi treinado adicionalmente", questionando diretamente @ Michael Truell, cofundador do Cursor, "por que não respeitam nossa licença e não pagaram nenhuma taxa". Quando o Cursor lançou o Composer 2 em 19 de março, afirmou que a melhoria de desempenho vinha de "um pré-treinamento contínuo do modelo base, combinado com aprendizagem por reforço", mas não mencionou o Kimi K2.5 em momento algum. O Kimi K2.5 utiliza uma versão modificada da licença MIT, que estipula claramente que produtos comerciais com mais de 100 milhões de usuários ativos mensais ou mais de 20 milhões de dólares de receita mensal devem exibir de forma destacada na interface do usuário a inscrição "Kimi K2.5". Com uma avaliação do Cursor de 29,3 bilhões de dólares e uma base de usuários pagantes, a receita mensal quase certamente ultrapassa esse limite. Até o momento da publicação, o Cursor não respondeu publicamente.
2026-02-12 14:21Gradient lançou o quadro de aprendizagem por reforço distribuída Echo-2, e planeja lançar a plataforma RLaaS Logits
Foresight News notícia, Laboratório de IA Distribuída Gradient lança o quadro de reforço distribuído Echo-2, com o objetivo de romper as barreiras de eficiência no treinamento de pesquisa em IA. Este quadro consegue reduzir os custos de pós-treinamento de modelos grandes ao implementar a desacoplamento entre Learner e Actor na camada de arquitetura, visando diminuir o custo de pós-treinamento de modelos de 30B de 4500 dólares para 425 dólares. O Echo-2 utiliza tecnologia de separação de armazenamento e computação para realizar treinamento assíncrono (Async RL), suportando descarregar o poder de amostragem para instâncias de GPU instáveis e GPUs heterogêneas baseadas em Parallax. Este quadro, aliado a técnicas como staleness bound, agendamento tolerante a falhas de instância e o protocolo de comunicação proprietário Lattica, melhora a eficiência do treinamento mantendo a precisão do modelo. Além disso, a Gradient planeja lançar a plataforma RLaaS (Reinforcement Learning as a Service) Logits, que já está aberta para agendamento por estudantes e pesquisadores.
2026-01-02 09:15Mecanismo Capital sócio: A escala de dados de IA de entidade em 2026 será ampliada em 100 vezes
A PANews informou a 2 de janeiro que Andrew Kang, sócio da Mechanism Capital, publicou na plataforma X que, em 2025, o campo da robótica irá resolver desafios antigos da arquitetura e treino de modelos, e fará progressos significativos na tecnologia de recolha de dados, compreensão da qualidade dos dados e formulação de dados, dando confiança às empresas de inteligência artificial de que eventualmente começarão a investir em recolha de dados em grande escala, e empresas como Figure, Dyna e PI irão utilizar aprendizagem por reforço (RL) A tecnologia inovadora atingiu uma taxa de sucesso superior a 99% em vários cenários práticos de aplicação. Além disso, os avanços na tecnologia de memória derrubaram a "parede de memória", o ReMEmber da NVIDIA utiliza navegação baseada em memória, Titans e MIRAS alcançam memória em tempo de teste, e melhores modelos de posicionamento virtual (VLMs) significam que os arrays de posicionamento virtual (VLAs) têm melhores capacidades de compreensão espacial, bem como processos de anotação e processamento de dados que podem melhorar significativamente o rendimento. Em 2025, o mercado irá inicialmente valorizar a capacidade zero-shot mapping, a sensibilidade à força visual e o raciocínio físico geral trazidos pela escala de dados, e a escala dos dados físicos de IA irá expandir-se 100 vezes em 2026.





























































































































































































































































































































