RL

Preço Ralph Lauren Corp

RL
€309,54
+€4,06(+1,32%)

*Dados atualizados pela última vez: 2026-05-01 15:33 (UTC+8)

Em 2026-05-01 15:33, o Ralph Lauren Corp (RL) está cotado a €309,54, com uma capitalização de mercado total de €18,55B, um Índice P/L de 18,17 e um rendimento de dividendo de 1,01%. Hoje, o preço das ações oscilou entre €303,08 e €310,50. O preço atual está 2,13% acima do mínimo do dia e 0,31% abaixo do máximo do dia, com um volume de negociação de 419,83K. Ao longo das últimas 52 semanas, RL esteve em negociação entre €301,05 e €330,03, estando atualmente a -6,20% do máximo das 52 semanas.

Estatísticas principais de RL

Fecho de ontem€306,72
Capitalização de mercado€18,55B
Volume419,83K
Índice P/L18,17
Rendimento de Dividendos (TTM)1,01%
Montante de dividendos€0,77
EPS diluído (TTM)15,03
Rendimento líquido (exercício financeiro)€633,91M
Receita (exercício financeiro)€6,04B
Data de ganhos2026-05-21
Estimativa de EPS2,46
Estimativa de receita€1,56B
Ações em circulação60,50M
Beta (1A)1.479
Data ex-dividendo2026-03-27
Data de pagamento de dividendos2026-04-10

Sobre RL

A Ralph Lauren Corporation desenha, comercializa e distribui produtos de estilo de vida na América do Norte, Europa, Ásia e internacionalmente. A empresa oferece vestuário, incluindo uma variedade de roupas para homens, mulheres e crianças; calçado e acessórios, que compreendem sapatos casuais, sapatos de festa, botas, ténis, sandálias, óculos, relógios, joias de moda e finas, cachecóis, chapéus, luvas e guarda-chuvas, bem como artigos de couro, como bolsas, malas, pequenos artigos de couro e cintos; produtos para o lar, incluindo linhas de cama e banho, mobiliário, tecidos e revestimentos de parede, iluminação, loiças, utensílios de cozinha, tapetes, artigos de decoração e presentes; e fragrâncias. Vende vestuário e acessórios sob as marcas Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children e Chaps; fragrâncias femininas sob as marcas Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection e Ralph Collection; e fragrâncias masculinas sob as marcas Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport e Big Pony Men's. A coleção de restaurantes da empresa inclui The Polo Bar em Nova Iorque; RL Restaurant em Chicago; Ralph's em Paris; The Bar at Ralph Lauren em Milão; e o conceito Ralph's Coffee. Vende seus produtos a lojas de departamento, lojas especializadas e lojas de golfe e profissionais, bem como diretamente aos consumidores através de suas lojas físicas, lojas concessionárias e seus sites de comércio digital. A empresa opera diretamente 504 lojas de retalho e 684 lojas concessionárias; e opera 175 lojas Ralph Lauren, 329 lojas de fábrica e 148 lojas e lojas através de parceiros de licenciamento. A Ralph Lauren Corporation foi fundada em 1967 e tem sede em Nova Iorque, Nova Iorque.
SetorCíclico de consumo
IndústriaVestuário - Fabricantes
CEOPatrice Jean Louis Louvet
SedeNew York City,NY,US
Colaboradores (exercício financeiro)23,40K
Receita Média (1A)€258,14K
Lucro líquido por colaborador€27,09K

Perguntas Frequentes sobre Ralph Lauren Corp (RL)

Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?

x
Ralph Lauren Corp (RL) está atualmente a negociar a €309,54, com uma variação de 24h de +1,32%. O intervalo de negociação das últimas 52 semanas é de €301,05–€330,03.

Quais são os preços máximo e mínimo das últimas 52 semanas para Ralph Lauren Corp (RL)?

x

Qual é o índice preço-lucro (P/L) de Ralph Lauren Corp (RL)? O que indica este valor?

x

Qual é a capitalização de mercado de Ralph Lauren Corp (RL)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?

x

Deve comprar ou vender Ralph Lauren Corp (RL) agora?

x

Que fatores podem influenciar o preço das ações da Ralph Lauren Corp (RL)?

x

Como comprar ações da Ralph Lauren Corp (RL)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias Ralph Lauren Corp (RL)

2026-04-23 04:54

A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo

Mensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.

2026-03-21 00:19

Cursor confirma oficialmente que Kimi K2.5 é a base, Moonshot AI: parceria comercial autorizada

Gate News notícia, 21 de março, de acordo com a monitorização da 1M AI News, a conta oficial do Moon of Darkness @Kimi_Moonshot publicou uma mensagem de parabéns pelo lançamento do Composer 2 pela Cursor, explicando que a Cursor acessa o Kimi K2.5 através da plataforma de raciocínio e RL hospedada pela Fireworks AI, como uma colaboração comercial autorizada. O cofundador da Cursor, Aman Sanger, e o vice-presidente de educação de desenvolvedores, Lee Robinson, posteriormente confirmaram publicamente a origem da base e divulgaram detalhes técnicos. Sanger afirmou que a equipa avaliou a perplexidade de várias bases, e que o Kimi K2.5 "provou ser o mais forte", seguido de pré-treinamento adicional e reforço de aprendizagem com 4 vezes a escala, implantado através do raciocínio e amostradores RL da Fireworks AI. Robinson acrescentou que, no modelo final, cerca de 1/4 do poder de computação vem da base, enquanto os restantes 3/4 são provenientes do treino próprio da Cursor. Ambos os fundadores admitiram que não mencionar a origem da base ao publicar o blog foi um "erro", prometendo que na próxima publicação de modelo irão indicar a origem da base imediatamente. Anteriormente, Elon Musk respondeu na discussão relacionada: "Yeah, it's Kimi 2.5", aumentando ainda mais o destaque do tópico.

2026-03-20 09:47

Cursor Composer 2 é acusado de utilizar o modelo Kimi K2.5, Moonshot AI acusa falta de conformidade com licença

Notícias do Gate News, 20 de março, de acordo com a monitorização da 1M AI News, o desenvolvedor @fynnso ao testar a requisição da API Cursor descobriu que o ID do modelo real do Composer 2 é kimi-k2p5-rl-0317-s515-fast, ou seja, "Kimi K2.5 + RL". O responsável pelo pré-treinamento do Moonshot AI, Du Yulun, publicou um tweet afirmando que, após testar o tokenizer do Composer 2, constatou que era "completamente idêntico ao nosso tokenizer Kimi", e que "quase podemos confirmar que este é o resultado de um modelo nosso que foi treinado adicionalmente", questionando diretamente @ Michael Truell, cofundador do Cursor, "por que não respeitam nossa licença e não pagaram nenhuma taxa". Quando o Cursor lançou o Composer 2 em 19 de março, afirmou que a melhoria de desempenho vinha de "um pré-treinamento contínuo do modelo base, combinado com aprendizagem por reforço", mas não mencionou o Kimi K2.5 em momento algum. O Kimi K2.5 utiliza uma versão modificada da licença MIT, que estipula claramente que produtos comerciais com mais de 100 milhões de usuários ativos mensais ou mais de 20 milhões de dólares de receita mensal devem exibir de forma destacada na interface do usuário a inscrição "Kimi K2.5". Com uma avaliação do Cursor de 29,3 bilhões de dólares e uma base de usuários pagantes, a receita mensal quase certamente ultrapassa esse limite. Até o momento da publicação, o Cursor não respondeu publicamente.

2026-02-12 14:21

Gradient lançou o quadro de aprendizagem por reforço distribuída Echo-2, e planeja lançar a plataforma RLaaS Logits

Foresight News notícia, Laboratório de IA Distribuída Gradient lança o quadro de reforço distribuído Echo-2, com o objetivo de romper as barreiras de eficiência no treinamento de pesquisa em IA. Este quadro consegue reduzir os custos de pós-treinamento de modelos grandes ao implementar a desacoplamento entre Learner e Actor na camada de arquitetura, visando diminuir o custo de pós-treinamento de modelos de 30B de 4500 dólares para 425 dólares. O Echo-2 utiliza tecnologia de separação de armazenamento e computação para realizar treinamento assíncrono (Async RL), suportando descarregar o poder de amostragem para instâncias de GPU instáveis e GPUs heterogêneas baseadas em Parallax. Este quadro, aliado a técnicas como staleness bound, agendamento tolerante a falhas de instância e o protocolo de comunicação proprietário Lattica, melhora a eficiência do treinamento mantendo a precisão do modelo. Além disso, a Gradient planeja lançar a plataforma RLaaS (Reinforcement Learning as a Service) Logits, que já está aberta para agendamento por estudantes e pesquisadores.

2026-01-02 09:15

Mecanismo Capital sócio: A escala de dados de IA de entidade em 2026 será ampliada em 100 vezes

A PANews informou a 2 de janeiro que Andrew Kang, sócio da Mechanism Capital, publicou na plataforma X que, em 2025, o campo da robótica irá resolver desafios antigos da arquitetura e treino de modelos, e fará progressos significativos na tecnologia de recolha de dados, compreensão da qualidade dos dados e formulação de dados, dando confiança às empresas de inteligência artificial de que eventualmente começarão a investir em recolha de dados em grande escala, e empresas como Figure, Dyna e PI irão utilizar aprendizagem por reforço (RL) A tecnologia inovadora atingiu uma taxa de sucesso superior a 99% em vários cenários práticos de aplicação. Além disso, os avanços na tecnologia de memória derrubaram a "parede de memória", o ReMEmber da NVIDIA utiliza navegação baseada em memória, Titans e MIRAS alcançam memória em tempo de teste, e melhores modelos de posicionamento virtual (VLMs) significam que os arrays de posicionamento virtual (VLAs) têm melhores capacidades de compreensão espacial, bem como processos de anotação e processamento de dados que podem melhorar significativamente o rendimento. Em 2025, o mercado irá inicialmente valorizar a capacidade zero-shot mapping, a sensibilidade à força visual e o raciocínio físico geral trazidos pela escala de dados, e a escala dos dados físicos de IA irá expandir-se 100 vezes em 2026.

Publicações em alta sobre Ralph Lauren Corp (RL)

MarsBitNews

MarsBitNews

04-29 17:25
nulo Texto|Zhou Xinyu Wang Yuchan Edição|Yang Xuan Interpretar o relatório técnico do DeepSeek V4 tem sido a atividade coletiva mais fervorosa da indústria de IA nestes dias. V4 é realmente forte? Na dimensão de otimização de engenharia, a resposta é indiscutível. No passado, todos acreditavam na “estética da violência das leis de escalonamento” — ou seja, aumentar mais poder de cálculo de alta qualidade e maior escala de parâmetros para melhorar o desempenho do modelo. E o V4 trilha um caminho completamente diferente, definindo uma “estética de moderação no treinamento de modelos”: Ele não depende de acumular loucamente poder de cálculo e parâmetros, mas sim através de uma série de otimizações combinadas e reconstruções: Mecanismo de atenção (faz o modelo aprender a “captar o foco”, como quando uma pessoa lê um artigo longo e automaticamente foca nas frases-chave) Arquitetura MoE (especialistas mistos, que podem ser entendidos como “diferentes especialistas responsáveis por diferentes tipos de problemas, ativando apenas alguns de cada vez, economizando tempo e esforço”) Pós-treinamento (reforço direcionado após a formação inicial do modelo) Engenharia do sistema de inferência (otimização da eficiência de cada etapa na operação real) O resultado dessa abordagem é que o V4-Pro, ao lidar com contextos longos de cerca de um milhão de tokens (aproximadamente dezenas de milhares de palavras), reduziu o consumo de cálculo necessário para o processamento em 73% em relação à geração anterior, V3.2, enquanto a cache KV (que funciona como “esboço de notas” do modelo ao conversar com você) foi comprimida a apenas 10% do tamanho original. Porém, engenharia é engenharia, rankings são rankings. Ao avaliar um modelo, não queremos apenas olhar para os parâmetros na teoria, mas discutir seu valor em cenários reais de implantação, desenvolvimento e investimento. Para isso, convidamos cerca de 10 desenvolvedores, empreendedores de aplicações e investidores para uma experiência e testes ao longo de três dias. Começando por uma conclusão contraintuitiva: o impacto do DeepSeek na camada de aplicação talvez seja maior do que na camada de modelo. Além de admirar a otimização de engenharia extrema, como o próprio DeepSeek admite no relatório técnico do V4: sua trajetória de desenvolvimento fica cerca de 3 a 6 meses atrás dos modelos fechados de ponta — o que, na prática, equivale a fazer um pacto com o diabo: alongar a capacidade de raciocínio e agentes inteligentes, ao custo de sacrificar alguma precisão. Fabricantes de modelos fechados podem, por ora, respirar aliviados. Para o mundo comercial, que valoriza estabilidade e precisão, o V4 claramente não é um modelo pronto para produção. O principal cientista-chefe da Pine AI, Li Bojie, e o empreendedor de um agente de codificação de destaque, Chillin, nos disseram diretamente que a estabilidade na chamada “chamada de ferramentas” (tool invocation) e a taxa de alucinações (imagens ou respostas incorretas) precisam ser reforçadas na camada de harness (que é como uma “rédea” e “cinto de segurança” para o agente, regulando seu comportamento e reduzindo erros). Sem uma estrutura de suporte, a implementação do V4 é inviável. Por outro lado, a evolução da inteligência muitas vezes influencia o ecossistema de aplicações downstream. Empreender em IA enfrentará testes mais severos de tecnologia e capital. “O desempenho do modelo base ainda está evoluindo rapidamente” — esse consenso na indústria também significa que aplicações podem ser facilmente subvertidas por novos modelos. Um investidor de fundo de moeda dupla citou vários exemplos de “obsoletismo recente”: “Workflow, Coding…” A startup de aplicações de IA, Junyue Intelligence, resumiu: a barreira futura para aplicações de IA será organizar o modelo, agente, cenário de produto e feedback de dados em um sistema de produção confiável, de baixo custo e escalável. Destaque: não apenas capacidade de textos longos e programação, mas alta capacidade a baixo custo Prévia: vantagem central — código e capacidade de agentes Em avaliações-chave de código e engenharia de software, o V4-Pro demonstrou o nível mais alto entre os modelos de código aberto atuais, quase equiparando-se aos melhores modelos fechados. Os principais dados estão organizados assim: IA para desenho 🧑‍🏫 Co-fundador e CTO da PingCAP, Huang Dongxu Estou migrando meu fluxo de trabalho Hermes para o DeepSeek V4. Antes, usava bastante Claude Opus e GPT5.4 como agentes, mas percebi que a maioria das tarefas diárias não requer uma capacidade de codificação tão avançada. Tarefas diárias, incluindo: (a) organização de emails; (b) redação de artigos; (c) gerenciamento de calendário; (d) resumos de conteúdo; (e) navegação na web. Agora, já troquei totalmente para o DeepSeek V4. O desempenho superou minhas expectativas, provavelmente por otimizações específicas para o chinês, com uma capacidade linguística geral mais alinhada ao falante nativo de chinês do que Opus ou GPT. Minha primeira conclusão: se você atualmente usa modelos mais caros como assistentes diários, pode confiar em migrar para o DeepSeek V4 Pro. Sua capacidade está aproximadamente entre Claude Sonnet 4.5 e 4.6, mas com custo inferior a um quarto dos principais modelos. Agora, não preciso mais me preocupar tanto com o custo do agente. O artigo do DeepSeek V4 sempre enfatizou um contexto de 1 milhão de tokens, mas na minha opinião isso não é tão relevante, pois os modelos SOTA atuais já suportam pelo menos esse tamanho — apenas alcançaram essa marca. O verdadeiro diferencial está em: 1. Custo realmente muito baixo; 2. É um modelo open source. Assim, não preciso me preocupar com o fornecimento da Anthropic ou OpenAI, pois minhas workflows anteriores já enfrentaram problemas semelhantes. Com o DeepSeek V4, tenho maior segurança. Depois, a capacidade de programação. Como meu teste foi curto, ainda não desenvolvi aplicações muito complexas. Mas, para códigos de algumas milhares de linhas, ou aplicações pequenas, ou cenários com chamadas a sistemas externos (como conectar-se ao Supabase ou TiDB Cloud lendo documentação de ferramentas pouco familiares), minha sensação é que o desempenho é bastante satisfatório. Para códigos entre algumas milhares e dez mil linhas, a taxa de sucesso do V4 em uma única rodada (fornecendo exemplos e instruções de uma vez, sem ajustes adicionais) ainda é alta. Portanto, se seu projeto envolve sites simples ou aplicações pequenas, a capacidade de programação do DeepSeek certamente é muito superior à geração anterior. Porque meu framework Harness não é muito complexo, mais dependente da colaboração do próprio modelo (usando Slock.ai), há duas principais vantagens: 1. Pode colaborar com agentes que usam outros modelos; 2. Pode realizar tarefas simples ou específicas. Assim, se modelos mais avançados (como GPT5.5) orientarem o V4 Pro, e ele for responsável por executar, essa abordagem pode reduzir bastante o custo de engenharia do Harness. 🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang DeepSeek V4 não é “o mais completo”, mas é “o mais confiável” — compromisso firme com open source, relatório técnico completo, custo de inferência extremamente baixo, toda a cadeia tecnológica nacional, tornando-se a escolha de melhor custo-benefício para cenários empresariais. O que mais me impressiona no V4 são duas coisas. Primeiro, a inovação na arquitetura de baixo nível. Manter alta qualidade de inferência com uma janela de contexto de 1 milhão de tokens, graças à inovação na atenção híbrida. Essa mecânica pode ser entendida como: “leitura grosseira” para captar o significado geral, “leitura detalhada” para entender os detalhes com precisão. Especialmente na compressão de contexto, a pesquisa é avançada, e o DeepSeek divulgou detalhes sem reservas no relatório técnico. Essa transparência e espírito de open source são extremamente valiosos na indústria competitiva de grandes modelos. Segundo, a adaptação completa ao stack de computação nacional. DeepSeek conseguiu adaptar-se ao Ascend 910B/950 da Huawei, com trabalho detalhado em quantização, mecanismos de sparsificação e otimizações específicas de domínio. Isso significa que, desde o chip até o software de baixo nível, treinamento e inferência, a solução nacional completa já deu passos concretos na direção certa. Ainda que não se possa dizer que está completamente livre da dependência do ecossistema Nvidia, o caminho certo já foi trilhado. A dificuldade e o significado dessa conquista não podem ser subestimados. 🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie O mais impressionante é que o DeepSeek conseguiu fazer rodar, na escala de 1,6 trilhão de parâmetros (1.6T), uma série de inovações arquitetônicas como MoE, CSA+HCA, mHC, Muon, FP4QAT, que são muito avançadas na teoria, mas frequentemente falham em experimentos menores. É como montar um motor gigante combinando tecnologias avançadas que, isoladamente, muitas vezes não funcionam bem em escala menor. Nós testamos mais de 20 arquiteturas diferentes, e quase todas só funcionam bem em 7 bilhões de parâmetros, enquanto em escalas maiores elas colapsam ou até se tornam contraproducentes. Outros modelos também ficam presos nesse limite. Conseguir fazer várias inovações trabalharem juntas na maior escala demonstra que a tecnologia de treinamento do DeepSeek é profunda. Uma única inovação, “mHC”, amplificou o sinal de 27B em quase 3000 vezes na experiência, levando-o a cerca de 1,6 vezes, tornando o treinamento mais estável e controlável. 🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu DeepSeek prova que “custo-benefício de IA” pode se tornar uma vantagem estrutural proativa. 27% de uso de memória, apenas 10% de consumo de VRAM. Além disso, seu total de 1,6T de parâmetros ativa apenas 49B por vez, com alta eficiência. Essa redução estrutural de custos, combinada com a API do V4-Flash a 1 yuan por milhão de tokens, faz do “contexto ultra longo acessível ao público” um novo padrão para aplicações de IA. 🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng O que mais me anima no V4 não é apenas a melhora em capacidades pontuais, mas o fato de que o modelo nacional já entrou na fase de “participar na competição de sistemas Agent”. Antes, o foco era se o modelo respondia, raciocinava ou escrevia código; hoje, o mais importante é se o modelo consegue completar tarefas complexas de forma estável, com baixo custo e alta eficiência, integrando-se a sistemas de produto reais. Lamentavelmente: para uma implementação real, o V4 ainda precisa de “estruturas de suporte” Prévia: desvantagens — conhecimento factual e raciocínio extremo A equipe oficial do DeepSeek e plataformas de avaliação apontaram algumas fraquezas evidentes do V4-Pro. Para maior clareza, organizamos os principais pontos fracos na tabela abaixo: IA para desenho. 🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie Minha principal utilização é em tarefas de código e agentes. Nesses trabalhos: A capacidade de chamada de ferramentas e o conhecimento geral do mundo do V4-Pro estão aproximadamente no nível de uma versão intermediária de modelos de ponta (equivalente a Claude 4.6 Sonnet); Porém, a estabilidade na chamada de ferramentas e a taxa de alucinações ainda são pontos críticos — esses precisam ser reforçados na camada de harness (como validações, retries automáticos, uso de bases externas de conhecimento para “grounding”, regras claras de uso de ferramentas). Caso contrário, em tarefas de cadeia longa, erros se acumulam e se amplificam; Se esses dois problemas forem resolvidos na camada de harness, o custo de inferência geral pode ser reduzido várias vezes em relação aos modelos de ponta. Essa é a verdadeira alavanca. Outra linha é: o V4-Flash, como uma “microajuste vertical”, é excelente. Microajuste vertical significa usar dados especializados de um setor específico para “reforçar” o modelo geral, tornando-o um especialista na área. Modelos de mais de 1,6 trilhão de parâmetros para pós-treinamento (SFT/RL) são muito caros e inviáveis para a maioria das empresas, que preferem modelos de 200 a 300 bilhões de parâmetros. Nosso experimento com o modelo de 235B (235 bilhões) mostrou que o desempenho do V4-Flash, com microajuste, já supera o de modelos de 1 trilhão de parâmetros anteriores. O Flash já alcançou o desempenho do anterior, de nível de código aberto, de bilhões de parâmetros, como o V3.2 e o Kimi antigo. Ele será a base preferencial para microajustes de negócios. 🧑‍🏫 Empreendedor de Coding Agent, Chillin Nossa avaliação interna é que, na aplicação de Coding Agent, o V4 é equivalente ao nível do Claude de mais de um ano atrás. O problema pode estar em dois aspectos: tamanho do parâmetro e dados. Ainda há uma diferença significativa entre o DeepSeek e a Anthropic. Para uma implementação real, o V4 ainda precisa de estruturas especiais, como SWE-Agent (agente de engenharia de software), OpenHands (um agente de código aberto), Claude Code, OpenClaw. Essas exigem configuração adicional por parte do desenvolvedor. 🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng Com base no uso do Loopit (produto de conteúdo interativo de IA da Yongyue), principalmente em cenários de codificação, podemos avaliar que o V4 ainda fica atrás dos principais modelos fechados internacionais em estabilidade e taxa de conclusão de tarefas complexas de longo prazo. A capacidade dos principais modelos nacionais está se aproximando. Isso indica que a competição de modelos está entrando em uma nova fase: na era dos agentes, a habilidade de entender contextos longos, adaptar-se a estruturas complexas e completar tarefas de longo prazo de forma estável, com custos e velocidade aceitáveis, será igualmente importante. A verdadeira diferença não está apenas no modelo, mas no sistema completo formado por modelo, pós-treinamento, estrutura de agentes, avaliação e eficiência de engenharia. 🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu O lançamento do V4 não incluiu uma versão multimodal nativa (que processa texto, imagem, som simultaneamente), o que é uma pena no cenário atual. Porém, considerando sua estratégia de total adoção de computação nacional, provavelmente essa decisão foi para concentrar recursos na resolução do núcleo do problema de hardware de IA. 🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang Chamar de “abaixo das expectativas” é um pouco rigoroso. Mas, do ponto de vista de produtos voltados ao consumidor final, a versão Flash ainda não está suficientemente madura — ela tem limitações em tarefas complexas de criação e programação; a versão Pro, embora próxima do nível dos melhores modelos fechados, exige alto poder de cálculo inicial, criando uma barreira de entrada. Impacto: IA não está simplesmente ficando mais barata 🧑‍🏫 Fundador e CEO da Yongyue Intelligence, Chen Weipeng Uma tendência importante é que a IA não está simplesmente ficando mais barata. O custo de uso dos modelos mais avançados no mercado global está aumentando, pois eles suportam tarefas mais complexas, com contextos mais longos e maior valor agregado. O que realmente está ficando mais barato são os modelos intermediários, open source e de implantação própria. Portanto, no futuro, as empresas de aplicação não perguntarão apenas “qual modelo é o mais forte”, mas criarão um sistema de orquestração de modelos: quais tarefas precisam do modelo mais potente, quais podem usar modelos de bom custo-benefício, e quais capacidades podem ser complementadas por agentes e sistemas de engenharia. O significado do V4 do DeepSeek é que ele enriquece ainda mais a oferta de modelos. Para as empresas, não se trata apenas de substituir modelos estrangeiros, mas de permitir uma orquestração mais flexível, implantação própria e otimização de custos. O verdadeiro diferencial na aplicação de IA no futuro não será apenas chamar um modelo, mas organizar modelo, agente, cenário de produto e feedback de dados em um sistema de produção confiável, de baixo custo e escalável. Para a Loopit, essa tendência é fundamental. Nosso foco é conteúdo interativo de IA, onde a capacidade do modelo define o limite da criatividade, e o custo e velocidade determinam se a produção pode ser escalada. Somente quando diferentes níveis de modelos estiverem suficientemente disponíveis e bem orquestrados, as ideias criativas de usuários comuns poderão ser geradas, interagidas e disseminadas em tempo real. O avanço do V4 do DeepSeek acelerará esse processo. 🧑‍🏫 Cientista-chefe da Pine AI, Li Bojie No mercado de microajuste vertical, modelos de base de 200-300B, como Qianwen e Llama, estão sendo substituídos sistematicamente pelo sistema V4-Flash. Todos os times que treinarem modelos dessa escala irão reavaliar; o desempenho do Flash na mesma escala já supera os modelos anteriores, com frameworks de inferência compatíveis (SGLang/vLLM/TileLang). Em seis meses, deve se tornar o padrão de início para modelos verticais open source nacionais. O ecossistema de inferência do Huawei Ascend 950 SuperNode já está em fase inicial, desafiando o valor premium da Nvidia. Este é o primeiro sistema completo de “chip nacional + modelo open source nacional de ponta” (sem uma adaptação inicial do V4 por Nvidia ou AMD). Após a grande escala do 950 no segundo semestre, uma onda de substituição de inferência totalmente doméstica deve ocorrer em cenários de agentes com contexto longo. Essa mudança impacta indiretamente na reavaliação do valor da Nvidia no mercado chinês — não por queda de vendas, mas por redução do poder de negociação. O custo total de uso de agentes capazes de realizar tarefas complexas de longo prazo caiu drasticamente. O custo por token do V4-Pro, com cache não atingido, já foi reduzido a cerca de 1/6 a 1/7 do valor de modelos de ponta, com custos de entrada de US$1,74 por entrada e US$3,48 por saída, além de KV de 1 milhão de tokens e MegaMoE. Desde que a camada de harness do setor corrija a estabilidade na chamada de ferramentas e a taxa de alucinações (com validadores, grounding externo, schemas rigorosos, votação de consistência), aplicações de múltiplas etapas, agentes de código longo e buscas profundas, que antes eram inviáveis por custo, poderão sair do estágio de demonstração e entrar na produção real ainda neste segundo semestre. O ponto de inflexão econômico do agente está nesta onda. Além disso, os fabricantes fechados de ponta não irão baixar preços — seus produtos continuam líderes, e o V4 não ameaça essa liderança de preço. 🧑‍🏫 Vice-presidente do Centro de Tecnologia e Produto da Zero One Wanwu, Zhao Binqiang A proposta central para aplicações empresariais de IA é: garantir o efeito desejado enquanto controla o custo ao longo de todo o ciclo. A chegada do V4 do DeepSeek oferece uma solução altamente competitiva. O Flash cobre tarefas simples, o Pro cobre cenários de alta complexidade, e o custo total é muito menor do que as soluções fechadas de ponta, permitindo à Zero One Wanwu oferecer uma relação custo-benefício superior na entrega. Mais importante, o compromisso do DeepSeek com open source é firme e inabalável — não há planos de fechar o código de repente, evitando que investimentos se percam. Essa postura firme fornece uma segurança valiosa para a escolha tecnológica empresarial. A Zero One Wanwu já iniciou avaliações e validações de capacidades baseadas no V4, focando em desempenho em agendamento de produção, escritório inteligente, gestão de investimentos, entre outros cenários empresariais. Após validação, considerará substituir modelos existentes, levando mais setores a usar grandes modelos nacionais de ponta. Após o lançamento do V4, acredito que o setor deve passar por três mudanças principais: 1. Soluções completas de tecnologia nacional entram na fase de desenvolvimento, substituição nacional passa de “sonho” para “realidade” A adaptação bem-sucedida do DeepSeek ao Huawei Ascend indica que a indústria de IA doméstica avançou na direção de uma cadeia completa de tecnologia nacional — chips, frameworks, modelos e aplicações. Para clientes governamentais e empresariais com requisitos de conformidade, isso é uma necessidade real. A substituição nacional no mercado B2 deve acelerar significativamente. 2. Abertura de modelos open source pressiona fechamento a reduzir preços, reduzindo a dependência de modelos fechados na aplicação DeepSeek consegue alcançar desempenho próximo ao dos melhores modelos fechados, com preços muito inferiores. Seu efeito de demonstração elevará o padrão de desempenho de modelos open source. Isso também pressionará fabricantes como Anthropic e OpenAI a ajustarem suas estratégias de preços. O foco do setor migrará de modelos de base para aplicações setoriais profundas, beneficiando o desenvolvimento de IA a longo prazo. 3. Modelos open source não equivalem a aplicações empresariais, a capacidade de harness será o novo divisor de águas A abertura de modelos reduz a barreira de entrada, mas a capacidade de harness define o nível de implementação. Desde modelos open source de alta qualidade até produtos empresariais confiáveis, há uma camada intermediária — que inclui eliminação de alucinações, conformidade com instruções, validação de erros, injeção de especialização, etc. Cada setor tem suas necessidades específicas; não há uma única harness universal. Essa é a vantagem central da Zero One Wanwu: com avaliação automática, feedback, melhorias automáticas e injeção de especialização, podemos construir rapidamente harnesss específicos para cada setor, fazendo os grandes modelos realmente funcionarem nos negócios. 🧑‍🏫 Vice-presidente da Lenovo, Diretor de Investimentos da Lenovo Venture Capital, Sócio Sênior, Song Chunyu Primeiro, contextos de milhões de tokens se tornam padrão na aplicação, impulsionando a explosão de agentes: o V4 leva a capacidade de contexto ultra longo para uma infraestrutura acessível. Segundo, a competição setorial migra de “competição de modelos” para “competição de aplicações e dados”: quando modelos open source de ponta se aproximam do desempenho de modelos fechados, e os custos caem bastante, o modelo em si deixa de ser uma barreira escassa. O foco de investimento e competição será quem consegue usar esses modelos básicos para criar ciclos de dados e aplicações em setores de alto valor como saúde, finanças e direito, formando uma barreira de proteção comercial. Terceiro, a cadeia de computação nacional enfrenta uma grande oportunidade de investimento: o sucesso do V4 prova que grandes modelos também podem brilhar com hardware nacional. Isso deve gerar uma demanda concreta por hardware doméstico, impulsionando investimentos em chips, servidores e nuvem. Acreditamos que “o hardware nacional de IA de hoje é o que era o hardware estrangeiro no ano passado”, e essa tendência será forte na economia e no mercado de capitais. Vamos concentrar recursos em projetos que possam se transformar rapidamente em produtos, tenham impacto setorial e possam criar barreiras de mercado, enquanto mantemos investimentos de longo prazo em infraestrutura e arquitetura de base. 🧑‍🏫 Investidor de fundo de moeda dupla Meu desejo este ano é que o portfólio de modelos base (portfólio de investimentos) seja bem-sucedido na IPO. Após o início do financiamento do DeepSeek, certamente ele atrairá uma grande quantidade de capital do mercado primário (especialmente de fundos estatais). Para as demais empresas de modelos base ainda sem IPO, rodar novas rodadas de financiamento não é sustentável. Tenho uma visão mais pessimista: este ano, o financiamento na camada de aplicação será difícil. A capacidade de modelos base ainda está evoluindo rapidamente, o que significa que muitas aplicações podem ser subvertidas por novos modelos. Como Coding e Workflow, que estavam em alta no ano passado, já não são mais temas de destaque no mercado primário. 🧑‍🏫 Empreendedor de Coding Agent, Chillin Open source é uma coisa boa, e o DeepSeek V4 pode impulsionar ainda mais a troca de ideias e melhorias. Mas o tempo de maturação ainda é longo, o que é frustrante. O V4 vai forçar os fabricantes de modelos a enfrentarem de forma mais direta os problemas de escala e dados, que são extremamente difíceis de resolver — dependem de recursos de capital. Também reforça os limites das Scaling Laws. Melhorar desempenho por engenharia tem limites, e todos terão que buscar soluções mais fundamentais. O caminho é longo e árduo. Bônus: Guia prático do DeepSeek V4 Para que serve? Programação e aprendizado de código: se você é iniciante ou precisa criar scripts pessoais, o V4 é uma das melhores opções atuais. Consegue entender contextos, gerar códigos de alta qualidade e fazer debugging com alta confiabilidade. Criação de conteúdo em chinês, japonês e coreano: seja escrevendo artigos, revisando textos ou traduzindo, o V4 tem desempenho excelente nesses idiomas. Leitura e análise de textos longos: suporta até 1 milhão de tokens de contexto. Pode alimentar um livro inteiro, relatórios extensos ou grandes bases de código, e pedir resumos ou extração de informações-chave. Para que não serve? Busca e verificação de fatos objetivos: o V4 é um “modelo de raciocínio”, não uma “enciclopédia”. Sua memória de fatos (como detalhes históricos ou informações específicas) é fraca, e tende a alucinar. A versão V4-Flash, por exemplo, tem apenas 34,1% de acurácia em perguntas factuais. Não use como buscador ou para checar fatos — prefira outros AI com busca ou verifique manualmente. Processamento de imagens ou formatação de documentos: o DeepSeek V4 é um modelo puramente textual, sem suporte a entrada ou saída de imagens (No Vision). Para análise de gráficos ou fotos, use modelos multimodais (como GPT-5.4 Mini). Escrita criativa avançada em inglês: embora possa escrever em inglês, às vezes o texto fica artificial ou pouco natural. Para conteúdos altamente criativos, prefira outros modelos ocidentais. Outras notas importantes: Dê espaço para reflexão: se usar a versão Pro com cadeia de raciocínio explícito (CoT), incentive o modelo a “pensar mais passos” ou ativar o modo “Think Max”. Quanto mais profundo for o raciocínio, mais preciso tende a ser a resposta. Tolerância a respostas prolixas: o V4 é relativamente “verbose” e mais lento. Se desejar respostas curtas, peça explicitamente: “Responda em uma frase” ou “Seja breve”. Vamos trocar ideias!
0
0
0
0
MeNews

MeNews

1 Horas atrás
Notícias ME, 14 de abril (UTC+8), de acordo com a monitorização da 1M AI News, a startup de ambientes de treino de aprendizagem por reforço Fleet está em negociações para uma nova rodada de financiamento, no valor de pelo menos 50 milhões de dólares, com uma avaliação pós-investimento de cerca de 750 milhões de dólares, mais de sete vezes a avaliação de menos de 100 milhões de dólares na rodada seed. A Bain Capital Ventures, subsidiária da Bain Capital, está em negociações para liderar a rodada, enquanto a Sequoia Capital, Menlo Ventures e SV Angel planejam participar como co-investidores. A Fleet foi fundada em 2024, tendo como negócio principal a construção de ambientes de treino de aprendizagem por reforço para laboratórios de IA (RL gym): desenvolver cópias de aplicações populares como Salesforce, Excel, permitindo que os modelos aprendam a operar esses softwares. A empresa inicialmente focou em dados de treino para cenários de navegação na web e operações em computadores, posteriormente expandindo para outros tipos de aplicações. O fundador Nic Ouporov foi anteriormente engenheiro fundador da startup de automação sem código Respell, que foi adquirida pela Salesforce em janeiro de 2024. O impulso para esta rodada de financiamento foi impulsionado pelo crescimento explosivo da receita: a receita anualizada da Fleet aumentou de cerca de 1 milhão de dólares no final do ano passado para mais de 60 milhões de dólares nas últimas semanas (calculada com base na receita do último trimestre multiplicada por quatro). No entanto, a sustentabilidade desse crescimento é questionável. Nos últimos meses, a demanda por dados de treino em laboratórios de IA cresceu drasticamente, com várias startups de dados e ambientes de RL vendo suas vendas dispararem, acompanhando o aumento geral do mercado. Com o passar do tempo, os laboratórios podem concentrar seus gastos com dados em poucos fornecedores, levando à eliminação de algumas startups. Os concorrentes da Fleet incluem não apenas outros fornecedores de ambientes de RL, mas também empresas tradicionais de anotação de dados como Mercor, Surge, Turing, que estão adicionando serviços de ambientes de RL às suas operações existentes. (Fonte: BlockBeats)
0
0
0
0
MeNews

MeNews

3 Horas atrás
Notícias ME, 14 de abril (UTC+8), de acordo com a monitorização da 1M AI News, a startup de ambientes de treino de aprendizagem por reforço Fleet está em negociações para uma nova rodada de financiamento, no valor de pelo menos 50 milhões de dólares, com uma avaliação pós-investimento de cerca de 750 milhões de dólares, mais de sete vezes a avaliação de menos de 100 milhões de dólares na rodada seed. A Bain Capital Ventures, subsidiária da Bain Capital, está negociando para liderar a rodada, enquanto a Sequoia Capital, Menlo Ventures e SV Angel planejam participar como co-investidores. A Fleet foi fundada em 2024, tendo como negócio principal a construção de ambientes de treino de aprendizagem por reforço (RL gym) para laboratórios de IA: desenvolver cópias de aplicações populares como Salesforce, Excel, permitindo que os modelos aprendam a operar esses softwares. A empresa inicialmente focou em dados de treino para cenários de navegação na web e operações em computadores, posteriormente expandindo para outros tipos de aplicações. O fundador Nic Ouporov foi anteriormente engenheiro fundador da startup de automação sem código Respell, que foi adquirida pela Salesforce em janeiro de 2024. O impulso para esta rodada de financiamento foi impulsionado pelo crescimento explosivo da receita: a receita anualizada da Fleet aumentou de cerca de 1 milhão de dólares no final do ano passado para mais de 60 milhões de dólares nas últimas semanas (calculada com base na receita do último trimestre multiplicada por quatro). No entanto, a sustentabilidade desse crescimento levanta dúvidas. Nos últimos meses, a demanda por dados de treino em laboratórios de IA cresceu drasticamente, com várias startups de dados e ambientes de RL vendo suas vendas dispararem, acompanhando a tendência de alta do mercado. Com o passar do tempo, os laboratórios podem concentrar seus gastos com dados em poucos fornecedores, e algumas startups podem ser eliminadas. Os concorrentes da Fleet incluem não apenas fornecedores de ambientes de RL semelhantes, mas também empresas tradicionais de anotação de dados como Mercor, Surge, Turing, que estão adicionando serviços de ambientes de RL às suas operações existentes. (Fonte: BlockBeats)
0
0
0
0