Zhipu a publié une lettre d’excuses concernant le plan de codage GLM le 21 février, ainsi que le plan de traitement et de compensation.
Zhipu affirme que cette refonte comporte principalement trois erreurs : un manque de transparence dans les règles, un rythme de déploiement en version bêta de GLM-5 trop lent, et une conception grossière du mécanisme de mise à niveau pour les anciens utilisateurs.
Zhipu explique qu’après la sortie de GLM-5, le trafic a dépassé les attentes, le rythme d’expansion de l’entreprise n’a pas suivi, et a été contraint de déployer progressivement GLM-5 selon l’ordre Max, Pro, Lite. Actuellement, les utilisateurs Max ont été entièrement ouverts, les utilisateurs Pro sont également accessibles mais peuvent rencontrer des limitations en période de pointe en raison de la charge du cluster, et les utilisateurs Lite seront progressivement déployés hors période de pointe après les vacances. Pour les utilisateurs Lite et Pro affectés, l’entreprise soutient les demandes de remboursement autonomes.
Il est à noter qu’au 20 février, le cours de l’action de Zhipu (02513.HK), leader dans le domaine des grands modèles d’IA, a inversé la tendance et a clôturé en hausse de 42,72 % en une seule journée, atteignant 725 HKD, un nouveau sommet, avec une capitalisation boursière de 323,2 milliards HKD. En 43 jours depuis son introduction en bourse, le prix de l’action a augmenté de 524 % par rapport au prix d’émission de 116,2 HKD.
Le 20 février, Kuaishou (01024.HK) a clôturé en baisse de 2,78 %, avec une capitalisation de 289,4 milliards HKD ; JD.com (09618.HK) a chuté de près de 2 %, avec une capitalisation de 330,9 milliards HKD ; Ctrip (09961.HK) a reculé de près de 1 %, avec une capitalisation de 296,7 milliards HKD ; Baidu Group (09888.HK) a chuté de 6,25 %, avec une capitalisation de 354,8 milliards HKD. Cela signifie que Zhipu a désormais rejoint le premier rang en termes de capitalisation dans le secteur TMT à Hong Kong.
Zhipu a officiellement lancé le 12 février sa nouvelle génération de modèle phare GLM-5, qui offre une amélioration de plus de 20 % en performance moyenne dans les scénarios de développement de programmation par rapport à la génération précédente, avec une expérience de programmation réelle proche du niveau Claude Opus 4.5. Dans les évaluations Agent telles que BrowseComp, MCP-Atlas et τ2-Bench, il a obtenu les meilleures performances dans le domaine open source.
Après la sortie de GLM-5, en raison de la forte demande, Zhipu a immédiatement augmenté le prix du forfait du plan de codage GLM, avec une hausse de 30 % en Chine et plus de 100 % pour la version internationale, devenant la première entreprise native en IA en Chine à augmenter ses prix pour les services de modèles à grande échelle. Le nouveau forfait s’est rapidement vendu, établissant un nouveau record dans l’industrie pour la vente de forfaits payants de modèles de programmation IA domestiques.
Fondée en 2019, Zhipu est issue du Laboratoire d’ingénierie des connaissances de l’Université Tsinghua (KEG, l’un des principaux laboratoires d’intelligence artificielle en Chine). Le professeur Tang Jie du département d’informatique de Tsinghua est le scientifique en chef, le docteur Zhang Peng, leader en innovation à Tsinghua, est PDG et directeur général, et Liu Debing, alumni de Tsinghua, en est le président.
Cette société est surnommée « l’OpenAI de la Chine » et est le principal concurrent d’OpenAI. Fin 2020, Zhipu a développé l’architecture de pré-entraînement GLM ; en 2021, elle a entraîné le modèle GLM-10B de 10 milliards de paramètres, et la même année, elle a réussi à entraîner un modèle épars de 1 000 milliards de paramètres convergents en utilisant l’architecture MoE ; en 2022, elle a publié le modèle de pré-entraînement multilingue chinois-anglais de 100 milliards de paramètres GLM-130B en open source, étant le seul grand modèle asiatique sélectionné par l’évaluation de Stanford en 2022.
Texte intégral des excuses de Zhipu :
(Origine : Daily Economic News)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le leader des grands modèles d'IA, Zhipu, présente ses excuses et annonce un plan de traitement et de compensation
Zhipu a publié une lettre d’excuses concernant le plan de codage GLM le 21 février, ainsi que le plan de traitement et de compensation.
Zhipu affirme que cette refonte comporte principalement trois erreurs : un manque de transparence dans les règles, un rythme de déploiement en version bêta de GLM-5 trop lent, et une conception grossière du mécanisme de mise à niveau pour les anciens utilisateurs.
Zhipu explique qu’après la sortie de GLM-5, le trafic a dépassé les attentes, le rythme d’expansion de l’entreprise n’a pas suivi, et a été contraint de déployer progressivement GLM-5 selon l’ordre Max, Pro, Lite. Actuellement, les utilisateurs Max ont été entièrement ouverts, les utilisateurs Pro sont également accessibles mais peuvent rencontrer des limitations en période de pointe en raison de la charge du cluster, et les utilisateurs Lite seront progressivement déployés hors période de pointe après les vacances. Pour les utilisateurs Lite et Pro affectés, l’entreprise soutient les demandes de remboursement autonomes.
Il est à noter qu’au 20 février, le cours de l’action de Zhipu (02513.HK), leader dans le domaine des grands modèles d’IA, a inversé la tendance et a clôturé en hausse de 42,72 % en une seule journée, atteignant 725 HKD, un nouveau sommet, avec une capitalisation boursière de 323,2 milliards HKD. En 43 jours depuis son introduction en bourse, le prix de l’action a augmenté de 524 % par rapport au prix d’émission de 116,2 HKD.
Le 20 février, Kuaishou (01024.HK) a clôturé en baisse de 2,78 %, avec une capitalisation de 289,4 milliards HKD ; JD.com (09618.HK) a chuté de près de 2 %, avec une capitalisation de 330,9 milliards HKD ; Ctrip (09961.HK) a reculé de près de 1 %, avec une capitalisation de 296,7 milliards HKD ; Baidu Group (09888.HK) a chuté de 6,25 %, avec une capitalisation de 354,8 milliards HKD. Cela signifie que Zhipu a désormais rejoint le premier rang en termes de capitalisation dans le secteur TMT à Hong Kong.
Zhipu a officiellement lancé le 12 février sa nouvelle génération de modèle phare GLM-5, qui offre une amélioration de plus de 20 % en performance moyenne dans les scénarios de développement de programmation par rapport à la génération précédente, avec une expérience de programmation réelle proche du niveau Claude Opus 4.5. Dans les évaluations Agent telles que BrowseComp, MCP-Atlas et τ2-Bench, il a obtenu les meilleures performances dans le domaine open source.
Après la sortie de GLM-5, en raison de la forte demande, Zhipu a immédiatement augmenté le prix du forfait du plan de codage GLM, avec une hausse de 30 % en Chine et plus de 100 % pour la version internationale, devenant la première entreprise native en IA en Chine à augmenter ses prix pour les services de modèles à grande échelle. Le nouveau forfait s’est rapidement vendu, établissant un nouveau record dans l’industrie pour la vente de forfaits payants de modèles de programmation IA domestiques.
Fondée en 2019, Zhipu est issue du Laboratoire d’ingénierie des connaissances de l’Université Tsinghua (KEG, l’un des principaux laboratoires d’intelligence artificielle en Chine). Le professeur Tang Jie du département d’informatique de Tsinghua est le scientifique en chef, le docteur Zhang Peng, leader en innovation à Tsinghua, est PDG et directeur général, et Liu Debing, alumni de Tsinghua, en est le président.
Cette société est surnommée « l’OpenAI de la Chine » et est le principal concurrent d’OpenAI. Fin 2020, Zhipu a développé l’architecture de pré-entraînement GLM ; en 2021, elle a entraîné le modèle GLM-10B de 10 milliards de paramètres, et la même année, elle a réussi à entraîner un modèle épars de 1 000 milliards de paramètres convergents en utilisant l’architecture MoE ; en 2022, elle a publié le modèle de pré-entraînement multilingue chinois-anglais de 100 milliards de paramètres GLM-130B en open source, étant le seul grand modèle asiatique sélectionné par l’évaluation de Stanford en 2022.
Texte intégral des excuses de Zhipu :
(Origine : Daily Economic News)