Résultats de la recherche pour "MOE"
15:05

Kimi K2 est publié et Open Source, spécialisé dans les tâches de code et Agentic.

Jin10 données 11 juillet, l'ombre de la lune a annoncé, le modèle KimiK2 a été officiellement publié et est synchronisé en Open Source. Selon les informations, KimiK2 est un modèle de base de l'architecture MoE avec de meilleures capacités en code et plus adapté aux tâches d'Agent général, avec un total de 1T de paramètres et 32B de paramètres activés.
Plus
AGENT3.11%
B0.8%
08:01

Modèle Tencent Open Source Hunyuan-A13B

Jin10 données le 27 juin, le 27 juin, Tencent a publié et Open Source le modèle HunYuan-A13B. Il est présenté comme un grand modèle basé sur une architecture de mélange d'experts (MoE), avec un total de 80 milliards de paramètres et 13 milliards de paramètres activés. Tout en atteignant des performances comparables aux meilleurs modèles open source, il réduit considérablement la latence d'inférence et les coûts de calcul ; dans des conditions extrêmes, il ne nécessite qu'une seule carte GPU de milieu ou bas de gamme pour être déployé.
Plus
B0.8%
06:15

Moe Yan : Si des fonds sont volés, il est préférable de publier l'adresse du portefeuille.

Selon un rapport de Jinse Finance, Yuxian, le fondateur de Slow Mist, a déclaré sur la plateforme X : "Un conseil de sécurité, si vos fonds ont été volés, il est préférable de rendre public l'adresse du portefeuille (si vous vous inquiétez pour la vie privée, vous pouvez masquer certains caractères au milieu), ou vous pouvez rendre publique l'adresse du hacker. Pourquoi ce conseil ? C'est parce que certains hackers aiment particulièrement faire porter le chapeau à d'autres, et à ce moment-là, vous n'allez pas seulement subir la douleur du vol de fonds, mais aussi potentiellement devoir coopérer avec l'enquête des forces de l'ordre par la suite."
Plus
  • 3
03:13

Kimi Open Source modèle multimodal Kimi-VL, Kimi-VL-Thinking

Jin10 données 10 avril, aujourd'hui, Kimi de la face cachée de la lune a lancé le modèle de langage visuel léger et open source Kimi-VL et Kimi-VL-Thinking. Le nouveau modèle utilise une architecture MoE, supporte un contexte de 128K et active environ 3 milliards de paramètres ; les capacités de raisonnement multimodal dans plusieurs tests de benchmark dépassent celles des grands modèles de plus de 10 fois la taille.
Plus
03:44

Genius Group a intenté un procès de 450 millions de dollars contre les dirigeants de LZGI

Bot d'actualités Gate.io rapporte, selon Wu, que la société cotée en bourse Genius Group a intenté une action en justice contre deux dirigeants de LZGI International, Inc, Peter Ritz et Michael Moe, devant le tribunal de district du sud de la Floride. L'action est fondée sur la loi américaine sur la lutte contre la fraude et les organisations corrompues (RICO) et demande des dommages-intérêts s'élevant à 450 millions de dollars. Précédemment, le tribunal de district de New York avait émis une injonction contre Genius Group, interdisant à cette dernière de lever des fonds par la vente d'actions pour acheter des bitcoins.
Plus
BOT15.12%
BTC-0.41%
02:26

Le chat Tom : a déjà intégré des fonctionnalités de reconnaissance d'intention de produits d'IA robotique améliorés avec des modèles tels que DeepSeek.

Le 17 février, les données de Jinshi ont annoncé que le 16 février au soir, Tomcat a déclaré dans le tableau des activités de relations avec les investisseurs que le produit de robot d'accompagnement émotionnel AI de Tomcat adopte une architecture MOE (modèle d'expertise mixte), embarque le "modèle vertical d'accompagnement émotionnel du chat Tom" personnalisé par la société et Xihu Xinchen, et appelle également les capacités de certains modèles tels que Bean Bag, DeepSeek, renforçant efficacement les capacités de reconnaissance d'intention, de vitesse de réponse, de capacité mathématique, etc. du produit.
Plus
DEEPSEEK-11.53%
  • 4
  • 1
02:02

Tencent lance le nouveau modèle de grande envergure « 混元Turbo », avec une baisse de 50% des coûts d'inférence.

Le 5 septembre, lors de la Tencent Global Digital Ecology Conference 2024, Tencent a officiellement lancé une nouvelle génération de modèles - Tencent Turbo Mix. Ce modèle utilise l'architecture MoE et améliore l'efficacité d'inférence de 100% par rapport à la génération précédente, réduisant le coût d'inférence de 50%. En termes de prix, le Turbo Mix de Tencent est également 50% moins cher que le Pro Mix, avec un prix de sortie de 0,05 RMB / mille jetons et un prix d'entrée de 0,015 RMB / mille jetons.
TURBO-1.48%
  • 1
  • 3
01:49
Analyse: L'élection de Trump devrait favoriser un changement favorable à l'industrie des cryptoactifs aux États-Unis. Selon les analystes, les frères Winklevoss, des personnalités bien connues dans le domaine des cryptomonnaies, ont fait un don de 2 millions de dollars en Bitcoin pour soutenir la campagne de Trump. Cela montre que Trump est de plus en plus considéré comme un candidat pro-innovation dans les communautés des cryptomonnaies et de la finance traditionnelle (TradFi). Les analystes estiment que la victoire de Trump en novembre signifierait un changement dans l'environnement réglementaire de l'industrie des cryptomonnaies aux États-Unis, devenant ainsi plus favorable. "Pendant la campagne électorale, Trump a montré son soutien au bitcoin et aux autres cryptomonnaies, ce qui contraste avec l'attitude plus prudente et réglementée du gouvernement actuel. Le gouvernement Trump pourrait donner la priorité à l'établissement d'un cadre réglementaire clair et favorable à l'innovation, encourageant ainsi l'innovation et l'investissement dans l'industrie des cryptomonnaies." Cependant, selon l'ancien haut conseiller de Joe Biden, Moe Vela, ce qui préoccupe davantage le public lors du débat, c'est de savoir quel candidat est le plus adapté physiquement, mentalement et peut-être moralement à occuper la présidence. "Ce débat concerne davantage une comparaison de caractères, une démonstration de styles de leadership différents, et deux octogénaires essayant de prouver leur vitalité, leur énergie et leur capacité."
MAGA1.83%
  • 5
  • 1
06:21
Selon les rapports de qubits, Beijing Depth Quest Company a lancé le premier grand modèle de MoE Open Source domestique DeepSeek MoE, qui est comparable à Llama 2-7B en termes de performances et réduit la quantité de calcul de 60 %. La version actuelle de DeepSeek MoE compte 16 milliards de paramètres, et le nombre réel de paramètres activés est d’environ 2,8 milliards. En outre, l’équipe de Depth Seek a également révélé qu’il existe une version 145 B du modèle MoE DeepSeek en cours de développement. Des essais préliminaires échelonnés ont montré que le DeepSeek MoE 145 B présente un avantage significatif sur le GShard 137 B, tout en étant capable d’atteindre des performances comparables à la version intensive du modèle DeepSeek 67 B avec un effort de calcul de 28,5 %.
  • 1
08:00
Selon un rapport du Science and Technology Innovation Board Daily du 28 décembre, Wei Wei, vice-président de MiniMax, une start-up chinoise de modèles à grande échelle, a révélé lors d’un sous-forum de la réunion inaugurale du Digital China Forum et du Digital Development Forum qu’elle publiera le premier modèle à grande échelle basé sur l’architecture MoE (Mixture-of-Experts) en Chine dans un proche avenir pour évaluer OpenAI GPT-4. MoE, qui signifie Expert Hybrid, est une technique d’apprentissage en profondeur qui combine plusieurs modèles directement ensemble pour accélérer l’entraînement des modèles afin d’améliorer les performances prédictives.
  • 1
  • 1
02:58

Goldman Sachs : Le contexte macro est devenu plus favorable aux actions asiatiques

Goldman Sachs a déclaré que le contexte macroéconomique était devenu plus favorable aux actions asiatiques, mais que le marché n'en avait pas pleinement tenu compte, ce qui signifie que les actions continueraient d'augmenter. Les données économiques américaines soutenant la perspective d'un atterrissage en douceur, les investisseurs devraient "utiliser la faible saisonnalité potentielle à la fin de l'été pour se préparer à un quatrième trimestre généralement solide", ont écrit des stratèges, dont Timothy Moe, dans une note. Les marchés ont partiellement (mais pas entièrement) intégré un changement dans les perspectives de croissance et de politique. Ils se sont dits optimistes pour la Corée du Sud, le Japon et d'autres marchés boursiers au quatrième trimestre, et ils sont plus optimistes pour le marché boursier indien à long terme. L'ASEAN est également attrayante à plus long terme, tandis que l'Australie devrait rester limitée
Plus
  • 1
00:55
Selon le rapport "Kechuangban Daily" du 14 juillet, récemment, des doutes ont commencé à apparaître sur Internet. De nombreux utilisateurs se plaignent que le GPT-4 d'OpenAI est devenu moins puissant. La sortie devient "plus paresseuse" et "plus stupide" en comparaison. Certaines personnes de l'industrie pensent que cela pourrait être lié à la refonte majeure du système par OpenAI, et pensent qu'OpenAI utilise un modèle expert hybride (MoE) pour rendre la sortie du modèle génératif de meilleure qualité, à moindre coût et avec une réponse plus rapide.
  • 2
Charger plus
Tags populaires

Sujets d'actualité

Plus

Calendrier Crypto

Plus
Blockchain Life 2025 à Dubaï
Aethir est prévu de participer à la conférence Blockchain Life 2025, qui se déroulera à Dubaï, du 28 au 29 octobre. L'événement devrait rassembler des holders du secteur de la cryptomonnaie pour discuter des développements actuels du marché et des avancées technologiques.
2025-10-28
L'avenir de l'argent, de la gouvernance et du droit 2025 à Washington
Constellation sera présent à la conférence Future of Money, Governance, and the Law 2025, qui est prévue pour le 30 octobre à Washington.
2025-10-29
Arrêt de l'ancien Mainnet
Neo a publié un rappel officiel indiquant que le Neo Legacy MainNet sera arrêté le 31 octobre. Les utilisateurs sont invités à effectuer leur migration d'actifs avant la date limite pour éviter le risque de perte de fonds. Le réseau Legacy, initialement lancé sous le nom d'AntShares MainNet en 2016, sera complètement décommissionné, marquant la fin de sa phase opérationnelle au sein de l'écosystème Neo.
2025-10-30
Semaine de l'IA de Seattle à Seattle
Arcblock prévoit de dévoiler un nouveau partenariat lors de la Seattle AI Week du 27 au 31 octobre. La conférence devrait attirer plus de 3 500 participants et liste Coinbase, Accenture et d'autres entreprises en tant que sponsors.
2025-10-30
Hackathon
Flow lance Forte Hacks, un hackathon virtuel offrant plus de 250 000 $ en prix et avantages, du 1er au 31 octobre. L'événement vise à explorer le plein potentiel de l'écosystème Flow. Forte est maintenant en ligne sur le testnet Flow, permettant aux développeurs de commencer tôt leurs projets avant le début du hackathon.
2025-10-30
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)