Résultats de la recherche pour "QWEN"
23:03

Hugging Face Open Source top model

Jin10 données 9 juillet : ce matin, la célèbre plateforme ouverte de grands modèles Hugging Face a publié en open source le modèle de petite taille SmolLM3. SmolLM3 n’a que 3 milliards de paramètres, mais ses performances dépassent largement celles de Llama-3.2-3B, Qwen2.5-3B et d’autres modèles open source similaires. Il dispose d’une fenêtre contextuelle de 128k, prenant en charge 6 langues, dont l’anglais, le français, l’espagnol et l’allemand. Il prend en charge la réflexion approfondie et le mode de raisonnement non réfléchi, permettant aux utilisateurs de basculer facilement.
Plus
B0.48%
10:01

Ali Tongyi K a demandé, nouveau

QwQ-Max sera bientôt disponible pour le grand public, avec QwQ-Max et Qwen 2.5-Max Open Source sous la licence Apache 2.0, et des versions plus petites telles que QwQ-32B, qui peuvent être déployées sur des appareils locaux. Dans le même temps, le QwQ-Max officiel sera publié, et les applications Android et iOS seront publiées.
Plus
MAX-0.3%
APP-2.06%
04:11

L'équipe Alibaba Qwen a publié un nouveau modèle de promotion QwQ, qui présentera la chaîne de réflexion complète

Les données Jinshi du 25 février, l'équipe d'Alibaba Qwen a annoncé ce matin sur les réseaux sociaux le lancement d'un nouveau modèle de raisonnement - Depth Thinking (QwQ). C'est un modèle de raisonnement basé sur Qwen2.5-Max, pris en charge par QWQ-MAX-PREVIEW. Blue Whale News a découvert que des modèles de raisonnement similaires, tels que DeepSeek
Plus
MAX-0.3%
  • 2
  • 1
09:02

Loongson: Le processeur Loongson exécute avec succès le modèle DeepSeek

Loongson Technology has successfully launched the DeepSeek R1 7B model with the Loongson 3 CPU, achieving localized deployment. It provides excellent performance and cost-effectiveness, offering users a faster, stronger, and more efficient training and inference experience. Loongson is collaborating with partners such as Tai Chu Yuan Qi, Cambricon, Deephi, Tianshu Zhixin, and Alnoumen to build a multi-modal inference platform for the DeepSeek series models.
Plus
  • 1
13:10

Jingwei Hengrun : L’entreprise a déployé DeepSeek et Qwen

Jingwei Hengrun utilise de grands modèles tels que DeepSeek et Qwen pour développer des applications d’IA professionnelles, couvrant de multiples domaines tels que l’assistance intelligente, la conception, les tests, l’optimisation des produits et l’intelligence des processus métier. Ces applications améliorent l’efficacité et la qualité du travail et réduisent les coûts.
Plus
  • 3
  • 1
04:19
Golden Ten Data a rapporté le 29 avril que Tongyi K Man a lancé pour la première fois le modèle de paramètres de kning Qwen1.5-110B, montrant d’excellentes performances dans les évaluations de référence les plus longues telles que MMLU, TheoremQA et GPQA. À l’heure actuelle, la série Qwen 1.5 a accumulé 10 grands modèles open source, et le nombre de téléchargements de modèles Open Source Tongyi K a dépassé 7 millions.
23:02
Le Golden Finance a rapporté que l'équipe Qwen d'Alibaba a officiellement publié leurs dernières réalisations de recherche - le grand modèle linguistique QwQ-32B. Dans des conditions où seulement 1/21 des paramètres de DeepSeek-R1 sont disponibles, le QwQ-32B a réalisé une avancée en termes de performances grâce à l'apprentissage par renforcement.
  • 1
  • 1
12:16

La quatrième norme propose une solution de bout en bout pour l'inférence de modèles de grande taille, ModelHub AIoT

Le 26 février, Golden Ten Data a appris de 4Paradigm que 4Paradigm a lancé ModelHub AIoT, une solution de bout en bout pour l’inférence de modèles à grande échelle, qui permet aux utilisateurs de déployer facilement des modèles de distillation de petite taille, notamment DeepSeek R1, Qwen 2.5, Llama 2/3 series, etc., du côté de l’appareil, et de réaliser un fonctionnement hors ligne. Les utilisateurs peuvent basculer de manière flexible entre plusieurs modèles, en tenant compte des performances de compression et d’inférence des modèles, et en résolvant la complexité du déploiement et de l’optimisation. Selon l’entreprise, cette solution peut non seulement répondre aux besoins des utilisateurs en matière de confidentialité et de temps réel, mais aussi réduire considérablement le coût de l’inférence de grands modèles d’IA.
09:58

4Paradigm lance SageOne IA, une solution d’appliance d’inférence de grands modèles

La quatrième norme lance le tout-en-un SageOneIA pour l'inférence de grands modèles, réduisant considérablement le coût de l'inférence de grands modèles. La technologie de regroupement de la puissance de calcul intelligente est intégrée dans la solution tout-en-un, prenant en charge plusieurs grands modèles grand public. Les entreprises peuvent basculer entre les versions complètes et distillées, augmentant l'utilisation du GPU de plus de 30% et améliorant les performances de l'inférence de 5 à 10 fois.
Plus
11:29

Le site international d'Alibaba intègre le grand modèle DeepSeek

Le 12 février, les données de Jinshi ont indiqué qu'Ali International AI avait déjà intégré de grands modèles tels que DeepSeek, qui seront largement utilisés dans tous les aspects clés des affaires commerciales étrangères. Après l'intégration, l'IA pourra prendre en compte de manière plus exhaustive l'intention des acheteurs lors de l'accueil automatique des clients étrangers, puis combiner les informations du marché, l'expérience du commerce extérieur, et la situation propre des produits commerciaux sur Ali International pour une inférence approfondie. Il est également entendu qu'Ali International est en train de tester les questions k de Qwen.
Plus
23:46

Cadre d'innovation Open Source de Microsoft : transformez DeepSeek en agent IA

Microsoft a publié la dernière version V2.0 d'OmniParser, améliorant l'efficacité et la précision de l'agent AI utilisé sur ordinateur, en particulier en ce qui concerne la détection des petits éléments d'interface utilisateur et l'amélioration de la vitesse de raisonnement. Cette version a également considérablement amélioré ses performances dans les tests AgentBenchmark à haute résolution, atteignant un taux de précision étonnant de 39,6%. De plus, Microsoft a également Open Source l'outil clé omnitool utilisé pour convertir de grands modèles en agents.
Plus
AGENT10.61%
GPT4.38%
  • 2
  • 4

Sujets d'actualité

Plus

Calendrier Crypto

Plus
zkLink reporte de 6 mois le déblocage des jetons pour les investisseurs et l'équipe. Le calendrier de déblocage, initialement prévu pour le 22 janvier 2024, sera repoussé au 22 juillet 2025 pour l'équipe centrale de DAO de zkLink et les conseillers.
2025-07-22
Mises à Jour du Projet
La version bêta de la plateforme Sahara AI Data Services sera lancée le 22 juillet, et tout le monde pourra participer à la construction de l'IA et obtenir de véritables jetons de récompenses. De plus, la plateforme proposera de nouvelles façons de gagner et des incitations supplémentaires grâce à des partenaires exclusifs, ouverte au monde entier.
2025-07-22
Mises à Jour du Projet
La date limite pour réclamer l'Airdrop de la première phase d'Ignition de Spark est le 22 juillet.
2025-07-22
Événements Majeurs
Le groupe de travail sur le marché des actifs numériques de la Maison Blanche devrait publier son premier rapport sur la politique de chiffrement le 22 juillet, couvrant des recommandations en matière de réglementation et de législation, et pourrait concerner la création d'une réserve nationale d'actifs numériques et la garantie d'un accès équitable des entreprises de chiffrement aux services bancaires. Le président de La Réserve fédérale (FED), Jerome Powell, prendra la parole lors d'une réunion sur le cadre de capital de régulation le 22 juillet à 20h30, heure de Beijing.
2025-07-22
Lancement de produit NFT AI
Nuls lancera un produit NFT AI au troisième trimestre.
2025-07-22
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)