Bannière promotionnelle pour Qwen 3.6-35B-A3B. Au centre, un ours panda stylisé en armure de combat violette avec un bras bionique lumineux vole vers l'avant. Autour, des bulles indiquent "Agentic Coding", "Ultimate Inference Efficiency", "Improved Multimodality Capabilities" et "Reliable for Developers".

Alibaba déploie Qwen 3.6 à poids ouverts : le « petit » modèle MoE qui fait (une fois de plus) trembler les géants

Alibaba ne s’arrête plus. Après avoir légèrement secoué le début d’année avec la version 3.5 en février dernier, le géant chinois vient de franchir une nouvelle étape ce 21 avril 2026 avec la sortie de Qwen 3.6-35B-A3B. Publié sous licence Apache 2.0, ce modèle « open-weight » utilise une architecture Mixture of Experts (MoE) si efficace qu’il parvient à surpasser des modèles bien plus massifs avec une fraction de leur consommation énergétique.

Alors que l’empire Qwen continue de s’étendre, cette version 3.6 s’impose comme la nouvelle référence du codage agentique et de la vision-langage accessible à tous, en mode « made in China ».

L’efficacité chirurgicale du MoE : le ratio 3/35

Le nom de ce modèle, Qwen 3.6-35B-A3B, cache une prouesse technique. Il s’agit d’un modèle à 35 milliards de paramètres totaux, mais grâce à l’architecture Mixture of Experts, seuls 3 milliards sont activés lors de chaque passe d’inférence.

Ce ratio 35B total / 3B actifs permet au modèle d’être ultra-léger et rapide (jusqu’à 3 fois plus rapide que certains concurrents fermés), tout en conservant la « mémoire » et la culture générale d’un modèle beaucoup plus gros. En benchmarks, les résultats sont sans appel :

  • 92,7 sur AIME 2026 (raisonnement mathématique de haut niveau).

  • 73,4 sur SWE-bench Verified (capacité à résoudre des bugs réels sur GitHub).

  • 86,0 sur GPQA Diamond (expertise scientifique).

Un agent de codage qui pense « avec » vous

Qwen 3.6-35B-A3B ne se contente pas de prédire du texte, il est taillé pour l’action. Il supporte nativement des modes de « pensée » (thinking modes) qui lui permettent de décomposer des problèmes complexes avant de proposer une solution.

L’intégration est déjà prête pour les outils préférés des développeurs :

  1. OpenClaw : pour transformer votre terminal en agent autonome.

  2. Claude Code : via l’API compatible Anthropic.

  3. Qwen Code : la solution maison optimisée pour les flux de travail agentiques.

Cette capacité à s’intégrer directement dans les outils de développement (IDE) et à manipuler des fichiers ou exécuter des commandes en fait un allié précieux, dépassant souvent les performances de modèles comme Gemma 4 ou GPT-5-mini sur les tâches de programmation interactive.

Vision-langage et vidéo : l’offensive multimodale

Au-delà du texte, Qwen 3.6 se distingue visiblement aussi par son intelligence spatiale. Avec un score de 92,0 sur RefCOCO, il démontre une perception visuelle bluffante, égalant ou surpassant Claude Sonnet 4.5 sur plusieurs tâches de raisonnement multimodal.

Cette sortie accompagne également le succès de Wan 2.7, le modèle de génération vidéo d’Alibaba qui vient de prendre la tête du classement Design Arena. Le message d’Alibaba est clair : l’avenir de l’IA ne réside plus dans la puissance brute, mais dans l’intégration holistique du texte, de l’image et de l’action.

Disponibilité et téléchargement

Qwen 3.6-35B-A3B est disponible dès maintenant en téléchargement libre :

  • Hugging Face : pour l’auto-hébergement et la bidouille.

  • ModelScope : pour la communauté chinoise et internationale.

  • API Alibaba Cloud : sous le nom de qwen3.6-flash pour une intégration immédiate à bas coût.

Retour en haut