Le calendrier n’a rien d’anodin. Alibaba dévoile Qwen 3.5 pendant la période du Nouvel An lunaire, un moment où les annonces s’enchaînent traditionnellement côté tech en Chine, sur fond de rivalité accrue entre acteurs locaux. Plusieurs médias anglo-saxons relèvent d’ailleurs que la communication intervient dans ce contexte de fêtes, et qu’Alibaba pousse explicitement l’idée d’un modèle taillé pour l’“IA agentique”, c’est-à-dire des systèmes capables d’exécuter des suites d’actions plutôt que de simplement produire du texte (voir notamment Barron’s).
Le point clé pour la communauté open source, c’est qu’Alibaba ne se contente pas d’une annonce “cloud”. En plus du billet officiel publié sur qwen.ai, l’équipe met à disposition une distribution téléchargeable et réutilisable via les canaux habituels.
Un modèle poussé vers les agents
Alibaba insiste sur une meilleure efficacité d’inférence, avec une promesse de réduction des coûts d’exploitation et une capacité accrue à encaisser des charges importantes, précisément ce qui compte quand on passe d’un simple chatbot à des agents qui enchaînent appels d’outils, navigation et exécution de tâches.
Comme souvent, les comparaisons “nous faisons mieux que X et Y” doivent être lues avec prudence tant qu’on n’a pas, côté communauté, une reproduction propre des protocoles de test. L’intérêt de Qwen 3.5 se joue donc au moins autant sur la capacité des équipes à l’intégrer, le fine-tuner, l’auditer et le déployer, que sur des scores isolés.

GitHub, Hugging Face, ModelScope pour les développeurs
Le dépôt central pour récupérer le code et les artefacts se trouve sur GitHub : c’est aussi là que la question de la licence se règle noir sur blanc : la distribution est annoncée sous licence Apache 2.0, un choix permissif, apprécié en entreprise parce qu’il facilite la réutilisation et la redistribution dans des produits (à condition de respecter les obligations classiques de notice et de licence).
Pour les usages “modèle prêt à l’emploi” et les intégrations dans les pipelines MLOps, Alibaba publie également sur Hugging Face, qui reste le point d’entrée le plus pratique pour tester rapidement, versionner et automatiser des déploiements.
Enfin, ModelScope n’est pas un miroir exotique : c’est une plateforme de modèles lancée autour d’Alibaba (et de son écosystème de recherche) qui se présente comme un “point central” pour explorer, inférer, entraîner et déployer des modèles.
Alibaba pousse ainsi un modèle conçu pour l’ère des agents tout en soignant la distribution open source, ce qui facilite l’expérimentation locale, l’audit et les réutilisations. Le vrai verdict viendra vite : qualité des poids en conditions réelles, stabilité des versions, outillage autour des agents, et capacité à tenir la promesse d’une inférence plus efficiente quand on sort des démos pour aller vers des workflows d’entreprise.
