Tencent ouvre ses modèles de traduction Hunyuan les plus performants

Tencent vient de franchir une nouvelle étape dans le domaine de l’intelligence artificielle. L’entreprise a annoncé la mise en open source de deux de ses modèles de traduction, Hunyuan-MT-7B et Hunyuan-MT-Chimera-7B, qui avaient dominé le concours international WMT 2025, remportant 30 des 31 paires de langues testées. Des performances qui leur ont permis visiblement de surpasser Google Traduction et même certains systèmes comme GPT-4.1, Claude 4 Sonnet ou Gemini 2.5 Pro.

Selon un rapport technique publié par Tencent, les modèles Hunyuan affichent des gains allant de 15 à 65 % par rapport à Google Traduction, selon les combinaisons linguistiques et les critères d’évaluation. Malgré leur taille modeste — 7 milliards de paramètres — ils rivalisent avec des modèles beaucoup plus massifs, y compris ceux d’OpenAI et Anthropic.

Les modèles sont capables de traduire dans les deux sens entre 33 langues, couvrant non seulement l’anglais, le chinois et le japonais, mais aussi des langues rarement mises en avant dans les systèmes de traduction automatique comme le marathi, l’islandais ou l’estonien. Tencent a également accordé une attention particulière aux langues minoritaires utilisées en Chine, avec la prise en charge du kazakh, de l’ouïgour, du mongol et du tibétain.

Une méthodologie d’entraînement en cinq étapes

Pour arriver à ce résultat, Tencent a conçu un tunnel de formation sophistiqué comprenant cinq phases : pré-formation générale, pré-formation interlinguistique, ajustement supervisé, amélioration de la traduction et raffinement par ensemble. Au total, 1,3 trillion de tokens ont été utilisés, avec un accent particulier sur les langues minoritaires, couvrant plus de 112 langues et dialectes.

Le modèle Hunyuan-MT-Chimera-7B se distingue en particulier : il s’agit du premier modèle d’ensemble de traduction open source de l’industrie. Il combine plusieurs propositions issues de systèmes différents avant de générer une traduction finale, ce qui permet d’améliorer la qualité de sortie d’environ 2,3 % en moyenne.

Ces modèles ne sont pas qu’expérimentaux : Tencent les a déjà intégrés dans plusieurs de ses services, comme Tencent Meeting, WeChat Entreprise ou QQ Browser, ainsi que dans ses solutions de support client. Leur relative légèreté par rapport à des modèles beaucoup plus gourmands permet de réduire le coût de déploiement, tout en rendant la technologie plus accessible.

Une ouverture sous conditions

Si les modèles sont disponibles sur Hugging Face, sur le site Hunyuan et via la démo en ligne, leur publication sur Github s’accompagne d’une licence maison baptisée Tencent Hunyuan Community License Agreement. Celle-ci diffère des licences open source classiques comme Apache ou MIT, et impose certaines restrictions d’usage.

Retour en haut