Mistral AI publie cette semaine deux modèles de pointe sous licence Apache 2.0 : Leanstral et Mistral Small 4. Parallèlement à ces lancements, l’entreprise française a annoncé son adhésion à NVIDIA en tant que membre fondateur de la Coalition Nemotron, un partenariat stratégique visant à co-développer la prochaine génération de modèles frontières ouverts.
Mistral AI marque une avancée significative dans le domaine de la vérification formelle avec Leanstral, un agent de code open source conçu pour l’assistant de preuve Lean 4. Ce modèle utilise une architecture de mélange d’experts épars (mixture-of-experts) comptant 120 milliards de paramètres au total, dont seulement 6 milliards sont actifs lors de l’inférence. Cette structure permet une efficacité remarquable, car Leanstral surpasse des modèles beaucoup plus volumineux comme GLM5-744B sur la suite d’évaluation FLTEval.

L’aspect économique est également un atout majeur de Leanstral. Comparé à la famille Claude d’Anthropic, les coûts d’exécution sont drastiquement réduits : une session Leanstral revient à environ 36 $(environ 34 €), contre plus de 549$ (environ 520 €) pour un résultat équivalent avec Claude Sonnet 4.6. Pour les tâches les plus complexes, l’économie est encore plus nette face à Claude Opus 4.6, dont le coût d’exécution s’élève à 1 650 $ (environ 1 560 €). Le modèle est disponible via le point de terminaison gratuit Mistral Vibe et peut être téléchargé pour un usage local. La documentation est en ligne.
Mistral Small 4 : polyvalence et performance
Le second modèle dévoilé, Mistral Small 4, est un modèle unifié de type mixture-of-experts doté de 119 milliards de paramètres. Il active 6,5 milliards de paramètres par jeton et dispose d’une fenêtre de contexte de 256 000 jetons. Cette version unifie les capacités de raisonnement et de programmation, car elle permet de configurer l’effort de raisonnement selon les besoins de la tâche.
Mistral Small 4 apporte des gains de performance notables :
-
Latence : réduction de 40 % du temps de génération par rapport à Mistral Small 3.
-
Débit : capacité de traitement trois fois supérieure pour les requêtes simultanées.
-
Efficacité : génération de texte 20 % plus concise tout en égalant les performances de GPT-OSS 120B.

Le modèle est accessible via l’API de Mistral, Hugging Face, et sous forme de conteneur NVIDIA NIM. Toutefois, l’auto-hébergement nécessite une infrastructure robuste, car un minimum de quatre GPU NVIDIA H100 est requis pour charger l’intégralité des paramètres. La documentation technique est, elle aussi, accessible.
Une alliance stratégique avec NVIDIA
Nous en parlions en novembre 2025. L’entrée de Mistral AI dans la NVIDIA Nemotron Coalition place l’entreprise au cœur de la recherche sur les modèles frontières ouverts. Ce partenariat permettra de co-développer des modèles multimodaux entraînés sur les infrastructures NVIDIA DGX Cloud. Pour Arthur Mensch, PDG de Mistral AI, ces modèles ouverts sont essentiels pour faire de l’intelligence artificielle une plateforme universelle et accessible.
Cette collaboration renforce la position de Mistral AI comme acteur de l’open source face aux modèles propriétaires, car elle assure un accès direct aux puissances de calcul les plus avancées du marché.

