C’est une réponse cinglante aux modèles fermés de la Silicon Valley et un pied de nez à la Chine. Ce mardi 3 décembre, la licorne française Mistral AI a dévoilé sa nouvelle génération de modèles : la famille Mistral 3. Loin de se contenter d’une simple mise à jour de performance, l’entreprise fondée par d’anciens chercheurs de Meta et DeepMind rebat les cartes de l’open source avec une annonce massive : 10 nouveaux modèles, tous publiés sous la très permissive licence Apache 2.0.
Cette décision juridique est cruciale pour les entreprises et les développeurs : contrairement aux licences « Open Weights » restrictives (comme celle de Llama 3), la licence Apache 2.0 permet une utilisation commerciale, une modification et une redistribution quasi illimitées. C’est le signal que l’industrie attendait pour déployer l’IA souveraine en production.
Une étude d’Apple montre qu’un modèle open source bat GPT-5 en conception d’interfaces
Mistral Large 3 : le poids lourd « Mixture-of-Experts »
Le vaisseau amiral de cette flotte est Mistral Large 3. Avec ses 675 milliards de paramètres (dont 41 milliards actifs par token grâce à son architecture MoE – Mixture of Experts), il vient chasser sur les terres de GPT-5 et de Claude 3.5. Entraîné sur 3 000 GPU Nvidia H200, il affiche une fenêtre de contexte de 256 000 tokens (de quoi ingérer des livres entiers) et des capacités multimodales natives (compréhension texte et image).
Dans les benchmarks, Mistral Large 3 revendique la deuxième place mondiale sur le classement LMArena dans la catégorie des modèles open source « non-raisonnants », talonnant les meilleurs modèles propriétaires sur les tâches de codage et de conversation multilingue. Une version spécialisée dans le « raisonnement » (similaire à OpenAI o1) est d’ailleurs promise pour bientôt.

Ministral 3 : l’IA qui tient sur un MacBook Air
Mais la véritable révolution pour les DSI se situe peut-être à l’autre bout du spectre. Avec la gamme Ministral 3, l’entreprise vise l’Edge AI : faire tourner des modèles puissants directement sur l’appareil de l’utilisateur (ordinateur portable, smartphone, drone), sans connexion Internet.
Déclinée en trois tailles (3B, 8B et 14B), cette série offre un rapport performance/coût inédit.
-
Le Ministral 3B tourne confortablement sur un simple MacBook Air M1 avec moins de 3 Go de RAM, générant plus de 20 tokens par seconde.
-
Le Ministral 14B s’approche des performances des modèles « frontière » tout en restant exécutable localement.
Chaque taille est disponible en trois saveurs : Base (pour le fine-tuning), Instruct (pour le chat) et Reasoning (pour la résolution de problèmes complexes).
Un écosystème ouvert et optimisé
Pour assurer l’adoption massive de ces modèles, Mistral a collaboré étroitement avec Nvidia, Red Hat et le projet vLLM. Les modèles sont optimisés pour tourner aussi bien sur les monstrueux racks Blackwell NVL72 que sur des cartes Jetson pour la robotique.
Guillaume Lample, cofondateur de Mistral, résume la philosophie de cette sortie : « Dans 90 % des cas, un petit modèle bien affiné suffit. Cela résout les problèmes de coût, de latence et de confidentialité d’un seul coup ». Avec des contrats déjà signés avec HSBC ou Stellantis, la stratégie du « Small is Beautiful » (et Open Source) semble porter ses fruits. On retrouve également la version open source de Mistral dans plusieurs applications métier de plus petite taille, notamment Procyo en Belgique.
Les modèles sont disponibles dès aujourd’hui sur Hugging Face, Mistral La Plateforme et les principaux clouds publics (Azure, AWS, Google Cloud). L’outil grand public Le Chat va également en profiter.

