Mistral Small 3

Mistral Small 3.1 : petit, mais visiblement très costaud (et open source)

Après seulement un mois, comme nous l’avions évoqué dans notre article du 4 février, l’entreprise française Mistral lance une nouvelle version de son modèle open source, Mistral Small 3.1. Ce modèle, composé de 24 milliards de paramètres, fait déjà parler de lui grâce à ses performances impressionnantes. Selon les tests, il surpasse des modèles comparables tels que Gemma 3 et GPT-4o Mini tout en affichant une vitesse d’inférence de 150 jetons par seconde.

Conçu pour répondre aux exigences des applications d’intelligence artificielle modernes, Mistral Small 3.1 allie polyvalence et rapidité. Il est capable de traiter du texte, de comprendre des entrées multimodales, de supporter plusieurs langues et de gérer des longs contextes pouvant aller jusqu’à 128 000 jetons. Ce modèle polyvalent se prête aussi bien à des tâches d’instruction, d’assistance conversationnelle, de compréhension d’images que d’appel de fonctions. Il offre ainsi une base solide pour des applications tant orientées entreprise que grand public. Il permet aussi même d’optimiser l’allocation des ressources en adaptant la charge de travail d’inférence selon les besoins.

Nouvelle démonstration de force

L’un des points forts de Mistral Small 3.1 est sa légèreté. Capable de fonctionner sur un seul GPU RTX 4090 ou sur un Mac récent équipé de 32 Go de RAM, il est idéal pour des cas d’usage sur dispositif local, tout en étant facilement personnalisable grâce à ses versions Base et Instruct. Cette souplesse permet aux entreprises de fine-tuner le modèle pour créer des experts dans des domaines spécifiques comme le conseil juridique, le diagnostic médical ou le support technique.

Les concepteurs de Mistral AI vantent également la robustesse de ce modèle, qui affiche un score remarquable de 81 % sur le benchmark MMLU, mesurant ses capacités de raisonnement. Bien que ces performances annoncées devront être corroborées par des tests indépendants, les premiers retours sur des plateformes comme Reddit témoignent d’un enthousiasme certain autour de cette nouvelle itération.

Comment tester

Pour ceux qui souhaitent l’expérimenter, Mistral Small 3.1 est dès à présent disponible en téléchargement sur Hugging Face, avec la version Base et la version Instruct. Pour les déploiements d’entreprise nécessitant une infrastructure d’inférence privée et optimisée, Mistral AI invite à les contacter directement. Par ailleurs, il est possible de tester le modèle via l’API sur La Plateforme de Mistral AI ou via Google Cloud Vertex AI, et Mistral Small 3.1 sera bientôt disponible sur NVIDIA NIM.

Retour en haut