Interface web épurée de MiniMax Agent sur fond sombre. On peut lire "MiniMax Agent, making work easier" au-dessus d'un champ de saisie invitant à soumettre une tâche.

MiniMax M2.7 libéré sur Hugging Face : l’IA chinoise qui s’auto-améliore défie (cette fois) GPT-5

La course aux armements de l’IA se poursuit entre San Francisco et Pékin. La startup chinoise MiniMax a officiellement libéré les poids de son modèle phare, le MiniMax M2.7. Plus qu’une simple itération, ce modèle est le premier à avoir activement participé à son propre cycle de développement, marquant le début de l’ère de l’auto-évolution logicielle.

Cette sortie intervient dans un climat d’effervescence totale en Chine, alors que les laboratoires locaux multiplient les publications pour contrer l’hégémonie américaine, juste avant le lancement très attendu de DeepSeek V4 prévu pour la fin du mois.

Auto-évolution : quand l’IA construit ses propres outils

La grande particularité du M2.7 réside dans ce que MiniMax appelle l’auto-évolution. Pour concevoir ce modèle, les ingénieurs ont laissé l’IA mettre à jour sa propre mémoire et construire des dizaines de compétences complexes pour aider aux expériences d’apprentissage par renforcement.

En clair, le modèle a amélioré son propre processus d’apprentissage en fonction des résultats obtenus. Pour l’organisation, c’est un pas de géant vers une structure « AI-native » où la productivité humaine est démultipliée par des agents capables de gérer des projets de bout en bout.

Performances : Au coude à coude avec GPT-5

Les chiffres publiés par MiniMax placent le M2.7 au sommet de la hiérarchie mondiale des modèles dont les poids sont accessibles.

Petit tableau récapitulatif :

Benchmark Score M2.7 Comparaison
SWE-Pro (Code) 56,22 % Égalité avec GPT-5.3-Codex
VIBE-Pro (Projets Web/Mobile) 55,6 % Niveau Opus 4.6
GDPval-AA (Tâches Pro) 1495 ELO #1 des modèles open source
Terminal Bench 2 57,0 % Expertise ingénierie système

Le modèle affiche une adhérence aux consignes de 97 % sur des tâches complexes dépassant les 2 000 tokens, le rendant particulièrement redoutable pour l’édition de haute fidélité dans la suite Office (Excel, Word, PPT).

La controverse : un cadeau sous conditions

Malgré la mise à disposition des poids sur Hugging Face, l’enthousiasme de la communauté est tempéré par des questions de licence. La licence MiniMax M2.7 interdit toute utilisation commerciale sans autorisation écrite préalable. Pour de nombreux développeurs, cette restriction technique exclut le modèle de la définition stricte de l’Open Source, contrairement au modèle GLM-5.1 de Zhipu AI (754 milliards de paramètres) publié sous licence MIT le 7 avril dernier.

Cette sortie de MiniMax ressemble à une manœuvre de positionnement stratégique. Tout le secteur a les yeux rivés sur la fin avril et l’arrivée prévue de DeepSeek V4. Selon les fuites, le futur géant chinois fonctionnerait sur l’architecture Mixture-of-Experts avec environ mille milliards de paramètres, optimisé pour les puces Huawei Ascend. Une fenêtre de contexte d’un million de tokens et un support multimodal natif sont attendus pour ce qui pourrait être la réponse la plus sérieuse de la Chine à la domination occidentale.

Retour en haut