OpenAI publie gpt-oss-120b et gpt-oss-20b : des modèles open-weight

OpenAI renoue (partiellement) avec l’ouverture. L’entreprise américaine vient de publier deux modèles de langage sous licence Apache 2.0, gpt-oss-120b et gpt-oss-20b, disponibles sur Hugging Face. Ces modèles ne sont pas pour autant open source au sens strict, mais open-weight, c’est-à-dire que leurs poids sont librement téléchargeables, modifiables et exécutables — sans que le code exact de leur entraînement ne soit rendu public.

Dans son annonce officielle, OpenAI insiste sur la performance de ces modèles, leur faible coût d’exécution et leur compatibilité avec des déploiements locaux ou sur des infrastructures souveraines. Le modèle gpt-oss-120b, proche en capacité de o4-mini, fonctionne avec 80 Go de mémoire GPU, tandis que gpt-oss-20b, plus léger, peut tourner avec seulement 16 Go. Les deux modèles utilisent l’architecture Mixture of Experts (MoE) et prennent en charge un contexte étendu de 128 000 tokens.

Contrairement aux modèles propriétaires accessibles via l’API d’OpenAI, gpt-oss a été conçu pour l’intégration dans des flux de travail personnalisés, avec la capacité de suivre des instructions complexes, d’utiliser des outils externes (comme la recherche web ou l’exécution de code), et de générer des sorties structurées. Ces caractéristiques en font des candidats sérieux pour l’IA agentique open source, à condition bien sûr d’adapter finement leur comportement via des ajustements spécifiques.

OpenAI a aussi mis l’accent sur la sécurité : évaluation des risques, supervision de la chaîne de pensée, et simulation d’ajustements à des fins malveillantes ont été menées en amont de la publication. Ces initiatives ont été auditées par des experts indépendants et visent à poser de nouveaux standards pour les modèles open-weight.

Du côté du matériel, OpenAI annonce une compatibilité large avec les principaux fournisseurs de GPU (NVIDIA, AMD, Cerebras, Groq), mais aussi une intégration facilitée via des outils populaires comme Ollama, LM Studio ou llama.cpp. Les développeurs sous Windows pourront même en profiter localement grâce à une version optimisée par Microsoft avec ONNX.

Ces modèles ne sont pas les premiers « open » d’OpenAI — Whisper ou CLIP l’ont précédé — mais il s’agit bien de ses premiers modèles de langage ouverts depuis GPT-2. L’entreprise, critiquée pour sa fermeture croissante depuis 2020, entend ainsi répondre à la montée en puissance d’acteurs open source comme Meta (LLaMA), Mistral ou DeepSeek, tout en préservant une maîtrise de la chaîne d’entraînement.

Open-weight, pas open source : pourquoi c’est important

Il est essentiel de bien distinguer open-weight (accès aux poids du modèle, parfois modifiables) et open source (accès au code d’entraînement, aux données, aux outils, avec une gouvernance communautaire possible). Ici, seuls les poids et quelques outils d’inférence sont publiés, ce qui interdit de reconstruire un modèle identique à partir de zéro.

Cela limite la reproductibilité scientifique, mais donne malgré tout plus de flexibilité aux développeurs, entreprises ou chercheurs souhaitant déployer des LLM puissants sans dépendre de serveurs distants. OpenAI parle d’un « écosystème open » où performance, sécurité et alignement sur les valeurs américaines deviennent les nouveaux piliers du partage.

Reste à voir si cette ouverture partielle suffira à convaincre les défenseurs du logiciel libre et les communautés qui militent pour une transparence totale. Mais dans un marché polarisé entre IA fermées performantes et modèles ouverts (parfois moins matures), gpt-oss-120b et gpt-oss-20b pourraient bien incarner une voie intermédiaire.

Retour en haut