Depuis deux ans, la narration dominante de l’intelligence artificielle se résumait à une course aux armements financiers. OpenAI, Anthropic ou Google ont injecté des milliards pour développer la « couche de base» (base layer), ces modèles de fondation titanesques issus d’une phase de pré-entraînement massive. Pourtant, une révolution plus silencieuse, mais techniquement décisive, est en marche. Dans une tribune publiée par Forbes, Komninos Chatzipapas, CEO d’Orion AI, théorise la fin de cette course au gigantisme au profit d’une approche plus pragmatique : celle de l’open source et de la spécialisation.
Le constat de 2025 est sans appel : le monopole de la Silicon Valley sur la performance brute s’effrite. Des acteurs chinois comme DeepSeek, Alibaba (avec Qwen) ou Zhipu ont démontré qu’il était possible de répliquer les performances des meilleurs LLM mondiaux sans nécessairement disposer de budgets illimités. Ces modèles ouverts offrent désormais un coût par jeton (token) considérablement inférieur et, surtout, libèrent les infrastructures des entreprises du verrou technologique (vendor lock-in) imposé par les modèles propriétaires fermés.
Du statut de locataire à propriétaire ?
Au-delà de l’économie de coûts, le véritable changement de paradigme réside dans le « fine-tuning» (l’ajustement fin). Jusqu’ici, de nombreuses entreprises se contentaient d’être des « wrappers« , comprenez de simples surcouches logicielles appelant une API fermée type GPT-4. Cette stratégie présente une faille majeure : la valeur ajoutée reste captive du fournisseur du modèle.
Le modèle open source change la donne en permettant aux DSI de reprendre le contrôle. En entraînant un modèle pré-existant avec leurs propres jeux de données pour un usage spécifique (ton, style, tâche métier), les entreprises ne se contentent plus d’utiliser une intelligence générique. Elles créent une nouvelle forme de propriété intellectuelle : les poids du modèle affiné (model weights). C’est le passage d’une consommation de service à la possession d’un actif technologique différenciant.
Le plafond de verre de la performance brute
Cette transition intervient à un moment charnière où la performance des LLM semble atteindre un plateau. De nombreux observateurs techniques notent que les gains marginaux des nouvelles versions géantes diminuent, certains utilisateurs trouvant même les anciens modèles plus « cohérents ». Sans rupture architecturale majeure, la prochaine vague de valeur ne viendra pas d’une augmentation de la puissance de calcul brute, mais de l’outillage et de la capacité des développeurs à spécialiser les modèles.
Même les géants du secteur commencent à pivoter. OpenAI, avec des initiatives comme GPT-4.1 orienté développeurs, tente de reproduire la flexibilité du monde libre en ouvrant davantage les capacités de fine-tuning. Pour les décideurs techniques, le message est clair : l’avantage concurrentiel ne réside plus dans l’accès au plus gros modèle, mais dans la compétence à transformer un modèle standard en un outil métier sur mesure, sécurisé et souverain.
Vous pouvez lire la tribune « The Impact Of Open-Source AI On Developers » de Komninos Chatzipapas sur Forbes (en version anglaise).
