Open-R1

Open-R1 : voici un clone vraiment open source du modèle de DeepSeek

Le séisme provoqué par l’annonce de DeepSeek R1 sur le marché de l’intelligence artificielle a poussé Hugging Face à réagir. La célèbre plateforme open source lance Open-R1, un projet visant à créer un “double” du modèle DeepSeek, mais avec un fonctionnement et des données d’entraînement pleinement ouverts. L’objectif est d’aller au-delà de la démarche initiale de DeepSeek, dont le code est accessible, mais dont certains composants et méthodes restent opaques.

Cette initiative émerge dans un contexte où DeepSeek, une jeune pousse chinoise, a bouleversé la donne dans la course à l’IA. En 48 heures, plusieurs acteurs majeurs de l’industrie des semi-conducteurs — notamment Nvidia — ont vu leur capitalisation chuter, tandis que la presse financière parle d’un rééquilibrage possible de la suprématie américaine.

Un modèle de raisonnement à répliquer

Baptisé R1, le modèle de DeepSeek s’est distingué par sa capacité de “raisonnement” : il s’autorise un temps de réflexion plus long (pouvant aller jusqu’à quelques minutes) pour valider et croiser ses réponses, réduisant ainsi la probabilité d’erreurs mathématiques ou logiques. Selon TechCrunch, c’est justement ce “secret sauce” que Hugging Face veut reproduire de manière totalement transparente. En association avec d’autres laboratoires et bénévoles, l’éditeur compte exploiter un cluster de calcul baptisé “Science Cluster” (768 GPU Nvidia H100 à la clé) pour assembler et entraîner un modèle quasi-identique, tout en documentant chaque étape : données, pipeline d’apprentissage, scripts de configuration, etc.

Un besoin de transparence dans l’IA

D’après les ingénieurs de Hugging Face, la volonté de faire un “Open-R1” tient à la difficulté de comprendre réellement comment R1 a été bâti. S’il existe une licence libre pour R1, certaines briques et données restent une véritable “boîte noire” (notamment les jeux d’instruction). Difficile dans ces conditions d’examiner les biais potentiels ou de corriger les imperfections d’un système censé répondre à des problématiques complexes (physique, sciences, etc.). Pour Hugging Face, la mise en commun des résultats permettra non seulement de valider ou d’infirmer les performances de R1, mais aussi de développer des versions améliorées et plus sûres. Ce mouvement, estime l’éditeur, est cohérent avec la philosophie open source qui a déjà donné naissance à d’autres projets ambitieux, comme la librairie Falco pour la sécurité cloud-native.

La communauté comme moteur

La démarche d’Hugging Face s’appuie sur de multiples collaborations : l’éditeur invite les volontaires à apporter leur expertise en IA, en linguistique ou en mathématiques, afin de s’assurer que chaque détail du protocole d’apprentissage soit correctement reproduit. Le code est centralisé sur GitHub, et des discussions sont en cours sur Discord pour répartir les tâches (collecte de jeux de données, paramétrage de la “raison” du modèle, validation des benchmarks, etc.).

Le pari d’Open-R1 : montrer que le progrès en IA n’est pas réservé à une poignée de laboratoires privés, mais peut émerger d’un écosystème collaboratif.

Retour en haut