Modèle 3D d'un cerveau humain vu de profil montrant des zones d'activité neuronale colorées en rouge et jaune sur le cortex. Texte "TRIBE v2" au centre.

TRIBE v2 : le premier modèle d’IA capable de simuler votre cerveau

Non, Meta ne va pas (encore) lire vos rêves en direct pour vous vendre des publicités (on a dit, pas encore !). Cependant, l’équipe FAIR (Fundamental AI Research) vient de franchir une étape symbolique et passionnante avec TRIBE v2, un modèle multimodal capable de prédire avec une précision inédite la réaction du cerveau humain face à des images, des sons ou du texte.

Développé pour la compétition de codage cérébral Algonauts 2025 (où il a raflé la première place), le TRImodal Brain Encoder v2 représente un saut technologique spectaculaire par rapport à la première version. Là où TRIBE v1 se basait sur les données de quatre personnes, cette nouvelle mouture a été entraînée sur plus de 1 000 heures d’enregistrements IRMf provenant de 720 volontaires.

Le résultat ? TRIBE v2 peut désormais prédire l’activité cérébrale sur environ 70 000 voxels (les « pixels » de l’imagerie cérébrale), contre seulement 1 000 auparavant. Cette augmentation de la résolution par un facteur 70 permet de visualiser avec une finesse chirurgicale quelles zones du cortex s’allument lorsqu’on écoute un podcast ou que l’on regarde un film.

L’expérimentation « in silico » : la fin des IRM coûteuses ?

L’innovation la plus concrète réside dans ce que Meta appelle l’expérimentation « in silico ». Aujourd’hui, une seule session d’IRMf peut coûter plusieurs milliers de dollars et nécessite des protocoles éthiques complexes.

Grâce à TRIBE v2, les chercheurs peuvent désormais :

  • Tester des hypothèses de manière logicielle avant de passer aux essais humains.

  • Simuler la réaction cérébrale à une phrase ou une vidéo spécifique en quelques secondes.

  • Prédire l’activité de zones spécialisées (comme les aires du langage) avec une précision deux à trois fois supérieure aux méthodes actuelles.

Un modèle « Zero-Shot » et totalement Open Source

La véritable prouesse de TRIBE v2 est sa capacité de prédiction « Zero-Shot ». Le modèle peut estimer la réponse neuronale d’un individu qu’il n’a jamais « rencontré » durant son entraînement, ou même analyser des réactions dans des langues qu’il ne connaît pas.

Meta a publié l’intégralité du projet en accès libre :

  • Poids du modèle : Disponibles sur Hugging Face.

  • Code source : Accessible sur GitHub (licence CC-BY-NC-4.0).

  • Démonstration : Une interface interactive permet de tester le modèle en temps réel.

Si certains chercheurs rappellent que l’IA n’explique encore qu’une fraction de la complexité du vivant, TRIBE v2 offre enfin une infrastructure standardisée pour que la communauté des neurosciences puisse accélérer le diagnostic des maladies neurologiques. Allez, on applaudit (quand même un peu).

Retour en haut