Logos Natix Network et Valeo sur fond de route avec véhicule autonome et visualisations de capteurs

Valeo et Natix s’allient pour créer un des plus gros modèles d’IA open source multi-caméras au monde

L’équipementier français Valeo et l’allemand Natix Network viennent d’annoncer un partenariat pour développer ce que l’on appelle un « World Foundation Model » (WFM) open source basé sur des vidéos multi-caméras. Objectif : entraîner des systèmes d’IA capables d’anticiper ce qui va se passer dans le monde réel, pas juste de détecter ce qui se passe maintenant.

Le projet s’appuie sur les frameworks VaViM et VaVAM de Valeo, déjà en open source, enrichis par les 100 mille heures de données de conduite multi-caméras collectées par Natix en sept mois à travers les États-Unis, l’Europe et l’Asie. Excellente nouvelle pour la souveraineté technologique européenne de voir un équipementier français mener la charge sur l’IA physique en open source !

Bon à savoir : que signifie World Foundation Model (WFM) ? Les modèles de monde (world models) sont des réseaux de neurones qui comprennent la dynamique du monde réel, y compris la physique et les propriétés spatiales.

Des modèles qui anticipent, pas juste qui perçoivent

Les systèmes d’IA actuels pour la conduite autonome se contentent souvent d’identifier ce qui se passe dans une scène. Les World Foundation Models vont plus loin : ils anticipent ce qui va se passer ensuite. Contrairement aux modèles existants basés uniquement sur la caméra frontale, l’approche Valeo-Natix utilise des vidéos multi-caméras. Elles sont synchronisées pour offrir une perception spatiale complète à 360 degrés, exactement comme celle utilisée en pratique par les véhicules autonomes et les robots.

« Les WFM représentent une opportunité qui ne se présente qu’une fois par génération, similaire à l’essor des LLM entre 2017 et 2020 », explique Alireza Ghods, PDG et cofondateur de Natix. « Les équipes qui construiront les premiers modèles de monde évolutifs définiront les fondations de la prochaine vague d’IA : les IA physiques. »

La différence avec la concurrence ? L’entraînement se fait sur de véritables cas limites issus de conditions de conduite réelles, pas sur des environnements simulés. Natix exploite ce que le cabinet Messari qualifie de plus grand réseau décentralisé de données multi-caméras au monde. Via son produit VX360, l’entreprise collecte des images à 360 degrés provenant de véhicules, tandis que son app mobile Drive& récolte des données géospatiales auprès des conducteurs.

Open source vs Nvidia : la bataille des IA physiques est lancée

Les deux partenaires s’engagent à publier ouvertement les modèles, les jeux de données et les outils d’entraînement. De quoi permettre aux développeurs du monde entier d’affiner la techno pour différentes régions et conditions de conduite. Première version attendue dans les prochains mois.

« En combinant l’expertise de Valeo en recherche sur la modélisation générative du monde avec les données multi-caméras mondiales de Natix, nous accélérons à la fois la qualité et l’accessibilité des modèles d’IA de bout en bout de nouvelle génération », explique Marc Vrecko, directeur général de la division Brain de Valeo.

Cette stratégie open source positionne Valeo et Natix face à Nvidia, qui a dévoilé sa famille de modèles vision-langage-action Alpamayo au CES 2026 plus tôt ce mois-ci. Alpamayo, un modèle de 10 milliards de paramètres, utilise un raisonnement en chaîne de pensée pour aider les véhicules autonomes à naviguer dans des scénarios inconnus. Mais contrairement à l’approche Valeo-Natix, difficile de savoir si Nvidia jouera la carte de l’ouverture totale.

Pour les développeurs et chercheurs en IA physique, c’est une aubaine made in Europe : accès libre à des datasets massifs de conduite réelle multi-caméras, des modèles pré-entraînés, et des frameworks open source.

Retour en haut