Acheter des NVIDIA H100 ou des Blackwell, c’est désormais la partie simple. Le véritable cauchemar commence après la livraison : assembler les couches d’orchestration, configurer le réseau, séquencer les dépendances des opérateurs et valider l’infrastructure. Ce processus, qui demande généralement des semaines à des ingénieurs chevronnés, vient de trouver son antidote. Mirantis annonce l’intégration de NVIDIA Run:ai au sein de sa plateforme k0rdent AI, promettant de déployer une « AI Factory » prête pour la production en quelques minutes seulement.
Cette annonce est une étape majeure pour la solution k0rdent, cet environnement open source que nous suivons de près. L’idée est de supprimer la « plomberie technique » qui sépare le serveur bare-metal du premier job d’entraînement ou d’inférence.
En finir avec l’assemblage manuel des briques IA
L’enjeu de cette collaboration est de combler le fossé entre le provisionnement matériel et l’opérationnalisation. En tant que membre certifié de l’initiative « NVIDIA AI Cloud Ready », Mirantis automatise désormais tout le séquençage critique : de la gestion du DNS externe à l’installation des opérateurs GPU et réseau de NVIDIA, jusqu’au déploiement de la couche de planification Run:ai. Pour les entreprises, cela signifie un déploiement standardisé et reproductible, éliminant la dépendance aux « connaissances occultes » de quelques experts en interne.
Pour les data scientists, le changement est radical. Ils peuvent désormais soumettre leurs workloads ou lancer des notebooks interactifs sans avoir à se soucier des clusters Kubernetes ou de la configuration sous-jacente des GPU. La plateforme k0rdent AI gère les mises à jour et la dérive de configuration en arrière-plan, garantissant que l’infrastructure reste alignée sur les exigences de production.
Une arme redoutable pour le cloud souverain
L’un des points forts de cette intégration réside dans sa capacité à opérer en environnements « air-gapped », c’est-à-dire totalement isolés d’Internet. C’est un argument de poids pour les secteurs réglementés et les projets de souveraineté numérique qui ne peuvent tolérer aucune dépendance réseau externe pour leurs AI Factories privées.
De plus, la solution supporte nativement les dernières architectures à l’échelle du rack, comme les systèmes NVIDIA Grace Blackwell NVL72, via une automatisation « zero-touch » du cycle de vie des serveurs. En simplifiant radicalement l’accès aux ressources de calcul, Mirantis et NVIDIA permettent aux fournisseurs de cloud spécialisés (neoclouds) de provisionner des environnements IA à la demande, maximisant ainsi la rentabilité d’investissements matériels qui se comptent en millions d’euros.
