Red Hat et Run:ai annoncent que les entreprises vont collaborer pour améliorer les performances et l’efficacité des tâches d’intelligence artificielle (IA) lorsqu’elles sont exécutées dans un environnement de Cloud hybride.
Comme mmoteurs de calcul des workflows d’IA, les GPU favorisent l’apprentissage des modèles, l’inférence ou encore l’expérimentation. Oui mais voilà, ces processeurs spécialisés peuvent être coûteux, en particulier lorsqu’ils sont utilisés pour des tâches de formation et d’inférence distribuées.
Red Hat et Run:ai entendent, ensemble, répondre à un besoin critique d’optimisation des ressources GPU avec l’Openshift Operator certifié de Run:ai sur Red Hat OpenShift AI. Cet opérateur aide les utilisateurs à mettre à l’échelle et optimiser leurs workloads d’IA, quel que soit leur emplacement. Run:ai est une entreprise spécialisée dans la gestion et l’optimisation des ressources pour les applications d’IA, notamment avec des GPU (unités de traitement graphique).
« En rationalisant les opérations d’IA et en optimisant l’infrastructure sous-jacente, cette collaboration permet aux entreprises de tirer le meilleur parti des ressources d’IA en maximisant les workflows pilotés par des humains ou par du matériel sur une plateforme MLOps de confiance dédiée à la construction, au réglage, au déploiement et au monitoring à l’échelle d’applications et de modèles augmentés par l’IA. »
La plateforme d’orchestration de calcul cloud native de Run:ai sur Red Hat OpenShift AI doit aider les entreprises à résoudre les problèmes de planification des GPU pour les workloads d’IA, utiliser des capacités de GPU et de monitoring fractionnées et bénéficier d’un meilleur contrôle et d’une visibilité accrue sur l’infrastructure GPU partagée.
L’Openshift Operator certifié de Run:ai est désormais disponible. Mais ce n’est qu’une première étape. Les 2 éditeurs souhaitent poursuivre leur collaboration en proposant des capacités d’intégration supplémentaires pour Run:ai sur Red Hat OpenShift AI. Ce projet vise à « favoriser des expériences client plus transparentes et à accélérer davantage la migration des modèles d’IA dans les workflows de production de manière encore plus cohérente ».
