Ce qu’il faut retenir du lancement de Red Hat AI 3.0

Avec Red Hat AI 3.0, l’éditeur introduit une nouvelle génération de sa plateforme d’IA hybride, combinant Red Hat Enterprise Linux AI (RHEL AI), OpenShift AI et le nouveau AI Inference Server. L’objectif : simplifier le passage de l’expérimentation à la production, tout en posant les bases d’une inférence distribuée à grande échelle, compatible avec les environnements multi-cloud et edge computing.

Selon une étude récente du MIT (The GenAI Divide), près de 95 % des entreprises n’obtiennent toujours pas de retour financier mesurable sur leurs investissements en intelligence artificielle. Red Hat AI 3.0 s’attaque directement à ce goulet d’étranglement : la plateforme vise à rationaliser les workflows IA, à réduire les coûts de déploiement et à accélérer la mise en production des grands modèles de langage (LLM).

S’appuyant sur les projets vLLM et llm-d, Red Hat introduit une inférence distribuée intelligente, optimisée pour Kubernetes. Cette approche permet de répartir dynamiquement les calculs sur différents accélérateurs matériels — notamment NVIDIA et AMD — et d’améliorer significativement la performance-coût des LLM en production.

Une plateforme unifiée et ouverte

Red Hat AI 3.0 se distingue par une approche entièrement open source, pensée pour réunir les équipes d’ingénierie IA et d’exploitation autour d’une même infrastructure. Les fonctionnalités Model as a Service (MaaS) permettent aux équipes internes de proposer des modèles prêts à l’emploi sur leurs propres serveurs, sans dépendre de fournisseurs tiers.

L’AI Hub centralise la gestion des modèles et des ressources, tandis que Gen AI Studio offre un environnement de prototypage rapide pour expérimenter avec les modèles, les prompts et les agents. Red Hat inclut par ailleurs plusieurs modèles open source validés — dont gpt-oss d’OpenAI, DeepSeek-R1, Whisper pour la transcription vocale et Voxtral Mini pour les agents conversationnels.

Red Hat positionne clairement cette version comme la fondation d’une infrastructure agentique ouverte. La prise en charge native du Model Context Protocol (MCP) et l’intégration de la Llama Stack API facilitent la communication entre les modèles, les outils externes et les environnements applicatifs. La plateforme comprend aussi une boîte à outils modulaire pour la personnalisation des modèles, issue du projet open source InstructLab, et un centre d’évaluation intégré pour valider les résultats et la qualité des modèles ajustés.

Avec Red Hat AI 3.0, l’entreprise confirme son ambition : fournir une infrastructure d’IA ouverte et souveraine, capable de rivaliser avec les plateformes cloud propriétaires tout en favorisant la transparence, la portabilité et l’innovation partagée.

Retour en haut