Red Hat AI s'exécute désormais nativement sur les puces Trainium et Inferentia d'AWS, offrant une alternative aux GPU traditionnels. (Crédits : Red Hat)

Inférence IA : comment Red Hat et AWS veulent casser les coûts (et la dépendance aux GPU)

C’est le nerf de la guerre dans les datacenters en 2025 : comment faire tourner des modèles d’IA générative sans se ruiner en instances GPU classiques, souvent hors de prix ou en rupture de stock ? À l’occasion de la conférence AWS re:Invent, Red Hat apporte une réponse pragmatique. L’éditeur au chapeau rouge étend sa collaboration avec le géant du cloud pour optimiser sa plateforme Red Hat AI sur les puces personnalisées d’AWS : Trainium et Inferentia.

L’annonce est stratégique. Elle ne concerne pas seulement la technologie, mais l’économie de l’IA à l’échelle. Alors que nous évoquions récemment les avancées de l’inférence distribuée avec Red Hat AI 3.0, cette nouvelle étape vise spécifiquement l’efficience matérielle dans le cloud.

Le pari du « Custom Silicon » (puces sur mesure) devient incontournable. Selon IDC, 40 % des entreprises utiliseront des processeurs spécifiques à l’IA d’ici 2027 pour optimiser leurs coûts. Red Hat prend les devants en rendant son serveur d’inférence compatible avec les puces AWS Inferentia2 et AWS Trainium3.

La promesse chiffrée est forte : ce duo logiciel/matériel offrirait un rapport prix/performance 30 à 40 % supérieur à celui des instances Amazon EC2 comparables basées sur des GPU classiques. Pour une entreprise qui déploie des modèles à grande échelle, la réduction de la facture d’inférence est immédiate. Encore faut-il mettre cette annonce à l’épreuve, à présent !

vLLM et open source au cœur du réacteur

Techniquement, cette prouesse repose sur l’open source. Le serveur d’inférence de Red Hat est propulsé par vLLM, la bibliothèque de référence pour servir les grands modèles de langage (LLM). Dans le cadre de ce partenariat, Red Hat et AWS collaborent pour optimiser le plugin vLLM en amont (upstream). L’objectif est de fournir une couche d’abstraction transparente : les développeurs peuvent utiliser la plateforme Red Hat sur AWS sans se soucier de la complexité du matériel sous-jacent.

Pour les équipes Ops, cette intégration se matérialise dans les outils qu’ils utilisent déjà. Sur OpenShift : Un nouvel opérateur AWS Neuron permet de piloter ces puces accélératrices directement depuis Red Hat OpenShift AI. Avec Ansible : De nouvelles collections certifiées (amazon.ai) facilitent l’orchestration et le déploiement de ces services d’IA, rendant le « provisioning » de ces puces exotiques aussi simple qu’une instance classique.

Retour en haut