GuardRail, un projet open source pour promouvoir le développement éthique de l'IA

GuardRail, un projet open source pour promouvoir le développement éthique de l’IA

Et si un framework open source parvenait à fournir des garde-fous pour contribuer à diriger l’IA de manière éthique, sécurisée et surtout explicable ? C’est tout l’intérêt de GuardRail, un nouveau projet d’approche de gestion des systèmes d’IA.

Le 20 décembre dernier est sortie la version 0.3.0 de Guardrails AI. L’occasion pour nous de présenter cet ambitieux projet qui s’inscrit dans le cadre de l’IA éthique.

GuardRail est un framework open-source axé sur les API, avec un large éventail de capacités comme l’analyse avancée des données, l’atténuation des biais ou encore l’analyse des sentiments. Objectif : promouvoir des pratiques d’IA responsable en donnant accès aux entreprises à des solutions gratuites de garde-fou pour l’intelligence artificielle générative.

Au cœur de Guardrails se trouve la spécification rail. rail est conçu comme un format lisible par l’homme et indépendant du langage pour spécifier les informations de structure et de type, les validateurs et les actions correctives sur les sorties LLM.

Techniquement, Guardrails est un paquet Python open-source. Le développement est placé sous licence Apache 2.0 et articulé en open source sur le compte Github dédié.

OpenLLM France dévoile son premier modèle ouvert, Claire

Retour en haut