Machine Learning et IA en Open Source : 2 projets importants

Le 15 septembre dernier, Fujitsu et la Fondation Linux ont annoncé un partenariat pour développer conjointement deux projets d’IA et de « Machine Learning » open source, dans le domaine du développement automatique de code.

Un projet majeur pour la Fondation Linux en matière d’IA Open Source

Le 24 août dernier, la Fondation Linux a approuvé l’incubation de deux nouveaux projets, « SapientML » et « Intersectional Fairness ». Elle entend encourager les développeurs du monde entier à expérimenter des technologies d’IA et de « Machine Learning ». Ce sera aussi l’occasion de prévoir l’organisation de futurs hackathons afin de fédérer une communauté dédiée à la promotion de l’IA open source.

Nous pensons que le fait de proposer les technologies d’apprentissage automatique et d’équité de Fujitsu en tant que logiciel libre contribuera grandement à l’avancement et à la diffusion de l’IA

  • Jim Zemlin, directeur exécutif de la Fondation Linux

Un engagement fort en faveur de l’Open Source pour le géant japonais

Avec ces projets, Fujitsu et la Fondation Linux visent à démocratiser davantage l’IA. L’objectif poursuivi est de faciliter la tâche aux développeurs et de les inciter à utiliser des plateformes ouvertes pour créer de nouvelles applications.

« Offrir des technologies d’IA comme logiciel libre aux développeurs du monde entier ouvre de nouvelles possibilités d’innovation dans diverses industries en abaissant la barrière à l’entrée. »

Un programme, deux projets

SapientML se concentre sur le développement d’une technologie d’apprentissage automatique (AutoML) qui produit un code permettant de construire rapidement des modèles d’apprentissage automatique à partir de données tabulaires.

Elle permet aux data scientists de créer des modèles d’IA précis et interprétables. Grâce à cette innovation, les scientifiques des données peuvent instantanément générer des modèles très précis et les affiner pour améliorer les performances à l’aide du code généré, ce qui rationalise le processus de développement des modèles.

Le projet « Intersectional Fairness«  aborde la question de l’équité dans l’IA en ciblant la détection et l’atténuation des préjugés qui peuvent ne pas être immédiatement apparents. Il se concentre sur la lutte contre la discrimination à l’encontre de groupes particuliers résultant de données d’apprentissage biaisées.

L’objectif principal du projet est de créer une technologie d’IA équitable capable d’identifier et d’atténuer les « biais intersectionnels », qui surviennent lorsque de multiples attributs, tels que l’âge, le sexe et la nationalité, interagissent de manière complexe, ce qui est souvent négligé dans les systèmes d’IA.

Par exemple (figure 2), le taux de réussite des jeunes femmes à un examen n’est que de 33,3 %, soit un taux nettement inférieur à celui du reste du groupe ; ce biais, la différence de taux de réussite, ne devient apparent que lorsque la combinaison des attributs permettant d’étudier le taux est prise en compte ; la technologie d’équité de l’IA vise à atténuer ces biais tout en conservant une précision suffisante en utilisant une méthode qui ajuste le biais pour chaque groupe et détermine la ligne d’acceptation pour réajuster le biais du point de vue de l’ensemble.

Retour en haut