Logo Kiji Inspector de Dataiku avec mascotte oiseau vert tenant une loupe, sous-titré "Explaining Agent Decisions"

Dataiku publie Kiji Inspector en open source : un outil pour comprendre pourquoi un agent IA choisit telle action plutôt qu’une autre

Votre agent IA vient de prendre une décision qui va influencer un contrat, une transaction ou un processus critique. Vous voulez savoir pourquoi. Aujourd’hui, la plupart des équipes n’ont pas de réponse à cette question. Kiji Inspector, publié en open source sous licence Apache 2.0 par le bureau de recherche 575 Lab de Dataiku lors du GTC 2026 de NVIDIA, est conçu pour y remédier.

Un point de contexte utile : les agents IA sont des systèmes autonomes qui choisissent parmi plusieurs outils logiciels pour accomplir une tâche. La question n’est donc pas « qu’est-ce que le modèle a répondu ? » mais « pourquoi a-t-il choisi cet outil plutôt qu’un autre à ce moment précis ? » C’est précisément ce que Kiji Inspector cherche à expliquer.

Au-delà de l’ingénierie de prompts : regarder à l’intérieur du modèle

Les approches habituelles d’explicabilité observent les entrées et les sorties du modèle. Elles ne révèlent rien de ce qui se passe entre les deux. Kiji Inspector prend une autre voie : il capture les activations de l’état caché du modèle au moment exact où l’agent sélectionne un outil, puis utilise un autoencodeur parcimonieux (Sparse Autoencoder) pour décomposer ces activations de haute dimension en caractéristiques lisibles par un humain. Ces caractéristiques peuvent être tracées, validées et auditées.

Interface Dataiku DSS montrant un tableau de bord "Maintenance Operations Analysis and Predictions" avec un agent IA de planification NVIDIA, métriques de maintenance et graphiques d'opérations planifiées vs non planifiées
Exemple d’agent IA de planification de maintenance industrielle dans Dataiku DSS, illustrant les cas d’usage concrets où l’explicabilité des décisions d’agents apportée par Kiji Inspector devient critique.

Le framework utilise ensuite une analyse contrastive dans cinq domaines d’entreprise – analyse d’investissement, fabrication, chaîne d’approvisionnement notamment – pour isoler les caractéristiques internes qui ont motivé un choix particulier. La prise en charge initiale concerne les modèles NVIDIA Nemotron.

« Sans explicabilité, faire évoluer l’IA revient à faire évoluer l’incertitude« , résume Hannes Hapke, directeur du 575 Lab chez Dataiku. Un argument qui porte particulièrement dans les secteurs réglementés : finance, énergie, santé. SLB, l’entreprise mondiale de technologies énergétiques, a d’ailleurs souligné l’enjeu : « Dans les opérations énergétiques, l’IA apporte une valeur considérable lorsque les ingénieurs peuvent comprendre et se fier à ses décisions. »

Le code source est sur GitHub.

Retour en haut