Votre agent IA vient de prendre une décision qui va influencer un contrat, une transaction ou un processus critique. Vous voulez savoir pourquoi. Aujourd’hui, la plupart des équipes n’ont pas de réponse à cette question. Kiji Inspector, publié en open source sous licence Apache 2.0 par le bureau de recherche 575 Lab de Dataiku lors du GTC 2026 de NVIDIA, est conçu pour y remédier.
Un point de contexte utile : les agents IA sont des systèmes autonomes qui choisissent parmi plusieurs outils logiciels pour accomplir une tâche. La question n’est donc pas « qu’est-ce que le modèle a répondu ? » mais « pourquoi a-t-il choisi cet outil plutôt qu’un autre à ce moment précis ? » C’est précisément ce que Kiji Inspector cherche à expliquer.
Au-delà de l’ingénierie de prompts : regarder à l’intérieur du modèle
Les approches habituelles d’explicabilité observent les entrées et les sorties du modèle. Elles ne révèlent rien de ce qui se passe entre les deux. Kiji Inspector prend une autre voie : il capture les activations de l’état caché du modèle au moment exact où l’agent sélectionne un outil, puis utilise un autoencodeur parcimonieux (Sparse Autoencoder) pour décomposer ces activations de haute dimension en caractéristiques lisibles par un humain. Ces caractéristiques peuvent être tracées, validées et auditées.

Le framework utilise ensuite une analyse contrastive dans cinq domaines d’entreprise – analyse d’investissement, fabrication, chaîne d’approvisionnement notamment – pour isoler les caractéristiques internes qui ont motivé un choix particulier. La prise en charge initiale concerne les modèles NVIDIA Nemotron.
« Sans explicabilité, faire évoluer l’IA revient à faire évoluer l’incertitude« , résume Hannes Hapke, directeur du 575 Lab chez Dataiku. Un argument qui porte particulièrement dans les secteurs réglementés : finance, énergie, santé. SLB, l’entreprise mondiale de technologies énergétiques, a d’ailleurs souligné l’enjeu : « Dans les opérations énergétiques, l’IA apporte une valeur considérable lorsque les ingénieurs peuvent comprendre et se fier à ses décisions. »
