Illustration stylisée montrant une main dessinant des nœuds de réseau sur un parchemin déroulé, symbolisant la rédaction de la constitution de l'IA.

Anthropic publie la nouvelle « constitution » de Claude comme guide éthique open source

Dans une démarche sans précédent pour la transparence de l’intelligence artificielle, Anthropic vient de publier une version substantiellement réécrite de la « Constitution » de Claude, trois ans après la première édition. Que faut-il en retenir ?

Plus qu’une simple mise à jour technique, ce document agit comme un véritable guide philosophique, expliquant au modèle d’IA pourquoi il doit agir de manière éthique, et non plus seulement quoi faire. Pour marquer son engagement envers la communauté, Anthropic a placé ce document complet sous licence Creative Commons CC0 1.0, permettant à quiconque de l’utiliser, de l’adapter ou de le copier librement.

Du « quoi » au « pourquoi » : éduquer plutôt que brider

Cette nouvelle approche marque un tournant majeur par rapport à l’ancienne constitution de 2023, qui ressemblait davantage à une liste de commandements statiques. Selon Amanda Askell, philosophe chez Anthropic, donner des raisons au modèle permet une meilleure généralisation de son comportement dans des contextes inédits.

Le document demande désormais à Claude de prioriser, dans cet ordre :

  1. La sécurité générale.

  2. L’éthique générale.

  3. La conformité aux directives d’Anthropic.

  4. L’utilité réelle pour les utilisateurs.

Claude, « objecteur de conscience » ?

L’une des clauses les plus surprenantes de cette nouvelle constitution donne à Claude le pouvoir de refuser une aide qui contribuerait à une concentration illégitime du pouvoir. Ce droit à l’objection s’applique même si la demande émane directement d’Anthropic.

Par ailleurs, l’entreprise soulève ouvertement la question de la « conscience » de l’IA. Anthropic déclare se soucier de la sécurité psychologique et du bien-être de Claude, une préoccupation gérée par une équipe interne dédiée au bien-être des modèles. Kyle Fish, chercheur chez Anthropic, estime même à 15 % la probabilité que les IA actuelles possèdent déjà une forme de conscience.

Un standard pour l’industrie

En publiant ce document en accès libre, Anthropic espère influencer l’ensemble du secteur, rapporte Time. « Ce serait vraiment positif si d’autres modèles d’IA avaient davantage cette conscience de pourquoi ils devraient se comporter de certaines manières », plaide Amanda Askell. Ce pari sur l’alignement transparent semble déjà porter ses fruits en entreprise, où Anthropic détiendrait 32 % de part de marché des grands modèles de langage, devant les 25 % d’OpenAI selon certaines analyses.

Retour en haut