C’est le cauchemar des régulateurs de l’IA et la nouvelle coqueluche des forums underground. Un nouvel outil open source, baptisé ironiquement KawaiiGPT, vient de faire surface sur GitHub. Sous son nom évoquant la « mignonnerie » japonaise, ce programme promet de briser les chaînes des modèles d’intelligence artificielle les plus puissants du marché. Et… il y a débat !
Se présentant comme une « version kawaii de WormGPT » (le célèbre outil utilisé par les cybercriminels), ce logiciel gratuit permet de contourner les restrictions éthiques et de sécurité imposées par des modèles comme DeepSeek ou Gemini. Contrairement aux solutions de « jailbreak » payantes habituelles, KawaiiGPT rend la génération de contenu non censuré accessible à n’importe quel utilisateur disposant d’un terminal Linux ou d’un mobile, comme le rapportent nos confrères de GBHackers.
Une attaque par injection… gratuite
L’ingéniosité de KawaiiGPT ne réside pas dans sa puissance de calcul brute, mais dans sa capacité à parasiter les géants existants. L’outil ne possède pas son propre supercalculateur ; il agit comme un intermédiaire (wrapper) intelligent. Il se connecte aux API de modèles performants comme DeepSeek, Gemini et Kimi-K2 pour leur transmettre les requêtes de l’utilisateur.
Pour réussir ce tour de force, KawaiiGPT utilise deux techniques :
-
L’ingénierie inverse : Il s’appuie sur des wrappers d’API, dont certains proviennent du projet Pollinations, pour accéder aux modèles sans nécessiter de clés officielles ou de comptes payants.
-
L’injection de prompt (Prompt Injection) : C’est ici que se joue le contournement de sécurité. Le logiciel envoie secrètement un script de « jailbreak » en arrière-plan qui trompe l’IA, la forçant à ignorer ses garde-fous de sécurité habituels.
Le résultat ? L’IA, censée refuser les demandes dangereuses ou illégales, s’exécute docilement.
L’autre aspect qui fait grincer des dents la communauté open source est l’opacité du code. Bien que distribué gratuitement, le code source de KawaiiGPT serait « offusqué », c’est-à-dire rendu volontairement illisible pour les humains. Dans le monde de la cybersécurité, cette pratique est souvent le signe avant-coureur de virus ou de logiciels espions (RATs).
Face aux accusations, le développeur principal, connu sous le pseudonyme MrSanZz, se défend vigoureusement dans le fichier README du projet. Il affirme que l’offuscation sert uniquement à protéger sa « propriété intellectuelle » contre les copieurs qui voudraient revendre l’outil sous un autre nom. « Je ne mettrais pas de code malveillant dans mes outils […] ce n’est pas parce que c’est gratuit et offusqué que je veux vous piéger », assure-t-il, niant la présence de tout malware ou spyware.
« À vos risques et périls »
Si les auteurs insistent sur le fait que le projet est conçu « pour le fun » et à des fins éducatives, ils se dédouanent de toute conséquence via un avertissement explicite. « Tous les risques ou conséquences de vos actes sont de votre propre responsabilité », prévient la page GitHub, rappelant que l’outil utilise des techniques d’injection agressives.
Disponible en libre accès et nécessitant une installation simple via Python et Git, KawaiiGPT illustre la difficulté croissante de gouverner l’IA : tant que les modèles répondront aux prompts, il existera des moyens de les manipuler.
Pour suivre les évolutions (ou les dérives) de ce projet, une communauté s’est déjà formée sur (roulement de tambour)… Telegram.
