R1 1776, un « Deepseek R1 » non censuré et open source

Perplexity vient de frapper fort avec la mise à disposition de R1 1776, une version du modèle DeepSeek-R1 post-entraînée pour fournir des informations « impartiales, précises et factuelles », non censurées par le régime de Pékin. Pourquoi est-ce important et comment vous en servir ? Explications.

Au moment où Perplexity AI gagne en popularité, l’entreprise dévoile R1 1776, une version de son modèle DeepSeek-R1, désormais libérée de la censure imposée par le régime chinois. Là où la mouture initiale se montrait hésitante, voire totalement silencieuse, sur certains sujets sensibles (Taiwan, politique, géopolitique, etc.), R1 1776 est conçu pour fournir des réponses précises et impartiales, y compris lorsque les questions touchent à des thématiques censurées.

C’est quoi Perplexity AI, le moteur de recherche et agent IA dont tout le monde parle ?

Pour atteindre cet objectif, Perplexity explique avoir mené une campagne de collecte de données de haute qualité : l’équipe s’est focalisée sur environ 300 sujets habituellement bloqués ou filtrés, puis a développé un classifieur capable de repérer automatiquement les requêtes victimes de censure. Sur la base de plus de 40 000 prompts multilingues, l’entreprise a ensuite formé des annotateurs humains et utilisé des traces de raisonnement validées pour s’assurer que le nouveau modèle reste factuel. Ainsi, R1 1776 conserve la puissance de raisonnement de la version d’origine tout en offrant davantage de liberté d’expression.

Sur le plan technique, Perplexity s’est appuyée sur le framework NeMo 2.0 de Nvidia pour ce post-entraînement spécifique, qu’elle a voulu compatible avec ses API Sonar (open source) et avec les standards du marché. Les utilisateurs peuvent désormais télécharger les poids du modèle R1 1776 depuis le dépôt officiel sur Hugging Face.

L’idée est de permettre à chacun d’explorer ce qu’une IA « dé-censurée » peut apporter dans un environnement jusqu’ici limité par les injonctions du Parti communiste chinois, comme en témoigne l’exemple sur la question du statut de Taiwan et de l’impact potentiel sur la bourse américaine.

Selon Perplexity, ce nouveau modèle obtient des résultats proches de ceux d’IA de pointe, tout en ayant passé avec succès des tests internes de non-censure et de transparence. Pour ceux qui souhaitent en savoir plus sur la démarche, l’entreprise détaille son approche dans l’annonce officielle. Si vous êtes à la recherche d’un grand modèle de langage moins bridé, R1 1776 constitue donc une avancée majeure, puisqu’il invite chercheurs, développeurs et curieux à expérimenter les limites d’un LLM véritablement ouvert.

Si vous souhaitez en savoir plus sur le service, nous vous conseillons ce guide Perplexity AI en français.

Retour en haut