Logo Trinity Large d'Arcee AI avec triangle concentrique turquoise sur fond noir

Une startup de 30 personnes défie Meta avec un modèle IA de 400 milliards de paramètres (vraiment open source)

Arcee AI, une startup américaine de 30 employés, vient de frapper un grand coup. L’entreprise a publié cette semaine Trinity Large, un modèle de langage de 400 milliards de paramètres entraîné de zéro aux États-Unis et publié sous licence Apache 2.0. Autrement dit, une alternative réellement et durablement ouverte au Llama 4 de Meta et aux principaux modèles open source chinois.

Beaucoup dans l’industrie pensent que les gagnants du marché de l’IA sont déjà décidés : les Big Tech (Google, Meta, Microsoft, un peu d’Amazon) avec leurs créateurs de modèles de prédilection, principalement OpenAI et Anthropic. Mais Arcee AI ne partage pas cette vision. L’entreprise affirme qu’avec 400 milliards de paramètres, Trinity Large est parmi les plus grands modèles open source jamais entraînés et publiés par une entreprise américaine, selon TechCrunch.

18,6 millions d’euros, 33 jours, 2 048 GPU Blackwell

Arcee a entraîné l’ensemble de la famille de modèles Trinity en six mois pour un total de 20 millions de dollars (environ 18,6 millions d’euros), en utilisant 2 048 GPU Blackwell B300 de Nvidia. Le modèle phare Trinity Large a terminé son pré-entraînement en seulement 33 jours sur un ensemble de données de 17 000 milliards de tokens.

LINAGORA ouvre des dizaines de postes tech en 2026 : DevOps, dev et IA éthique

Trinity Large utilise une architecture éparse de type Mixture-of-Experts avec 400 milliards de paramètres au total, mais seulement 13 milliards de paramètres actifs par jeton, en employant 256 experts dont quatre sont actifs à chaque passage avant. Cette conception à haute sparsité permet des vitesses d’inférence environ deux à trois fois plus rapides que les modèles concurrents de la même classe de poids.

Arcee propose trois variantes :

  • Trinity-Large-Preview : version légèrement post-entraînée prête pour les applications de chat
  • Trinity-Large-Base : checkpoint complet de pré-entraînement
  • TrueBase : checkpoint de 10 billions de jetons sans aucune donnée d’instruction ni annealing du taux d’apprentissage

La publication de TrueBase est particulièrement remarquable. La plupart des modèles dits « de base » publiquement disponibles contiennent des données d’instruction, ce qui en fait une ressource rare pour les chercheurs étudiant les sorties de pré-entraînement pur.

Apache 2.0 contre Llama : le vrai open source

Le choix de la licence Apache 2.0 est stratégique. Contrairement à Llama de Meta, qui utilise une licence propriétaire avec des restrictions commerciales, Apache 2.0 offre des droits illimités pour l’utilisation commerciale et la modification. Mark McQuade, PDG d’Arcee et ancien employé de Hugging Face, est cash sur les intentions : Arcee existe parce que les États-Unis ont besoin d’une alternative durablement ouverte, sous licence Apache, qui puisse réellement rivaliser avec les modèles de pointe actuels (notamment chinois !).

Les premiers benchmarks montrent que Trinity rivalise avec Llama 4 Maverick 400B de Meta et GLM-4.5 de Z.ai (Chine) sur les tests de codage, mathématiques, bon sens et raisonnement. Le modèle est actuellement textuel uniquement, bien qu’un modèle de vision soit en cours de développement.

Cette sortie intervient dans un contexte de concurrence croissante des modèles open source chinois. Les modèles open source chinois ont conquis environ 30 % du marché de l’IA opérationnelle, notamment dans le support au codage et les scénarios de déploiement personnalisables. Lucas Atkins, directeur technique d’Arcee, souligne que l’équipe souhaite particulièrement offrir aux entreprises américaines une alternative nationale aux modèles chinois, que certaines sociétés évitent pour des raisons de conformité ou réglementaires.

En fin de compte, les gagnants de cette course, et la seule façon de vraiment gagner l’adoption, c’est d’avoir le meilleur modèle à poids ouverts. Pour conquérir le cœur et l’esprit des développeurs, il faut leur offrir ce qu’il y a de mieux.

De startup de post-entraînement à créateur de modèles frontier

Arcee n’avait pas pour vocation initiale de devenir un créateur de modèles. L’entreprise était à l’origine spécialisée dans le post-entraînement et la personnalisation de modèles ouverts existants comme Llama et Mistral pour des clients entreprises, notamment SK Telecom. Face à une demande croissante, l’équipe a décidé que maîtriser l’intégralité du pipeline de pré-entraînement était une nécessité stratégique.

Le parcours a commencé avec un modèle plus petit de 4,5 milliards de paramètres en partenariat avec DatologyAI, suivi en décembre par les sorties de Trinity Mini (26 milliards de paramètres) et Trinity Nano (6 milliards de paramètres). McQuade estime que moins de 20 entreprises dans le monde ont déjà pré-entraîné et publié leur propre modèle à l’échelle visée par Arcee.

Tous les modèles Trinity sont disponibles en téléchargement gratuit. Trinity Mini est accessible via API à 0,042 € par million de tokens en entrée et 0,14 € par million de tokens en sortie (0,045 $ et 0,15 $), avec une offre gratuite limitée en débit. Une version hébergée de Trinity Large est attendue d’ici six semaines alors que l’entreprise continue de développer ses capacités de raisonnement.

Les modèles sont disponibles sur GitHub, Hugging Face, et dans le catalogue open source d’Arcee

Retour en haut