Illustration textuelle sur fond blanc. À gauche, un cerveau humain en transparence avec trois points listant les limites de la perception seule. À droite, le texte "Understanding requires Reasoning" avec le mot "Reasoning" en orange.

EXAONE 4.5 : LG libère le code de son « tueur » de GPT-5 mini

Le géant sud-coréen LG ne se contente plus de suivre la course à l’IA ; il vient d’y prendre la tête avec une annonce tonitruante. LG AI Research a présenté ce jeudi EXAONE 4.5, son tout premier modèle de vision-langage (VLM) publié en « open-weight » (pas entièrement open source, en somme). Sa particularité ? Il surpasse les versions « mini » de GPT-5 et Claude Sonnet sur des tests critiques de raisonnement visuel et industriel.

Cette version marque une rupture dans la stratégie de LG, qui passe d’un modèle propriétaire fermé à une approche plus ouverte, tout en ciblant une efficacité redoutable pour les applications de terrain.

Quand le raisonnement dépasse la simple perception

Pour LG, « voir ne signifie pas comprendre« . Le modèle EXAONE 4.5 a été spécifiquement conçu pour combler le fossé entre la reconnaissance d’image et le raisonnement logique. Avec un score de 77,3 points sur les benchmarks STEM (Sciences, Technologie, Ingénierie et Mathématiques), le modèle affiche une compétitivité mondiale.

Selon les données fournies par Hugging Face, EXAONE 4.5 bat GPT-5 mini d’OpenAI et Claude Sonnet 4.5 sur 13 métriques mesurant le traitement de la vision et les capacités de raisonnement. Il se distingue particulièrement dans l’analyse de graphiques complexes et le codage, dépassant même les derniers modèles de Google sur ces points spécifiques.

Un géant de 33 milliards de paramètres

Sous le capot, le modèle embarque un total de 33 milliards de paramètres, dont 1,2 milliard dédiés exclusivement à l’encodeur de vision propriétaire. Cependant, la prouesse technique réside dans son architecture à attention hybride : LG a réussi à réduire les paramètres actifs à seulement 3,3 milliards lors de l’exécution, soit un septième de la taille du modèle précédent, sans sacrifier les performances de raisonnement textuel.

Côté caractéristiques techniques, les développeurs apprécieront par exemple la fenêtre de contexte, soit 262 144 tokens, permettant d’ingérer des documents massifs. Le nouveau-venu apporte le support natif de 6 langues, dont le coréen, l’anglais, l’espagnol et le japonais, mais pas encore le français. Enfin, le poids et le code d’inférence sont disponibles sur GitHub.

L’IA de terrain : lire des plans et des contrats techniques

Contrairement à ses concurrents qui se focalisent sur le grand public, LG oriente EXAONE 4.5 vers le monde industriel. Le modèle est capable de « lire » et d’analyser des données non structurées complexes comme des dessins de conception (blueprints), des états financiers ou des contrats technologiques.

« EXAONE 4.5 est le signal qui annonce l’entrée dans l’ère multimodale, comprenant parfaitement l’information visuelle au-delà du texte. Nous allons étendre cette compréhension à la parole et à la vidéo pour construire une IA capable de jugements pratiques sur les sites industriels. » — Lee Jin-sik, responsable du laboratoire EXAONE.

Bien que les poids soient disponibles en « open-weight », attention toutefois à la licence : LG utilise l’EXAONE AI Model License Agreement 1.2, qui comporte une clause NC (Non-Commercial) limitant pour l’instant son usage à la recherche et au milieu académique. Vous pouvez consulter l’intégralité du rapport technique ici pour en savoir plus sur la méthodologie d’entraînement.

Retour en haut