IBM annonce Granite 3.2 : nouvelle IA multimodale et de raisonnement open source

Quelques semaines seulement après la sortie de la version 3.1, IBM dévoile Granite 3.2, une évolution significative de son modèle d’IA open source. Cette nouvelle génération apporte des améliorations majeures en termes de vision, de raisonnement et d’efficacité, tout en restant fidèle à la philosophie d’IBM de fournir des modèles plus petits et spécialisés pour les entreprises.

Le nouveau VLM de Granite 3.2 se distingue dans les tâches de compréhension de documents, avec des performances égalant ou dépassant celles de modèles bien plus imposants comme Llama 3.2 11B et Pixtral 12B dans les benchmarks pertinents pour les entreprises (DocVQA, ChartQA, AI2D et OCRBench).

Pour atteindre ce niveau d’efficacité, IBM a utilisé son kit d’outils Docling open-source pour traiter 85 millions de PDF et générer 26 millions de paires de questions-réponses synthétiques, renforçant ainsi la capacité du modèle à gérer des flux de travail documentaires complexes.

Raisonnement amélioré avec chaîne de pensée

Les modèles Granite 3.2 2B et 8B bénéficient désormais de fonctionnalités de chaîne de pensée qui améliorent considérablement leurs capacités de raisonnement. Innovation notable, cette fonctionnalité peut être activée ou désactivée selon les besoins, permettant d’optimiser l’efficacité en fonction de la complexité des tâches.

Cette amélioration permet au modèle 8B d’enregistrer des progrès à deux chiffres par rapport à son prédécesseur dans les benchmarks de suivi d’instructions comme ArenaHard et Alpaca Eval, sans compromettre la sécurité ou les performances.

Plus impressionnant encore, grâce à de nouvelles méthodes de mise à l’échelle de l’inférence, le modèle Granite 3.2 8B peut être optimisé pour rivaliser avec des modèles bien plus grands comme Claude3.5-Sonnet ou GPT-4o sur des benchmarks de raisonnement mathématique tels que AIME2024 et MATH500.

Sécurité optimisée avec Granite Guardian

Les modèles de sécurité Granite Guardian bénéficient désormais d’options à taille réduite qui maintiennent les performances des versions précédentes tout en diminuant leur taille de 30%. Ils introduisent également une fonctionnalité de « confiance verbalisée » qui offre une évaluation des risques plus nuancée, reconnaissant l’ambiguïté inhérente à la surveillance de la sécurité.

Une approche pratique pour les entreprises

L’approche d’IBM, consistant à développer des modèles d’IA plus petits et spécialisés, continue de prouver son efficacité. Le modèle Granite 3.1 8B a récemment obtenu d’excellents résultats en termes de précision dans le benchmark Salesforce LLM for CRM.

Cette stratégie répond à un besoin concret: offrir une IA performante sans dépenses excessives en ressources de calcul. Comme l’explique Sriram Raghavan, VP d’IBM AI Research: « La prochaine ère de l’IA est celle de l’efficacité, de l’intégration et de l’impact sur le monde réel – où les entreprises peuvent obtenir des résultats puissants sans dépenses excessives en calcul. »

Parallèlement aux améliorations de Granite, IBM lance également une nouvelle génération de ses modèles TinyTimeMixers (TTM), contenant moins de 10 millions de paramètres. Ces modèles offrent des capacités de prévision à plus long terme, jusqu’à deux ans dans le futur, ce qui en fait des outils précieux pour l’analyse des tendances financières, la prévision de la demande dans les chaînes d’approvisionnement, et la planification des stocks dans le commerce de détail.

Disponibilité

Tous les modèles Granite 3.2 sont disponibles sous la licence permissive Apache 2.0 sur Hugging Face et devraient bientôt être accessibles sur RHEL AI 1.5, renforçant l’engagement d’IBM envers l’open source et l’accessibilité de l’IA.

Pour plus d’informations, vous pouvez consulter l’annonce officielle d’IBM ou la page dédiée à IBM Granite.

Retour en haut