GLM-5 atteint 50 sur l'Intelligence Index — une première pour l'open source
Zhipu AI a publié GLM-5 le 11 février 2026, et les chiffres parlent d'eux-mêmes : un score de 50 sur l'Artificial Analysis Intelligence Index v4.0, ce qui en fait le premier modèle open-weight à atteindre ce seuil. Il se classe #1 parmi les modèles ouverts sur la LMArena Text Arena et la Code Arena, au même niveau que Claude Opus 4.5 et GPT-5.2 (xhigh).
Pour les développeurs qui attendaient un modèle open source capable de gérer de véritables tâches d'ingénierie logicielle, GLM-5 est le candidat le plus crédible à ce jour.
Architecture : 744B paramètres, seulement 40B actifs
GLM-5 utilise une architecture Mixture-of-Experts (MoE) avec 744 milliards de paramètres au total, dont seulement 40 milliards sont actifs par token. C'est un gain d'efficacité significatif : des capacités de niveau frontier pour environ un cinquième du coût de calcul d'un modèle dense équivalent.
L'innovation architecturale clé est le Dynamic Sparse Attention (DSA), qui remplace l'approche MoE standard de GLM-4.5. Le DSA alloue dynamiquement les ressources d'attention en fonction de l'importance des tokens, réduisant le coût computationnel sans sacrifier la compréhension du contexte long. Le modèle supporte une fenêtre de contexte de 200K avec une sortie maximale de 128K.
Entraînement à grande échelle
- Corpus de pré-entraînement : 28,5 billions de tokens
- Architecture : MoE avec DSA, 744B total / 40B paramètres actifs
- Contexte : 200K entrée, 128K sortie
- Licence : MIT (entièrement ouverte)
L'ingrédient secret : le Reinforcement Learning agentique asynchrone
Le pipeline de post-entraînement de GLM-5 est particulièrement intéressant. Zhipu AI a implémenté un processus de reinforcement learning séquentiel en trois étapes :
- Reasoning RL — amélioration des capacités logiques et mathématiques
- Agentic RL — entraînement aux workflows complexes et multi-étapes
- General RL — élargissement des performances sur des tâches diverses
La percée est l'infrastructure RL asynchrone qui découple la génération de l'entraînement, améliorant considérablement le débit du post-entraînement.
Résultats des benchmarks
GLM-5 a été évalué sur 8 benchmarks clés aux côtés de DeepSeek-V3.2, Claude Opus 4.5, Gemini 3 Pro et GPT-5.2. En moyenne, GLM-5 montre une amélioration de 20% par rapport à son prédécesseur GLM-4.7 et est comparable à Claude Opus 4.5 et GPT-5.2.
Points forts : #1 modèle ouvert sur Vending Bench 2 ($4 432 de solde final), performances de pointe sur SWE-bench Verified, Terminal-Bench 2.0 et MCP-Atlas.
Évaluation pratique : peut-on réellement utiliser GLM-5 ?
Ce qui fonctionne bien
- Tâches de coding agentique : GLM-5 excelle dans l'ingénierie logicielle de bout en bout.
- Tâches à long horizon : Capacité de planification à long terme démontrée.
- Rentabilité : Coûts d'inférence environ 6x inférieurs aux alternatives propriétaires.
- Licence MIT : Aucune restriction d'utilisation.
Les réserves
- Exigences d'hébergement : 744B paramètres nécessitent une infrastructure multi-GPU significative.
- Accès API : La latence hors de Chine peut varier.
- Maturité de l'écosystème : L'outillage est en croissance mais reste en retard sur OpenAI et Anthropic.
Implications pour l'industrie
- Le fossé propriétaire se réduit : Un modèle MIT rivalisant avec GPT-5.2 en coding change la donne.
- La compétitivité IA de la Chine est réelle : Malgré les contrôles à l'exportation.
- L'auto-hébergement devient viable : Les entreprises avec des exigences de confidentialité ont désormais une option frontier.
- Les frameworks d'agents en bénéficient le plus.
GLM-5 vs GPT-5.2 vs Claude Opus 4.5
| Caractéristique | GLM-5 | GPT-5.2 | Claude Opus 4.5 |
|---|---|---|---|
| Paramètres | 744B (40B actifs) | Non divulgué | Non divulgué |
| Fenêtre de contexte | 200K | 400K | 200K |
| Sortie max | 128K | 32K | 64K |
| Licence | MIT (ouverte) | Propriétaire | Propriétaire |
| Intelligence Index | 50 | ~52 | ~51 |
| Coût (approx.) | ~6x moins cher | $$$ | $$$ |
Qui est derrière GLM-5 : Zhipu AI
Zhipu AI (Z.ai) est une entreprise d'IA basée à Pékin, issue du Knowledge Engineering Group de l'Université Tsinghua. Fondée en 2019, elle a levé plus de 400 millions de dollars.
FAQ
GLM-5 est-il vraiment open source ?
Oui. GLM-5 est publié sous licence MIT, autorisant une utilisation commerciale sans restriction.
Comment GLM-5 se compare-t-il à DeepSeek-V3.2 ?
GLM-5 surpasse DeepSeek-V3.2 sur la plupart des benchmarks agentiques et de coding.
Peut-on exécuter GLM-5 localement ?
Le modèle complet nécessite du matériel conséquent. Des versions quantifiées sont attendues de la communauté.
Qu'est-ce que l'Intelligence Index v4.0 ?
Un benchmark composite intégrant 10 évaluations. Le score de 50 de GLM-5 en fait le modèle open-weight le mieux noté.
GLM-5 est-il adapté à la production ?
Pour les tâches de coding et agentiques, GLM-5 offre des performances de niveau production. Des tests approfondis sont recommandés.