GLM-5 raggiunge 50 nell'Intelligence Index — una prima per l'open source
Zhipu AI ha rilasciato GLM-5 l'11 febbraio 2026, e i numeri parlano da soli: un punteggio di 50 nell'Artificial Analysis Intelligence Index v4.0, il primo modello open-weight a raggiungere questa soglia. Si classifica #1 tra i modelli aperti sia nella LMArena Text Arena che nella Code Arena, alla pari con Claude Opus 4.5 e GPT-5.2 (xhigh).
Per gli sviluppatori che attendevano un modello open source capace di gestire vere attività di ingegneria del software, GLM-5 è il candidato più credibile finora.
Architettura: 744B parametri, solo 40B attivi
GLM-5 utilizza un'architettura Mixture-of-Experts (MoE) con 744 miliardi di parametri totali, di cui solo 40 miliardi attivi per token. Un notevole guadagno in efficienza: capacità di livello frontier con circa un quinto del costo computazionale di un modello denso equivalente.
L'innovazione architetturale chiave è il Dynamic Sparse Attention (DSA), che sostituisce l'approccio MoE standard di GLM-4.5. Il DSA alloca dinamicamente le risorse di attenzione in base all'importanza dei token, riducendo il costo computazionale senza sacrificare la comprensione del contesto lungo. Il modello supporta una finestra di contesto di 200K con output massimo di 128K.
Addestramento su larga scala
- Corpus di pre-addestramento: 28,5 trilioni di token
- Architettura: MoE con DSA, 744B totali / 40B parametri attivi
- Contesto: 200K input, 128K output
- Licenza: MIT (completamente aperta)
L'ingrediente segreto: Reinforcement Learning agentici asincrono
La pipeline di post-addestramento di GLM-5 è particolarmente interessante. Zhipu AI ha implementato un processo di reinforcement learning sequenziale in tre fasi:
- Reasoning RL — affinamento delle capacità logiche e matematiche
- Agentic RL — addestramento per workflow complessi e multi-step
- General RL — ampliamento delle prestazioni su compiti diversi
La svolta è l'infrastruttura RL asincrona che disaccoppia generazione e addestramento, migliorando drasticamente il throughput del post-addestramento.
Risultati dei benchmark
GLM-5 è stato valutato su 8 benchmark chiave insieme a DeepSeek-V3.2, Claude Opus 4.5, Gemini 3 Pro e GPT-5.2. In media, GLM-5 mostra un miglioramento del 20% rispetto al predecessore GLM-4.7 ed è comparabile a Claude Opus 4.5 e GPT-5.2.
Punti di forza: #1 modello aperto su Vending Bench 2, prestazioni di punta su SWE-bench Verified, Terminal-Bench 2.0 e MCP-Atlas.
Valutazione pratica: si può davvero usare GLM-5?
Cosa funziona bene
- Task di coding agentici: GLM-5 eccelle nell'ingegneria del software end-to-end.
- Task a lungo orizzonte: Capacità di pianificazione a lungo termine dimostrata.
- Efficienza dei costi: Costi di inferenza circa 6x inferiori alle alternative proprietarie.
- Licenza MIT: Nessuna restrizione d'uso.
Le avvertenze
- Requisiti di hosting: 744B parametri richiedono infrastruttura multi-GPU significativa.
- Accesso API: La latenza fuori dalla Cina può variare.
- Maturità dell'ecosistema: Gli strumenti sono in crescita ma ancora indietro rispetto a OpenAI e Anthropic.
Implicazioni per il settore
- Il fossato proprietario si restringe: Un modello MIT che rivaleggia con GPT-5.2 nel coding cambia le regole del gioco.
- La competitività IA della Cina è reale: Nonostante i controlli alle esportazioni.
- Il self-hosting diventa praticabile: Le aziende con requisiti di privacy hanno ora un'opzione frontier.
- I framework per agenti ne beneficiano di più.
GLM-5 vs GPT-5.2 vs Claude Opus 4.5
| Caratteristica | GLM-5 | GPT-5.2 | Claude Opus 4.5 |
|---|---|---|---|
| Parametri | 744B (40B attivi) | Non divulgato | Non divulgato |
| Finestra di contesto | 200K | 400K | 200K |
| Output max | 128K | 32K | 64K |
| Licenza | MIT (aperta) | Proprietaria | Proprietaria |
| Intelligence Index | 50 | ~52 | ~51 |
| Costo (approx.) | ~6x più economico | $$$ | $$$ |
Chi c'è dietro GLM-5: Zhipu AI
Zhipu AI (Z.ai) è un'azienda di IA con sede a Pechino, nata dal Knowledge Engineering Group dell'Università Tsinghua. Fondata nel 2019, ha raccolto oltre 400 milioni di dollari.
FAQ
GLM-5 è davvero open source?
Sì. GLM-5 è rilasciato sotto licenza MIT, che consente uso commerciale illimitato, modifica e distribuzione.
Come si confronta GLM-5 con DeepSeek-V3.2?
GLM-5 supera DeepSeek-V3.2 nella maggior parte dei benchmark agentici e di coding.
Si può eseguire GLM-5 localmente?
Il modello completo richiede hardware significativo. Versioni quantizzate sono attese dalla comunità.
Cos'è l'Intelligence Index v4.0?
Un benchmark composito che integra 10 valutazioni. Il punteggio di 50 di GLM-5 lo rende il modello open-weight più alto in classifica.
GLM-5 è adatto alla produzione?
Per task di coding e agentici, GLM-5 offre prestazioni di livello produzione. Si raccomandano test approfonditi.