GLM-5 raggiunge 50 nell'Intelligence Index — una novità per l'Open Source
Zhipu AI ha rilasciato GLM-5 l'11 febbraio 2026 e i numeri parlano chiaro: un punteggio di 50 nell'Artificial Analysis Intelligence Index v4.0 — il primo modello Open-Weight a raggiungere questa soglia. Occupa il primo posto tra i modelli open source sia nella LMArena Text Arena che nella Code Arena, posizionandosi allo stesso livello di Claude Opus 4.5 e GPT-5.2 (xhigh) nei benchmark agentici, di Reasoning e di Coding.
Per gli sviluppatori che hanno atteso un modello open source in grado di gestire vere attività di Software Engineering — non solo enigmi da benchmark — GLM-5 è il candidato più credibile finora. (Parole chiave italiane: open source, intelligenza artificiale, Machine Learning, API, CLI, sviluppo software)
Architettura: 744B Parametri, solo 40B attivi
GLM-5 utilizza un'architettura Mixture-of-Experts (MoE) con 744 miliardi di parametri totali, di cui solo 40 miliardi sono attivi per token. Questo rappresenta un notevole guadagno in termini di efficienza: si ottengono capacità di livello avanzato con circa un quinto dei costi di calcolo di un modello denso comparabile.
L'innovazione architettonica centrale è la Dynamic Sparse Attention (DSA), che sostituisce l'approccio MoE standard di GLM-4.5. DSA alloca dinamicamente le risorse di attenzione in base all'importanza del token, riducendo il carico computazionale senza compromettere la comprensione del contesto lungo. Il modello supporta una finestra di contesto di 200K con un output massimo di 128K.
Training su larga scala
- Corpus di pre-training: 28,5 trilioni di token (rispetto ai 15T di GLM-4.5)
- Architettura: MoE con DSA, 744B totali / 40B parametri attivi
- Contesto: 200K input, 128K output
- Licenza: MIT (completamente aperta)
- Fase di mid-training: Estensione progressiva del contesto da 4K a 200K con dati di agenti di contesto lungo
L'ingrediente Segreto: Apprendimento per Rinforzo Asincrono con Agenti
La pipeline di post-training di GLM-5 è particolarmente interessante. Zhipu AI ha implementato un processo di apprendimento per rinforzo sequenziale a tre fasi:
- Reasoning RL — Affinamento delle capacità logiche e matematiche
- Agentic RL — Training per workflow complessi e multi-step
- General RL — Ampliamento delle prestazioni su diverse attività
La svolta è l'infrastruttura RL asincrona, che disaccoppia la generazione e il training. L'RL tradizionale per gli LLM impone l'elaborazione sincrona, creando un collo di bottiglia. L'approccio di Zhipu parallelizza entrambi, migliorando drasticamente la produttività del post-training.
Inoltre, è stata introdotta la On-Policy Cross-Stage Distillation per prevenire il catastrophic forgetting. (oblio catastrofico).
Risultati dei Benchmark: La posizione di GLM-5
GLM-5 è stato valutato su 8 benchmark chiave insieme a DeepSeek-V3.2, Claude Opus 4.5, Gemini 3 Pro e GPT-5.2:
| Benchmark | Cosa testa | Prestazioni di GLM-5 |
|---|---|---|
| SWE-bench Verified | Risoluzione di issue su GitHub | Competitivo con Claude Opus 4.5 |
| Terminal-Bench 2.0 | Engineering basato su Terminale | Open-source di alto livello |
| Humanity's Last Exam | Conoscenza di frontiera | Modello open source all'avanguardia |
| MCP-Atlas | Integrazione di strumenti MCP | Modello open source leader |
| τ²-Bench | Ragionamento agentico | Vicino a Claude Opus 4.5 |
| Vending Bench 2 | Simulazione aziendale a lungo termine | Modello open source #1 (saldo finale di $4.432) |
In media, GLM-5 mostra un miglioramento del 20% rispetto al suo predecessore GLM-4.7. Questi risultati lo rendono un modello di Machine Learning competitivo nel panorama attuale. L'integrazione con API e l'utilizzo tramite CLI sono stati ottimizzati per una maggiore efficienza.
Valutazione Pratica del Builder: GLM-5 è realmente utilizzabile?
Cosa funziona bene
- Compiti di Coding Agentici: GLM-5 eccelle nell'ingegneria del software end-to-end.
- Compiti a Lungo Termine: I risultati di Vending-Bench-2 (#1 tra i modelli open source) dimostrano una reale pianificazione a lungo termine.
- Efficienza dei Costi: Con soli 40B di parametri attivi, i costi di inferenza sono circa 6 volte inferiori rispetto alle alternative proprietarie.
- Licenza MIT: Nessuna restrizione d'uso, nessun limite di fatturato.
Le Limitazioni
- Requisiti di Hosting: 744B di parametri totali richiedono infrastrutture significative e configurazioni multi-GPU.
- Accesso API: Zhipu offre accesso API tramite la propria piattaforma, ma la latenza al di fuori della Cina può variare.
- Maturità dell'Ecosistema: L'ecosistema di tooling è in crescita, ma è ancora indietro rispetto a OpenAI e Anthropic.
- Benchmark vs. Realtà: La verifica indipendente delle prestazioni pratiche è ancora in corso.
Implicazioni dell'Open Source per il Settore
Il punteggio di 50 di GLM-5s nell'Intelligence Index ha un significato di vasta portata:
- Il divario proprietario si restringe: Se un modello con licenza MIT raggiunge GPT-5.2 nelle attività di coding, la proposta di valore dei modelli chiusi si sposta.
- La competitività cinese nell'IA è reale: Nonostante i controlli sulle esportazioni di chip, Zhipu AI continua a spingersi verso la frontiera.
- L'auto-hosting diventa fattibile per carichi di lavoro seri: Le aziende con requisiti di protezione dei dati ora hanno un'opzione di frontiera.
- I framework di agenti ne traggono il massimo vantaggio: I modelli open-weight riducono la barriera all'ingresso per gli agenti di coding autonomi. (Agenti di coding autonomi, Machine Learning, API, CLI)
GLM-5 vs. GPT-5.2 vs. Claude Opus 4.5: Il Confronto
| Caratteristica | GLM-5 | GPT-5.2 | Claude Opus 4.5 |
|---|---|---|---|
| Parametri | 744B (40B attivi) | Non pubblicato | Non pubblicato |
| Finestra di Contesto | 200K | 400K | 200K |
| Output Massimo | 128K | 32K | 64K |
| Licenza | MIT (aperta) | Proprietaria | Proprietaria |
| Indice di Intelligenza | 50 | ~52 | ~51 |
| Costo (circa) | ~6x più economico | $$$ | $$$ |
Chi c'è dietro GLM-5: Zhipu AI
Zhipu AI (Z.ai) è una società di intelligenza artificiale con sede a Pechino, nata dal Knowledge Engineering Group dell'Università Tsinghua. Fondata nel 2019, ha raccolto oltre 400 milioni di dollari ed è stata uno dei primi fornitori cinesi di LLM open source competitivi con la serie GLM. Zhipu AI è un'azienda leader nel settore dell'Intelligenza Artificiale (AI) e del Machine Learning (ML), specializzata nello sviluppo di modelli linguistici di grandi dimensioni (LLM). La loro offerta include strumenti e API avanzate per sviluppatori e aziende che desiderano integrare soluzioni di AI nei loro prodotti e servizi. Zhipu AI si distingue per l'innovazione e l'impegno nella ricerca e sviluppo nel campo dell'AI.
FAQ
GLM-5 è veramente Open Source?
Sì. GLM-5 è rilasciato sotto licenza MIT, che permette l'uso commerciale, la modifica e la distribuzione senza restrizioni. I pesi del modello, il codice e la documentazione sono disponibili su GitHub.
Come si confronta GLM-5 con DeepSeek-V3.2?
GLM-5 supera DeepSeek-V3.2 nella maggior parte dei benchmark agentici e di Coding. L'architettura DSA e l'addestramento RL a tre fasi gli conferiscono un vantaggio nelle attività a lungo termine.
Posso eseguire GLM-5 localmente?
Il modello completo da 744B richiede hardware significativo: diverse GPU di fascia alta. I 40B di parametri attivi rendono tuttavia l'inferenza più efficiente rispetto a un modello denso di capacità comparabile.
Cos'è l'Intelligence Index v4.0?
L'Artificial Analysis Intelligence Index v4.0 è un benchmark composito con 10 valutazioni. Il punteggio di GLM-5 di 50 lo rende il modello Open-Weight con il punteggio più alto.
GLM-5 è adatto per l'uso in produzione?
Per attività di Coding e agentiche, GLM-5 mostra prestazioni pronte per la produzione. Si raccomandano test approfonditi per il proprio caso d'uso.