MCP v2 Beta: Cosa Cambia nella Comunicazione Multi-Agente

Il 13 marzo 2026, @ai-sdk/mcp v2.0.0-beta.3 è apparso con breaking changes. Ecco cosa cambia nel Model Context Protocol, cosa si rompe e perché i sistemi multi-agente ne avevano bisogno.

MCP v2 Beta: Cosa Cambia nella Comunicazione Multi-Agente

MCP v2 Beta: Cosa Cambia nella Comunicazione Multi-Agente

Il Model Context Protocol — lo standard aperto che indica agli agenti IA come scoprire e chiamare strumenti — ha appena ricevuto la sua riprogettazione più significativa da quando Anthropic lo ha reso open source nel novembre 2024. Il 13 marzo 2026, @ai-sdk/mcp v2.0.0-beta.3 è apparso su GitHub con breaking changes che interessano ogni team che distribuisce sistemi multi-agente sul Vercel AI SDK.

Per chi esegue agenti in produzione, ecco la versione breve: gli import si rompono, i nomi dei tipi cambiano, e bisogna migrare prima del rilascio stabile. La versione lunga è che questi cambiamenti segnalano qualcosa di importante — il Model Context Protocol non è più un esperimento. È il protocollo di cui i sistemi multi-agente hanno davvero bisogno.

Cos'è il Model Context Protocol?

Il Model Context Protocol (MCP) è uno standard aperto, originariamente scritto da Anthropic, che definisce come gli agenti IA comunicano con strumenti esterni e fonti di dati. Pensatelo come l'HTTP per l'interazione agente-strumento: un contratto universale che qualsiasi client IA può parlare e qualsiasi fornitore di strumenti può implementare.

Prima che il Model Context Protocol esistesse, ogni framework IA inventava il proprio formato di connettore. OpenAI aveva il function-calling. LangChain aveva definizioni di strumenti. Ciascuno richiedeva codice di collegamento specifico del fornitore. MCP riutilizza le idee di flusso messaggi del Language Server Protocol (LSP) e trasporta tutto via JSON-RPC 2.0, dando ai team un unico punto di integrazione indipendentemente da quale modello IA o framework di agenti utilizzano.

Il protocollo ha visto un'adozione esplosiva. All'inizio del 2026, Slack, Visual Studio Code, gli IDE JetBrains, Claude e centinaia di fornitori terzi supportano nativamente il Model Context Protocol. La nostra analisi delle CLI, app MCP e competenze degli agenti che alimentano la prossima generazione di software spiega perché questo è fondamentale per gli sviluppatori che costruiscono prodotti IA in produzione.

Cosa c'è di Nuovo in MCP v2 Beta (@ai-sdk/mcp v2.0.0-beta.3)?

Il pacchetto @ai-sdk/mcp era precedentemente incorporato nel pacchetto ai come funzionalità sperimentale. Nella beta v2, diventa un pacchetto autonomo e stabile con una superficie API pronta per la produzione. Secondo il changelog ufficiale su GitHub, le principali aggiunte includono:

  • OAuth 2.0 per i client MCP — L'autenticazione sicura è ora integrata nel livello protocollo
  • Supporto per l'elicitation — I server possono richiedere input strutturati ai client durante la conversazione
  • Supporto per le risorse — Esporre dati strutturati tramite il protocollo, non solo chiamate di strumenti
  • Template di prompt — Prompt riutilizzabili e parametrizzati che qualsiasi client può invocare
  • Output strutturato / outputSchema — Risultati di strumenti tipizzati con validazione dello schema
  • Versione del protocollo MCP 2025-11-25 — Supporto per l'aggiornamento delle specifiche di novembre 2025
  • Esposizione del campo _meta — I server possono ora passare metadati insieme alle definizioni degli strumenti

Il cambiamento principale da experimental a stabile è più significativo di quanto sembri. Significa che l'API è congelata per il rilascio stabile — i team possono costruire su di essa senza preoccuparsi che il terreno si sposti.

Breaking Changes: Cosa si Rompe Davvero

Il cambiamento più immediatamente dirompente è il percorso di import. Tutto ciò che era in ai è ora in @ai-sdk/mcp:

// Prima: AI SDK 4.x
import { experimental_createMCPClient } from 'ai';
import { Experimental_StdioMCPTransport } from 'ai/mcp-stdio';

// Dopo: @ai-sdk/mcp v2.0.0-beta.3
import { createMCPClient } from '@ai-sdk/mcp';
import { StdioMCPTransport } from '@ai-sdk/mcp/mcp-stdio';

Nota cosa cambia anche: experimental_createMCPClient perde il prefisso experimental_ (ora createMCPClient), e Experimental_StdioMCPTransport diventa StdioMCPTransport. Si tratta di breaking changes netti — nessun layer di compatibilità retroattiva.

Due ulteriori rinominazioni interessano il percorso di migrazione verso AI SDK 5.0:

Vecchio nome (AI SDK 4.x)Nuovo nome (AI SDK 5.0)
CoreMessageModelMessage
MessageUIMessage
convertToCoreMessagesconvertToModelMessages
ToolCallOptionsToolExecutionOptions
message.content (stringa)message.parts (array)

Il cambiamento content → parts è quello che romperà più codice UI. Dove un messaggio aveva precedentemente content: string, ora contiene parts: Array<{type: string, text?: string, ...}>. Tracce di ragionamento, chiamate agli strumenti e testo sono tutti rappresentati come elementi separati nell'array parts.

Nuove Funzionalità che Giustificano l'Aggiornamento

I breaking changes hanno senso solo quando le nuove capacità li valgono. La beta MCP v2 offre tre aggiunte che fanno la differenza in produzione.

L'integrazione OAuth 2.0 colma la lacuna più grande nella specifica v1. Fino ad ora, i server MCP potevano autenticarsi solo tramite header o chiavi API passate al momento della connessione. Il supporto OAuth significa che i client MCP possono ora avviare un flusso di autorizzazione, ricevere token e aggiornarli in modo trasparente — lo stesso modello di fiducia che le API enterprise utilizzano da un decennio.

L'output strutturato via outputSchema è l'altra aggiunta significativa per i sistemi di produzione. In precedenza, i risultati degli strumenti restituivano stringhe grezze o JSON non tipizzato. Con outputSchema, i server dichiarano il tipo TypeScript esatto che i loro strumenti restituiscono. Questo è fondamentale per i workflow di revisione PR multi-agente dove l'agente A passa dati strutturati all'agente B — sicurezza dei tipi oltre i confini degli agenti.

Il supporto per le risorse separa "cosa un agente può fare" (strumenti) da "quali dati un agente può leggere" (risorse). Uno schema di database, il calendario di un utente, un catalogo prodotti — queste sono ora entità di protocollo di primo livello, non soluzioni alternative costruite sopra le chiamate agli strumenti.

Il Modello di Elicitation: Un Cambio di Paradigma

L'aggiunta architettonicamente più interessante nella beta MCP v2 è l'elicitation. In v1, il modello di comunicazione era strettamente unidirezionale: un client chiama uno strumento, il server risponde. L'elicitation inverte questo — un server può chiedere al client più informazioni durante l'esecuzione.

// MCP v2: Elicitation avviata dal server
const userInput = await server.elicit({
  message: "A quale progetto devo assegnare questo compito?",
  schema: z.object({
    projectId: z.string(),
    priority: z.enum(["alta", "media", "bassa"])
  })
});

Questo trasforma MCP da un protocollo richiesta/risposta in qualcosa che assomiglia più a un protocollo di dialogo. Per gli agenti autonomi che hanno bisogno di pausare, confermare o raccogliere contesto mancante prima di procedere, l'elicitation fornisce un modello standardizzato invece di un meccanismo di interruzione fatto in casa.

In Context Studios, abbiamo testato pattern di interruzione basati sull'elicitation nella nostra pipeline di contenuti. La capacità di un agente di "interrogare in risposta" tramite uno schema tipizzato — invece di allucinare un valore o restituire un errore — è un miglioramento significativo dell'affidabilità in produzione.

Come Utilizziamo il Model Context Protocol in Context Studios

Context Studios esegue workflow multi-agente in produzione dove diversi agenti coordinano su un insieme condiviso di strumenti — creazione di blog, analisi SEO, generazione di immagini, pubblicazione sociale — tutti collegati tramite il Model Context Protocol. Siamo sulla beta @ai-sdk/mcp dal suo lancio.

Quello che abbiamo effettivamente riscontrato in produzione: la garanzia di stabilità conta più di qualsiasi singola funzionalità. Con API sperimentali, si pianifica lavoro di migrazione in ogni sprint perché l'API cambia sotto di sé. Un MCPClient stabile significa che possiamo costruire tooling sopra di esso e fidarci dell'interfaccia. Questo è il vero vantaggio di v2 per i team che eseguono loop di agenti autonomi in produzione.

L'aggiunta OAuth ha anche sbloccato un workflow che avevamo trattenuto: chiamare API di terze parti autorizzate dall'utente (Google Calendar, HubSpot, GitHub) direttamente dal codice dell'agente senza costruire il nostro layer di gestione dei token.

Un'osservazione concreta: la migrazione da experimental_createMCPClient a createMCPClient ha richiesto circa 40 minuti nel nostro codice — principalmente una ricerca-sostituzione seguita dalla correzione dei pochi punti in cui usavamo message.content come stringa.

Guida alla Migrazione: Da v1 a MCP v2 Beta

Vercel fornisce un esecutore di codemod ufficiale. Per la maggior parte dei progetti, questo gestisce automaticamente l'80-90% delle modifiche:

# Installare l'ultimo AI SDK
npm install @ai-sdk/mcp ai@5.0.0 @ai-sdk/provider@2.0.0

# Eseguire i codemod ufficiali
npx @ai-sdk/codemod v5

Dopo i codemod, verificare manualmente queste aree:

  1. Componenti UI personalizzati che renderizzano message.content — aggiornare a message.parts
  2. Import di tipi — qualsiasi riferimento a CoreMessage o CreateMessage deve essere aggiornato
  3. Firme dei gestori di strumentiToolCallOptionsToolExecutionOptions
  4. Import dei server MCP — se avete costruito server MCP personalizzati, le classi di trasporto sono rinominate

Per l'aggiornamento Claude Code di marzo 2026, la migrazione AI SDK 5.0 è compatibile con gli ultimi modelli Claude — il tempismo è ben scelto.

Perché MCP v2 Conta per il Futuro Multi-Agente

La beta MCP v2 non è solo un aggiornamento di libreria — è un segnale su dove sta andando l'infrastruttura degli agenti. Quando la specifica guadagna OAuth, risorse, output strutturati ed elicitation avviata dal server in un singolo rilascio, sta dicendo: questo è il protocollo di cui i sistemi multi-agente enterprise hanno bisogno — non un giocattolo di ricerca.

Considera la traiettoria. MCP v1 è stato lanciato nel novembre 2024 con strumenti e accesso base alle risorse. All'inizio del 2025, era supportato da ogni grande piattaforma IA. Ora, nella beta v2, acquisisce la storia dell'autenticazione, la storia dell'accesso ai dati e la storia dell'interruzione conversazionale che le distribuzioni in produzione hanno aggirato per oltre un anno.

Per i team che costruiscono sulla architettura di agenti a doppio modello, MCP v2 è il tessuto connettivo che rende affidabile la coordinazione multi-agente su larga scala. Il Model Context Protocol sta diventando il TCP/IP del web agentivo. La beta MCP v2 è il punto in cui il protocollo è cresciuto.

Domande Frequenti

Cos'è MCP v2 beta e quando esce in versione stabile? MCP v2 beta indica @ai-sdk/mcp v2.0.0-beta.3, rilasciato il 13 marzo 2026. È la prima versione stabile del pacchetto client Model Context Protocol di Vercel. Una data di rilascio stabile non è stata annunciata, ma l'API beta è congelata.

Cosa si rompe aggiornando a @ai-sdk/mcp v2.0.0-beta.3? Tre principali breaking changes: (1) il percorso di import cambia da ai a @ai-sdk/mcp, (2) experimental_createMCPClient rinominato in createMCPClient, (3) i rinominamenti di tipo AI SDK 5.0 — CoreMessage → ModelMessage, message.content → array message.parts. Vercel fornisce codemod tramite npx @ai-sdk/codemod v5.

MCP v2 richiede AI SDK 5.0? Sì. Il pacchetto @ai-sdk/mcp v2 è progettato per funzionare con ai@5.0.0 e @ai-sdk/provider@2.0.0. Se si è su AI SDK 4.x, sarà necessario migrare l'intero SDK insieme al pacchetto MCP.

Cos'è l'elicitation MCP e come funziona? L'elicitation è una nuova funzionalità del Model Context Protocol che consente ai server di richiedere input strutturati ai client durante l'esecuzione degli strumenti. Invece di restituire un errore o indovinare, un server MCP può pausarsi e chiedere "quale progetto?" con uno schema tipizzato. Il client riceve la richiesta, raccoglie l'input e restituisce dati strutturati.

Il Model Context Protocol è lo stesso del function calling di OpenAI? No. Il function calling di OpenAI è una funzionalità API specifica del fornitore. Il Model Context Protocol è uno standard aperto, agnostico al trasporto, implementato da più fornitori. Uno strumento costruito per MCP funziona con Claude, Cursor, VS Code e qualsiasi altro client compatibile MCP — senza lock-in del fornitore.

Dovremmo iniziare a usare @ai-sdk/mcp v2.0.0-beta.3 in produzione oggi? Per nuovi progetti: sì, iniziare con la beta per evitare un'ulteriore migrazione al rilascio stabile. Per progetti esistenti: eseguire i codemod in un feature branch, testare accuratamente e pianificare una finestra di migrazione di 40-60 minuti. L'API beta è congelata.

Condividi articolo

Share: