MCP v2 Bêta : Ce qui Change dans la Communication Multi-Agents

Le 13 mars 2026, @ai-sdk/mcp v2.0.0-beta.3 est apparu avec des changements cassants. Voici ce qui change dans le Model Context Protocol, ce qui se casse et pourquoi les systèmes multi-agents en avaient besoin.

MCP v2 Bêta : Ce qui Change dans la Communication Multi-Agents

MCP v2 Bêta : Ce qui Change dans la Communication Multi-Agents

Le Model Context Protocol — le standard ouvert qui indique aux agents IA comment découvrir et appeler des outils — vient de recevoir sa refonte la plus significative depuis qu'Anthropic l'a publié en open source en novembre 2024. Le 13 mars 2026, @ai-sdk/mcp v2.0.0-beta.3 est apparu sur GitHub avec des changements cassants qui affectent toutes les équipes déployant des systèmes multi-agents sur le Vercel AI SDK.

Pour ceux qui font tourner des agents en production, voici la version courte : vos imports se cassent, vos noms de types changent, et vous devez migrer avant la sortie stable. La version longue est que ces changements signalent quelque chose d'important — le Model Context Protocol n'est plus une expérience. C'est le protocole dont les systèmes multi-agents ont vraiment besoin.

Qu'est-ce que le Model Context Protocol ?

Le Model Context Protocol (MCP) est un standard ouvert, rédigé à l'origine par Anthropic, qui définit comment les agents IA communiquent avec les outils externes et les sources de données. C'est en quelque sorte le HTTP pour l'interaction agent-outil : un contrat universel que tout client IA peut parler et que tout fournisseur d'outils peut implémenter.

Avant que le Model Context Protocol existe, chaque framework IA inventait son propre format de connecteur. OpenAI avait le function-calling. LangChain avait des définitions d'outils. Chacun nécessitait du code de collage spécifique au fournisseur. MCP réutilise les idées de flux de messages du Language Server Protocol (LSP) et transporte tout via JSON-RPC 2.0, offrant aux équipes une cible d'intégration unique quel que soit le modèle IA ou le framework d'agents utilisé.

Le protocole a connu une adoption explosive. Début 2026, Slack, Visual Studio Code, les IDE JetBrains, Claude et des centaines de fournisseurs tiers prennent en charge nativement le Model Context Protocol. Notre analyse des CLIs, applications MCP et compétences d'agents qui alimentent la prochaine génération de logiciels explique pourquoi c'est crucial pour les développeurs qui construisent des produits IA en production.

Quoi de neuf dans MCP v2 Bêta (@ai-sdk/mcp v2.0.0-beta.3) ?

Le package @ai-sdk/mcp était précédemment intégré dans le package ai en tant que fonctionnalité expérimentale. Dans la bêta v2, il passe à un package autonome et stable avec une surface API prête pour la production. Selon le changelog officiel sur GitHub, les principales additions comprennent :

  • OAuth 2.0 pour les clients MCP — L'authentification sécurisée est désormais intégrée dans la couche protocole
  • Support de l'elicitation — Les serveurs peuvent demander des entrées structurées aux clients en cours de conversation
  • Support des ressources — Exposer des données structurées via le protocole, pas seulement des appels d'outils
  • Templates de prompts — Prompts réutilisables et paramétrés que tout client peut invoquer
  • Output structuré / outputSchema — Résultats d'outils typés avec validation de schéma
  • Version de protocole MCP 2025-11-25 — Support pour la mise à jour de la spécification de novembre 2025
  • Exposition du champ _meta — Les serveurs peuvent désormais passer des métadonnées avec les définitions d'outils

Le changement principal d'experimental à stable est plus significatif qu'il n'y paraît. Cela signifie que l'API est gelée pour la version stable — les équipes peuvent construire dessus sans craindre que le sol se dérobe.

Changements Cassants : Ce qui se Casse Vraiment

Le changement le plus immédiatement perturbateur est le chemin d'import. Tout ce qui était dans ai est maintenant dans @ai-sdk/mcp :

// Avant : AI SDK 4.x
import { experimental_createMCPClient } from 'ai';
import { Experimental_StdioMCPTransport } from 'ai/mcp-stdio';

// Après : @ai-sdk/mcp v2.0.0-beta.3
import { createMCPClient } from '@ai-sdk/mcp';
import { StdioMCPTransport } from '@ai-sdk/mcp/mcp-stdio';

Notez ce qui change aussi : experimental_createMCPClient abandonne le préfixe experimental_ (maintenant createMCPClient), et Experimental_StdioMCPTransport devient StdioMCPTransport. Ce sont des changements cassants nets — aucune couche de compatibilité ascendante.

Deux renommages supplémentaires affectent le chemin de migration vers AI SDK 5.0 :

Ancien nom (AI SDK 4.x)Nouveau nom (AI SDK 5.0)
CoreMessageModelMessage
MessageUIMessage
convertToCoreMessagesconvertToModelMessages
ToolCallOptionsToolExecutionOptions
message.content (string)message.parts (array)

Le changement content → parts est celui qui cassera le plus de code UI. Là où un message avait précédemment un content: string, il contient maintenant parts: Array<{type: string, text?: string, ...}>. Les traces de raisonnement, les appels d'outils et le texte sont tous représentés comme des éléments séparés dans le tableau parts.

Nouvelles Fonctionnalités qui Justifient la Mise à Niveau

Les changements cassants n'ont de sens que lorsque les nouvelles capacités en valent la peine. La bêta MCP v2 offre trois additions qui font la différence en production.

L'intégration OAuth 2.0 comble la plus grande lacune de la spécification v1. Jusqu'à présent, les serveurs MCP ne pouvaient s'authentifier que via des en-têtes ou des clés API passés au moment de la connexion. Le support OAuth signifie que les clients MCP peuvent désormais initier un flux d'autorisation, recevoir des tokens et les rafraîchir de manière transparente — le même modèle de confiance que les API d'entreprise utilisent depuis une décennie.

L'output structuré via outputSchema est l'autre addition significative pour les systèmes de production. Auparavant, les résultats d'outils retournaient des chaînes brutes ou du JSON non typé. Avec outputSchema, les serveurs déclarent le type TypeScript exact que leurs outils retournent. Cela est crucial pour les workflows de revue PR multi-agents où l'agent A transmet des données structurées à l'agent B — la sécurité de type au-delà des frontières des agents.

Le support des ressources sépare "ce qu'un agent peut faire" (outils) de "les données qu'un agent peut lire" (ressources). Un schéma de base de données, le calendrier d'un utilisateur, un catalogue de produits — ce sont maintenant des entités de protocole de premier ordre, pas des solutions de contournement construites sur des appels d'outils.

Le Modèle d'Elicitation : Un Changement de Paradigme

L'addition architecturalement la plus intéressante dans la bêta MCP v2 est l'elicitation. Dans v1, le modèle de communication était strictement unidirectionnel : un client appelle un outil, le serveur répond. L'elicitation inverse cela — un serveur peut demander au client plus d'informations en cours d'exécution.

// MCP v2 : Elicitation initiée par le serveur
const userInput = await server.elicit({
  message: "À quel projet dois-je assigner cette tâche ?",
  schema: z.object({
    projectId: z.string(),
    priority: z.enum(["haute", "moyenne", "basse"])
  })
});

Cela transforme MCP d'un protocole requête/réponse en quelque chose qui ressemble davantage à un protocole de dialogue. Pour les agents autonomes qui ont besoin de s'arrêter, confirmer ou collecter le contexte manquant avant de continuer, l'elicitation fournit un modèle standardisé plutôt qu'un mécanisme d'interruption fait maison.

Chez Context Studios, nous avons testé des modèles d'interruption basés sur l'elicitation dans notre pipeline de contenu. La capacité d'un agent à "interroger en retour" via un schéma typé — plutôt que d'halluciner une valeur ou de retourner une erreur — est une amélioration significative de la fiabilité en production.

Comment Nous Utilisons le Model Context Protocol chez Context Studios

Context Studios fait tourner des workflows multi-agents en production où plusieurs agents coordonnent sur un ensemble partagé d'outils — création de blog, analyse SEO, génération d'images, publication sociale — tous câblés via le Model Context Protocol. Nous sommes sur la bêta @ai-sdk/mcp depuis sa sortie.

Ce que nous avons réellement constaté en production : la garantie de stabilité compte plus que n'importe quelle fonctionnalité individuelle. Avec des API expérimentales, on planifie du travail de migration à chaque sprint parce que l'API change sous soi. Un MCPClient stable signifie qu'on peut construire des outils dessus et faire confiance à l'interface. C'est le vrai bénéfice de v2 pour les équipes qui font tourner des boucles d'agents autonomes en production.

L'addition OAuth a également débloqué un workflow que nous retenions : appeler des API tierces autorisées par l'utilisateur (Google Agenda, HubSpot, GitHub) directement depuis le code d'agent sans construire notre propre couche de gestion de tokens.

Une observation concrète : la migration de experimental_createMCPClient vers createMCPClient a pris environ 40 minutes dans notre base de code — principalement un rechercher-remplacer suivi de la correction des quelques endroits où nous utilisions message.content comme chaîne.

Guide de Migration : De v1 à MCP v2 Bêta

Vercel fournit un exécuteur de codemod officiel. Pour la plupart des projets, cela gère automatiquement 80-90% des changements :

# Installer le dernier AI SDK
npm install @ai-sdk/mcp ai@5.0.0 @ai-sdk/provider@2.0.0

# Exécuter les codemods officiels
npx @ai-sdk/codemod v5

Après les codemods, vérifier ces zones manuellement :

  1. Composants UI personnalisés qui rendent message.content — mettre à jour vers message.parts
  2. Imports de types — toutes les références CoreMessage ou CreateMessage doivent être mises à jour
  3. Signatures de handlers d'outilsToolCallOptionsToolExecutionOptions
  4. Imports de serveurs MCP — si vous avez construit des serveurs MCP personnalisés, les classes de transport sont renommées

Pour la mise à niveau Claude Code de mars 2026, la migration AI SDK 5.0 est compatible avec les derniers modèles Claude — le timing est bien choisi.

Pourquoi MCP v2 Compte pour l'Avenir Multi-Agents

La bêta MCP v2 n'est pas seulement une mise à jour de bibliothèque — c'est un signal sur la direction que prend l'infrastructure des agents. Quand la spécification gagne OAuth, ressources, outputs structurés et elicitation initiée par le serveur dans une seule version, elle dit : voici le protocole dont les systèmes multi-agents d'entreprise ont besoin — pas un jouet de recherche.

Considérez la trajectoire. MCP v1 a été lancé en novembre 2024 avec des outils et un accès basique aux ressources. Début 2025, il était pris en charge par toutes les grandes plateformes IA. Maintenant, dans la bêta v2, il acquiert l'histoire d'authentification, l'histoire d'accès aux données et l'histoire d'interruption conversationnelle que les déploiements en production ont contournée pendant plus d'un an.

Pour les équipes construisant sur l'architecture d'agents à double modèle, MCP v2 est le tissu conjonctif qui rend la coordination multi-agents fiable à grande échelle. Le Model Context Protocol devient le TCP/IP du web agentique. La bêta MCP v2 est le moment où le protocole a grandi.

Questions Fréquemment Posées

Qu'est-ce que MCP v2 bêta et quand sort-il en version stable ? MCP v2 bêta désigne @ai-sdk/mcp v2.0.0-beta.3, sorti le 13 mars 2026. C'est la première version stable du package client Model Context Protocol de Vercel. Une date de sortie stable n'a pas été annoncée, mais l'API bêta est gelée.

Qu'est-ce qui se casse lors de la mise à niveau vers @ai-sdk/mcp v2.0.0-beta.3 ? Trois changements cassants principaux : (1) le chemin d'import change de ai vers @ai-sdk/mcp, (2) experimental_createMCPClient renommé en createMCPClient, (3) les renommages de types AI SDK 5.0 — CoreMessage → ModelMessage, message.content → tableau message.parts. Vercel fournit des codemods via npx @ai-sdk/codemod v5.

MCP v2 nécessite-t-il AI SDK 5.0 ? Oui. Le package @ai-sdk/mcp v2 est conçu pour fonctionner avec ai@5.0.0 et @ai-sdk/provider@2.0.0. Si vous êtes sur AI SDK 4.x, vous devrez migrer l'ensemble du SDK en parallèle du package MCP.

Qu'est-ce que l'elicitation MCP et comment fonctionne-t-elle ? L'elicitation est une nouvelle fonctionnalité du Model Context Protocol permettant aux serveurs de demander des entrées structurées aux clients pendant l'exécution d'outils. Au lieu de retourner une erreur ou de deviner, un serveur MCP peut s'arrêter et demander "quel projet ?" avec un schéma typé. Le client reçoit la demande, collecte les entrées et retourne des données structurées.

Le Model Context Protocol est-il la même chose que le function calling d'OpenAI ? Non. Le function calling d'OpenAI est une fonctionnalité API spécifique au fournisseur. Le Model Context Protocol est un standard ouvert, agnostique au transport, implémenté par plusieurs fournisseurs. Un outil construit pour MCP fonctionne avec Claude, Cursor, VS Code et tout autre client compatible MCP — sans verrouillage fournisseur.

Devrions-nous commencer à utiliser @ai-sdk/mcp v2.0.0-beta.3 en production aujourd'hui ? Pour les nouveaux projets : oui, démarrer avec la bêta pour éviter une migration supplémentaire à la version stable. Pour les projets existants : exécuter les codemods dans une branche de fonctionnalité, tester soigneusement, et prévoir une fenêtre de migration de 40-60 minutes. L'API bêta est gelée.

Partager l'article

Share: