MCP v2 Beta: Was sich in der Multi-Agenten-Kommunikation ändert

Am 13. März 2026 erschien @ai-sdk/mcp v2.0.0-beta.3 mit Breaking Changes. Was sich im Model Context Protocol ändert, was bricht und warum Multi-Agenten-Systeme dieses Redesign brauchen.

MCP v2 Beta: Was sich in der Multi-Agenten-Kommunikation ändert

MCP v2 Beta: Was sich in der Multi-Agenten-Kommunikation ändert

Das Model Context Protocol — der offene Standard, der KI-Agenten erklärt, wie sie Tools entdecken und aufrufen — hat gerade das bedeutendste Redesign seit der Open-Source-Veröffentlichung durch Anthropic im November 2024 erhalten. Am 13. März 2026 erschien @ai-sdk/mcp v2.0.0-beta.3 auf GitHub mit Breaking Changes, die jedes Team betreffen, das Multi-Agenten-Systeme auf dem Vercel AI SDK betreibt.

Wer Agenten in Produktion betreibt, bekommt hier die Kurzversion: Imports brechen, Typen werden umbenannt, und eine Migration ist vor dem stabilen Release notwendig. Die längere Version ist, dass diese Änderungen etwas Wichtiges signalisieren — das Model Context Protocol ist kein Experiment mehr. Es ist das Protokoll, das Multi-Agenten-Systeme tatsächlich brauchen.

Was ist das Model Context Protocol?

Das Model Context Protocol (MCP) ist ein offener Standard, ursprünglich von Anthropic verfasst, der definiert, wie KI-Agenten mit externen Tools und Datenquellen kommunizieren. Es ist quasi das HTTP für die Agent-Tool-Interaktion: ein universeller Vertrag, den jeder KI-Client sprechen und jeder Tool-Anbieter implementieren kann.

Bevor das Model Context Protocol existierte, erfand jedes KI-Framework sein eigenes Connector-Format. OpenAI hatte Function Calling. LangChain hatte Tool-Definitionen. Jedes erforderte vendor-spezifischen Klebecode. MCP nutzt die Nachrichtenfluss-Ideen des Language Server Protocol (LSP) und transportiert alles über JSON-RPC 2.0 — ein einziger Integrationspunkt, unabhängig davon, welches KI-Modell oder Agent-Framework verwendet wird.

Das Protokoll hat eine explosive Verbreitung erlebt. Seit Anfang 2026 unterstützen Slack, Visual Studio Code, JetBrains IDEs, Claude und Hunderte von Drittanbietern das Model Context Protocol nativ. Unsere Analyse der CLIs, MCP-Apps und Agent-Skills, die die nächste Generation von Software antreiben, erklärt, warum das für Entwickler, die KI-Produkte für die Produktion bauen, entscheidend ist.

Was ist neu in MCP v2 Beta (@ai-sdk/mcp v2.0.0-beta.3)?

Das @ai-sdk/mcp-Paket war bisher als experimentelles Feature in das ai-Paket integriert. In der v2-Beta wird es zu einem eigenständigen, stabilen Paket mit einer produktionsreifen API-Oberfläche. Gemäß dem offiziellen GitHub-Changelog umfassen die wichtigsten Ergänzungen:

  • OAuth 2.0 für MCP-Clients — Sichere Authentifizierung ist jetzt in die Protokollschicht integriert
  • Elicitation-Unterstützung — Server können während der Konversation strukturierte Eingaben von Clients anfordern
  • Resources-Unterstützung — Strukturierte Daten über das Protokoll bereitstellen, nicht nur Tool-Aufrufe
  • Prompt-Templates — Wiederverwendbare, parametrisierte Prompts, die jeder Client aufrufen kann
  • Strukturierter Output / outputSchema — Typisierte Tool-Ergebnisse mit Schema-Validierung
  • MCP-Protokollversion 2025-11-25 — Unterstützung für das November-2025-Spec-Update
  • _meta-Feld-Exposition — Server können nun Metadaten neben Tool-Definitionen übergeben

Die wichtigste Änderung von experimental zu stabil ist bedeutsamer als sie klingt. Sie bedeutet, dass die API für das stabile Release eingefroren ist — Teams können darauf aufbauen, ohne befürchten zu müssen, dass sich das Fundament verschiebt.

Breaking Changes: Was tatsächlich bricht

Die unmittelbar disruptivste Änderung ist der Import-Pfad. Alles, was in ai war, ist jetzt in @ai-sdk/mcp:

// Vorher: AI SDK 4.x
import { experimental_createMCPClient } from 'ai';
import { Experimental_StdioMCPTransport } from 'ai/mcp-stdio';

// Nachher: @ai-sdk/mcp v2.0.0-beta.3
import { createMCPClient } from '@ai-sdk/mcp';
import { StdioMCPTransport } from '@ai-sdk/mcp/mcp-stdio';

Bemerkenswert: experimental_createMCPClient verliert das experimental_-Präfix (jetzt createMCPClient), und Experimental_StdioMCPTransport wird zu StdioMCPTransport. Das sind saubere Breaking Changes ohne Abwärtskompatibilitätsschicht.

Zwei weitere Umbenennungen betreffen den breiteren AI SDK 5.0-Migrationspfad:

Alter Name (AI SDK 4.x)Neuer Name (AI SDK 5.0)
CoreMessageModelMessage
MessageUIMessage
convertToCoreMessagesconvertToModelMessages
ToolCallOptionsToolExecutionOptions
message.content (String)message.parts (Array)

Die Änderung content → parts ist diejenige, die den meisten UI-Code bricht. Wo eine Nachricht früher content: string hatte, enthält sie jetzt parts: Array<{type: string, text?: string, ...}>. Reasoning-Traces, Tool-Aufrufe und Text sind alle als separate Elemente im Parts-Array dargestellt.

Neue Features, die das Upgrade rechtfertigen

Breaking Changes ergeben nur Sinn, wenn die neuen Möglichkeiten es wert sind. Die MCP v2 Beta liefert drei Ergänzungen, die in der Produktion einen Unterschied machen.

OAuth 2.0-Integration schließt die größte Lücke in der v1-Spezifikation. Bis jetzt konnten MCP-Server nur über Header oder API-Keys authentifizieren, die zur Verbindungszeit übergeben wurden. OAuth-Unterstützung bedeutet, dass MCP-Clients nun einen Autorisierungsfluss initiieren, Token empfangen und diese transparent auffrischen können — dasselbe Vertrauensmodell, das Enterprise-APIs seit einem Jahrzehnt verwenden.

Strukturierter Output via outputSchema ist die andere bedeutende Ergänzung für Produktionssysteme. Bisher gaben Tool-Ergebnisse rohe Strings oder untypisiertes JSON zurück. Mit outputSchema deklarieren Server den genauen TypeScript-Typ, den ihre Tools zurückgeben. Das ist entscheidend für Multi-Agenten-PR-Review-Workflows, bei denen Agent A strukturierte Daten an Agent B übergibt — Typsicherheit über Agentengrenzen hinweg.

Resources-Unterstützung trennt "was ein Agent tun kann" (Tools) von "welche Daten ein Agent lesen kann" (Resources). Ein Datenbankschema, der Kalender eines Nutzers, ein Produktkatalog — diese sind jetzt erstklassige Protokollentitäten, keine Workarounds auf Basis von Tool-Aufrufen.

Das Elicitation-Muster: Ein Paradigmenwechsel

Die architektonisch interessanteste Ergänzung in der MCP v2 Beta ist Elicitation. In v1 war das Kommunikationsmodell streng unidirektional: Ein Client ruft ein Tool auf, der Server antwortet. Elicitation kehrt das um — ein Server kann den Client mid-Execution nach mehr Informationen fragen.

// MCP v2: Vom Server initiierte Elicitation
const userInput = await server.elicit({
  message: "Welchem Projekt soll diese Aufgabe zugewiesen werden?",
  schema: z.object({
    projectId: z.string(),
    priority: z.enum(["hoch", "mittel", "niedrig"])
  })
});

Das wandelt MCP von einem Request/Response-Protokoll in etwas um, das einem Dialogprotokoll ähnelt. Für autonome Agenten, die pausieren, bestätigen oder fehlenden Kontext sammeln müssen, bevor sie fortfahren, bietet Elicitation ein standardisiertes Muster anstelle eines selbst gebauten Unterbrechungsmechanismus.

Bei Context Studios haben wir Elicitation-basierte Interrupt-Muster in unserer Content-Pipeline getestet. Die Fähigkeit eines Agenten, "zurückzufragen" über ein typisiertes Schema — anstatt entweder einen Wert zu halluzinieren oder einen Fehler zurückzugeben — ist eine bedeutsame Verbesserung für die Produktionszuverlässigkeit.

Wie wir das Model Context Protocol bei Context Studios einsetzen

Context Studios betreibt Multi-Agenten-Produktionsworkflows, bei denen mehrere Agenten über eine gemeinsame Menge von Tools koordinieren — Blog-Erstellung, SEO-Analyse, Bildgenerierung, Social Publishing — alle über das Model Context Protocol verbunden. Wir sind seit dem ersten Release auf der @ai-sdk/mcp-Beta.

Was wir tatsächlich in der Produktion festgestellt haben: Die Stabilitätsgarantie ist wichtiger als jedes einzelne Feature. Mit experimentellen APIs plant man Migrationsarbeit in jeden Sprint, weil sich die API darunter verändert. Ein stabiler MCPClient bedeutet, dass wir Tooling darauf aufbauen und der Schnittstelle vertrauen können. Das ist der eigentliche v2-Gewinn für Teams, die autonome Agenten-Loops in Produktion betreiben.

Die OAuth-Ergänzung hat auch einen Workflow freigeschaltet, den wir zurückgehalten hatten: Drittanbieter-APIs (Google Kalender, HubSpot, GitHub) direkt aus Agentencode heraus aufzurufen, ohne eine eigene Token-Management-Schicht zu bauen.

Eine konkrete Beobachtung: Die Migration von experimental_createMCPClient zu createMCPClient dauerte etwa 40 Minuten in unserer Codebase — hauptsächlich ein Suchen-und-Ersetzen plus das Beheben der wenigen Stellen, an denen wir message.content als String verwendet hatten.

Migrations-Guide: Von v1 zu MCP v2 Beta

Vercel bietet einen offiziellen Codemod-Runner. Für die meisten Projekte werden damit 80-90% der Änderungen automatisch erledigt:

# Neueste AI SDK installieren
npm install @ai-sdk/mcp ai@5.0.0 @ai-sdk/provider@2.0.0

# Offizielle Codemods ausführen
npx @ai-sdk/codemod v5

Nach den Codemods diese Bereiche manuell prüfen:

  1. Benutzerdefinierte UI-Komponenten, die message.content rendern — auf message.parts aktualisieren
  2. Typ-Imports — alle CoreMessage- oder CreateMessage-Referenzen aktualisieren
  3. Tool-Handler-SignaturenToolCallOptionsToolExecutionOptions
  4. MCP-Server-Imports — wenn benutzerdefinierte MCP-Server gebaut wurden, sind die Transport-Klassen umbenannt

Für den Claude Code March 2026 Upgrade gilt: Die AI SDK 5.0-Migration ist kompatibel mit den neuesten Claude-Modellen — das Timing ist gut gewählt.

Warum MCP v2 für die Multi-Agenten-Zukunft wichtig ist

Die MCP v2 Beta ist nicht nur ein Bibliotheks-Update — sie ist ein Signal darüber, wohin die Agenten-Infrastruktur führt. Wenn die Spezifikation in einem einzigen Release OAuth, Resources, strukturierte Outputs und serverseitig initiierte Elicitation erhält, sagt sie: Das ist das Protokoll, das Multi-Agenten-Systeme im Enterprise-Bereich brauchen — kein Forschungsspielzeug.

Betrachte die Entwicklung: MCP v1 startete im November 2024 mit Tools und grundlegendem Ressourcenzugriff. Bis Anfang 2025 wurde es von jeder großen KI-Plattform unterstützt. Jetzt, in der v2-Beta, erhält es die Auth-Geschichte, die Datenzugriffs-Geschichte und die konversationelle Interrupt-Geschichte, die Produktionsdeployments seit über einem Jahr umgangen haben.

Für Teams, die auf der Dual-Modell-Agenten-Architektur aufbauen, ist MCP v2 das Bindegewebe, das Multi-Agenten-Koordination im großen Maßstab zuverlässig macht. Das Model Context Protocol wird zum TCP/IP des agentischen Webs. MCP v2 Beta ist der Punkt, an dem das Protokoll erwachsen wurde.

Häufig gestellte Fragen

Was ist MCP v2 Beta und wann erscheint es stabil? MCP v2 Beta bezeichnet @ai-sdk/mcp v2.0.0-beta.3, veröffentlicht am 13. März 2026. Es ist die erste stabile Version von Vercels Model Context Protocol Client-Paket. Ein stabiles Release-Datum wurde nicht angekündigt, aber die Beta-API ist eingefroren.

Was bricht beim Upgrade auf @ai-sdk/mcp v2.0.0-beta.3? Drei Haupt-Breaking-Changes: (1) Import-Pfad ändert sich von ai zu @ai-sdk/mcp, (2) experimental_createMCPClient wird zu createMCPClient, (3) AI SDK 5.0-Typ-Umbenennungen — CoreMessage → ModelMessage, message.content → message.parts-Array. Vercel bietet Codemods via npx @ai-sdk/codemod v5.

Erfordert MCP v2 AI SDK 5.0? Ja. Das @ai-sdk/mcp v2-Paket ist für ai@5.0.0 und @ai-sdk/provider@2.0.0 ausgelegt. Wer auf AI SDK 4.x ist, muss das gesamte SDK zusammen mit dem MCP-Paket migrieren.

Was ist MCP Elicitation und wie funktioniert es? Elicitation ist ein neues Model Context Protocol-Feature, das Servern erlaubt, während der Tool-Ausführung strukturierte Eingaben von Clients anzufordern. Statt eines Fehlers oder einer Schätzung kann ein MCP-Server pausieren und "welches Projekt?" mit einem typisierten Schema fragen. Der Client empfängt die Anfrage, sammelt Eingaben und gibt strukturierte Daten zurück.

Ist das Model Context Protocol dasselbe wie OpenAIs Function Calling? Nein. OpenAIs Function Calling ist ein vendor-spezifisches API-Feature. Das Model Context Protocol ist ein offener, transport-agnostischer Standard, der von mehreren Anbietern implementiert wird. Ein für MCP gebautes Tool funktioniert mit Claude, Cursor, VS Code und jedem anderen MCP-kompatiblen Client — ohne Vendor-Lock-in.

Sollten wir @ai-sdk/mcp v2.0.0-beta.3 heute in Produktion einsetzen? Für neue Projekte: Ja, mit der Beta starten, um eine erneute Migration beim stabilen Release zu vermeiden. Für bestehende Projekte: Codemods in einem Feature-Branch ausführen, gründlich testen und ein 40-60-minütiges Migrationsfenster einplanen. Die Beta-API ist eingefroren.

Artikel teilen

Share: