Codex v0.119.0: Das Plugin-System, das die Dynamik zwischen Claude Code und Codex verändert
OpenAI hat Codex v0.119.0 am 10. April 2026 um 22:44 UTC als Stable-Release veröffentlicht. Das zentrale Feature: ein ausgereiftes Plugin-System mit MCP-Apps-Unterstützung, Echtzeit-WebRTC-Sprachsessions und Datei-Parameter-Uploads. Mit diesem Release wird Codex von einem eigenständigen Coding-Agenten zu einer Plattform mit Ökosystem-Schicht — dem gleichen strukturellen Vorteil, den Claude Code und das Model Context Protocol seit Ende 2025 besitzen.
Die Wettbewerbsdynamik zwischen den beiden führenden KI-Coding-Agenten hat sich verschoben. Hier ist, was sich geändert hat, warum es wichtig ist und worauf Entwickler als Nächstes achten sollten.
Was Codex v0.119.0 konkret liefert
Das v0.119.0-Release ist kein kleines Punkt-Update. Es enthält über 150 gemergte Pull Requests in den Bereichen Plugin-Infrastruktur, Sprachinteraktion, Remote-Workflows und Kern-Architektur-Refactoring. Die wichtigsten Features:
MCP Apps und Plugin-Infrastruktur
Codex unterstützt jetzt eine tiefere MCP-Server-Integration (Model Context Protocol) auf Stable-Release-Niveau. Im Einzelnen:
- Resource Reads — Plugins können strukturierte Daten bereitstellen, die Codex beim Context-Assembly liest, nicht nur Tool-Calls (#16082)
- Tool-Call-Metadaten — Plugins liefern detailliertere Informationen darüber, was sie getan haben und warum, was die Auditierbarkeit verbessert (#16465)
- Custom-Server Tool Search — Codex kann Tools über mehrere MCP-Server hinweg entdecken, ohne manuelle Konfiguration (#16944)
- Server-gesteuerte Elicitations — MCP-Server können den Nutzer mitten im Workflow um Eingaben bitten und ermöglichen so interaktive Plugin-Abläufe (#17043)
- Datei-Parameter-Uploads — Plugins akzeptieren Datei-Eingaben direkt, was den Copy-Paste-Workaround für Binärdaten eliminiert (#15197)
- Plugin-Cache-Refreshes — Zuverlässigere Cache-Invalidierung bei Änderungen an Plugin-Fähigkeiten (#16191, #16947)
Dieses Feature-Set transformiert Codex von einem Tool zu einer Plattform. Vor v0.119.0 waren Codex-Plugins in Alpha-Qualität und auf einfache Tool-Calls beschränkt. Jetzt unterstützen sie das vollständige Interaktionsmodell, das Produktions-MCP-Server benötigen.
Echtzeit-Sprachsessions über WebRTC
Codex v0.119.0 setzt Echtzeit-Sprachsessions standardmäßig auf den v2-WebRTC-Pfad. Das ist kein Gimmick — es ist ein echter Paradigmenwechsel in der Interaktion:
- Konfigurierbarer Transport-Layer (WebRTC v2 ist Standard, Fallback verfügbar)
- Stimmauswahl für verschiedene Interaktionsstile
- Native TUI-Medienunterstützung — Sprache funktioniert direkt im Terminal
- App-Server-Abdeckung für Remote-Sprachsessions
Elf Pull Requests (#16960, #17057, #17058, #17093, #17097, #17145, #17165, #17176, #17183, #17188) flossen allein in dieses Feature. OpenAI setzt darauf, dass sprachgesteuerte Coding-Workflows keine Spielerei, sondern eine produktive Eingabemethode sind.
Remote- und App-Server-Workflows
Die dritte Säule ist Remote-Ausführung:
- Egress-Websocket-Transport für App-Server-Verbindungen (#15951)
- Remote
--cd-Forwarding — eine Remote-Session in jedem beliebigen Verzeichnis starten (#16700) - Runtime-Remote-Control-Aktivierung (#16973)
- Sandbox-fähige Dateisystem-APIs (#16751)
- Experimenteller
codex exec-server-Subcommand für Headless-Ausführung (#17059, #17142)
Das positioniert Codex für dieselben CI/CD-Integrationsmuster, die Claude Code mit seinem Headless-Modus und GitHub-Actions-Integration aufgebaut hat.
Warum das Plugin-System wichtiger ist als Sprache
Sprache ist das auffällige Feature. Das Plugin-System ist das strategische.
Seit Anthropic im November 2024 die Model-Context-Protocol-Spezifikation veröffentlicht hat, hatte Claude Code einen strukturellen Vorteil: Jeder Entwickler konnte einen MCP-Server bauen, der Claude Codes Fähigkeiten erweitert. Datenbankzugriff, API-Integrationen, Dateisystem-Tools, Browser-Automatisierung — alles über ein Standardprotokoll erweiterbar. Das Ökosystem wuchs organisch: Bis April 2026 gibt es Hunderte community-gebauter MCP-Server, die alles abdecken — von Slack-Integration bis Kubernetes-Management.
Codex hatte MCP-Unterstützung seit v0.110.0 (5. März 2026) in der Alpha-Phase. Aber Alpha-Qualität und Stable-Qualität sind verschiedene Kategorien. Alpha bedeutet „es funktioniert, wenn man es sorgfältig konfiguriert." Stable bedeutet „es funktioniert zuverlässig genug, dass Drittanbieter darauf aufbauen werden."
Mit v0.119.0 überschreitet Codex diese Schwelle. Resource Reads, Tool-Call-Metadaten und Server-gesteuerte Elicitations sind die spezifischen Fähigkeiten, die Produktions-MCP-Server brauchen. Ohne Resource Reads können Plugins keinen strukturierten Kontext in das Modell einspeisen. Ohne Elicitations können Plugins keine interaktiven Workflows abwickeln. Ohne Tool-Call-Metadaten können Unternehmen nicht auditieren, was Plugins getan haben.
Die wettbewerbliche Implikation: Das MCP-Ökosystem ist nicht mehr Claude-Code-exklusiv. Jeder MCP-Server, der für Claude Code gebaut wurde, kann prinzipiell auch mit Codex v0.119.0 funktionieren. Das Protokoll ist dasselbe. Beide Implementierungen unterstützen nun die Features, die zählen.
Die Architektur erzählt die Geschichte
In den Release Notes verbirgt sich ein Detail, das OpenAIs Langzeitstrategie verrät: sieben große Crate-Extraktionen aus codex-core in separate Module — MCP, Tools, Config, Model-Management, Auth, Feedback und Protocol (#15919, #16379, #16508, #16523, #16962).
Das ist keine Routine-Wartung. OpenAI strukturiert Codex' Interna für eine Welt um, in der das Plugin-System ein erstklassiges Subsystem ist, kein nachträglich angeschraubtes Feature. Wenn eine Codebase ihre MCP-Verarbeitung in ein eigenständiges Crate extrahiert, signalisiert das Team, dass es erwartet, dass sich MCP unabhängig und schnell weiterentwickelt.
Die Compile-Time-Verbesserungen erzählen dieselbe Geschichte: Das Entfernen aufwändiger Async-Trait-Expansion aus häufig genutzten Tool/Task-Abstraktionen (#16630, #16631) reduzierte die codex-core-Compile-Time um 63 % und dann noch einmal um 48 %. Das ist relevant, weil schnellere Iteration am Plugin-System schnelleres Ökosystem-Wachstum bedeutet.
Was das für Entwickler bei der Plattformwahl bedeutet
Wer im April 2026 Claude Code gegen Codex evaluiert, muss mit v0.119.0 die Rechnung neu aufstellen:
Neue Stärken von Codex
- Voice-First-Workflows — Kein anderer KI-Coding-Agent bietet produktionstaugliche Echtzeit-Sprachinteraktion im Terminal. Wenn Sprach-Coding zu deinem Workflow passt, ist Codex die einzige Option.
- Plugin-Parität mit Claude Code — MCP-Apps-Support auf Stable-Niveau bedeutet, dass dasselbe Plugin-Ökosystem beide Plattformen bedient. Lock-in basierend auf Plugin-Verfügbarkeit schwindet.
- Pay-as-you-go-Preismodell — Seit Codex am 3. April auf verbrauchsbasierte Preise umgestellt hat, belohnt die Kostenstruktur effiziente Nutzung. Kombiniert mit Plugin-getriebener Automatisierung kann der Preis pro Aufgabe Abo-Modelle unterbieten.
Verbleibende Vorteile von Claude Code
- Ökosystem-Reife — Claude Code hat seit fünf Monaten stabilen MCP-Support. Das community-gebaute Server-Ökosystem ist tiefer und kampferprobter.
- Anthropics Modellqualität für Code — Claude Opus 4.6 und Sonnet 4.6 bleiben die Top-Performer bei Coding-Benchmarks. Der Agent ist nur so gut wie das Modell darunter.
- Headless- und autonome Workflows — Claude Codes
/loop-Modus und Background-Agent-Muster sind ausgereifter für unbeaufsichtigte Langzeitaufgaben. - Context-Window-Management — Claudes 200K-Token-Kontextfenster mit intelligenter Komprimierung verschafft einen Vorteil bei großen Codebases.
Die eigentliche Frage
Die Plugin-System-Parität bedeutet, dass das Differenzierungsmerkmal nicht mehr „welche Plattform hat ein Ökosystem" lautet. Es heißt jetzt: „Welches Modell produziert besseren Code, und welcher Workflow passt zu deinem Team." Das ist eine gesündere Wettbewerbsdynamik für Entwickler.
Was als Nächstes zu beobachten ist
Drei Signale werden bestimmen, ob v0.119.0 ein Wendepunkt oder ein Aufhol-Release ist:
-
Plugin-Adoptionsgeschwindigkeit — Wie schnell fügen MCP-Server-Autoren Codex zu ihren unterstützten Plattformen hinzu? Wenn die Top-50-MCP-Server innerhalb von 60 Tagen auf beiden Plattformen funktionieren, verschwindet der Ökosystem-Vorteil.
-
Sprach-Adoptionsdaten — OpenAI wird tracken, wie viele Codex-Nutzer Sprachsessions aktivieren. Liegt die Nutzung nach 30 Tagen unter 5 %, war die Sprach-Investition verfrüht. Übersteigt sie 20 %, wird Sprache zum echten Differenzierungsmerkmal.
-
Codex v0.120.0 und darüber hinaus — v0.120.0 wurde nur vier Stunden nach v0.119.0 veröffentlicht (11. April 2026 um 02:53 UTC) mit weiteren Realtime-v2-Verbesserungen. OpenAIs Release-Kadenz — 33 Alpha-Builds zwischen v0.119.0-alpha.1 und dem Stable-Release — signalisiert aggressive Iteration an der Plugin-Schicht.
Das große Bild
Vor sechs Monaten hatte der KI-Coding-Agent-Markt eine klare Struktur: Claude Code besaß die Erweiterbarkeits-Story über MCP, Cursor besaß die IDE-integrierte Erfahrung, und Codex war ein leistungsfähiges, aber geschlossenes Coding-Tool. Codex v0.119.0 löst die erste Unterscheidung auf.
Der KI-Coding-Agent-Krieg dreht sich nicht mehr darum, welches Tool die meisten Dinge kann. Es geht darum, welches Tool die richtigen Dinge für den spezifischen Workflow eines Teams tut — und wie gut das darunterliegende Modell den Code performt, den dieses Team tatsächlich schreibt.
Für Entwickler, die auf die Reife des Codex-Plugin-Systems gewartet haben, bevor sie sich festlegen: Das Warten hat ein Ende. Für Claude-Code-Nutzer, die sich um Ökosystem-Lock-in sorgen: Der Protokollstandard, auf den ihr gebaut habt, ist gerade portabel geworden. Für alle, die diesen Bereich beobachten: Die Konvergenz ist real, und sie passiert schneller, als irgendjemand Anfang 2026 vorhergesagt hat.
FAQ
Was ist das Codex-Plugin-System und wie funktioniert es?
Das Codex-Plugin-System nutzt das Model Context Protocol (MCP), um Drittanbieter-Servern die Erweiterung von Codex-Fähigkeiten zu ermöglichen. MCP-Server stellen Tools, Ressourcen und interaktive Prompts bereit, die Codex während Coding-Sessions aufrufen kann. Mit v0.119.0 unterstützt Codex den vollen MCP-Feature-Satz inklusive Resource Reads, Tool-Call-Metadaten, Server-gesteuerter Elicitations und Datei-Parameter-Uploads — auf dem gleichen Niveau wie Claude Code seit Ende 2025.
Kann ich bestehende Claude-Code-MCP-Server mit Codex v0.119.0 verwenden?
Prinzipiell ja. Sowohl Claude Code als auch Codex v0.119.0 implementieren dieselbe Model-Context-Protocol-Spezifikation. MCP-Server, die für Claude Code gebaut wurden, sollten mit Codex ohne Modifikation funktionieren, vorausgesetzt sie nutzen Standard-MCP-Features. In der Praxis benötigen manche Server kleinere Anpassungen für Codex-spezifische Konfigurationsmuster, aber die Protokollschicht ist kompatibel.
Wie funktioniert Voice-Coding in Codex v0.119.0?
Codex v0.119.0 setzt standardmäßig WebRTC v2 für Echtzeit-Sprachsessions ein. Man kann Befehle sprechen und Audio-Antworten direkt im Terminal empfangen. Das System unterstützt konfigurierbare Transport-Layer, Stimmauswahl und funktioniert sowohl in lokalen als auch in Remote-App-Server-Sessions. Das ist die erste produktionstaugliche Sprachschnittstelle in einem terminalbasierten KI-Coding-Agenten.
Ist Codex v0.119.0 kostenlos?
Codex verwendet seit dem 3. April 2026 Pay-as-you-go-Preise. Neue Nutzer erhalten $500 Startguthaben. Danach kosten Input-Tokens $20 pro Million und Output-Tokens $25 pro Million. Es gibt kein Monatsabo — du zahlst nur, was du verbrauchst. Unsere detaillierte Codex-Preisanalyse bietet Kostenvergleiche.
Sollte ich nach v0.119.0 von Claude Code zu Codex wechseln?
Nicht unbedingt. Die Plugin-System-Parität beseitigt einen Grund, auf einer Plattform festzubleiben, aber Modellqualität und Workflow-Passung zählen mehr als Feature-Checklisten. Claude Opus 4.6 führt weiterhin bei Coding-Benchmarks, und Claude Codes autonome Workflow-Features sind ausgereifter. Codex v0.119.0s Sprachschnittstelle und Pay-as-you-go-Preismodell sind echte Differenzierungsmerkmale für bestimmte Anwendungsfälle. Evaluiere anhand des tatsächlichen Workflows deines Teams, nicht anhand von Feature-Vergleichen.
Was hat sich an der Codex-Architektur mit v0.119.0 geändert?
OpenAI hat sieben große Subsysteme aus dem monolithischen Codex-Kern in unabhängige Module extrahiert: MCP-Verarbeitung, Tools, Konfiguration, Model-Management, Authentifizierung, Feedback und Protokoll. Dieses Refactoring hat die Compile-Zeiten um über 60 % reduziert und signalisiert, dass sich das Plugin-System als erstklassiges Subsystem schnell weiterentwickeln wird. Die Architektur entspricht jetzt dem, was man von einer Plattform erwartet, die Ökosystem-Erweiterbarkeit ernst nimmt.