Skip to main content
AI Tool Radar
Deep Dives

MCP ist wichtiger, als du denkst. 17 Monate später, was es wirklich geändert hat

Anthropics Model Context Protocol startete Ende November 2024 und bekam höfliche Aufmerksamkeit. OpenAI und Google adoptierten es innerhalb von fünf Monaten. Das offizielle Registry listet rund 500 Server. Was das Adoption-Muster dir sagt.

7 min read2026-04-19Von Roland Hentschel
mcpmodel context protocolanthropicki infrastrukturdeveloper tools

Die Ankündigung, die nicht wichtig aussah#

Am 25. November 2024 kündigte Anthropic das Model Context Protocol an. Der Post war technisch, die Demo zurückhaltend, die unmittelbare Aufnahme ein höfliches "cool, ein Protokoll". Ein paar Leute bauten Wochenend-Projekte, Hacker News hatte einen vernünftigen Thread, und es fühlte sich nicht nach einem großen Wandel an.

Siebzehn Monate später ist MCP eines der folgenreichsten Stücke KI-Infrastruktur, das 2024 shipte. Beide großen Anthropic-Wettbewerber haben es adoptiert. Es wird unterstützt in Claude, ChatGPT, Gemini, Cursor, Windsurf und mehreren hundert weiteren Clients. Das offizielle Registry listet rund 500 Server, Tendenz wachsend. Die Spec ist in ihrer fünften großen Version.

Nichts davon war bei Launch offensichtlich. Das Muster, wer wann und warum adoptierte, erzählt eine spezifische Geschichte darüber, wo KI-Wert erfasst wird und worauf Entwickler achten sollten. Dieser Post handelt davon.

Was MCP tatsächlich ist#

MCP ist ein Protokoll, das einem KI-Assistenten wie Claude erlaubt, mit externen Tools und Datenquellen auf standardisierte Weise zu kommunizieren. Vor MCP war jede Integration custom. Du wolltest Claude dein Gmail lesen lassen, du schriebst custom Gmail-Glue. Du wolltest deine Datenbank abfragen, du schriebst custom Datenbank-Glue. Jedes Tool hatte seine eigene Auth-Geschichte, seine eigene Call-Konvention, seine eigene Fehlerbehandlung.

MCP definierte eine gemeinsame Schnittstelle. Ein MCP-Server exponiert Tools (Funktionen, die das Modell aufrufen kann) und Resources (Daten, die das Modell lesen kann) über einen Standard-Transport. Ein MCP-Client weiß, wie er mit jedem MCP-Server redet, ohne custom Integrations-Arbeit.

Die Architektur-Analogie ist HTTP. HTTP fügte Computern keine neuen Fähigkeiten hinzu — es standardisierte, wie sie redeten. Sobald es existierte, kollabierten die Integrationskosten und die Gesamtmenge an Integration explodierte. MCP tut dasselbe für KI-Tool-Nutzung. Die Tatsache, dass es langweilig ist, ist Teil davon, warum es tragend ist.

Die aktuelle Spezifikation, Version 2025-11-25, fügt Streamable HTTP Transport, eine MCP-Tasks-Extension (SEP-1686), Triggers und verpflichtendes OAuth 2.1 mit PKCE für Clients hinzu.

Die Adoption-Timeline#

Die Reihenfolge, wer sich anmeldete, zählt, weil sie zeigt, wie das Protokoll jeden Glaubwürdigkeits-Test nacheinander bestand.

November 2024: Anthropic kündigt MCP an und veröffentlicht Referenz-Implementierungen. Initialer Client ist Claude Desktop.

März 2025: OpenAI adoptiert MCP offiziell. Sam Altmans öffentliche Ankündigung, berichtet von TechCrunch, 26. März 2025. Das war der Moment, an dem das Protokoll von "Anbieter-spezifisches Ding" zu "aufkommender Standard" wurde.

April 2025: Google kündigt MCP-Adoption für Gemini an. TechCrunch-Bericht, 9. April 2025. Später bestätigt mit offiziellem Google-Cloud-Support.

Oktober 2025: OpenAI shippt vollen MCP-Support im ChatGPT Developer Mode, einschließlich Agents SDK, Responses API und Desktop. InfoQ-Bericht.

November 2025: Spec-Update 2025-11-25 shippt mit Streamable HTTP, OAuth 2.1 und der Tasks-Extension.

Als alle großen Modell-Anbieter dasselbe Protokoll unterstützten, war es effektiv der Standard. Die Beschleunigung von Initial-Ankündigung zu universeller Adoption war schneller, als die meisten Infrastruktur-Protokolle brauchen. USB brauchte Jahre. HTTP brauchte Jahre. MCP brauchte rund fünf Monate von Anthropics Launch bis OpenAIs Unterschrift und neun Monate bis zur vollen ChatGPT-Integration.

Das Registry und das Ökosystem#

Das offizielle MCP-Registry bewegte sich von Preview im September 2025 zu einem Produktions-Registry, das rund 518 Server Stand Februar 2026 listet. Das Referenz-Implementierungs-Repo hat 84.100 GitHub-Stars und hostet sieben aktiv gepflegte Referenz-Server plus dreizehn archivierte.

Jenseits des offiziellen Registrys listen Drittanbieter-Verzeichnisse (Glama ist das größte) Zehntausende community-gebauter MCP-Server. Das Gesamt-Ökosystem ist 2026 weit nördlich von 10.000 Servern. Nicht alle sind ernsthaft, aber das Volumen zeigt, was passiert, wenn Integrationskosten kollabieren.

Die Client-Seite ist breiter. Stand Anfang 2026 wird MCP unterstützt in: Claude Desktop und Claude Code (Referenz), Cursor, Windsurf, Zed, VS Code via GitHub Copilot, Cline, Replit, Continue.dev, Sourcegraph Cody, Gemini CLI und ChatGPT Desktop Developer Mode. Das Fast.io MCP-Client-Verzeichnis listet über 300 Clients in verschiedenen Support-Zuständen.

Was ermöglicht wurde, das vorher nicht existierte#

Das Interessante ist nicht das Protokoll selbst — das Protokoll ist okay, nicht außergewöhnlich. Das Interessante ist, was das Protokoll möglich machte, das vorher nicht existierte.

Cross-Client-Kompatibilität. Ein Server, den du für Claude Desktop schreibst, funktioniert auch in Claude Code, Cursor, Windsurf und Zed. Einmal schreiben, überall laufen. Vor MCP war jede Integration an ein spezifisches KI-Produkt gebunden.

Low-Friction persönlicher Kontext. Lokale MCP-Server, die auf deiner eigenen Maschine laufen und deine Dateien, Notizen, Kalender oder private Daten deinem KI-Client exponieren, ohne einen Cloud-Service. Das ist der Use Case, der meine eigene alltägliche KI-Nutzung am meisten änderte. Mein Claude Desktop weiß über meine Arbeit auf eine Weise, die das generische Produkt nie konnte, weil MCP mir erlaubt, Server für mein Dateisystem, Drive, Gmail und custom Tools einzubinden, alle lokal laufend.

Enterprise-Integrationen ohne Vendor-Lock. Große Firmen, die Daten nicht über OpenAI-Plugins exponieren würden, waren bereit, MCP-Server zu schreiben, weil das Protokoll offen, der Transport standard und die Integration auf ihrer Infrastruktur läuft. Das schaltete eine Klasse von Use Cases frei, die in einer Anbieter-Plugin-Ökosystem-Architektur einfach nicht passieren konnten.

Komposition. Wenn du zwanzig MCP-Server installiert hast, kann deine KI sie aneinanderreihen. Lies diese Email, extrahier die Rechnung, leg sie ab, tagge sie, aktualisiere das Hauptbuch. Jeder Schritt ist für sich trivial. Die Komposition macht den Produktivitätsgewinn real.

Was MCP noch falsch macht#

Das Protokoll ist nicht fertig. Die ehrlichen Lücken:

Authentifizierung ist auf Protokoll-Ebene unterspezifiziert. Die Spec sagt, OAuth-artige Flows werden unterstützt, und das 2025-11-25-Update machte OAuth 2.1 mit PKCE für Clients verpflichtend, aber Backend-Authentifizierung ist explizit out-of-scope. In der Praxis ist Authentifizierung über verschiedene Server richtig zu kriegen immer noch schmerzhaft. Manche wollen API-Keys, manche OAuth, manche Bearer-Tokens in Environment-Variablen. Die 2026 MCP-Roadmap erkennt das an und macht Enterprise-Readiness zu einem Fokus.

Auffindbarkeit ist schwach. Das offizielle Registry ist eine Liste. Es gibt keinen kanonischen Weg, "Server, die X tun" zu finden, ohne Beschreibungen zu lesen. Community-Verzeichnisse füllen die Lücke imperfekt.

Enterprise-Lücken. Audit-Trails, SSO-Integration, Gateway-Patterns und Konfigurations-Portabilität werden alle von der 2026er-Roadmap als nötige Enterprise-Features identifiziert, die die aktuelle Spec nicht abdeckt. Die WorkOS-Analyse der Roadmap ist eine gute Zusammenfassung, wo die Lücken sind.

Statefulness ist umständlich. MCP ist fundamental Request-Response. Für Workflows mit Multi-Step-State muss State in Parametern kodiert oder in Responses zurückgegeben werden. Das funktioniert, ist aber nicht elegant. Die Tasks-Extension (SEP-1686) ist ein erster Versuch, das zu adressieren.

Was das Adoption-Muster dir sagt#

Das Interessanteste an MCP ist nicht irgendein einzelnes Feature. Es ist, dass Anthropic einen Standard shippte und open-sourcete, und innerhalb von Monaten die zwei großen Wettbewerber ihn adoptierten. Das passiert nicht zufällig. Es passiert, wenn das Protokoll offensichtlich nötig ist, wenn das Shippen schnell genug ist, um alternative Vorschläge zu schlagen, und wenn der Autor nicht versucht, das Protokoll an seine eigenen Produkte zu binden.

Für jeden, der 2026 KI-nahe Produkte baut:

  • MCP-Support ist jetzt Tischstandard für developer-facing KI-Tools. Ihn nicht zu haben ist eine auffällige Abwesenheit.
  • Integrationen, die früher eigene Produkte waren, werden zu MCP-Servern. Wenn du ein Produkt verkaufst, dessen Hauptwert "wir verbinden X mit ChatGPT" war, commoditisiert diese Kategorie.
  • Der Hebel liegt jetzt in Komposition, nicht einzelnen Integrationen. Der Wert ist in dem, was dein Produkt KI mit mehreren MCP-Servern zusammen tun lässt, nicht im einzelnen Server.
  • Authentifizierung ist der Wettbewerbsvorteil. Wer die cross-Server-Auth-Story gut löst, erfasst den Enterprise-MCP-Markt, weil alle anderen es pro-Server lösen müssen.

MCP ist ein Infrastruktur-Protokoll. Infrastruktur-Protokolle sind langweilig, und die langweiligen zählen oft am meisten. Dass die großen Labs es alle innerhalb von fünf Monaten adoptierten, ist das Signal. Alles andere ist Implementierungsdetail.

Weiterlesen#

Quellen#


Roland Hentschel

Roland Hentschel

AI & Web Technology Expert

Web developer and AI enthusiast helping businesses navigate the rapidly evolving landscape of AI tools. Testing and comparing tools so you don't have to.

Tools aus diesem Beitrag

Weitere Beiträge aus dem Blog