MCP und das Innovationsparadoxon: Warum offene Standards die KI vor sich selbst retten werden

Abonnieren Sie unsere täglichen und wöchentlichen Newsletter, um die neuesten Updates und exklusiven Inhalte zur branchenführenden KI-Berichterstattung zu erhalten. Mehr erfahren
Größere Modelle sind nicht der Motor der nächsten Welle der KI-Innovation. Die eigentliche Disruption ist leiser: Standardisierung.
Das im November 2024 von Anthropic eingeführte Model Context Protocol (MCP) standardisiert die Interaktion von KI-Anwendungen mit der Welt jenseits ihrer Trainingsdaten. Ähnlich wie HTTP und REST die Verbindung von Webanwendungen mit Diensten standardisierten, standardisiert MCP die Verbindung von KI-Modellen mit Tools.
Sie haben wahrscheinlich schon Dutzende Artikel gelesen, die erklären, was MCP ist. Was die meisten jedoch übersehen, ist der langweilige – und zugleich wichtige – Teil: MCP ist ein Standard. Standards organisieren nicht nur Technologie, sie schaffen auch Wachstumsimpulse. Wer sie frühzeitig einsetzt, reitet auf der Welle. Wer sie ignoriert, fällt zurück. Dieser Artikel erklärt, warum MCP jetzt wichtig ist, welche Herausforderungen es mit sich bringt und wie es das Ökosystem bereits verändert.
Wie MCP uns vom Chaos zum Kontext führtLernen Sie Lily kennen, Produktmanagerin bei einem Cloud-Infrastrukturunternehmen. Sie jongliert Projekte mit einem halben Dutzend Tools wie Jira, Figma, GitHub, Slack, Gmail und Confluence. Wie viele andere ertrinkt sie in Updates.
Im Jahr 2024 erkannte Lily, wie gut Large Language Models (LLMs) bei der Informationssynthese geworden waren. Sie erkannte eine Chance: Wenn sie alle Tools ihres Teams in ein Modell integrieren könnte, könnte sie Aktualisierungen automatisieren, Mitteilungen verfassen und Fragen auf Anfrage beantworten. Doch jedes Modell hatte seine eigene Art, sich mit Diensten zu verbinden. Jede Integration führte sie tiefer in die Plattform eines einzelnen Anbieters hinein. Wenn sie Transkripte von Gong abrufen musste, musste sie eine weitere maßgeschneiderte Verbindung aufbauen, was den späteren Wechsel zu einem besseren LLM noch schwieriger machte.
Anschließend veröffentlichte Anthropic MCP: ein offenes Protokoll zur Standardisierung des Kontextflusses zu LLMs. MCP erhielt schnell Unterstützung von OpenAI , AWS , Azure , Microsoft Copilot Studio und bald auch von Google. Offizielle SDKs sind für Python , TypeScript , Java , C# , Rust , Kotlin und Swift verfügbar. Community-SDKs für Go und andere folgten. Die Akzeptanz war schnell.
Heute führt Lily alles über Claude aus, das über einen lokalen MCP-Server mit ihren Arbeitsanwendungen verbunden ist. Statusberichte erstellen sich von selbst. Führungsupdates sind nur eine Eingabeaufforderung entfernt. Neue Modelle können ohne Verlust ihrer Integrationen ausgetauscht werden. Wenn sie nebenbei Code schreibt, verwendet sie Cursor mit einem Modell von OpenAI und demselben MCP-Server wie in Claude . Ihre IDE versteht das Produkt, das sie entwickelt, bereits. MCP hat dies vereinfacht.
Lilys Geschichte zeigt eine einfache Wahrheit: Niemand nutzt gerne fragmentierte Tools. Kein Anwender möchte an einen bestimmten Anbieter gebunden sein. Und kein Unternehmen möchte bei jedem Modellwechsel Integrationen neu schreiben. Sie wollen die Freiheit, die besten Tools zu nutzen. MCP liefert sie.
Mit den Standards gehen nun auch Konsequenzen einher.
Erstens sind SaaS-Anbieter ohne leistungsstarke öffentliche APIs anfällig für Veralterung. MCP-Tools sind auf diese APIs angewiesen, und Kunden werden Support für ihre KI-Anwendungen verlangen. Mit der Entstehung eines De-facto-Standards gibt es keine Ausreden mehr.
Zweitens werden sich die Entwicklungszyklen für KI-Anwendungen drastisch beschleunigen. Entwickler müssen keinen eigenen Code mehr schreiben, um einfache KI-Anwendungen zu testen. Stattdessen können sie MCP-Server mit gängigen MCP-Clients wie Claude Desktop, Cursor und Windsurf integrieren.
Drittens sinken die Umstellungskosten. Da Integrationen von spezifischen Modellen entkoppelt sind, können Unternehmen von Claude über OpenAI zu Gemini – oder zu Blend-Modellen – migrieren, ohne die Infrastruktur neu aufbauen zu müssen. Zukünftige LLM-Anbieter profitieren vom bestehenden Ökosystem rund um MCP und können sich so auf ein besseres Preis-Leistungs-Verhältnis konzentrieren.
Jeder Standard führt neue Reibungspunkte ein oder lässt bestehende Reibungspunkte ungelöst. MCP ist da keine Ausnahme.
Vertrauen ist entscheidend : Dutzende MCP-Registrierungen sind entstanden und bieten Tausende von von der Community verwalteten Servern an. Wer jedoch die Kontrolle über den Server verliert – oder dem Anbieter, der die Kontrolle hat, nicht vertraut – riskiert, Geheimnisse an unbekannte Dritte weiterzugeben. SaaS-Unternehmen sollten offizielle Server bereitstellen. Entwickler sollten nach offiziellen Servern suchen.
Die Qualität schwankt : APIs entwickeln sich weiter, und schlecht gewartete MCP-Server können leicht aus dem Takt geraten. LLMs sind auf hochwertige Metadaten angewiesen, um die zu verwendenden Tools zu bestimmen. Es gibt noch kein verbindliches MCP-Register, was den Bedarf an offiziellen Servern vertrauenswürdiger Anbieter verstärkt. Wenn Sie ein SaaS-Unternehmen sind, pflegen Sie Ihre Server, während sich Ihre APIs weiterentwickeln. Wenn Sie Entwickler sind, suchen Sie nach offiziellen Servern.
Große MCP-Server erhöhen die Kosten und verringern den Nutzen : Die Bündelung zu vieler Tools auf einem einzigen Server erhöht die Kosten durch Token-Verbrauch und überfordert Modelle mit zu viel Auswahl. LLMs werden leicht verwirrt, wenn sie Zugriff auf zu viele Tools haben. Das ist das Schlimmste aus beiden Welten. Kleinere, aufgabenorientierte Server sind wichtig. Berücksichtigen Sie dies beim Erstellen und Verteilen von Servern.
Autorisierungs- und Identitätsprobleme bestehen weiterhin : Diese Probleme gab es schon vor MCP und bestehen auch mit MCP weiter. Stellen Sie sich vor, Lily hätte Claude das Senden von E-Mails ermöglicht und gut gemeinte Anweisungen gegeben wie: „Schick Chris schnell ein Status-Update.“ Anstatt ihrem Chef Chris eine E-Mail zu schicken, schickt die LLM allen Chris in ihrer Kontaktliste eine E-Mail, um sicherzustellen, dass Chris die Nachricht erhält. Menschen müssen bei kritischen Entscheidungen auf dem Laufenden bleiben.
MCP ist kein Hype, sondern eine grundlegende Veränderung der Infrastruktur für KI-Anwendungen.
Und wie jeder gut angenommene Standard zuvor erzeugt MCP ein sich selbst verstärkendes Schwungrad: Jeder neue Server, jede neue Integration, jede neue Anwendung verstärkt die Dynamik.
Neue Tools, Plattformen und Register entstehen bereits, um den Aufbau, das Testen, die Bereitstellung und die Erkennung von MCP-Servern zu vereinfachen. Mit der Weiterentwicklung des Ökosystems werden KI-Anwendungen einfache Schnittstellen für neue Funktionen bieten. Teams, die das Protokoll nutzen, werden Produkte schneller und mit besseren Integrationsgeschichten ausliefern. Unternehmen, die öffentliche APIs und offizielle MCP-Server anbieten, können Teil der Integrationsgeschichte sein. Nachzügler müssen um ihre Relevanz kämpfen.
Noah Schwartz ist Produktleiter bei Postman .
Wenn Sie Ihren Chef beeindrucken möchten, ist VB Daily genau das Richtige für Sie. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI tun – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat