Die Integration von KI über Model Context Protocol (MCP)-Server revolutioniert die Art und Weise, wie Entwickler Anwendungen erstellen, bereitstellen und verwalten. MCP-Server fungieren als entscheidende Brücke und ermöglichen es KI-Agenten, mit verschiedenen Entwicklungstools und -diensten zu interagieren.
Dieser Artikel befasst sich mit zwei wichtigen MCP-Server-Implementierungen: dem Google Cloud Run MCP Server, der sich auf die Cloud-Bereitstellung konzentriert, und dem Apidog MCP Server, der die KI-gestützte API-Entwicklung durch die tiefe Integration mit API-Spezifikationen verbessert. Das Verständnis dieser Tools wird Sie in die Lage versetzen, KI in Ihren Workflows effektiver zu nutzen, insbesondere für die API-Entwicklung und das KI-Coding.
Grundlagen des Google Cloud Run MCP Servers für Cloud-Bereitstellungen
Der Google Cloud Run MCP Server ist ein leistungsstarkes Tool, das entwickelt wurde, um MCP-kompatiblen KI-Agenten die direkte Bereitstellung von Anwendungen in Google Cloud Run zu ermöglichen. Diese Funktionalität rationalisiert den Bereitstellungsprozess und ermöglicht es Entwicklern, KI-Assistenten in IDEs wie Cursor oder eigenständigen KI-Anwendungen wie Cloud zu nutzen, um ihre Cloud-Dienste zu verwalten.
Dieser Server erleichtert in erster Linie die Interaktion mit Google Cloud-Ressourcen und ist damit eine wesentliche Komponente für Entwickler, die ihre Cloud-Bereitstellungsstrategien durch KI automatisieren und verbessern möchten.
Hauptfunktionen des Google Cloud Run MCP Servers
Der Google Cloud Run MCP Server bietet eine Reihe von Tools, die speziell für die Verwaltung und Bereitstellung von Anwendungen in Google Cloud Run entwickelt wurden. Diese Tools sind für KI-Agenten zugänglich und automatisieren so Aufgaben, die traditionell manuelles Eingreifen über das Google Cloud SDK oder die Konsole erfordern würden. Hier ist eine Aufschlüsselung seiner Kernfunktionalitäten:
deploy-file-contents
: Dieses Tool ist von entscheidender Bedeutung für die KI-gestützte Entwicklung und ermöglicht es dem KI-Agenten, Dateien in Cloud Run bereitzustellen, indem er deren Inhalte direkt bereitstellt. Dies ist besonders nützlich für schnelle Updates oder die Bereitstellung von Konfigurationen, ohne dass eine vollständige CI/CD-Pipeline für kleinere Änderungen erforderlich ist.list-services
: Für eine effektive API-Entwicklung und -Verwaltung ist es entscheidend, den aktuellen Zustand Ihrer Dienste zu kennen. Mit diesem Tool kann die KI alle Cloud Run-Dienste innerhalb eines angegebenen Projekts und einer Region auflisten und so einen Überblick über die bereitgestellten Anwendungen geben.get-service
: Um detailliertere Informationen zu erhalten, ruft dieses Tool detaillierte Informationen für einen bestimmten Cloud Run-Dienst ab. Dies kann von einer KI verwendet werden, um den Status, die Konfiguration oder die Endpunkt-URLs eines Dienstes zu überprüfen.deploy-local-files
*: Wenn der MCP-Server lokal ausgeführt wird, ermöglicht dieses Tool die Bereitstellung von Dateien direkt vom lokalen Dateisystem zu einem Google Cloud Run-Dienst. Dies ist während der Entwicklungsphase sehr nützlich, um Änderungen in einer realen Cloud-Umgebung zu testen.deploy-local-folder
*: Ähnlich wie bei der Bereitstellung lokaler Dateien ermöglicht dieses Tool die Bereitstellung eines gesamten lokalen Ordners für einen Google Cloud Run-Dienst, wodurch der Prozess der Bereitstellung von Anwendungen oder Updates mit mehreren Dateien vereinfacht wird.list-projects
*: Für Entwickler, die mehrere Google Cloud Platform (GCP)-Projekte verwalten, listet dieses Tool (lokal verfügbar) alle zugänglichen GCP-Projekte auf und hilft der KI, Bereitstellungen oder Abfragen korrekt auszurichten.create-project
*: Eine bedeutende Automatisierungsfunktion, dieses Tool (lokal verfügbar) kann ein neues GCP-Projekt erstellen und es dem ersten verfügbaren Abrechnungskonto zuordnen. Eine optionale Projekt-ID kann angegeben werden, wodurch die Projekteinrichtung für neue Initiativen rationalisiert wird.
(Mit einem Sternchen gekennzeichnete Tools sind nur verfügbar, wenn der MCP-Server lokal ausgeführt wird.)
Diese Tools ermöglichen es KI-Agenten gemeinsam, eine Vielzahl von Bereitstellungs- und Verwaltungsaufgaben auszuführen, was den Google Cloud Run MCP Server zu einem wertvollen Vorteil für Teams macht, die KI in ihren Cloud-Operationen und, im weiteren Sinne, in ihrem API-Entwicklungslebenszyklus nutzen, wenn APIs in Cloud Run gehostet werden.
Einrichten des Google Cloud Run MCP Servers
Um den Google Cloud Run MCP Server effektiv für Ihre API-Entwicklungs- und KI-Coding-Aufgaben zu nutzen, bietet die lokale Einrichtung die größte Flexibilität, insbesondere bei der Arbeit mit KI-gestützten IDEs oder Desktop-KI-Anwendungen. So konfigurieren Sie es:
Voraussetzungen installieren:
- Stellen Sie sicher, dass Sie Node.js installiert haben (die LTS-Version wird empfohlen). Sie können es von nodejs.org herunterladen.
- Installieren Sie das Google Cloud SDK. Befolgen Sie die Anweisungen unter cloud.google.com/sdk/docs/install, um es für Ihr Betriebssystem einzurichten.
Mit Google Cloud authentifizieren:
Melden Sie sich bei Ihrem Google Cloud-Konto an, indem Sie den folgenden Befehl in Ihrem Terminal ausführen:
gcloud auth login
Dieser Befehl öffnet ein Browserfenster, in dem Sie sich authentifizieren können.
Standardanmeldeinformationen für die Anwendung einrichten:
Damit sich lokale Anwendungen bei Google Cloud-Diensten authentifizieren können, müssen Sie Standardanmeldeinformationen für die Anwendung einrichten. Führen Sie aus:
gcloud auth application-default login
Konfigurieren Sie Ihren MCP-Client (z. B. Cursor):
Öffnen Sie die MCP-Konfigurationsdatei in Ihrer KI-gestützten IDE oder Anwendung. Für Cursor ist dies in der Regel mcp.json
.
Fügen Sie die folgende Konfiguration hinzu, um den Google Cloud Run MCP-Server zu aktivieren:
{
"mcpServers": {
"cloud-run": {
"command": "npx",
"args": ["-y", "https://github.com/GoogleCloudPlatform/cloud-run-mcp"]
}
}
}
Diese Konfiguration weist Ihren MCP-Client an, npx
zu verwenden, um das Cloud Run MCP-Server-Paket direkt von seinem GitHub-Repository auszuführen.
Sobald diese Schritte abgeschlossen sind, sollte Ihr KI-Agent in der Lage sein, mit Ihren Google Cloud Run-Diensten unter Verwendung der vom Google Cloud Run MCP Server bereitgestellten Tools zu interagieren. Sie können dies testen, indem Sie Ihren KI-Assistenten bitten, Dienste in einem Ihrer GCP-Projekte aufzulisten, z. B.: "Verwenden Sie das Cloud-Run-MCP, um die Dienste in meinem Projekt 'my-api-project' in der Region 'us-central1' aufzulisten."
Während sich der Google Cloud Run MCP-Server in Cloud-Bereitstellungsaufgaben auszeichnet, könnte für Entwickler, deren Hauptaugenmerk auf dem Design, der Entwicklung und dem Testen von APIs selbst liegt, ein spezialisierterer MCP-Server von Vorteil sein. Hier kommen Tools wie der Apidog MCP Server ins Spiel, die eine tiefere Integration mit API-Spezifikationen bieten.
Steigern Sie Ihre KI-gestützte API-Entwicklung mit dem Apidog MCP Server
Während der Google Cloud Run MCP Server robuste Funktionen für die Cloud-Bereitstellung bietet, wurde der Apidog MCP Server speziell entwickelt, um den KI-gestützten API-Entwicklungslebenszyklus zu verbessern, indem er KI direkt mit Ihren API-Spezifikationen verbindet.
Apidog, als All-in-One-API-Entwicklungsplattform, erweitert seinen leistungsstarken Funktionsumfang mit diesem MCP-Server und ermöglicht es KI-Agenten in IDEs wie Cursor, Ihre API-Designs mit beispielloser Genauigkeit und Effizienz zu verstehen und mit ihnen zu interagieren. Diese direkte Verbindung zu API-Spezifikationen bedeutet, dass KI präzisere Code generieren, bei der Dokumentation helfen und sogar beim Testen helfen kann, was die Produktivität erheblich steigert und die Qualität der KI-generierten Ausgaben verbessert.
Schritt-für-Schritt-Anleitung: Einrichten des Apidog MCP Servers für eine optimale API-Entwicklung
Die Integration des Apidog MCP Servers in Ihren KI-gestützten API-Entwicklungs-Workflow ist unkompliziert. Dieser Leitfaden konzentriert sich auf das Verbinden mit einem Apidog-Projekt, was ein gängiges Szenario für Teams ist, die Apidog als ihre zentrale API-Plattform verwenden. Für die Verbindung mit Online-Dokumentation oder OpenAPI-Dateien ist der Prozess ähnlich, mit geringfügigen Variationen in den Konfigurationsparametern, wie in der Apidog-Dokumentation beschrieben.
Voraussetzungen:
- Node.js: Stellen Sie sicher, dass Version 18 oder höher installiert ist (die neueste LTS wird empfohlen).
- MCP-kompatible IDE: Wie Cursor oder VS Code mit dem Cline-Plugin.
- Apidog-Konto und -Projekt: Sie benötigen ein Apidog-Projekt, das die API-Spezifikationen enthält, auf die die KI zugreifen soll.
Konfigurationsschritte:
API-Zugriffstoken und Projekt-ID von Apidog abrufen:
- API-Zugriffstoken: Navigieren Sie in Apidog zu
Kontoeinstellungen
(normalerweise durch Bewegen des Mauszeigers über Ihr Profilbild) >API-Zugriffstoken
. Generieren Sie ein neues Token, falls Sie noch keines haben. Kopieren Sie dieses Token sicher.

- Projekt-ID: Öffnen Sie Ihr Zielprojekt in Apidog. Gehen Sie zu
Projekteinstellungen
(normalerweise in der linken Seitenleiste) >Grundeinstellungen
. Kopieren Sie dieProjekt-ID
.

MCP in Ihrer IDE konfigurieren (z. B. Cursor):
- Öffnen Sie die MCP-Konfigurationsdatei Ihrer IDE. Klicken Sie in Cursor auf das Einstellungssymbol (oft oben rechts), wählen Sie
MCP
aus dem Menü und klicken Sie dann auf+ Neuen globalen MCP-Server hinzufügen
. Dadurch wird die Dateimcp.json
geöffnet.

- Fügen Sie die folgende JSON-Konfiguration ein und ersetzen Sie
<access-token>
durch Ihr Apidog-API-Zugriffstoken und<project-id>
durch Ihre Apidog-Projekt-ID.
Für macOS / Linux:
{
"mcpServers": {
"API specification": {
"command": "npx",
"args": [
"-y",
"apidog-mcp-server@latest",
"--project=<project-id>"
],
"env": {
"APIDOG_ACCESS_TOKEN": "<access-token>"
}
}
}
}
Für Windows:
{
"mcpServers": {
"API specification": {
"command": "cmd",
"args": [
"/c",
"npx",
"-y",
"apidog-mcp-server@latest",
"--project=<project-id>"
],
"env": {
"APIDOG_ACCESS_TOKEN": "<access-token>"
}
}
}
}
Konfiguration überprüfen:
- Speichern Sie die Datei
mcp.json
. - Probieren Sie im KI-Chat Ihrer IDE (im Agent-Modus) einen Befehl wie:
"Bitte rufen Sie die API-Spezifikation über MCP ab und sagen Sie mir, wie viele Endpunkte im Projekt vorhanden sind."
- Wenn die KI erfolgreich Informationen über die APIs Ihres Apidog-Projekts zurückgibt, ist die Verbindung hergestellt.
Wenn Sie diese Schritte befolgen, können Sie Ihre Apidog-API-Spezifikationen nahtlos in Ihren KI-Coding-Assistenten integrieren und so ein intelligenteres und produktiveres API-Entwicklungserlebnis freischalten.
Kernvorteile des Apidog MCP Servers für API-Spezifikationen und KI-Coding
Der Apidog MCP Server ist nicht nur ein weiteres MCP-Tool; es ist eine dedizierte Lösung für Entwickler, die KI für Aufgaben nutzen möchten, die untrennbar mit API-Spezifikationen verbunden sind. Seine Designphilosophie konzentriert sich darauf, API-Daten KI-Agenten leicht und genau zugänglich zu machen. Hier sind seine wichtigsten Vorteile:
1. Direkter Zugriff auf API-Spezifikationen: Der Apidog MCP Server ermöglicht es der KI, direkt aus Apidog-Projekten, online API-Dokumentation, die von Apidog veröffentlicht wurde, oder lokalen/online Swagger/OpenAPI-Dateien zu lesen. Dies bedeutet, dass die KI mit der einzigen Quelle der Wahrheit für Ihre API-Verträge arbeitet.
2. Verbesserte Code-Generierungsqualität: Durch die Bereitstellung detaillierter und genauer API-Spezifikationen (Schemas, Endpunkte, Parameter, Antworten) für die KI ermöglicht der Apidog MCP Server die Generierung von qualitativ hochwertigerem, kontextbezogenem Code. Dies umfasst Client-SDKs, Server-Stubs, DTOs und mehr, die alle auf Ihr API-Design zugeschnitten sind.
3. Lokales Caching für Geschwindigkeit und Datenschutz: API-Spezifikationsdaten werden lokal zwischengespeichert, sobald sie abgerufen wurden. Dies beschleunigt nachfolgende KI-Interaktionen erheblich, da keine wiederholten Remote-Suchvorgänge erforderlich sind. Es verbessert auch den Datenschutz, da sensible API-Details möglicherweise nicht ständig das Netzwerk durchlaufen müssen.
4. Optimierte KI-gestützte Entwicklungsworkflows: Entwickler können die KI anweisen, komplexe Aufgaben basierend auf API-Spezifikationen auszuführen. Beispiele hierfür sind:
- "Verwenden Sie MCP, um die API-Spezifikation abzurufen und Java-Datensätze für das 'Produkt'-Schema und verwandte Schemas zu generieren."
- "Aktualisieren Sie basierend auf der API-Spezifikation das 'Order'-DTO, um das neue Feld 'trackingId' einzubeziehen."
- "Fügen Sie Javadoc-Kommentare für jedes Feld in der Klasse 'User' basierend auf seiner Beschreibung in der API-Spezifikation hinzu."
5. Unterstützung für mehrere Datenquellen: Unabhängig davon, ob Ihre API-Spezifikationen innerhalb eines Apidog-Teamprojekts verwaltet, als Online-Dokumentation veröffentlicht oder als OpenAPI-Dateien gespeichert werden, kann der Apidog MCP Server die KI mit ihnen verbinden. Diese Flexibilität kommt verschiedenen Team-Workflows und Toolchains zugute.
6. Nahtlose IDE-Integration: Der Apidog MCP Server wurde so konzipiert, dass er einwandfrei mit beliebten KI-gestützten IDEs wie Cursor und VS Code (mit dem Cline-Plugin) zusammenarbeitet und sich reibungslos in bestehende Entwicklungsumgebungen integriert.
Indem sich der Apidog MCP Server auf die API-Spezifikation als Kern-Datenquelle konzentriert, befähigt er Entwickler, KI wirklich für komplizierte API-Entwicklungsaufgaben zu nutzen und sich über die allgemeine Codevervollständigung hinaus zu einer intelligenten, spezifikationsbewussten Unterstützung zu entwickeln.
Fazit
Da KI die Softwareentwicklung weiterhin neu gestaltet, werden MCP-Server zu wesentlichen Tools, die intelligente Agenten mit den Diensten und Daten verbinden, die sie zur Steigerung der Produktivität benötigen. Der Google Cloud Run MCP Server zeichnet sich durch die Automatisierung von Cloud-Bereitstellungsworkflows aus, während sich der Apidog MCP Server auf die tiefe Integration von KI mit API-Spezifikationen spezialisiert, um die Code-Generierung, Dokumentation und das Testen zu verbessern. Durch die Nutzung beider Server entsprechend Ihrem Entwicklungsschwerpunkt – Cloud-Infrastruktur oder API-zentrierte Workflows – können Sie intelligentere, schnellere und kontextbezogenere KI-gestützte Entwicklungserlebnisse freischalten.