MCP Server in LM Studio nutzen: Anleitung

Rebecca Kovács

Rebecca Kovács

26 June 2025

MCP Server in LM Studio nutzen: Anleitung

Die Welt der lokalen Large Language Models (LLMs) stellt eine Grenze für Datenschutz, Kontrolle und Anpassung dar. Seit Jahren betreiben Entwickler und Enthusiasten leistungsstarke Modelle auf ihrer eigenen Hardware, frei von den Einschränkungen und Kosten cloudbasierter Dienste. Diese Freiheit ging jedoch oft mit einer erheblichen Einschränkung einher: Isolation. Lokale Modelle konnten denken, aber nicht handeln. Mit der Veröffentlichung von Version 0.3.17 durchbricht LM Studio diese Barriere, indem es die Unterstützung für das Model Context Protocol (MCP) einführt – eine transformative Funktion, die es Ihren lokalen LLMs ermöglicht, sich mit externen Tools und Ressourcen zu verbinden.

Dieser Leitfaden bietet einen umfassenden, tiefgehenden Einblick in die Konfiguration und Nutzung dieser leistungsstarken Funktion. Wir gehen von grundlegenden Konzepten zu fortgeschrittenen, praktischen Beispielen über, um Ihnen ein vollständiges Bild davon zu vermitteln, wie Sie Ihr lokales LLM in einen interaktiven und effektiven Agenten verwandeln können.

💡
Möchten Sie ein großartiges API-Testtool, das wunderschöne API-Dokumentation generiert?

Möchten Sie eine integrierte All-in-One-Plattform für Ihr Entwicklerteam, um mit maximaler Produktivität zusammenzuarbeiten?

Apidog erfüllt all Ihre Anforderungen und ersetzt Postman zu einem wesentlich günstigeren Preis!
Schaltfläche

Was ist ein MCP-Server?

Bevor Sie einen Server konfigurieren können, ist es entscheidend, die Architektur zu verstehen, mit der Sie arbeiten. Das Model Context Protocol (MCP) ist eine Open-Source-Spezifikation, die ursprünglich von Anthropic eingeführt wurde, um eine universelle Sprache zwischen LLMs und externen Tools zu schaffen. Stellen Sie es sich als eine standardisierte „API für APIs“ vor, speziell für die KI-Nutzung.

Das MCP-System umfasst zwei Hauptkomponenten:

Die Schönheit dieses Protokolls liegt in seiner Einfachheit und Standardisierung. Jeder Entwickler kann einen Server erstellen, der Tools bereitstellt, und jede Anwendung, die als Host fungiert, kann sich damit verbinden, wodurch ein herstellerunabhängiges Ökosystem entsteht.

Schritt-für-Schritt-Anleitung: Hinzufügen eines Remote-MCP-Servers

Die primäre Methode zum Hinzufügen und Verwalten von MCP-Servern in LM Studio ist die Bearbeitung einer zentralen Konfigurationsdatei namens mcp.json.

Finden und Bearbeiten von mcp.json

Sie können auf diese Datei direkt über die LM Studio-Oberfläche zugreifen, was der empfohlene Ansatz ist.

  1. Starten Sie LM Studio und schauen Sie sich die rechte Seitenleiste an.
  2. Klicken Sie auf die Registerkarte „Programm“, die durch ein Terminal-Prompt-Symbol (>_) dargestellt wird.
  3. Klicken Sie unter dem Abschnitt „Installieren“ auf die Schaltfläche „mcp.json bearbeiten“.

Diese Aktion öffnet die Konfigurationsdatei direkt im In-App-Texteditor von LM Studio. Die Anwendung überwacht diese Datei automatisch auf Änderungen, sodass jeder Server, den Sie hinzufügen oder ändern, sofort nach dem Speichern neu geladen wird.

Beispielkonfiguration: Der Hugging Face Server

Um den Prozess zu veranschaulichen, werden wir uns mit dem offiziellen Hugging Face MCP-Server verbinden. Dieses Tool bietet Ihrem LLM die Möglichkeit, den Hugging Face Hub nach Modellen und Datensätzen zu durchsuchen – ein perfekter erster Schritt in die Tool-Nutzung.

Zuerst benötigen Sie ein Zugriffstoken von Hugging Face.

  1. Navigieren Sie zu den Einstellungen für Zugriffstoken Ihres Hugging Face-Kontos.
  2. Erstellen Sie ein neues Token. Geben Sie ihm einen aussagekräftigen Namen (z. B. lm-studio-mcp) und weisen Sie ihm die Rolle read zu, die für die Suche ausreichend ist.
  3. Kopieren Sie das generierte Token (hf_...).

Fügen Sie als Nächstes die folgende Struktur zu Ihrer mcp.json-Datei hinzu.

{
  "mcpServers": {
    "hf-mcp-server": {
      "url": "<https://huggingface.co/mcp>",
      "headers": {
        "Authorization": "Bearer <YOUR_HF_TOKEN>"
      }
    }
  }
}

Ersetzen Sie nun den Platzhalter <YOUR_HF_TOKEN> durch das tatsächliche Token, das Sie von Hugging Face kopiert haben. Speichern Sie die Datei (Strg+S oder Cmd+S).

Das war's. Ihre LM Studio-Instanz ist jetzt verbunden.

Überprüfung und Testen

Um zu bestätigen, dass die Verbindung aktiv ist, müssen Sie ein Modell verwenden, das für Funktionsaufrufe geeignet ist. Viele moderne Modelle, wie Varianten von Llama 3, Mixtral und Qwen, verfügen über diese Fähigkeit. Laden Sie ein geeignetes Modell und starten Sie einen neuen Chat.

Geben Sie eine Aufforderung ein, die das Tool erfordern würde, zum Beispiel:

„Können Sie einige beliebte LLM-Modelle auf Hugging Face finden, die unter 7 Milliarden Parametern liegen?“

Wenn alles richtig konfiguriert ist, erkennt das Modell die Notwendigkeit eines Tools. Anstatt direkt zu antworten, löst es einen Tool-Aufruf aus, den LM Studio abfängt und Ihnen zur Bestätigung präsentiert.

Tool-Aufruf-Bestätigungen in LMStudio

Die Möglichkeit, Ihr LLM mit externen Tools zu verbinden, geht mit erheblicher Verantwortung einher. Ein MCP-Server kann konzeptbedingt auf Ihre lokalen Dateien zugreifen, Netzwerkanfragen stellen und Code ausführen. LM Studio mindert dieses Risiko mit einer entscheidenden Sicherheitsfunktion: Tool-Aufruf-Bestätigungen.

Wenn ein Modell ein Tool verwenden möchte, erscheint ein Dialogfeld in der Chat-Oberfläche. Dieses Feld gibt Ihnen einen vollständigen, menschenlesbaren Überblick über die ausstehende Aktion:

Sie haben die volle Kontrolle. Sie können die Argumente auf verdächtige Inhalte überprüfen und dann wählen, ob Sie den Aufruf einmal zulassen, ablehnen oder, bei Tools, denen Sie uneingeschränkt vertrauen, dieses spezifische Tool immer zulassen möchten.

Warnung: Installieren Sie niemals einen MCP-Server von einer Quelle, der Sie nicht vollständig vertrauen, oder erteilen Sie ihm Berechtigungen. Überprüfen Sie immer den ersten Tool-Aufruf von jedem neuen Server. Sie können Ihre „Immer zulassen“-Berechtigungen jederzeit in den App-Einstellungen > Tools & Integrationen verwalten und widerrufen.

LMStudio mit einem lokalen MCP-Server verbinden

Während die Verbindung zu Remote-Servern nützlich ist, liegt die wahre Stärke von MCP für viele Benutzer in der Möglichkeit, Server auf ihrem lokalen Computer zu betreiben. Dies ermöglicht einem LLM den Zugriff auf lokale Dateien, Skripte und Programme, während die Daten vollständig offline bleiben.

LM Studio unterstützt sowohl lokale als auch Remote-MCP-Server. Um einen lokalen Server zu konfigurieren, würden Sie einen Eintrag in Ihrer `mcp.json`-Datei hinzufügen, der auf eine lokale URL verweist.


Wenn Sie beispielsweise einen Server auf Ihrem Computer auf Port 8000 betreiben würden, könnte Ihre Konfiguration wie folgt aussehen:

{
  "mcpServers": {
    "my-local-server": {
      "url": "http://localhost:8000"
    }
  }
}
💡
Möchten Sie ein großartiges API-Testtool, das wunderschöne API-Dokumentation generiert?

Möchten Sie eine integrierte All-in-One-Plattform für Ihr Entwicklerteam, um mit maximaler Produktivität zusammenzuarbeiten?

Apidog erfüllt all Ihre Anforderungen und ersetzt Postman zu einem wesentlich günstigeren Preis!
Schaltfläche

Die Zukunft ist lokal und vernetzt

Die Integration von MCP in LM Studio ist mehr als ein inkrementelles Update; es ist eine grundlegende Verschiebung. Sie überbrückt die Lücke zwischen der rohen Intelligenz von LLMs und dem praktischen Nutzen von Softwareanwendungen. Dies schafft eine Zukunft, in der Ihre KI nicht nur ein Gesprächspartner, sondern ein personalisierter Assistent ist, der sicher auf Ihrer eigenen Hardware arbeitet.

Stellen Sie sich einen Autor mit einem lokalen MCP-Server vor, der benutzerdefinierte Tools für Zusammenfassungen, Faktenprüfung anhand einer privaten Dokumentenbibliothek und Stilanalysen bereitstellt – alles, ohne ein einziges Wort in die Cloud zu senden. Oder einen Entwickler, dessen LLM mit einem lokalen Server interagieren kann, um Tests durchzuführen, Compiler-Ausgaben zu lesen und interne Codebasen zu durchsuchen.

Um diese Vision zu erleichtern, hat das LM Studio-Team es Entwicklern auch leicht gemacht, ihre Kreationen zu teilen. Die Schaltfläche „Zu LM Studio hinzufügen“, die einen benutzerdefinierten lmstudio://-Deeplink verwendet, ermöglicht die Ein-Klick-Installation neuer MCP-Server. Dies senkt die Einstiegshürde und ebnet den Weg für ein lebendiges, gemeinschaftlich betriebenes Ökosystem von Tools.

Durch die Annahme eines offenen Standards und die Priorisierung der Benutzerkontrolle hat LM Studio ein leistungsstarkes Framework für die nächste Generation der persönlichen KI bereitgestellt.

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen