ローカル大規模言語モデル(LLM)の世界は、プライバシー、制御、およびカスタマイズの最前線を示しています。長年にわたり、開発者や愛好家は、クラウドベースのサービスの制約やコストから解放され、独自のハードウェアで強力なモデルを実行してきました。しかし、この自由にはしばしば大きな制限が伴いました。それは「隔離」です。ローカルモデルは推論できましたが、行動することはできませんでした。バージョン0.3.17のリリースにより、LM StudioはModel Context Protocol(MCP)のサポートを導入することで、この障壁を打ち破りました。これは、ローカルLLMが外部ツールやリソースと接続することを可能にする革新的な機能です。

このガイドでは、この強力な機能を構成および使用するための包括的で詳細な情報を提供します。基本的な概念から高度な実践的な例までを網羅し、ローカルLLMをインタラクティブで効果的なエージェントに変える方法の全体像を示します。
最大限の生産性で開発チームが共同作業できる、統合されたオールインワンプラットフォームをお探しですか?
Apidogは、お客様のすべての要求に応え、Postmanをはるかに手頃な価格で置き換えます!
MCPサーバーとは?
サーバーを構成する前に、作業しているアーキテクチャを理解することが重要です。Model Context Protocol(MCP)は、Anthropicによって最初に導入されたオープンソースの仕様であり、LLMと外部ツールの間に普遍的な言語を作成するように設計されています。これは、特にAIの消費のための標準化された「APIのAPI」と考えてください。
MCPシステムには、主に2つのコンポーネントが含まれています。
- MCPホスト: これはLLMが存在するアプリケーションです。ホストは、ツールの検出を管理し、推論パス中に利用可能なツールをモデルに提示し、ツール呼び出しのライフサイクル全体を処理する責任があります。このガイドでは、LM StudioがMCPホストです。
- MCPサーバー: これは、HTTPエンドポイントを介してツールのコレクション(関数)を公開するプログラムです。サーバーは、マシン上で実行されている単純なスクリプトであることも、Web上の堅牢なエンタープライズグレードのサービスであることもあります。たとえば、Stripeのような企業は決済処理用のMCPサーバーを提供でき、開発者はスマートホームデバイスと対話するための個人的なサーバーを作成できます。
このプロトコルの美しさは、そのシンプルさと標準化にあります。どの開発者もツールを公開するサーバーを構築でき、ホストとして機能するどのアプリケーションもそれに接続でき、ベンダーに依存しないエコシステムを作成できます。
ステップバイステップガイド:リモートMCPサーバーの追加
LM StudioでMCPサーバーを追加および管理する主要な方法は、mcp.json
という中央構成ファイルを編集することです。
mcp.json
の検索と編集
LM Studioインターフェースから直接このファイルにアクセスできます。これが推奨されるアプローチです。
- LM Studioを起動し、右側のサイドバーを確認します。
- ターミナルプロンプトアイコン(
>_
)で表されるプログラムタブをクリックします。 - 「インストール」セクションの下にあるmcp.jsonを編集ボタンをクリックします。

この操作により、LM Studioのアプリ内テキストエディタで構成ファイルが直接開きます。アプリケーションはこのファイルの変更を自動的に監視するため、追加または変更したサーバーは保存した瞬間に再ロードされます。

構成例:Hugging Faceサーバー
プロセスを説明するために、公式のHugging Face MCPサーバーに接続します。このツールは、LLMにHugging Face Hubでモデルやデータセットを検索する機能を提供します。これはツール使用への完璧な第一歩です。
まず、Hugging Faceからアクセストークンが必要です。
- Hugging Faceアカウントのアクセストークン設定に移動します。
- 新しいトークンを作成します。分かりやすい名前(例:
lm-studio-mcp
)を付け、検索に十分なread
ロールを割り当てます。 - 生成されたトークン(
hf_...
)をコピーします。
次に、以下の構造をmcp.json
ファイルに追加します。
{
"mcpServers": {
"hf-mcp-server": {
"url": "<https://huggingface.co/mcp>",
"headers": {
"Authorization": "Bearer <YOUR_HF_TOKEN>"
}
}
}
}
次に、プレースホルダーの<YOUR_HF_TOKEN>
をHugging Faceからコピーした実際のトークンに置き換えます。ファイルを保存します(Ctrl+SまたはCmd+S)。
これで完了です。LM Studioインスタンスが接続されました。
検証とテスト
接続がアクティブであることを確認するには、関数呼び出しに熟練したモデルを使用する必要があります。Llama 3、Mixtral、Qwenのバリアントなど、多くの最新モデルがこの機能を備えています。適切なモデルをロードし、新しいチャットを開始します。
ツールを必要とするプロンプトを発行します。たとえば、次のようになります。
「Hugging Faceで、70億パラメータ未満の人気のLLMモデルをいくつか見つけてもらえますか?」
すべてが正しく構成されていれば、モデルはツールの必要性を認識します。直接回答する代わりに、ツール呼び出しをトリガーし、LM Studioがそれを傍受して確認のために提示します。
LMStudioでのツール呼び出しの確認
LLMを外部ツールに接続する機能には、大きな責任が伴います。MCPサーバーは、設計上、ローカルファイルにアクセスし、ネットワークリクエストを行い、コードを実行できます。LM Studioは、重要な安全機能であるツール呼び出しの確認によってこのリスクを軽減します。
モデルがツールを使用したい場合、チャットインターフェースにダイアログボックスが表示されます。このボックスは、保留中のアクションの完全な人間が読める概要を提供します。
- 呼び出されているツールの名前。
- モデルがそれに送信したい特定の引数。
あなたは完全に制御できます。疑わしいものがないか引数を検査し、一度呼び出しを許可するか、拒否するか、または暗黙的に信頼するツールについては、その特定のツールを常に許可するかを選択できます。
警告:完全に信頼できないソースからのMCPサーバーをインストールしたり、権限を付与したりしないでください。新しいサーバーからの最初のツール呼び出しは常に慎重に調べてください。「常に許可」の権限は、アプリ設定 > ツールと統合でいつでも管理および取り消すことができます。
LMStudioをローカルMCPサーバーに接続する
リモートサーバーへの接続は便利ですが、多くのユーザーにとってMCPの真の力は、ローカルマシンでサーバーを実行できることです。これにより、LLMはローカルファイル、スクリプト、プログラムにアクセスでき、データを完全にオフラインに保つことができます。
LM Studioは、ローカルおよびリモートの両方のMCPサーバーをサポートしています。ローカルサーバーを構成するには、mcp.json
ファイルにローカルURLを指すエントリを追加します。
たとえば、マシン上でポート8000でサーバーを実行している場合、構成は次のようになります。
{
"mcpServers": {
"my-local-server": {
"url": "http://localhost:8000"
}
}
}
最大限の生産性で開発チームが共同作業できる、統合されたオールインワンプラットフォームをお探しですか?
Apidogは、お客様のすべての要求に応え、Postmanをはるかに手頃な価格で置き換えます!
未来はローカルで、そして接続されている
LM StudioへのMCPの統合は、単なる漸進的な更新ではありません。それは根本的な変化です。LLMの生の知能とソフトウェアアプリケーションの実用的なユーティリティとの間のギャップを埋めます。これにより、AIが単なる会話相手ではなく、独自のハードウェア上で安全に動作するパーソナライズされたアシスタントとなる未来が生まれます。
ローカルMCPサーバーを持つライターを想像してみてください。そのサーバーは、要約、プライベートドキュメントライブラリに対する事実確認、スタイル分析のためのカスタムツールを提供します。これらすべてをクラウドに1文字も送信することなく行います。または、ローカルサーバーと対話してテストを実行したり、コンパイラの出力を読み取ったり、内部コードベースを検索したりできるLLMを持つ開発者を想像してみてください。
このビジョンを促進するために、LM Studioチームは開発者が自分の作品を簡単に共有できるようにしました。「LM Studioに追加」ボタンは、カスタムのlmstudio://
ディープリンクを使用して、新しいMCPサーバーのワンクリックインストールを可能にします。これにより、参入障壁が低くなり、活気に満ちたコミュニティ主導のツールエコシステムへの道が開かれます。
オープンスタンダードを採用し、ユーザー制御を優先することで、LM Studioは次世代のパーソナルAIのための強力なフレームワークを提供しました。