Apidog

オールインワン協働API開発プラットフォーム

API設計

APIドキュメント

APIデバッグ

APIモック

API自動テスト

任意のLLMを任意のMCPサーバーにMCP-Useを使用して接続する方法

中村 拓也

中村 拓也

Updated on 4月 18, 2025

お気に入りの大規模言語モデル(LLM)を、コーディングに絡むことなく、ウェブスクレイピングやファイル操作などのスーパーパワーのツールボックスに接続したいですか?そこで登場するのがMCP-Useです。これは、あらゆるLLMをあらゆるMCPサーバーに簡単に接続できる、洗練されたオープンソースのPythonライブラリです。あなたのAPIを使用したAIの夢のためのユニバーサルアダプターだと思ってください!この初心者向けガイドでは、LLMとモデルコンテキストプロトコル(MCP)サーバーを結ぶためにMCP-Useをどのように使用するかをお見せします。コーダーでも、ただ好奇心があるだけでも、このチュートリアルはあなたをサポートします。あなたのLLMをマルチタスキングのロックスターにする準備はできましたか?それでは始めましょう!

💡
まずはMCP-Useを始める前に、API愛好者のための素晴らしいツール、Apidogを応援しましょう!これは、APIの設計、テスト、文書化を非常に簡単にし、MCPサーバーを使用したプロジェクトを構築する際に最適です。apidog.comをチェックしてみてください。開発者の最良の友人です! 
ボタン

さて、MCP-Useの魔法に飛び込んでみましょう……

MCP-Useとは?あなたのAIとツールの接続部

MCP-Useとは何でしょうか?それは、任意のLLM(Claude、GPT-4o、またはDeepSeekなど)をMCPサーバーに接続できるブリッジのようなPythonライブラリです。MCPサーバーは、AIがウェブブラウザ、ファイルシステム、あるいはAirbnb検索のようなものにアクセスするための専門のツールです。LangChainアダプターに基づいて構築されたMCP-Useは、これらのサーバーにLLMのAPIを簡単に接続できるようにし、チャット以上のことを行うカスタムエージェントを構築できるようにします。ユーザーはこれを「ローカルMCPクライアントを構築するためのオープンソースの方法」と呼び、間違ってはいません。100%無料で柔軟です。

mcp-use display image

なぜやるのか? MCPサーバーはAIのためのUSBポートのようなもので、LLMが機能を呼び出したり、データを取得したり、標準化されたAPIのようなインターフェースを介してタスクを自動化することを可能にします。MCP-Useを使用すると、カスタム統合に悩む必要はありません。ただ接続して再生できます。さあ、準備を整えましょう!

MCP-Useのインストール:迅速かつ簡単に

MCP-Useを動かすのは簡単で、特にPythonに慣れている場合は特にです。GitHubリポジトリ(github.com/pietrozullo/mcp-use)は明確に説明しています。始め方は次のとおりです。

ステップ1:前提条件

必要なもの:

  • Python: バージョン3.11以上。python --versionで確認してください。Pythonがない場合は、python.orgから取得してください。
python download
  • pip: Pythonのパッケージマネージャー(通常はPythonに付属しています)。
  • Git(オプション):最新のコードを取得するためにリポジトリをクローンする場合に使用します。
  • APIキー: OpenAIやAnthropicなどのプレミアムLLM用。これについては後で説明します。

ステップ2:MCP-Useをインストール

物事を整理するために、仮想環境にpipを使用しましょう:

プロジェクトフォルダを作成

mkdir mcp-use-project
cd mcp-use-project

仮想環境を設定

python -m venv mcp-env

アクティブにします:

  • Mac/Linux: source mcp-env/bin/activate
  • Windows: mcp-env\Scripts\activate

MCP-Useをインストール

pip install mcp-use

または、最新のバージョンが必要な場合はリポジトリをクローンします:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .

LangChainプロバイダーを追加:
MCP-UseはLLM接続にLangChainに依存しています。あなたのLLM用のプロバイダーをインストールしてください:

langchain chat models

インストールを検証:
次のコマンドを実行してください:

python -c "import mcp_use; print(mcp_use.__version__)"

バージョン番号(例:2025年4月現在で0.42.1)を見ることができるはずです。表示されない場合は、Pythonのバージョンやpipを再確認してください。

これで完了です!MCP-UseはあなたのLLMをMCPサーバーに接続する準備ができました。私には約5分かかりました。あなたのセットアップはどんな感じですか?

MCP-Useを使用してLLMをMCPサーバーに接続する

さて、魔法を起こしましょう:MCP-Useを使用してLLMをMCPサーバーに接続します。シンプルな例として、OpenAIのGPT-4oをウェブブラウジングのためのPlaywright MCPサーバーに接続します。

ステップ1:LLMのAPIキーを取得

GPT-4oのために、APIキーをplatform.openai.comから取得してください。サインアップし、キーを作成し、安全に保存します。Claude(console.anthropic.com経由)やDeepSeek(deepseekプラットフォームで)などの他のLLMも利用できます。

openai developer platform

ステップ2:環境変数を設定

MCP-Useは、安全なAPIキーの格納のために.envファイルを好みます。プロジェクトフォルダに.envファイルを作成します:

touch .env

キーを追加して保存します:

OPENAI_API_KEY=sk-xxx

重要:APIキーをGitから隠すために.envファイルを.gitignoreに追加してください。

ステップ3:MCPサーバーを設定

MCPサーバーは、あなたのLLMが使用できるツールを提供します。ブラウザ自動化のためにPlaywright MCPサーバーを使用します。browser_mcp.jsonという名前の設定ファイルを作成します:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    }
  }
}

これは、MCP-UseにPlaywrightのMCPサーバーを実行させるものです。プロジェクトフォルダに保存します。

ステップ4:最初のMCP-Useスクリプトを書く

GPT-4oをPlaywrightサーバーに接続し、レストランを見つけるためのPythonスクリプトを作成します。mcp_example.pyを作成します:

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    # 環境変数をロード
    load_dotenv()

    # 設定ファイルからMCPClientを作成
    client = MCPClient.from_config_file("browser_mcp.json")

    # LLMを作成(モデルがツール呼び出しをサポートしていることを確認)
    llm = ChatOpenAI(model="gpt-4o")

    # エージェントを作成
    agent = MCPAgent(llm=llm, client=client, max_steps=30)

    # クエリを実行
    result = await agent.run("サンフランシスコの最高のレストランを見つけて")
    print(f"\n結果: {result}")

if __name__ == "__main__":
    asyncio.run(main())

このスクリプトは:

  • APIキーを.envからロードします。
  • PlaywrightサーバーでMCPクライアントを設定します。
  • LangChainを介してGPT-4oを接続します。
  • レストランを探すためのクエリを実行します。

ステップ5:実行する

仮想環境がアクティブであることを確認してから:

python mcp_example.py

MCP-UseはPlaywrightサーバーを起動し、GPT-4oがウェブをブラウズできるようにし、「結果: サンフランシスコで最高のレストランはGary Dankoです。ここは絶品のテイスティングメニューで知られています。」のような出力をします。(結果は異なる場合があります!)これを実行して、わずか1分で確かな推薦を得ました。クールですよね?

複数のMCPサーバーに接続する

MCP-Useは、複雑なタスクのために複数のサーバーに接続するときに真価を発揮します。宿泊施設の検索のためにAirbnbのMCPサーバーを私たちの設定に追加しましょう。browser_mcp.jsonを更新します:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    },
    "airbnb": {
      "command": "npx",
      "args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
    }
  }
}

新しいクエリでmcp_example.pyを再実行します:

result = await agent.run("サンフランシスコのレストランとAirbnbを見つけて")

MCP-UseはLLMに両方のサーバーを使用させます—レストラン検索のためのPlaywright、宿泊のためのAirbnb。エージェントはどのサーバーを呼び出すかを決定し、あなたのAIを非常に柔軟にしています。

なぜMCP-Useが初心者にとって素晴らしいのか

MCP-Useは初心者の夢です。なぜなら:

  • 簡単なセットアップ: 一度のpip installと短いスクリプトで始められます。
  • 柔軟性: ClaudeからGitHubの課題トラッカーまで、あらゆるLLMとMCPサーバーで動作します。
  • オープンソース: 無料でカスタマイズ可能で、歓迎するGitHubコミュニティがあります。

カスタムAPI統合と比較して、MCP-Useははるかに頭が痛くなく、クールなものを構築することに集中できます。

MCP-Use成功のためのプロのヒント

  • モデルの互換性を確認する: ツール呼び出しが可能なLLM(GPT-4oやClaude 3.7 Sonnetなど)だけが機能します。
  • 仕様の検証にスカラーを使用する: サーバーのAPI仕様を検証して、驚きを避けます。
  • MCPサーバーを探索する: mcp.soを参照して、Firecrawl(ウェブスクレイピング)やElevenLabs(テキストから音声への変換)のようなサーバーをチェックしてください。
  • コミュニティに参加する: MCP-Use GitHubでバグを報告したり、機能を提案したりしてください。

結論:あなたのMCP-Useの冒険が待っています

おめでとうございます—今やMCP-UseでどんなLLMでもスーパーチャージする準備が整いました!GPT-4oをPlaywrightサーバーに接続することから、ウェブをブラウズし、検索し、さらに多くのことを行うAIエージェントを構築するためのツールがあります。次にGitHubのMCPサーバーを追加したり、エージェントに旅行全体を計画させたりしてみてください。MCP-Useリポジトリにはもっと多くの例があり、MCPコミュニティはXで活発です。さらなるAPIの魅力のために、apidog.comもお見逃しなく。

ボタン
Apidog Ui image