お気に入りの大規模言語モデル(LLM)を、コーディングに絡むことなく、ウェブスクレイピングやファイル操作などのスーパーパワーのツールボックスに接続したいですか?そこで登場するのがMCP-Useです。これは、あらゆるLLMをあらゆるMCPサーバーに簡単に接続できる、洗練されたオープンソースのPythonライブラリです。あなたのAPIを使用したAIの夢のためのユニバーサルアダプターだと思ってください!この初心者向けガイドでは、LLMとモデルコンテキストプロトコル(MCP)サーバーを結ぶためにMCP-Useをどのように使用するかをお見せします。コーダーでも、ただ好奇心があるだけでも、このチュートリアルはあなたをサポートします。あなたのLLMをマルチタスキングのロックスターにする準備はできましたか?それでは始めましょう!

さて、MCP-Useの魔法に飛び込んでみましょう……
MCP-Useとは?あなたのAIとツールの接続部
MCP-Useとは何でしょうか?それは、任意のLLM(Claude、GPT-4o、またはDeepSeekなど)をMCPサーバーに接続できるブリッジのようなPythonライブラリです。MCPサーバーは、AIがウェブブラウザ、ファイルシステム、あるいはAirbnb検索のようなものにアクセスするための専門のツールです。LangChainアダプターに基づいて構築されたMCP-Useは、これらのサーバーにLLMのAPIを簡単に接続できるようにし、チャット以上のことを行うカスタムエージェントを構築できるようにします。ユーザーはこれを「ローカルMCPクライアントを構築するためのオープンソースの方法」と呼び、間違ってはいません。100%無料で柔軟です。

なぜやるのか? MCPサーバーはAIのためのUSBポートのようなもので、LLMが機能を呼び出したり、データを取得したり、標準化されたAPIのようなインターフェースを介してタスクを自動化することを可能にします。MCP-Useを使用すると、カスタム統合に悩む必要はありません。ただ接続して再生できます。さあ、準備を整えましょう!
MCP-Useのインストール:迅速かつ簡単に
MCP-Useを動かすのは簡単で、特にPythonに慣れている場合は特にです。GitHubリポジトリ(github.com/pietrozullo/mcp-use)は明確に説明しています。始め方は次のとおりです。
ステップ1:前提条件
必要なもの:
- Python: バージョン3.11以上。
python --version
で確認してください。Pythonがない場合は、python.orgから取得してください。

- pip: Pythonのパッケージマネージャー(通常はPythonに付属しています)。
- Git(オプション):最新のコードを取得するためにリポジトリをクローンする場合に使用します。
- APIキー: OpenAIやAnthropicなどのプレミアムLLM用。これについては後で説明します。
ステップ2:MCP-Useをインストール
物事を整理するために、仮想環境にpip
を使用しましょう:
プロジェクトフォルダを作成:
mkdir mcp-use-project
cd mcp-use-project
仮想環境を設定:
python -m venv mcp-env
アクティブにします:
- Mac/Linux:
source mcp-env/bin/activate
- Windows:
mcp-env\Scripts\activate
MCP-Useをインストール:
pip install mcp-use
または、最新のバージョンが必要な場合はリポジトリをクローンします:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .
LangChainプロバイダーを追加:
MCP-UseはLLM接続にLangChainに依存しています。あなたのLLM用のプロバイダーをインストールしてください:
- OpenAI:
pip install langchain-openai
- Anthropic:
pip install langchain-anthropic
- その他:LangChainのチャットモデルドキュメントを確認してください。

インストールを検証:
次のコマンドを実行してください:
python -c "import mcp_use; print(mcp_use.__version__)"
バージョン番号(例:2025年4月現在で0.42.1)を見ることができるはずです。表示されない場合は、Pythonのバージョンやpipを再確認してください。
これで完了です!MCP-UseはあなたのLLMをMCPサーバーに接続する準備ができました。私には約5分かかりました。あなたのセットアップはどんな感じですか?
MCP-Useを使用してLLMをMCPサーバーに接続する
さて、魔法を起こしましょう:MCP-Useを使用してLLMをMCPサーバーに接続します。シンプルな例として、OpenAIのGPT-4oをウェブブラウジングのためのPlaywright MCPサーバーに接続します。
ステップ1:LLMのAPIキーを取得
GPT-4oのために、APIキーをplatform.openai.comから取得してください。サインアップし、キーを作成し、安全に保存します。Claude(console.anthropic.com経由)やDeepSeek(deepseekプラットフォームで)などの他のLLMも利用できます。

ステップ2:環境変数を設定
MCP-Useは、安全なAPIキーの格納のために.env
ファイルを好みます。プロジェクトフォルダに.env
ファイルを作成します:
touch .env
キーを追加して保存します:
OPENAI_API_KEY=sk-xxx
重要:APIキーをGitから隠すために.env
ファイルを.gitignore
に追加してください。
ステップ3:MCPサーバーを設定
MCPサーバーは、あなたのLLMが使用できるツールを提供します。ブラウザ自動化のためにPlaywright MCPサーバーを使用します。browser_mcp.json
という名前の設定ファイルを作成します:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
これは、MCP-UseにPlaywrightのMCPサーバーを実行させるものです。プロジェクトフォルダに保存します。
ステップ4:最初のMCP-Useスクリプトを書く
GPT-4oをPlaywrightサーバーに接続し、レストランを見つけるためのPythonスクリプトを作成します。mcp_example.py
を作成します:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
# 環境変数をロード
load_dotenv()
# 設定ファイルからMCPClientを作成
client = MCPClient.from_config_file("browser_mcp.json")
# LLMを作成(モデルがツール呼び出しをサポートしていることを確認)
llm = ChatOpenAI(model="gpt-4o")
# エージェントを作成
agent = MCPAgent(llm=llm, client=client, max_steps=30)
# クエリを実行
result = await agent.run("サンフランシスコの最高のレストランを見つけて")
print(f"\n結果: {result}")
if __name__ == "__main__":
asyncio.run(main())
このスクリプトは:
- APIキーを
.env
からロードします。 - PlaywrightサーバーでMCPクライアントを設定します。
- LangChainを介してGPT-4oを接続します。
- レストランを探すためのクエリを実行します。
ステップ5:実行する
仮想環境がアクティブであることを確認してから:
python mcp_example.py
MCP-UseはPlaywrightサーバーを起動し、GPT-4oがウェブをブラウズできるようにし、「結果: サンフランシスコで最高のレストランはGary Dankoです。ここは絶品のテイスティングメニューで知られています。」のような出力をします。(結果は異なる場合があります!)これを実行して、わずか1分で確かな推薦を得ました。クールですよね?
複数のMCPサーバーに接続する
MCP-Useは、複雑なタスクのために複数のサーバーに接続するときに真価を発揮します。宿泊施設の検索のためにAirbnbのMCPサーバーを私たちの設定に追加しましょう。browser_mcp.json
を更新します:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
},
"airbnb": {
"command": "npx",
"args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
}
}
}
新しいクエリでmcp_example.py
を再実行します:
result = await agent.run("サンフランシスコのレストランとAirbnbを見つけて")
MCP-UseはLLMに両方のサーバーを使用させます—レストラン検索のためのPlaywright、宿泊のためのAirbnb。エージェントはどのサーバーを呼び出すかを決定し、あなたのAIを非常に柔軟にしています。
なぜMCP-Useが初心者にとって素晴らしいのか
MCP-Useは初心者の夢です。なぜなら:
- 簡単なセットアップ: 一度の
pip install
と短いスクリプトで始められます。 - 柔軟性: ClaudeからGitHubの課題トラッカーまで、あらゆるLLMとMCPサーバーで動作します。
- オープンソース: 無料でカスタマイズ可能で、歓迎するGitHubコミュニティがあります。
カスタムAPI統合と比較して、MCP-Useははるかに頭が痛くなく、クールなものを構築することに集中できます。
MCP-Use成功のためのプロのヒント
- モデルの互換性を確認する: ツール呼び出しが可能なLLM(GPT-4oやClaude 3.7 Sonnetなど)だけが機能します。
- 仕様の検証にスカラーを使用する: サーバーのAPI仕様を検証して、驚きを避けます。
- MCPサーバーを探索する: mcp.soを参照して、Firecrawl(ウェブスクレイピング)やElevenLabs(テキストから音声への変換)のようなサーバーをチェックしてください。
- コミュニティに参加する: MCP-Use GitHubでバグを報告したり、機能を提案したりしてください。
結論:あなたのMCP-Useの冒険が待っています
おめでとうございます—今やMCP-UseでどんなLLMでもスーパーチャージする準備が整いました!GPT-4oをPlaywrightサーバーに接続することから、ウェブをブラウズし、検索し、さらに多くのことを行うAIエージェントを構築するためのツールがあります。次にGitHubのMCPサーバーを追加したり、エージェントに旅行全体を計画させたりしてみてください。MCP-Useリポジトリにはもっと多くの例があり、MCPコミュニティはXで活発です。さらなるAPIの魅力のために、apidog.comもお見逃しなく。
