言語モデルを外部データソースと接続することは、堅牢で知的なアプリケーションを構築するために重要です。 モデルコンテキストプロトコル (MCP) は、AIモデルと外部システム間のコンテキストとデータの交換を簡素化する標準化されたフレームワークです。チャットボット、検索エンジン、データ分析ツールを構築する際には、MCPがさまざまなモデルとAPI間のギャップを埋め、情報のスムーズな流れを確保します。
Ollama を使用して軽量のローカルモデル推論を行い、OpenAI で最先端の自然言語理解を実現し、Deepseek で強力な検索機能を利用できるシステムを想像してみてください。さらに、Dolphin MCP を追加しましょう。これは、この統合を簡素化するオープンソースのPythonライブラリおよびCLIツールです。 Dolphin MCPは、複数のMCPサーバーに同時に接続するだけでなく、彼らのツールを自然言語クエリを通じて言語モデルに提供します。
このチュートリアルでは、Dolphin MCPのインストールから、OllamaやOpenAIなどのモデルとの統合までを案内します。

1. MCPとは?(基本から始める)
モデルコンテキストプロトコル (MCP)は、AIモデルと外部アプリケーション間の相互作用を標準化するためのフレームワークです。異なるモデルがコンテキストを共有し、データを交換し、統一された会話形式でツールを呼び出すことができます。MCPを使うことで、次のことが可能になります:
- 異なるクエリ間でシームレスな会話履歴を維持する。
- 外部ツールやAPIを動的に発見し、呼び出す。
- 単一の標準化されたプロトコルの下で複数のAIプロバイダーを統合する。
MCPを使用することで、開発者は異なるモデル間の通信の複雑さを心配することなく、革新的なソリューションの構築に集中できます。MCPの詳細なチュートリアルについては、クリックこちらをご覧ください。
2. なぜDolphin MCPを使うのか?
Dolphin MCP は、複数のMCPサーバー(必要に応じて無制限に接続可能)と対話するのを非常に簡単にするオープンソースのPythonライブラリおよびCLIツールです。そのデザインはモジュラー性と使いやすさを重視しており、OpenAI、Anthropic、Ollamaなどのさまざまな言語モデルや、Deepseekなどの外部データソースと統合するためのクリーンなAPIを提供します。作業中のタスクのニーズに応じてモデルを簡単に切り替えることができます!
主な機能:
- 複数プロバイダーサポート: Ollama、OpenAI、DeepSeekなどとシームレスに連携します。
- デュアルインターフェース: Pythonライブラリまたはコマンドラインツールとして使用できます。
- ツール発見: MCPサーバーによって提供されるツールを自動的に検出し使用します。
- モジュラーアーキテクチャ: プロバイダー特有のモジュールを使用して関心の分離をクリーンに保ちます。
- 柔軟な設定: JSONおよび環境変数を使用してモデルやMCPサーバーを簡単に設定できます。
- 再利用性: 新しい要件に迅速に適応できるスケーラブルで再利用可能な統合を構築できます。
Dolphin MCPは、データ操作とAIモデルとの対話のための会話インターフェースを構築するプロセスを簡素化し、開発者にとって強力な資産となります。
3. 前提条件と環境設定
インストールおよび統合手順に入る前に、Dolphin MCPを使用するための環境が正しく設定されていることを確認しましょう。
システム要件:
- Python 3.8以上: Pythonがインストールされていることを確認してください。python.orgからダウンロードできます。
- SQLite: デモデータベースがサンプルデータを保存するために使用(オプション)。
- uv/uvx: 高速なPythonパッケージインストーラーおよび解決ツール。
- Node.js 18+(CLI統合を使用する場合): 一部の追加ツールに必要。
プラットフォーム固有の設定:
Windows:
- Python: python.orgからダウンロードし、「Add Python to PATH」にチェックを入れます。
- SQLite: SQLiteの公式ウェブサイトからプリコンパイルされたバイナリをダウンロードし、抽出してPATHに追加します。
- uv/uvx: Windows PowerShellを管理者として開き、以下を実行します:
curl -sSf https://install.ultraviolet.rs/windows
- インストールを確認:
python --version
sqlite3 --version
uv --version
macOS:
- Python: Homebrewを使用してインストールします:
brew install python
- SQLite: macOSにプリインストールされています。更新には以下を使用します:
brew install sqlite
- uv/uvx: Homebrewまたは公式インストーラーを使用してインストールします:
brew install ultraviolet/uv/uv
または
curl -sSf https://install.ultraviolet.rs/mac
- インストールを確認:
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian):
- Python:
sudo apt update
sudo apt install python3 python3-pip
- SQLite:
sudo apt install sqlite3
- uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
- インストールを確認:
python3 --version
sqlite3 --version
uv --version
すべてがダウンロードされ、システムが準備完了であれば、Dolphin MCPのインストールを行うことができます。
4. Dolphin MCPのインストール
Dolphin MCPは、PyPIからパッケージとしてインストールするか、ソースから直接インストールするかの2つの方法があります。
オプション1: PyPIからインストール(推奨)
最も簡単な方法は、pipを使用してDolphin MCPをインストールすることです:
pip install dolphin-mcp
このコマンドは、ライブラリとコマンドラインツールdolphin-mcp-cli
の両方をインストールし、ターミナルから直接ツールを使用できるようにします。
オプション2: ソースからインストール
ソースコードで直接作業したい場合や、プロジェクトに貢献する予定がある場合は、以下の手順に従ってください:
リポジトリをクローン:
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
開発モードでインストール:
pip install -e .
環境変数を設定:
サンプル環境ファイル(プロジェクト内の.env.example
ファイル)をコピーし、APIキーで更新します。オプションで、モデルのベースURLも指定できます:
cp .env.example .env
.env
ファイルを自由に編集し、OpenAI APIキー(および必要な他のキー)を含めることができます。
(オプション) デモデータベースの設定:
いくつかのサンプルデータを使って、Dolphin MCPが正常にモデルをMCPに接続できたか確認するためのテストを行う場合は、以下を実行します:
python setup_db.py
このコマンドは、デモ用にイルカの種に関する情報を含むサンプルSQLiteデータベースを生成します。新しく作成されたSQLiteデータベースが保存される出力パスに注意してください。データベースには、イルカに関するモックデータがいくつか含まれています。興味があればぜひチェックしてみてください!
5. 設定と環境変数
Dolphin MCPは、設定を管理するために主に2つの設定ファイルを使用します:.env
ファイルとmcp_config.json
ファイルです。
.envファイル
.env
ファイルには、機密APIクレデンシャルが保存されます。例えば:
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # 必要に応じてコメントを外して更新
mcp_config.json
このJSONファイルは、クライアントが接続するMCPサーバーを定義します。例の設定は次のようになります:
{
"mcpServers": {
"server1": {
"command": "command-to-start-server",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "value1",
"ENV_VAR2": "value2"
}
},
"server2": {
"command": "another-server-command",
"args": ["--option", "value"]
}
}
}
これらのファイルを設定することで、Dolphin MCPはAPIキーを安全に保存し、複数のMCPサーバーに同時に接続することができます。
6. Dolphin MCPのテストと使用
Dolphin MCPは、CLIコマンド、Python統合、またはレガシースクリプトのいずれかを使用して、MCPサーバーをテストおよび操作するための柔軟な方法を提供します。
CLIコマンドを使用する
MCPサーバーと対話する最も簡単な方法は、CLIコマンドを使用することです。環境が整い、MCPサーバーが動作している場合、ターミナルから直接クエリを送信できます。例えば:
dolphin-mcp-cli "どのイルカの種が絶滅危惧種ですか?"
主なオプション:
--model <name>
: モデルを指定する(例:gpt-4o
)。--quiet
: 中間出力を非表示にします。--config <file>
: カスタム設定ファイルを使用します。
例:
dolphin-mcp-cli --model gpt-4o "大西洋にいるイルカをリストしてください"
これにより、接続されたMCPサーバー(Ollama、OpenAIなど)にクエリがルーティングされ、構造化された結果が返されます。
Pythonライブラリを介して
Dolphin MCPをPythonコードに直接統合したい場合、ライブラリにはrun_interaction
という便利な関数が用意されています。これにより、MCPとの対話をより大きなアプリケーションの一部として組み込むことができます。以下は、ライブラリをプログラム的に使用する方法を示す例です:
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="どのイルカの種が絶滅危惧種ですか?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
これにより、サーバー接続、ツール検出、およびモデル呼び出しが自動的に処理されます。
レガシースクリプト
迅速なテスト(より簡単なアプローチを好む方のために)を行う場合は、コマンドラインから元のスクリプトを直接実行します。この方法はCLIと同じ機能を提供しますが、よりシンプルな形式で提供されます:
python dolphin_mcp.py "イルカの移動パターンを分析してください"
これにより、サーバーに接続し、ツールをリストし、余分なオプションなしで会話結果を返します。
例のクエリとデモデータベース
以下のクエリを試してください:
- 一般:
dolphin-mcp-cli "イルカの進化を説明してください"
- モデル固有:
dolphin-mcp-cli --model ollama "量子物理学を定義してください"
- クワイエットモード:
dolphin-mcp-cli --quiet "絶滅危惧種をリストしてください"
デモデータベース:
クエリをテストするために、イルカの種に関するサンプルSQLiteデータベースを作成するためにsetup_db.py
を実行します。次のようなクエリを試すことができます:
dolphin-mcp-cli "どのイルカが絶滅の危機に瀕していますか?"
出力:
{
"species": "マウイイルカ",
"status": "絶滅危惧種"
}
これらのツールを使用することで、Dolphin MCPはワークフローに適応し、デバッグやスクリプト作成、複雑なAIシステムの構築のいずれでも役立ちます。また、彼らのGitHubリポジトリにもぜひ訪問してください。
7. 結論
Dolphin MCPは、OllamaやOpenAIのようなツールをシームレスに接続し、統一されたワークフローを作り出すことで、AI統合を革命的に変えます。自然言語クエリ用のCLI、プログラムによる制御用のPythonライブラリ、テスト用のデモデータベースを備えており、開発者がスタンダードコードなしで洗練されたAIエージェントを構築できるよう支援します。保護データの分析、レポートの生成、ローカルLLMの実験など、Dolphin MCPは複雑なタスクを簡素化しつつ柔軟性を維持します。そのマルチモデルサポートと直感的な設定により、クイックプロトタイプおよびプロダクションシステムの両方に適しています。
AIプロジェクトの効率化の準備はできましたか?今すぐApidogをダウンロードし、MCPサーバーのAPIをテストして、よりスマートなワークフローを構築しましょう!