独自のオープンソース深層研究エージェントを作成することを考えたことがありますか?OpenAIのDeep ResearchやGoogleのDeep Researcherのようなプロプライエタリなオプションに頼る代わりに、モデルコンテクストプロトコル(MCP)サーバーのようなSequential-ThinkingやExaを使えば、素晴らしく堅牢な独自の代替ツールを構築できます。

このガイドでは、2つのMCPサーバーを使用して独自の研究エージェントを設定し、運用する方法をご紹介します。
✅ Sequential-Thinking — 構造的な推論と分析のために
✅ Exa — 強力なAI駆動のウェブ検索のために
私たちはWindsurf IDEを使用し、選択したAIモデルと統合します。このチュートリアルではDeepSeek V3を使用しますが、次のようなモデルを選ぶこともできます:
- Claude Sonnet 3.5または3.7(Anthropic製)
- GPT-4oまたはGPT-3.5(OpenAI製)
- O3-miniその他
始めましょう!🚀
オープンソース深層研究エージェントとは?
それでは、実際に私たちが作業する「オープンソース深層研究エージェント」ツールとは何でしょうか?このツールは、モデルコンテクストプロトコル(MCP)の力を利用して研究タスクを自動化するように設計されています。AI駆動の推論の力とウェブ検索機能を組み合わせることで、複数の情報源から情報を効率よく収集、分析、要約できるようになります。
その仕組みは以下の通りです:
- このツールはMCPサーバー(例:Sequential-ThinkingやExa)に接続し、研究クエリを知的に処理します。
- 集めた情報を解釈、要約し、洞察を生成するためにAIモデルと統合します。
- 関連データを取得するためにウェブ検索機能を利用し、あなたの研究が包括的かつ最新であることを保証します。
- オープンソースコンポーネントで構築されているため、あなたのデータに対する完全な制御を保ち、透明性とカスタマイズを実現できます。
このオープンソース深層研究エージェントは誰に適していますか?
この深層研究エージェントは以下の人々に最適です:
1. 研究者と学者 — 学術執筆、文献レビュー、または科学的探求をサポートするために、さまざまな情報源から迅速に情報を収集し分析します。
2. ジャーナリストと作家 — 記事、レポート、または調査報道のために、背景調査、事実確認、コンテンツキュレーションを自動化します。
3. 開発者とAI愛好者 — AI駆動のワークフローを試したり、カスタム研究アシスタントを構築したり、MCPサーバーをプロジェクトに統合します。
4. アナリストと政策立案者 — 大規模データセット、レポート、ニュースソースから洞察を抽出し、意思決定を支援します。
5. 学生と生涯学習者 — 重要な概念を要約し、良好に構築された説明を生成することで、学習セッションを簡素化します。
オープンソース深層研究エージェントが最も有用な時は?
1. 大規模研究の処理 — 複数の情報源から膨大な量の情報を扱う際、AI支援の研究エージェントは時間と労力を節約できます。
2. 繰り返しの研究タスクの自動化 — 似たような検索を頻繁に行う場合、このツールはプロセスを自動化し、手作業を削減します。
3. 偏りのない透明な研究の確保 — クローズドソースの研究ツールとは異なり、オープンソースのソリューションを使うことで、データの処理方法を検証し、ワークフローの完全な制御を維持できます。
4. カスタムAIモデルとの連携 — 特定のLLM(DeepSeek v3など)を使用する場合や、特定の分野のAIモデルが必要な場合、このツールを使えば選択したモデルを統合できます。
5. 生産性の向上 — AI駆動の推論とウェブ検索を組み合わせることにより、従来の研究方法よりも早く組織化された洞察を得ることができます。
オープンソース深層研究エージェントの設定方法
前提条件:
- Windsurf IDE: Windsurfの最新バージョンは公式ウェブサイトからインストールできます。
- Node.js: v20以上を推奨します。
- npm: npmの最新バージョンを持っていることが望ましいですが、v7で問題なく動作するはずです。
ステップ1: 新しいプロジェクトフォルダを作成
新しいフォルダを作成: プロジェクト用に新しいフォルダを作成します。例:deep_researcher
。
Windsurf IDEで開く:このフォルダをWindsurf IDEで開きます。MCPサーバーの統合をサポートしています。
ステップ2: Sequential-Thinking MCPサーバーをインストール
Sequential-Thinking MCPをインストール: 次のコマンドを実行してSequential-Thinking MCPサーバーをインストールおよび構成します。これにより手動で設定を変更することなくサーバーが自動的にセットアップされます。
npx -y @smithery/cli@latest install @smithery-ai/server-sequential-thinking --client windsurf --config "{}"
設定を確認: Windsurfの設定ディレクトリ.codeium
内のmcp_config.json
ファイルを確認し、Sequential-Thinkingサーバーが正しく設定されていることを確認します。次のようになっている必要があります:
# mcp_config.jsonファイル
{
"mcpServers": {
"server-sequential-thinking": {
"command": "cmd",
"args": [
"/c",
"npx",
"-y",
"@smithery/cli@latest",
"run",
"@smithery-ai/server-sequential-thinking",
"--config",
"\"{}\""
]
}
}
}
ファイルが空の場合は、最新の設定を確認するためにGitHubリポジトリを訪れるか、上記のものをコピーして貼り付けてください。
サーバーをテスト: サンプルコマンドを実行してSequential-Thinking MCPサーバーをテストします。例えば:
# サンプル入力
>> 簡単なFlappy Bird Pythonゲームを開発するために数列推論を使用してください。
ステップ3: Exaウェブ検索MCPサーバーのセットアップ
Exaアカウントを作成し、APIキーを取得:
Exaの公式ウェブサイトを訪れ、アカウントを作成して、プロフィールの「APIキー」セクションから無料のAPIキーを取得します。

Exa MCPサーバーリポジトリをクローン: GitHubからExa MCPサーバーのリポジトリをクローンします:
git clone https://github.com/exa-labs/exa-mcp-server.git cd exa-mcp-server
依存関係をインストールし、プロジェクトをビルド:
npmを使用してすべての依存関係をインストールするには、次のコマンドを実行します:
npm install
プロジェクトをビルドします:
npm run build
グローバルリンクを作成:
次のコマンドを実行して、Exa MCPサーバーをどこからでも実行できるようにします:
npm link
WindsurfでExa MCPサーバーを構成:
ExaのGitHubリポジトリから最新の設定でmcp_config.json
ファイルを更新します。サンプルテキストを実際のAPIキーに置き換えてください。次のようになります:
# mcp_config.jsonファイル
{
"mcpServers": {
"server-sequential-thinking": {
"command": "cmd",
"args": [
"/c",
"npx",
"-y",
"@smithery/cli@latest",
"run",
"@smithery-ai/server-sequential-thinking",
"--config",
"\"{}\""
]
},
"exa": {
"command": "npx",
"args": ["C:/Research_agent/exa-mcp-server/build/index.js"],
"env": {
"EXA_API_KEY": "YOUR_API_KEY"
}
}
}
}
Exa MCPサーバーをテスト: Exaサーバーが動作していることを確認するために、次のようなサンプルプロンプトを実行します:
# サンプル入力
>> AGIに関するブログ投稿を探してください。
オープンソース深層研究エージェントの使用方法
MCPサーバーが両方とも正しく設定され、構成されたので、これらを使って深層研究ツールを作成できます。以下はセットアップをテストするためのサンプルプロンプトです:
# サンプル入力
>> Sequential-Thinkingを使用する場合は、できるだけ多くのステップを使用します。Sequential-Thinkingの各ステップは、分岐、isRevision、およびneedsMoreThoughtsを使用し、各分岐には少なくとも3つのステップが必要です。Sequential-Thinkingの各ステップの前に、Exaを使用して関連するウェブページを3つ検索し、その後、そのウェブページの内容について考えます。最終的な返信は十分に長く、構造化されたものである必要があります。質問:形而上学とは何ですか?
このプロンプトは、あなたの質問に答えるためにモデルが使用した検索リンクを持つ構造化された応答を生成します。
ウェブ検索されたリンク:

サンプル出力:

機能と利点
柔軟性と制御:
オープンソースのMCPサーバーを使用することにより、研究プロセスやデータプライバシーを完全に制御できます。
カスタマイズ:
DeepSeek v3、Claude Sonnet 3.5、GPT 4oなど、さまざまなAIモデルから選択でき、特定のニーズに合わせて研究ツールを調整できます。
コスト効率:
独自のMCPサーバーを運用することは、プロプライエタリサービスに依存するよりもコスト効率が良く、特に頻繁または大規模な研究タスクに対しては有利です。
オープンソース深層研究エージェントが機能しない場合の対処方法
MCPサーバーを使用してオープンソース深層研究エージェントをセットアップおよび使用する際、いくつかの問題に遭遇することがあります。以下は一般的な問題とその解決策です:
MCPサーバーが正しく構成されていない:
MCPサーバーが期待通りに動作しない場合は、設定ファイル(例:mcp_config.json
)にエラーがないか確認します。APIキーが正しく設定されているか、サーバーが正しくリンクされているかを確認してください。
APIキーの問題:
APIキーに関連するエラーが発生した場合、設定ファイルに正しく入力されているか確認してください。また、APIキーが期限切れでないか、使用制限を超えていないかも確認してください。
モデルが応答しない:
AIモデルが応答しない場合は、正しくインストールされ、構成されていることを確認します。モデルやその依存関係の更新がないかも確認してください。
ウェブ検索結果が見つからない:
ウェブ検索結果が返されない場合は、インターネット接続を確認し、検索API(例:Exa)が正しく機能していることを確認してください。
結論
Sequential-ThinkingやExaのようなMCPサーバーを使用してオープンソースの深層研究エージェントを構築することは、プロプライエタリツールへの強力な代替手段を提供します。これらのサーバーをWindsurf IDEおよび選択したAIモデルと統合することで、データプライバシーと制御を維持しながら、柔軟かつコスト効果の高い研究ツールを作成できます。