次世代のエージェントタスクのために、Qwen 3 30B-A3B のパワーを解き放つ準備はできていますか? この強力なモデルは、Ollama を使ってローカルで実行すると、mcp(Model Context Protocol)やツール呼び出しのゲームチェンジャーとなり、プロのように推論するスマートなエージェントを構築できます。私は Reddit でその能力を探求することに夢中になりました。そこでは、ファイル操作やデータベースクエリのようなタスクにおけるその速度と賢さに人々が絶賛しています。このチュートリアルでは、Qwen 3 をローカルにセットアップし、mcp をツール利用のために設定し、Qwen 3 の推論マジックでファイルに詩を書くエージェントを作成する方法を紹介します。コーディングをしている人も、自動化をしている人も、Qwen 3 を新しい親友にしましょう!
Qwen 3 とは? MCP に最適な理由
Qwen 3 は Alibaba の最新のオープンウェイト大規模言語モデルシリーズであり、30B-A3B(Mixture-of-Experts)バリアントは、mcp やエージェントタスクにおいて傑出しています。合計300億のパラメータを持ちながら、推論ごとにアクティブなのはわずか30億であるため、高速かつ効率的で、単一の RTX 3090 または 4090 で十分に動作します。そのmcpサポートにより、JSON で定義されたインターフェースを介してツール(例:ファイルシステム、データベース)を呼び出すことができ、ハイブリッド思考モード(... blocks)は、コーディングや多段階ロジックのような複雑なタスクの推論能力を高めます。r/LocalLLLaMA の Reddit ユーザーは、そのツール呼び出しの精度を称賛しており、あるテストでは、ディレクトリを最初にクエリすることでファイルに詩を書くことに成功したことを示しています。Ollama を使ってこのパワーをローカルで活用しましょう!
Qwen 3 環境のセットアップ
mcp とエージェントの楽しみに飛び込む前に、Ollama で Qwen 3 30B-A3B を実行するためのシステムを準備しましょう。これは初心者向けです、ご安心ください!
1. システム要件の確認:
- OS: macOS、Linux (Ubuntu 20.04+)、または Windows (WSL2 を使用)。
- ハードウェア: 16GB+ RAM、24GB+ VRAM GPU (例: RTX 3090/4090)、20GB+ ストレージ。より小さいモデル (0.6B, 1.7B, 8B) はより少なく必要: 4GB+ VRAM、8GB+ RAM。
- ソフトウェア:
- Python 3.10+ (
python3 --version
)。 - Git (
git --version
)。 - Ollama
2. Ollama のインストール:
公式サイトにアクセスし、お使いのオペレーティングシステムと互換性のあるバージョンをダウンロードしてください。

または、以下を実行します:
curl -fsSL https://ollama.com/install.sh | sh
バージョンを確認します:
ollama --version
0.3.12 (2025年5月) のような出力が期待されます。失敗する場合は、Ollama が PATH に含まれていることを確認してください。
3. Qwen 3 モデルのプル:
Qwen Affiliate 30B (大規模、ハイエンド PC のみ) の場合:
ollama pull qwen3:30b
これは約18GBをダウンロードします—おやつを用意しましょう!警告: リソースを大量に消費し、強力な GPU が必要です。
控えめなハードウェアでテストする場合、より小さい**Qwen Affiliate**モデルを試してください。これらも**mcp**と**ツール**タスクに非常に有能です:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

インストールを確認します:
ollama list
qwen3:30b(または qwen3:0.6b など)を探してください。
4. モデルのテスト:
実行します:
ollama run qwen3:30b
または、より小さいモデルの場合: ollama run qwen3:0.6b, qwen3:1.7b, または qwen3:8b。
- プロンプト(>>>)で、「コンピューターに関するジョークを教えて。」と入力します。「なぜコンピューターはセラピーに行ったの?再起動後にアイデンティティクライシスを起こしたから!」のような応答が期待されます。/bye で終了します。

- 私はノートパソコンで qwen3:8b をテストしましたが、数秒でしっかりしたジョークを言いました—**Qwen Affiliate** モデルは手抜きしていません!
MCP とツールを使った Qwen 3 エージェントの作成
さて、**Qwen 3** の **mcp** と**ツール**のパワーを活用して、**Qwen-Agent** GitHub リポジトリのコードを使って PDF を読み込み、質問に答えるエージェントを構築しましょう。時間や天気のようなリアルタイムデータを取得するための**mcp**関数もテストします。どんな PDF でも使用できます—研究論文、レシピ、またはユーザーマニュアルでも!
1. 新しいプロジェクトのセットアップ:
プロジェクトフォルダを作成し、移動します:
mkdir qwen-agent-test
cd qwen-agent-test
2. 仮想環境の作成:
セットアップとアクティベート:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. Qwen-Agent のインストール:
mcp とツールの依存関係と共にインストール:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. エージェントスクリプトの作成:
testagent.py
というファイルを作成し、github リポジトリから**Qwen-Agent**のサンプルコードをコピーし、Ollama 用にllm_cfg
を修正します:
# ステップ 2: 使用する LLM を設定します。
llm_cfg = {
# DashScope が提供するモデルサービスを使用します:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# ここで 'api_key' が設定されていない場合、`DASHSCOPE_API_KEY` 環境変数を使用します。
# vLLM や Ollama のような OpenAI API と互換性のあるモデルサービスを使用します:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url、または api_base としても知られています
'api_key': 'ollama',
# (オプション) 生成のための LLM ハイパーパラメータ:
'generate_cfg': {
'top_p': 0.8
}
}
- PDF をダウンロードし(私は研究サイトから取得した「AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation」というタイトルの論文を使ってテストしました)、プロジェクトフォルダに
AI-paper.pdf
として保存します。好みに応じて、どんな PDF でも使用できます—例えば、レシピ、ガイド、興味を引くものなら何でも!
5. Ollama の API を起動:
別のターミナルで、以下を実行します:
ollama serve
これにより、API が http://localhost:11434
でホストされます。実行したままにしてください。
6. エージェントの実行:
プロジェクトフォルダで、以下を実行します:
python testagent.py

- **Qwen 3** が PDF を読み込み、要約します。私の AI ビジョン論文の場合、出力は以下の通りでした: 「この論文はロボット工学における物体認識について議論しており、リアルタイムのローカリゼーションのための CNN ベースのビジョンシステムに焦点を当て、95%の精度を達成しています。」応答は PDF によって異なります—レシピの材料やマニュアルの手順について尋ねてみてください!

7. MCP 関数のテスト:
- **Qwen 3** の **mcp** 機能(PDF 読み込みのようなツール以外)をテストするには、
testagent.py
を修正して **mcp** サーバーを使用します。bot
の初期化を以下のように更新します:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter` はコード実行のための組み込みツールです。
files = ['./AI-paper.pdf'] # ボットに読み込む PDF ファイルを与えます。
- 保存して再実行します:
python testagent.py
- 「ニューヨークの時間は何時ですか?」や「シドニーの天気はどうですか?」のような質問をします。**Qwen 3** は、適切な**mcp**サーバー(
time
またはfetch
)をインテリジェントに選択し、ウェブまたはシステムからリアルタイムデータを取得します。例えば、私は「ニューヨークは午後3時47分です。」という応答を得ました。詳細は彼らのgithub リポジトリにありますので、ぜひ確認してください。
Qwen 3 の MCP およびツール呼び出し機能の探求
Qwen 3 は **mcp** とエージェントタスクに優れています。さらに活用する方法を以下に示します:
- その他のツールの追加: **Qwen-Agent** の
tools
モジュールを介して、データベースクエリやウェブ検索のためのツールでエージェントを拡張します。Reddit では、ブラウザタスクが **mcp** とうまく連携すると示唆されています。 - 思考モードの切り替え: 複雑な推論にはプロンプトで /think を使用します(例:
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}'
または迅速な応答には/no_think
)。 - より小さいモデルのテスト: 30B が重すぎる場合は、
qwen3:8b
でも **mcp** タスクは十分に機能します—ノートパソコンに最適です。 - パフォーマンスの最適化: Reddit で指摘されているように、速度のために Unsloth の Q8_XL 量子化を使用します。
私はレシピ PDF で qwen3:8b
をテストしましたが、材料を完璧にリストアップしました—**Qwen 3** のツール呼び出しは多用途です!
まとめ: Qwen 3 と MCP をマスターする
さて、あなたは **Qwen 3** 30B を **mcp** と**ツール**と共に解き放ち、PDF 読み込みエージェントを構築し、リアルタイムクエリのための **mcp** 関数をテストしました!Ollama のインストールと **Qwen 3** モデルのテストから、研究論文を要約したり天気を取得したりする **Qwen-Agent** の作成まで、エージェントの素晴らしさを体験する準備ができています。新しい PDF を試したり、ツールを追加したり、Apidog で API を文書化したりしてみてください!
開発チームが最高の生産性で共同作業できる、統合されたオールインワンプラットフォームをお探しですか?
Apidog はお客様のすべての要求に応え、Postman をはるかに手頃な価格で置き換えます!