Sẵn sàng khai phá sức mạnh của Qwen 3 30B-A3B cho các tác vụ agentic cấp độ tiếp theo chưa? Mô hình mạnh mẽ này, khi chạy cục bộ với Ollama, là một yếu tố thay đổi cuộc chơi cho mcp (Model Context Protocol) và gọi tool (công cụ), cho phép bạn xây dựng các agent thông minh suy luận như những chuyên gia. Tôi đã bị cuốn hút khi khám phá khả năng của nó trên Reddit, nơi mọi người đang ca ngợi tốc độ và sự thông minh của nó cho các tác vụ như thao tác tệp hoặc truy vấn cơ sở dữ liệu. Trong hướng dẫn này, tôi sẽ chỉ cho bạn cách thiết lập Qwen 3 cục bộ, cấu hình mcp để sử dụng tool, và tạo một agent viết thơ vào tệp—tất cả đều bằng phép màu suy luận của Qwen 3. Dù bạn đang viết code hay tự động hóa, hãy biến Qwen 3 thành người bạn thân mới của bạn!
Qwen 3 là gì và Tại sao nó Tuyệt vời cho MCP?
Qwen 3 là loạt mô hình ngôn ngữ lớn mã nguồn mở mới nhất của Alibaba, và biến thể 30B-A3B (Mixture-of-Experts) là một điểm sáng cho mcp và các tác vụ agentic. Với tổng cộng 30 tỷ tham số nhưng chỉ có 3 tỷ tham số hoạt động mỗi lần suy luận, nó nhanh và hiệu quả, chạy tốt trên một card đồ họa RTX 3090 hoặc 4090. Hỗ trợ mcp của nó cho phép nó gọi các tool (ví dụ: hệ thống tệp, cơ sở dữ liệu) thông qua giao diện được định nghĩa bằng JSON, trong khi chế độ suy nghĩ lai (... blocks) giúp tăng cường khả năng suy luận cho các tác vụ phức tạp như viết code hoặc logic đa bước. Người dùng Reddit trên r/LocalLLLaMA ca ngợi độ chính xác khi gọi tool của nó, với một thử nghiệm cho thấy nó đã thành công trong việc viết thơ vào tệp bằng cách truy vấn thư mục trước. Hãy khai thác sức mạnh này cục bộ với Ollama!
Thiết lập Môi trường Qwen 3 của Bạn
Trước khi chúng ta đi sâu vào mcp và các trò vui agentic, hãy chuẩn bị hệ thống của bạn để chạy Qwen 3 30B-A3B với Ollama. Điều này rất thân thiện với người mới bắt đầu, tôi hứa đấy!
1. Kiểm tra Yêu cầu Hệ thống:
- Hệ điều hành: macOS, Linux (Ubuntu 20.04+), hoặc Windows (với WSL2).
- Phần cứng: 16GB+ RAM, 24GB+ VRAM GPU (ví dụ: RTX 3090/4090), 20GB+ dung lượng lưu trữ. Các mô hình nhỏ hơn (0.6B, 1.7B, 8B) cần ít hơn: 4GB+ VRAM, 8GB+ RAM.
- Phần mềm:
- Python 3.10+ (
python3 --version
). - Git (
git --version
). - Ollama
2. Cài đặt Ollama:
Truy cập trang web chính thức và tải xuống phiên bản tương thích với hệ điều hành của bạn.

Hoặc chạy lệnh sau:
curl -fsSL https://ollama.com/install.sh | sh
Xác minh phiên bản:
ollama --version
Kết quả dự kiến là khoảng 0.3.12 (Tháng 5 năm 2025). Nếu thất bại, hãy đảm bảo Ollama nằm trong biến môi trường PATH của bạn.
3. Tải Mô hình Qwen 3:
Đối với Qwen Affiliate 30B (lớn, chỉ dành cho PC cấu hình cao):
ollama pull qwen3:30b
Lệnh này tải xuống khoảng 18GB—hãy chuẩn bị đồ ăn nhẹ! Cảnh báo: Nó tiêu tốn nhiều tài nguyên và cần một GPU mạnh.
Để thử nghiệm trên phần cứng khiêm tốn hơn, hãy thử các mô hình Qwen Affiliate nhỏ hơn, vẫn rất mạnh mẽ cho mcp và tool:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

Xác minh cài đặt:
ollama list
Tìm kiếm qwen3:30b (hoặc qwen3:0.6b, v.v.).
4. Kiểm tra Mô hình:
Chạy:
ollama run qwen3:30b
Hoặc, đối với các mô hình nhỏ hơn: ollama run qwen3:0.6b, qwen3:1.7b, hoặc qwen3:8b.
- Tại dấu nhắc (>>>), gõ: “Kể cho tôi một câu chuyện cười về máy tính.” Kết quả dự kiến là một cái gì đó như: “Tại sao máy tính lại đi trị liệu? Nó bị khủng hoảng danh tính sau khi khởi động lại!” Thoát bằng /bye.

- Tôi đã thử nghiệm qwen3:8b trên một chiếc laptop, và nó đã kể một câu chuyện cười hay trong vài giây—các mô hình Qwen Affiliate không hề chậm chạp!
Tạo một Agent Qwen 3 với MCP và Tools
Bây giờ, hãy khai thác sức mạnh mcp và tool của Qwen 3 để xây dựng một agent đọc tệp PDF và trả lời câu hỏi, sử dụng code từ kho lưu trữ GitHub của Qwen-Agent. Chúng ta cũng sẽ kiểm tra các chức năng mcp để lấy dữ liệu thời gian thực như giờ hoặc thời tiết. Bạn có thể sử dụng bất kỳ tệp PDF nào—một bài báo nghiên cứu, một công thức nấu ăn, hoặc thậm chí là một hướng dẫn sử dụng!
1. Thiết lập Dự án Mới:
Tạo và điều hướng đến thư mục dự án:
mkdir qwen-agent-test
cd qwen-agent-test
2. Tạo Môi trường Ảo:
Thiết lập và kích hoạt:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. Cài đặt Qwen-Agent:
Cài đặt với các phụ thuộc mcp và tool:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. Tạo Script Agent:
- Tạo một tệp
testagent.py
và sao chép code ví dụ của Qwen-Agent từ kho lưu trữ github, sau đó sửa đổillm_cfg
cho Ollama:
# Bước 2: Cấu hình LLM bạn đang sử dụng.
llm_cfg = {
# Sử dụng dịch vụ mô hình được cung cấp bởi DashScope:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# Nó sẽ sử dụng biến môi trường `DASHSCOPE_API_KEY' nếu 'api_key' không được đặt ở đây.
# Sử dụng dịch vụ mô hình tương thích với OpenAI API, chẳng hạn như vLLM hoặc Ollama:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url, còn được gọi là api_base
'api_key': 'ollama',
# (Tùy chọn) Siêu tham số LLM cho việc tạo văn bản:
'generate_cfg': {
'top_p': 0.8
}
}
- Tải xuống một tệp PDF (Tôi đã thử nghiệm bằng cách sử dụng một bài báo có tiêu đề “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” từ một trang nghiên cứu) và lưu nó dưới dạng
AI-paper.pdf
trong thư mục dự án. Tốt nhất, bạn có thể sử dụng bất kỳ tệp PDF nào—ví dụ: một công thức nấu ăn, một hướng dẫn, bất cứ thứ gì bạn quan tâm!
5. Khởi động API của Ollama:
Trong một cửa sổ terminal riêng biệt, chạy:
ollama serve
Lệnh này sẽ host API tại http://localhost:11434.
Giữ cho nó luôn chạy.
6. Chạy Agent:
Trong thư mục dự án, thực thi:
python testagent.py

- Qwen 3 sẽ đọc tệp PDF và tóm tắt nó. Đối với bài báo về thị giác AI của tôi, nó đã xuất ra: “Bài báo thảo luận về nhận dạng vật thể trong robot, tập trung vào các hệ thống thị giác dựa trên CNN để định vị thời gian thực, đạt độ chính xác 95%.” Phản hồi của bạn sẽ khác nhau tùy thuộc vào tệp PDF của bạn—hãy thử hỏi về các thành phần của một công thức nấu ăn hoặc các bước trong một hướng dẫn sử dụng!

7. Kiểm tra Chức năng MCP:
- Để kiểm tra khả năng mcp của Qwen 3 (ngoài các tool như đọc PDF), hãy sửa đổi
testagent.py
để sử dụng các máy chủ mcp. Cập nhật phần khởi tạobot
với:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter` là một tool tích hợp sẵn để thực thi code.
files = ['./AI-paper.pdf'] # Cung cấp cho bot một tệp PDF để đọc.
- Lưu và chạy lại:
python testagent.py
- Đặt các câu hỏi như: “Bây giờ là mấy giờ ở New York?” hoặc “Thời tiết ở Sydney thế nào?” Qwen 3 sẽ thông minh chọn máy chủ mcp phù hợp (
time
hoặcfetch
) để truy xuất dữ liệu thời gian thực từ web hoặc hệ thống. Ví dụ, tôi nhận được: “Bây giờ là 3:47 chiều ở New York.” Chi tiết hơn có trong kho lưu trữ github của họ, hãy kiểm tra nhé.
Khám phá các Tính năng MCP và Tool-Calling của Qwen 3
Qwen 3 xuất sắc trong các tác vụ mcp và agentic. Dưới đây là cách để khai thác nó sâu hơn:
- Thêm nhiều Tool hơn: Mở rộng agent với các tool để truy vấn cơ sở dữ liệu hoặc tìm kiếm web thông qua module
tools
của Qwen-Agent. Reddit gợi ý rằng các tác vụ trình duyệt hoạt động tốt với mcp. - Chuyển đổi Chế độ Suy nghĩ: Sử dụng /think trong các lời nhắc cho suy luận phức tạp (ví dụ:
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}'
hoặc/no_think
cho các phản hồi nhanh). - Kiểm tra các Mô hình Nhỏ hơn: Nếu 30B quá nặng,
qwen3:8b
vẫn hoạt động tốt cho các tác vụ mcp—rất phù hợp cho laptop. - Tối ưu hóa Hiệu suất: Sử dụng lượng tử hóa Q8_XL của Unsloth để tăng tốc độ, như đã được ghi nhận trên Reddit.
Tôi đã thử nghiệm qwen3:8b
với một tệp PDF công thức nấu ăn, và nó đã liệt kê các thành phần một cách hoàn hảo—khả năng gọi tool của Qwen 3 rất linh hoạt!
Kết luận: Làm chủ Qwen 3 và MCP
Bây giờ, bạn đã khai phá sức mạnh của Qwen 3 30B với mcp và tool để xây dựng một agent đọc PDF và kiểm tra các chức năng mcp cho các truy vấn thời gian thực! Từ việc cài đặt Ollama và kiểm tra các mô hình Qwen 3 đến việc tạo một Qwen-Agent tóm tắt các bài báo nghiên cứu hoặc lấy thông tin thời tiết, bạn đã sẵn sàng cho sự tuyệt vời của agentic. Hãy thử các tệp PDF mới, thêm tool, hoặc viết tài liệu API của bạn với Apidog!
Bạn muốn một nền tảng Tích hợp, Tất cả trong Một cho Đội ngũ Phát triển của bạn làm việc cùng nhau với năng suất tối đa?
Apidog đáp ứng mọi yêu cầu của bạn, và thay thế Postman với mức giá phải chăng hơn nhiều!