Bạn có muốn kết nối mô hình ngôn ngữ lớn (LLM) yêu thích của mình với một bộ công cụ siêu năng lực, như thu thập dữ liệu web hay thao tác tệp, mà không bị vướng vào mã? Đó là lý do MCP-Use ra đời—một thư viện Python mã nguồn mở mạnh mẽ cho phép bạn kết nối bất kỳ LLM nào với bất kỳ máy chủ MCP nào một cách dễ dàng. Hãy nghĩ về nó như một bộ chuyển đổi phổ quát cho những giấc mơ AI sử dụng API của bạn! Trong hướng dẫn cho người mới bắt đầu này, tôi sẽ hướng dẫn bạn cách sử dụng MCP-Use để kết nối LLMs và máy chủ Model Context Protocol (MCP). Dù bạn là lập trình viên hay chỉ tò mò, bài hướng dẫn này sẽ giúp bạn. Sẵn sàng để biến LLM của bạn thành một ngôi sao đa nhiệm? Hãy cùng khám phá!

Bây giờ, hãy cùng khám phá phép màu của MCP-Use…
MCP-Use là gì? Kết nối AI của bạn với công cụ
Vậy thì, MCP-Use là gì? Đây là một thư viện Python hoạt động như một cây cầu, cho phép bất kỳ LLM nào (hãy nghĩ đến Claude, GPT-4o hoặc DeepSeek) giao tiếp với các máy chủ MCP—những công cụ chuyên dụng cho phép AI truy cập vào những thứ như trình duyệt web, hệ thống tệp, hoặc thậm chí là tìm kiếm Airbnb. Được xây dựng dựa trên các bộ chuyển đổi LangChain, MCP-Use đơn giản hóa việc kết nối API của LLM của bạn với các máy chủ này, giúp bạn xây dựng các tác nhân tùy chỉnh làm nhiều thứ hơn chỉ là trò chuyện. Người dùng gọi đây là “cách mã nguồn mở để xây dựng khách hàng MCP cục bộ,” và họ không sai—nó miễn phí 100% và linh hoạt.

Tại sao lại phải bận tâm? Các máy chủ MCP giống như cổng USB cho AI, cho phép LLM của bạn gọi các chức năng, lấy dữ liệu, hoặc tự động hóa các tác vụ thông qua các giao diện giống như API tiêu chuẩn. Với MCP-Use, bạn không cần phải vật vã với các tích hợp tùy chỉnh—chỉ cần cắm vào và sử dụng. Hãy cùng bạn thiết lập!
Cài đặt MCP-Use: Nhanh chóng và dễ dàng
Đưa MCP-Use vào hoạt động rất đơn giản, đặc biệt nếu bạn quen thuộc với Python. Kho lưu trữ GitHub (github.com/pietrozullo/mcp-use) cung cấp hướng dẫn rõ ràng. Dưới đây là cách để bắt đầu.
Bước 1: Các yêu cầu cần có
Bạn sẽ cần:
- Python: Phiên bản 3.11 hoặc cao hơn. Kiểm tra với
python --version
. Không có Python? Tải nó từ python.org.

- pip: Trình quản lý gói của Python (thường đi kèm với Python).
- Git (tùy chọn): Để sao chép kho lưu trữ nếu bạn muốn có mã mới nhất.
- API Keys: Cho các LLM cao cấp như OpenAI hoặc Anthropic. Chúng ta sẽ đề cập điều này sau.
Bước 2: Cài đặt MCP-Use
Hãy sử dụng pip
trong môi trường ảo để giữ mọi thứ gọn gàng:
Tạo một thư mục dự án:
mkdir mcp-use-project
cd mcp-use-project
Thiết lập một môi trường ảo:
python -m venv mcp-env
Kích hoạt nó:
- Mac/Linux:
source mcp-env/bin/activate
- Windows:
mcp-env\Scripts\activate
Cài đặt MCP-Use:
pip install mcp-use
Hoặc, nếu bạn muốn phiên bản mới nhất, hãy sao chép kho lưu trữ:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .
Thêm nhà cung cấp LangChain:
MCP-Use phụ thuộc vào LangChain cho các kết nối LLM. Cài đặt nhà cung cấp cho LLM của bạn:
- OpenAI:
pip install langchain-openai
- Anthropic:
pip install langchain-anthropic
- Các cái khác: Kiểm tra tài liệu các mô hình chat của LangChain.

Xác minh cài đặt:
Chạy:
python -c "import mcp_use; print(mcp_use.__version__)"
Bạn nên thấy một số phiên bản (ví dụ: 0.42.1 tính đến tháng 4 năm 2025). Nếu không, hãy kiểm tra lại phiên bản Python của bạn hoặc pip.
Vậy là xong! MCP-Use đã sẵn sàng để kết nối LLM của bạn với các máy chủ MCP. Tôi mất khoảng năm phút—bạn đã thiết lập đến đâu?
Kết nối một LLM đến máy chủ MCP với MCP-Use
Bây giờ, hãy biến phép màu trở thành hiện thực: kết nối một LLM đến một máy chủ MCP bằng MCP-Use. Chúng ta sẽ sử dụng một ví dụ đơn giản—kết nối GPT-4o của OpenAI với một máy chủ MCP Playwright để lướt web.
Bước 1: Lấy mã khóa API LLM của bạn
Đối với GPT-4o, hãy lấy một API key từ platform.openai.com. Đăng ký, tạo một key và lưu giữ nó một cách an toàn. Các LLM khác như Claude (thông qua console.anthropic.com) hoặc DeepSeek (tại nền tảng deepseek) cũng sẽ hoạt động.

Bước 2: Thiết lập các biến môi trường
MCP-Use yêu thích các tệp .env
để lưu trữ an toàn API key. Tạo một tệp .env
trong thư mục dự án của bạn:
touch .env
Thêm mã key của bạn và lưu lại:
OPENAI_API_KEY=sk-xxx
Quan trọng: giữ các API_Keys của bạn ra khỏi Git bằng cách thêm tệp .env
vào .gitignore
.
Bước 3: Cấu hình máy chủ MCP
Các máy chủ MCP cung cấp các công cụ mà LLM của bạn có thể sử dụng. Chúng ta sẽ sử dụng máy chủ MCP Playwright để tự động hóa trình duyệt. Tạo một tệp cấu hình có tên browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
Điều này sẽ chỉ cho MCP-Use chạy máy chủ MCP của Playwright. Lưu nó trong thư mục dự án của bạn.
Bước 4: Viết kịch bản MCP-Use đầu tiên của bạn
Hãy cùng tạo một kịch bản Python để kết nối GPT-4o với máy chủ Playwright và tìm một nhà hàng. Tạo mcp_example.py
:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
# Load environment variables
load_dotenv()
# Create MCPClient from config file
client = MCPClient.from_config_file("browser_mcp.json")
# Create LLM (ensure model supports tool calling)
llm = ChatOpenAI(model="gpt-4o")
# Create agent
agent = MCPAgent(llm=llm, client=client, max_steps=30)
# Run a query
result = await agent.run("Find the best restaurant in San Francisco")
print(f"\nResult: {result}")
if __name__ == "__main__":
asyncio.run(main())
Kịch bản này:
- Tải key API của bạn từ
.env
. - Thiết lập một khách hàng MCP với máy chủ Playwright.
- Kết nối GPT-4o qua LangChain.
- Chạy một truy vấn để tìm kiếm các nhà hàng.
Bước 5: Chạy nó
Hãy đảm bảo môi trường ảo của bạn đang hoạt động, sau đó:
python mcp_example.py
MCP-Use sẽ khởi động máy chủ Playwright, cho phép GPT-4o lướt web và in ra thông điệp như: “Kết quả: Nhà hàng tốt nhất ở San Francisco là Gary Danko, nổi tiếng với thực đơn thử món tinh tế.” (Kết quả của bạn có thể khác!) Tôi đã chạy điều này và nhận được một đề xuất tuyệt vời trong chưa đầy một phút—thật là thú vị đúng không?
Kết nối với nhiều máy chủ MCP
MCP-Use nổi bật khi bạn kết nối tới nhiều máy chủ cho các tác vụ phức tạp. Hãy thêm một máy chủ MCP Airbnb vào cấu hình của chúng ta để tìm kiếm chỗ ở. Cập nhật browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
},
"airbnb": {
"command": "npx",
"args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
}
}
}
Chạy lại mcp_example.py
với một truy vấn mới:
result = await agent.run("Find a restaurant and an Airbnb in San Francisco")
MCP-Use cho phép LLM sử dụng cả hai máy chủ—Playwright cho tìm kiếm nhà hàng, Airbnb cho chỗ ở. Tác nhân quyết định máy chủ nào sẽ được gọi, khiến AI của bạn trở nên cực kỳ linh hoạt.
Tại sao MCP-Use là tuyệt vời cho người mới bắt đầu
MCP-Use là giấc mơ của người mới bắt đầu bởi vì:
- Cài đặt đơn giản: Chỉ cần một
pip install
và một tập lệnh ngắn là đủ để bắt đầu. - Linh hoạt: Hoạt động với bất kỳ LLM và máy chủ MCP nào, từ Claude đến trình theo dõi sự cố của GitHub.
- Mã nguồn mở: Miễn phí và tùy chỉnh, với một cộng đồng GitHub thân thiện.
So với các tích hợp API tùy chỉnh, MCP-Use ít đau đầu hơn nhiều, giúp bạn tập trung vào việc xây dựng những thứ thú vị.
Mẹo chuyên nghiệp để thành công với MCP-Use
- Kiểm tra tính tương thích của mô hình: Chỉ những LLM có gọi công cụ (như GPT-4o hoặc Claude 3.7 Sonnet) mới hoạt động.
- Sử dụng Scalar cho các thông số đặc tả: Xác thực thông số API của máy chủ để tránh bất ngờ.
- Khám phá các máy chủ MCP: Duyệt mcp.so để tìm các máy chủ như Firecrawl (thu thập dữ liệu web) hoặc ElevenLabs (chuyển văn bản thành giọng nói).
- Tham gia cộng đồng: Báo cáo lỗi hoặc đề xuất tính năng trên MCP-Use GitHub.
Kết luận: Cuộc phiêu lưu MCP-Use của bạn đang chờ đón
Chúc mừng—bạn đã sẵn sàng để tăng cường bất kỳ LLM nào với MCP-Use! Từ việc kết nối GPT-4o với máy chủ Playwright, bạn đã có công cụ để xây dựng các tác nhân AI có thể lướt web, tìm kiếm và nhiều hơn nữa. Hãy thử thêm một máy chủ MCP GitHub tiếp theo hoặc yêu cầu tác nhân của bạn lên kế hoạch cho một chuyến đi trọn vẹn. Kho mã MCP-Use có nhiều ví dụ hơn, và cộng đồng MCP đang sôi nổi trên X. Và để thêm phần sinh động cho API, đừng quên kiểm tra apidog.com.
