Cách Kết Nối Bất Kỳ LLM với Bất Kỳ Máy Chủ MCP Sử Dụng MCP-Use

Minh Triết

Minh Triết

18 tháng 4 2025

Cách Kết Nối Bất Kỳ LLM với Bất Kỳ Máy Chủ MCP Sử Dụng MCP-Use

Bạn có muốn kết nối mô hình ngôn ngữ lớn (LLM) yêu thích của mình với một bộ công cụ siêu năng lực, như thu thập dữ liệu web hay thao tác tệp, mà không bị vướng vào mã? Đó là lý do MCP-Use ra đời—một thư viện Python mã nguồn mở mạnh mẽ cho phép bạn kết nối bất kỳ LLM nào với bất kỳ máy chủ MCP nào một cách dễ dàng. Hãy nghĩ về nó như một bộ chuyển đổi phổ quát cho những giấc mơ AI sử dụng API của bạn! Trong hướng dẫn cho người mới bắt đầu này, tôi sẽ hướng dẫn bạn cách sử dụng MCP-Use để kết nối LLMs và máy chủ Model Context Protocol (MCP). Dù bạn là lập trình viên hay chỉ tò mò, bài hướng dẫn này sẽ giúp bạn. Sẵn sàng để biến LLM của bạn thành một ngôi sao đa nhiệm? Hãy cùng khám phá!

💡
Trước khi bắt đầu với MCP-Use, hãy cùng nhắc đến Apidog—một công cụ tuyệt vời cho những người yêu thích API! Nó giúp thiết kế, kiểm tra và tài liệu hóa API một cách rất dễ dàng, hoàn hảo khi bạn đang xây dựng các dự án với máy chủ MCP. Hãy thử ngay tại apidog.com—đó là người bạn tốt nhất của lập trình viên! 
button

Bây giờ, hãy cùng khám phá phép màu của MCP-Use

MCP-Use là gì? Kết nối AI của bạn với công cụ

Vậy thì, MCP-Use là gì? Đây là một thư viện Python hoạt động như một cây cầu, cho phép bất kỳ LLM nào (hãy nghĩ đến Claude, GPT-4o hoặc DeepSeek) giao tiếp với các máy chủ MCP—những công cụ chuyên dụng cho phép AI truy cập vào những thứ như trình duyệt web, hệ thống tệp, hoặc thậm chí là tìm kiếm Airbnb. Được xây dựng dựa trên các bộ chuyển đổi LangChain, MCP-Use đơn giản hóa việc kết nối API của LLM của bạn với các máy chủ này, giúp bạn xây dựng các tác nhân tùy chỉnh làm nhiều thứ hơn chỉ là trò chuyện. Người dùng gọi đây là “cách mã nguồn mở để xây dựng khách hàng MCP cục bộ,” và họ không sai—nó miễn phí 100% và linh hoạt.

mcp-use display image

Tại sao lại phải bận tâm? Các máy chủ MCP giống như cổng USB cho AI, cho phép LLM của bạn gọi các chức năng, lấy dữ liệu, hoặc tự động hóa các tác vụ thông qua các giao diện giống như API tiêu chuẩn. Với MCP-Use, bạn không cần phải vật vã với các tích hợp tùy chỉnh—chỉ cần cắm vào và sử dụng. Hãy cùng bạn thiết lập!

Cài đặt MCP-Use: Nhanh chóng và dễ dàng

Đưa MCP-Use vào hoạt động rất đơn giản, đặc biệt nếu bạn quen thuộc với Python. Kho lưu trữ GitHub (github.com/pietrozullo/mcp-use) cung cấp hướng dẫn rõ ràng. Dưới đây là cách để bắt đầu.

Bước 1: Các yêu cầu cần có

Bạn sẽ cần:

python download

Bước 2: Cài đặt MCP-Use

Hãy sử dụng pip trong môi trường ảo để giữ mọi thứ gọn gàng:

Tạo một thư mục dự án:

mkdir mcp-use-project
cd mcp-use-project

Thiết lập một môi trường ảo:

python -m venv mcp-env

Kích hoạt nó:

Cài đặt MCP-Use:

pip install mcp-use

Hoặc, nếu bạn muốn phiên bản mới nhất, hãy sao chép kho lưu trữ:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .

Thêm nhà cung cấp LangChain:
MCP-Use phụ thuộc vào LangChain cho các kết nối LLM. Cài đặt nhà cung cấp cho LLM của bạn:

langchain chat models

Xác minh cài đặt:
Chạy:

python -c "import mcp_use; print(mcp_use.__version__)"

Bạn nên thấy một số phiên bản (ví dụ: 0.42.1 tính đến tháng 4 năm 2025). Nếu không, hãy kiểm tra lại phiên bản Python của bạn hoặc pip.

Vậy là xong! MCP-Use đã sẵn sàng để kết nối LLM của bạn với các máy chủ MCP. Tôi mất khoảng năm phút—bạn đã thiết lập đến đâu?

Kết nối một LLM đến máy chủ MCP với MCP-Use

Bây giờ, hãy biến phép màu trở thành hiện thực: kết nối một LLM đến một máy chủ MCP bằng MCP-Use. Chúng ta sẽ sử dụng một ví dụ đơn giản—kết nối GPT-4o của OpenAI với một máy chủ MCP Playwright để lướt web.

Bước 1: Lấy mã khóa API LLM của bạn

Đối với GPT-4o, hãy lấy một API key từ platform.openai.com. Đăng ký, tạo một key và lưu giữ nó một cách an toàn. Các LLM khác như Claude (thông qua console.anthropic.com) hoặc DeepSeek (tại nền tảng deepseek) cũng sẽ hoạt động.

openai developer platform

Bước 2: Thiết lập các biến môi trường

MCP-Use yêu thích các tệp .env để lưu trữ an toàn API key. Tạo một tệp .env trong thư mục dự án của bạn:

touch .env

Thêm mã key của bạn và lưu lại:

OPENAI_API_KEY=sk-xxx

Quan trọng: giữ các API_Keys của bạn ra khỏi Git bằng cách thêm tệp .env vào .gitignore.

Bước 3: Cấu hình máy chủ MCP

Các máy chủ MCP cung cấp các công cụ mà LLM của bạn có thể sử dụng. Chúng ta sẽ sử dụng máy chủ MCP Playwright để tự động hóa trình duyệt. Tạo một tệp cấu hình có tên browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    }
  }
}

Điều này sẽ chỉ cho MCP-Use chạy máy chủ MCP của Playwright. Lưu nó trong thư mục dự án của bạn.

Bước 4: Viết kịch bản MCP-Use đầu tiên của bạn

Hãy cùng tạo một kịch bản Python để kết nối GPT-4o với máy chủ Playwright và tìm một nhà hàng. Tạo mcp_example.py:

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    # Load environment variables
    load_dotenv()

    # Create MCPClient from config file
    client = MCPClient.from_config_file("browser_mcp.json")

    # Create LLM (ensure model supports tool calling)
    llm = ChatOpenAI(model="gpt-4o")

    # Create agent
    agent = MCPAgent(llm=llm, client=client, max_steps=30)

    # Run a query
    result = await agent.run("Find the best restaurant in San Francisco")
    print(f"\nResult: {result}")

if __name__ == "__main__":
    asyncio.run(main())

Kịch bản này:

Bước 5: Chạy nó

Hãy đảm bảo môi trường ảo của bạn đang hoạt động, sau đó:

python mcp_example.py

MCP-Use sẽ khởi động máy chủ Playwright, cho phép GPT-4o lướt web và in ra thông điệp như: “Kết quả: Nhà hàng tốt nhất ở San Francisco là Gary Danko, nổi tiếng với thực đơn thử món tinh tế.” (Kết quả của bạn có thể khác!) Tôi đã chạy điều này và nhận được một đề xuất tuyệt vời trong chưa đầy một phút—thật là thú vị đúng không?

Kết nối với nhiều máy chủ MCP

MCP-Use nổi bật khi bạn kết nối tới nhiều máy chủ cho các tác vụ phức tạp. Hãy thêm một máy chủ MCP Airbnb vào cấu hình của chúng ta để tìm kiếm chỗ ở. Cập nhật browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    },
    "airbnb": {
      "command": "npx",
      "args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
    }
  }
}

Chạy lại mcp_example.py với một truy vấn mới:

result = await agent.run("Find a restaurant and an Airbnb in San Francisco")

MCP-Use cho phép LLM sử dụng cả hai máy chủ—Playwright cho tìm kiếm nhà hàng, Airbnb cho chỗ ở. Tác nhân quyết định máy chủ nào sẽ được gọi, khiến AI của bạn trở nên cực kỳ linh hoạt.

Tại sao MCP-Use là tuyệt vời cho người mới bắt đầu

MCP-Use là giấc mơ của người mới bắt đầu bởi vì:

So với các tích hợp API tùy chỉnh, MCP-Use ít đau đầu hơn nhiều, giúp bạn tập trung vào việc xây dựng những thứ thú vị.

Mẹo chuyên nghiệp để thành công với MCP-Use

Kết luận: Cuộc phiêu lưu MCP-Use của bạn đang chờ đón

Chúc mừng—bạn đã sẵn sàng để tăng cường bất kỳ LLM nào với MCP-Use! Từ việc kết nối GPT-4o với máy chủ Playwright, bạn đã có công cụ để xây dựng các tác nhân AI có thể lướt web, tìm kiếm và nhiều hơn nữa. Hãy thử thêm một máy chủ MCP GitHub tiếp theo hoặc yêu cầu tác nhân của bạn lên kế hoạch cho một chuyến đi trọn vẹn. Kho mã MCP-Use có nhiều ví dụ hơn, và cộng đồng MCP đang sôi nổi trên X. Và để thêm phần sinh động cho API, đừng quên kiểm tra apidog.com.

button
Hình ảnh Apidog Ui

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API