Kết nối các mô hình ngôn ngữ với các nguồn dữ liệu bên ngoài là rất quan trọng để xây dựng các ứng dụng thông minh, mạnh mẽ. Giao thức Ngữ cảnh Mô hình (MCP) là một khung tiêu chuẩn hóa giúp việc trao đổi ngữ cảnh và dữ liệu giữa các mô hình trí tuệ nhân tạo và hệ thống bên ngoài trở nên dễ dàng hơn. Dù bạn đang xây dựng chatbot, công cụ tìm kiếm hay công cụ phân tích dữ liệu, MCP giúp lấp đầy khoảng cách giữa các mô hình và API khác nhau, đảm bảo thông tin được truyền tải một cách liền mạch.
Hãy tưởng tượng một hệ thống mà bạn có thể dễ dàng chuyển đổi giữa việc sử dụng Ollama cho việc suy diễn mô hình nhẹ và cục bộ, OpenAI cho sự hiểu biết ngôn ngữ tự nhiên tiên tiến, và Deepseek cho khả năng tìm kiếm mạnh mẽ. Bây giờ, thêm Dolphin MCP—một thư viện Python mã nguồn mở và công cụ CLI giúp đơn giản hóa sự tích hợp này. Dolphin MCP không chỉ kết nối với nhiều máy chủ MCP đồng thời mà còn cung cấp công cụ của chúng cho các mô hình ngôn ngữ thông qua các truy vấn bằng ngôn ngữ tự nhiên.
Trong bài hướng dẫn này, chúng tôi sẽ hướng dẫn bạn từ việc cài đặt Dolphin MCP đến việc tích hợp nó với các mô hình như Ollama và OpenAI.

1. MCP là gì? (Bắt đầu từ những điều cơ bản)
Giao thức Ngữ cảnh Mô hình (MCP) là một khung được thiết kế để tiêu chuẩn hóa tương tác giữa các mô hình AI và ứng dụng bên ngoài. Nó cho phép các mô hình khác nhau chia sẻ ngữ cảnh, trao đổi dữ liệu và gọi công cụ theo một cách thống nhất và giao tiếp. Với MCP, bạn có thể:
- Duy trì lịch sử cuộc trò chuyện liền mạch trên các truy vấn khác nhau.
- Phát hiện và gọi các công cụ hoặc API bên ngoài một cách động.
- Tích hợp nhiều nhà cung cấp AI dưới một giao thức tiêu chuẩn hóa duy nhất.
Bằng cách sử dụng MCP, các nhà phát triển có thể tập trung vào việc xây dựng các giải pháp đổi mới mà không lo lắng về những phức tạp trong giao tiếp giữa các mô hình. Nhấn vào đây nếu bạn muốn có một bài hướng dẫn chi tiết hơn về MCP và những gì nó liên quan.
2. Tại sao sử dụng Dolphin MCP?
Dolphin MCP là một thư viện Python mã nguồn mở và công cụ CLI giúp cho việc tương tác với nhiều máy chủ MCP trở nên cực kỳ đơn giản (bạn có thể có nhiều như bạn thích). Thiết kế của nó nhấn mạnh tính mô-đun và dễ sử dụng, cung cấp một API sạch để tích hợp với các mô hình ngôn ngữ khác nhau như OpenAI, Anthropic và Ollama, cũng như các nguồn dữ liệu bên ngoài như Deepseek. Bạn có thể dễ dàng chuyển đổi giữa các mô hình tùy theo nhu cầu của công việc bạn đang làm!
Các Tính Năng Chính:
- Hỗ trợ Nhiều Nhà Cung Cấp: Hoạt động liền mạch với Ollama, OpenAI, DeepSeek, và nhiều hơn nữa.
- Giao Diện Đôi: Sử dụng nó như một thư viện Python hoặc qua công cụ dòng lệnh của nó.
- Phát hiện Công Cụ: Tự động phát hiện và sử dụng các công cụ do máy chủ MCP cung cấp.
- Kiến Trúc Mô-đun: Tận hưởng sự phân tách rõ ràng giữa các mối quan tâm với các mô-đun đặc thù của nhà cung cấp.
- Cấu Hình Linh Hoạt: Dễ dàng cấu hình các mô hình và máy chủ MCP sử dụng JSON và biến môi trường.
- Tái Sử Dụng: Xây dựng các tích hợp có thể mở rộng và tái sử dụng có thể nhanh chóng thích ứng với các yêu cầu mới.
Dolphin MCP đơn giản hóa quá trình xây dựng một giao diện hội thoại cho việc thao tác dữ liệu và tương tác với các mô hình AI, biến nó thành một tài sản mạnh mẽ cho bất kỳ nhà phát triển nào.
3. Yêu cầu và Cài Đặt Môi Trường
Trước khi chúng ta đi sâu vào các bước cài đặt và tích hợp, hãy đảm bảo rằng môi trường của bạn được thiết lập đúng để làm việc với Dophin MCP.
Yêu cầu Hệ thống:
- Python 3.8 trở lên: Đảm bảo rằng bạn đã cài đặt Python. Bạn có thể tải xuống từ python.org.
- SQLite: Được sử dụng bởi cơ sở dữ liệu demo để lưu trữ dữ liệu mẫu (Tùy chọn).
- uv/uvx: Một trình cài đặt và giải quyết gói Python nhanh.
- Node.js 18+ (nếu sử dụng tích hợp CLI): Cần cho một số công cụ bổ sung.
Cài Đặt Cụ Thể Nền Tảng:
Windows:
- Python: Tải xuống từ python.org và nhớ kiểm tra “Add Python to PATH.”
- SQLite: Tải xuống các file nhị phân đã biên dịch sẵn từ trang web SQLite, giải nén chúng và thêm thư mục vào PATH của bạn.
- uv/uvx: Mở PowerShell Windows của bạn với quyền quản trị và chạy:
curl -sSf https://install.ultraviolet.rs/windows
- Xác Minh Cài Đặt:
python --version
sqlite3 --version
uv --version
macOS:
- Python: Cài đặt bằng Homebrew:
brew install python
- SQLite: Đã được cài sẵn trên macOS, hoặc cập nhật bằng cách sử dụng:
brew install sqlite
- uv/uvx: Cài đặt với Homebrew hoặc trình cài đặt chính thức:
brew install ultraviolet/uv/uv
hoặc
curl -sSf https://install.ultraviolet.rs/mac
- Xác Minh Cài Đặt:
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian):
- Python:
sudo apt update
sudo apt install python3 python3-pip
- SQLite:
sudo apt install sqlite3
- uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
- Xác Minh Cài Đặt:
python3 --version
sqlite3 --version
uv --version
Khi mọi thứ đã được tải xuống và hệ thống của bạn đã sẵn sàng, bạn đã sẵn sàng để cài đặt Dolphin MCP.
4. Cài Đặt Dolphin MCP
Có hai cách để cài đặt Dolphin MCP trên hệ thống của bạn, hoặc dưới dạng gói từ PyPI hoặc trực tiếp từ mã nguồn.
Tùy chọn 1: Cài đặt từ PyPI (Được khuyến nghị)
Cách đơn giản nhất là cài đặt Dolphin MCP thông qua pip:
pip install dolphin-mcp
Đội lệnh này cài đặt cả thư viện và công cụ dòng lệnh dolphin-mcp-cli
, cho phép bạn sử dụng công cụ này trực tiếp từ terminal của bạn.
Tùy chọn 2: Cài đặt từ Mã nguồn
Nếu bạn thích làm việc trực tiếp với mã nguồn hoặc bạn có ý định đóng góp cho dự án, hãy làm theo các bước dưới đây:
Nhân bản Kho Lưu Trữ:
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
Cài Đặt Chế Độ Phát Triển:
pip install -e .
Thiết Lập Biến Môi Trường:
Sao chép file môi trường ví dụ (file .env.example
trong dự án) và cập nhật nó với khóa API của bạn. Bạn cũng có thể chỉ định URL cơ sở cho mô hình của mình:
cp .env.example .env
Thỏa mái chỉnh sửa file .env
theo ý thích để bao gồm khóa API OpenAI của bạn (và bất kỳ khóa nào khác bạn cần).
(Tùy chọn) Thiết Lập Cơ Sở Dữ Liệu Demo:
Nếu bạn muốn thử nghiệm hệ thống với một số dữ liệu mẫu để xem liệu Dophin MCP có kết nối thành công mô hình của bạn với MCP hay không, hãy chạy:
python setup_db.py
Lệnh này tạo ra một cơ sở dữ liệu SQLite mẫu với thông tin về các loài cá heo cho mục đích demo. Lưu ý đến đường dẫn đầu ra nơi cơ sở dữ liệu SQLite mới tạo sẽ được lưu. Cơ sở dữ liệu chứa một số dữ liệu giả về các loài Dolphin. Đừng quên kiểm tra nếu bạn thích!
5. Cấu Hình và Biến Môi Trường
Dolphin MCP sử dụng hai file cấu hình chính để quản lý các thiết lập của bạn: file .env
và file mcp_config.json
.
File .env
File .env
lưu trữ thông tin nhạy cảm về API. Ví dụ:
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # Bỏ comment và cập nhật nếu cần
mcp_config.json
File JSON này xác định các máy chủ MCP mà khách hàng của bạn sẽ kết nối. Một cấu hình ví dụ có thể trông như thế này:
{
"mcpServers": {
"server1": {
"command": "command-to-start-server",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "value1",
"ENV_VAR2": "value2"
}
},
"server2": {
"command": "another-server-command",
"args": ["--option", "value"]
}
}
}
Bằng cách cấu hình những file này, bạn cho phép Dolphin MCP lưu trữ và sử dụng an toàn các khóa API của bạn và kết nối với nhiều máy chủ MCP đồng thời.
6. Kiểm Tra và Sử Dụng Dolphin MCP
Dolphin MCP cung cấp các cách linh hoạt để kiểm tra và tương tác với máy chủ MCP của bạn, dù bạn thích lệnh CLI, tích hợp Python, hay một script legacy.
Sử Dụng Lệnh CLI
Cách đơn giản nhất để tương tác với máy chủ MCP của bạn là thông qua lệnh CLI. Khi môi trường của bạn đã được thiết lập và máy chủ MCP của bạn đang chạy, bạn có thể gửi một truy vấn trực tiếp từ terminal của bạn. Ví dụ:
dolphin-mcp-cli "Các loài cá heo nào đang bị đe dọa?"
Các Tùy Chọn Chính:
--model <name>
: Chỉ định một mô hình (ví dụ,gpt-4o
).--quiet
: Ẩn đầu ra trung gian.--config <file>
: Sử dụng file cấu hình tùy chỉnh.
Ví Dụ:
dolphin-mcp-cli --model gpt-4o "Liệt kê cá heo ở Đại Tây Dương"
Điều này sẽ chuyển hướng truy vấn của bạn đến các máy chủ MCP đã kết nối (Ollama, OpenAI, v.v.) và trả về kết quả có cấu trúc.
Qua Thư Viện Python
Nếu bạn ưu tiên tích hợp Dolphin MCP trực tiếp vào mã Python của mình, thư viện cung cấp một hàm thuận tiện gọi là run_interaction
. Điều này cho phép bạn nhúng các tương tác MCP là một phần của một ứng dụng lớn hơn. Đây là một script ví dụ cho thấy cách sử dụng thư viện một cách lập trình:
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="Các loài cá heo nào đang bị đe dọa?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
Điều này xử lý các kết nối máy chủ, phát hiện công cụ và gọi mô hình tự động.
Script Legacy
Đối với các bài kiểm tra nhanh (dành cho những ai thích phương pháp đơn giản hơn), hãy chạy script gốc trực tiếp từ dòng lệnh. Phương pháp này cung cấp chức năng tương tự như CLI nhưng theo cách đơn giản hơn:
python dolphin_mcp.py "Phân tích các mẫu di cư của cá heo"
Nó kết nối với các máy chủ, liệt kê công cụ và trả về kết quả hội thoại mà không cần nhiều tùy chọn bổ sung.
Các Truy Vấn Ví Dụ & Cơ Sở Dữ Liệu Demo
Thử các truy vấn này:
- Chung:
dolphin-mcp-cli "Giải thích sự tiến hóa của cá heo"
- Cụ Thể Mô Hình:
dolphin-mcp-cli --model ollama "Định nghĩa vật lý lượng tử"
- Chế Độ Im Lặng:
dolphin-mcp-cli --quiet "Liệt kê các loài đang bị đe dọa"
Cơ Sở Dữ Liệu Demo:
Chạy setup_db.py
để tạo một cơ sở dữ liệu SQLite mẫu với dữ liệu về các loài cá heo. Sử dụng nó để thử nghiệm các truy vấn như:
dolphin-mcp-cli "Các loài cá heo nào đang bị đe dọa nghiêm trọng?"
Kết quả:
{
"species": "Cá heo Maui",
"status": "Đang bị đe dọa nghiêm trọng"
}
Với những công cụ này, Dolphin MCP thích ứng với quy trình làm việc của bạn—dù bạn đang gỡ lỗi, lập kịch bản, hay xây dựng các hệ thống AI phức tạp. Đừng ngần ngại ghé thăm repo GitHub của họ.
7. Kết luận
Dolphin MCP cách mạng hóa việc tích hợp AI bằng cách kết nối liền mạch các công cụ như Ollama và OpenAI vào một quy trình làm việc thống nhất. Với CLI cho các truy vấn ngôn ngữ tự nhiên, thư viện Python cho điều khiển lập trình, và cơ sở dữ liệu demo cho việc thử nghiệm, nó giúp các nhà phát triển xây dựng các tác nhân AI tinh vi mà không cần mã boilerplate. Dù phân tích dữ liệu bảo tồn, tạo báo cáo, hay thử nghiệm với các LLM cục bộ, Dolphin MCP đơn giản hóa các nhiệm vụ phức tạp trong khi vẫn duy trì tính linh hoạt. Hỗ trợ nhiều mô hình và cấu hình trực quan của nó làm cho nó lý tưởng cho cả các nguyên mẫu nhanh và các hệ thống sản xuất.
Bạn đã sẵn sàng để đơn giản hóa các dự án AI của mình chưa? Tải xuống Apidog để kiểm tra API máy chủ MCP của bạn và bắt đầu xây dựng các quy trình làm việc thông minh hơn ngay hôm nay!