การเชื่อมต่อโมเดลภาษาเข้ากับแหล่งข้อมูลภายนอกเป็นสิ่งสำคัญสำหรับการสร้างแอปพลิเคชันที่แข็งแกร่งและชาญฉลาด Model Context Protocol (MCP) เป็นกรอบงานมาตรฐานที่ช่วยปรับปรุงการแลกเปลี่ยนบริบทและข้อมูลระหว่างโมเดล AI และระบบภายนอก ไม่ว่าคุณกำลังสร้างแชทบอท เครื่องมือค้นหา หรือเครื่องมือวิเคราะห์ข้อมูล MCP ช่วยเชื่อมช่องว่างระหว่างโมเดลและ API ต่างๆ เพื่อให้มั่นใจว่าข้อมูลจะไหลเวียนได้อย่างราบรื่น
ลองนึกภาพระบบที่คุณสามารถสลับไปมาระหว่างการใช้ Ollama สำหรับการอนุมานโมเดลในเครื่องที่มีน้ำหนักเบา OpenAI สำหรับการทำความเข้าใจภาษาธรรมชาติที่ล้ำสมัย และ Deepseek สำหรับความสามารถในการค้นหาที่มีประสิทธิภาพ ตอนนี้ เพิ่ม Dolphin MCP—ไลบรารี Python แบบโอเพนซอร์สและเครื่องมือ CLI ที่ช่วยลดความซับซ้อนของการรวมนี้ Dolphin MCP ไม่เพียงแต่เชื่อมต่อกับเซิร์ฟเวอร์ MCP หลายเครื่องพร้อมกันเท่านั้น แต่ยังทำให้เครื่องมือของพวกเขาสามารถเข้าถึงโมเดลภาษาได้ผ่านการสอบถามภาษาธรรมชาติ
ในบทช่วยสอนนี้ เราจะแนะนำคุณตลอดทุกอย่างตั้งแต่การติดตั้ง Dolphin MCP ไปจนถึงการรวมเข้ากับโมเดลต่างๆ เช่น Ollama และ OpenAI

MCP คืออะไร? (เริ่มต้นจากพื้นฐาน)
Model Context Protocol (MCP) เป็นกรอบงานที่ออกแบบมาเพื่อทำให้การโต้ตอบระหว่างโมเดล AI และแอปพลิเคชันภายนอกเป็นมาตรฐาน ช่วยให้โมเดลต่างๆ สามารถแบ่งปันบริบท แลกเปลี่ยนข้อมูล และเรียกใช้เครื่องมือในลักษณะที่เป็นเอกภาพและเป็นบทสนทนา ด้วย MCP คุณสามารถ:
- รักษาประวัติการสนทนาที่ราบรื่นในหลายๆ คำถาม
- ค้นพบและเรียกใช้เครื่องมือหรือ API ภายนอกแบบไดนามิก
- รวมผู้ให้บริการ AI หลายรายภายใต้โปรโตคอลมาตรฐานเดียว
ด้วยการใช้ MCP นักพัฒนาสามารถมุ่งเน้นไปที่การสร้างโซลูชันที่เป็นนวัตกรรมใหม่โดยไม่ต้องกังวลเกี่ยวกับความซับซ้อนพื้นฐานของการสื่อสารข้ามโมเดล คลิก ที่นี่ หากคุณต้องการบทช่วยสอนเชิงลึกเพิ่มเติมเกี่ยวกับ MCP และทุกสิ่งทุกอย่าง
ทำไมต้องใช้ Dolphin MCP?
Dolphin MCP เป็นไลบรารี Python แบบโอเพนซอร์สและเครื่องมือ CLI ที่ทำให้การโต้ตอบกับเซิร์ฟเวอร์ MCP หลายเครื่องเป็นเรื่องง่ายอย่างเหลือเชื่อ (คุณสามารถมีได้มากเท่าที่คุณต้องการ) การออกแบบเน้นที่โมดูลาร์และใช้งานง่าย โดยมี API ที่สะอาดสำหรับการรวมเข้ากับโมเดลภาษาต่างๆ เช่น OpenAI, Anthropic และ Ollama รวมถึงแหล่งข้อมูลภายนอก เช่น Deepseek คุณสามารถสลับระหว่างโมเดลได้ตามความต้องการของงานที่คุณกำลังทำ!
คุณสมบัติหลัก:
- Multiple Provider Support: ทำงานได้อย่างราบรื่นกับ Ollama, OpenAI, DeepSeek และอื่นๆ อีกมากมาย
- Dual Interface: ใช้เป็นไลบรารี Python หรือผ่านเครื่องมือบรรทัดคำสั่ง
- Tool Discovery: ตรวจจับและใช้เครื่องมือที่จัดเตรียมโดยเซิร์ฟเวอร์ MCP โดยอัตโนมัติ
- Modular Architecture: เพลิดเพลินกับการแยกข้อกังวลที่สะอาดด้วยโมดูลเฉพาะผู้ให้บริการ
- Flexible Configuration: กำหนดค่าโมเดลและเซิร์ฟเวอร์ MCP ได้อย่างง่ายดายโดยใช้ JSON และตัวแปรสภาพแวดล้อม
- Reusability: สร้างการรวมที่ปรับขนาดได้และนำกลับมาใช้ใหม่ได้ ซึ่งสามารถปรับให้เข้ากับข้อกำหนดใหม่ได้อย่างรวดเร็ว
Dolphin MCP ช่วยลดความซับซ้อนของกระบวนการสร้างอินเทอร์เฟซการสนทนาสำหรับการจัดการข้อมูลและการโต้ตอบกับโมเดล AI ทำให้เป็นสินทรัพย์ที่มีประสิทธิภาพสำหรับนักพัฒนาทุกคน
ข้อกำหนดเบื้องต้นและการตั้งค่าสภาพแวดล้อม
ก่อนที่เราจะเจาะลึกขั้นตอนการติดตั้งและการรวม ให้ตรวจสอบให้แน่ใจว่าสภาพแวดล้อมของคุณได้รับการตั้งค่าอย่างถูกต้องเพื่อทำงานกับ Dophin MCP
ข้อกำหนดของระบบ:
- Python 3.8 หรือสูงกว่า: ตรวจสอบให้แน่ใจว่าคุณได้ติดตั้ง Python แล้ว คุณสามารถดาวน์โหลดได้จาก python.org
- SQLite: ใช้โดยฐานข้อมูลสาธิตเพื่อจัดเก็บข้อมูลตัวอย่าง (ไม่บังคับ)
- uv/uvx: ตัวติดตั้งและตัวแก้ไขแพ็คเกจ Python ที่รวดเร็ว
- Node.js 18+ (หากใช้การรวม CLI): จำเป็นสำหรับเครื่องมือเพิ่มเติมบางอย่าง
การตั้งค่าเฉพาะแพลตฟอร์ม:
Windows:
- Python: ดาวน์โหลดจาก python.org และอย่าลืมเลือก “Add Python to PATH”
- SQLite: ดาวน์โหลดไบนารีที่คอมไพล์ไว้ล่วงหน้าจากเว็บไซต์ SQLite แยกไฟล์เหล่านั้น และเพิ่มโฟลเดอร์ลงใน PATH ของคุณ
- uv/uvx: เปิด Windows PowerShell ของคุณในฐานะผู้ดูแลระบบและเรียกใช้:
curl -sSf https://install.ultraviolet.rs/windows
- Verify Installations:
python --version
sqlite3 --version
uv --version
macOS:
- Python: ติดตั้งโดยใช้ Homebrew:
brew install python
- SQLite: ติดตั้งไว้ล่วงหน้าบน macOS หรืออัปเดตโดยใช้:
brew install sqlite
- uv/uvx: ติดตั้งด้วย Homebrew หรือตัวติดตั้งอย่างเป็นทางการ:
brew install ultraviolet/uv/uv
or
curl -sSf https://install.ultraviolet.rs/mac
- Verify Installations:
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian):
- Python:
sudo apt update
sudo apt install python3 python3-pip
- SQLite:
sudo apt install sqlite3
- uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
- Verify Installations:
python3 --version
sqlite3 --version
uv --version
เมื่อดาวน์โหลดทุกอย่างแล้วและระบบของคุณพร้อม คุณก็พร้อมที่จะติดตั้ง Dolphin MCP
การติดตั้ง Dolphin MCP
มีสองวิธีในการติดตั้ง Dolphin MCP บนระบบของคุณ ไม่ว่าจะติดตั้งเป็นแพ็คเกจจาก PyPI หรือโดยตรงจากแหล่งที่มา
ตัวเลือกที่ 1: ติดตั้งจาก PyPI (แนะนำ)
วิธีที่ง่ายที่สุดคือการติดตั้ง Dolphin MCP ผ่าน pip:
pip install dolphin-mcp
คำสั่งนี้จะติดตั้งทั้งไลบรารีและเครื่องมือบรรทัดคำสั่ง dolphin-mcp-cli
ซึ่งช่วยให้คุณใช้เครื่องมือได้โดยตรงจากเทอร์มินัลของคุณ
ตัวเลือกที่ 2: ติดตั้งจาก Source
หากคุณต้องการทำงานกับซอร์สโค้ดโดยตรงหรือตั้งใจที่จะมีส่วนร่วมในโครงการ คุณควรทำตามขั้นตอนด้านล่าง:
โคลนที่เก็บ:
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
ติดตั้งในโหมดการพัฒนา:
pip install -e .
ตั้งค่าตัวแปรสภาพแวดล้อม:
คัดลอกไฟล์สภาพแวดล้อมตัวอย่าง (ไฟล์ .env.example
ในโครงการ) และอัปเดตด้วยรหัส API ของคุณ คุณสามารถระบุ Base Url สำหรับโมเดลของคุณได้:
cp .env.example .env
คุณสามารถแก้ไขไฟล์ .env
ได้ตามที่คุณต้องการเพื่อใส่รหัส API ของ OpenAI ของคุณ (และรหัสอื่นๆ ที่คุณต้องการ)
(ไม่บังคับ) ตั้งค่าฐานข้อมูลสาธิต:
หากคุณต้องการทดสอบระบบด้วยข้อมูลตัวอย่างเพื่อดูว่า Dophin MCP เชื่อมต่อโมเดลของคุณกับ MCP ของคุณสำเร็จหรือไม่ ให้เรียกใช้:
python setup_db.py
คำสั่งนี้จะสร้างฐานข้อมูล SQLite ตัวอย่างพร้อมข้อมูลเกี่ยวกับสายพันธุ์โลมาเพื่อวัตถุประสงค์ในการสาธิต ให้ความสนใจกับเส้นทางเอาต์พุตที่จะบันทึกฐานข้อมูล SQLite ที่สร้างขึ้นใหม่ ฐานข้อมูลมีข้อมูลจำลองเกี่ยวกับ Dolphin ตรวจสอบให้แน่ใจว่าได้ตรวจสอบแล้วถ้าคุณชอบ!
การกำหนดค่าและตัวแปรสภาพแวดล้อม
Dolphin MCP ใช้ไฟล์การกำหนดค่าหลักสองไฟล์เพื่อจัดการการตั้งค่าของคุณ: ไฟล์ .env
และไฟล์ mcp_config.json
ไฟล์ .env
ไฟล์ .env
จัดเก็บข้อมูลประจำตัว API ที่ละเอียดอ่อน ตัวอย่างเช่น:
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # Uncomment and update if needed
mcp_config.json
ไฟล์ JSON นี้กำหนดเซิร์ฟเวอร์ MCP ที่ไคลเอนต์ของคุณจะเชื่อมต่อด้วย การกำหนดค่าตัวอย่างอาจมีลักษณะเช่นนี้:
{
"mcpServers": {
"server1": {
"command": "command-to-start-server",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "value1",
"ENV_VAR2": "value2"
}
},
"server2": {
"command": "another-server-command",
"args": ["--option", "value"]
}
}
}
ด้วยการกำหนดค่าไฟล์เหล่านี้ คุณอนุญาตให้ Dolphin MCP จัดเก็บและใช้รหัส API ของคุณอย่างปลอดภัย และเชื่อมต่อกับเซิร์ฟเวอร์ MCP หลายเครื่องพร้อมกัน
การทดสอบและการใช้ Dolphin MCP
Dolphin MCP มีวิธีที่ยืดหยุ่นในการทดสอบและโต้ตอบกับเซิร์ฟเวอร์ MCP ของคุณ ไม่ว่าคุณจะชอบคำสั่ง CLI, การรวม Python หรือสคริปต์แบบเดิม
การใช้คำสั่ง CLI
วิธีที่ง่ายที่สุดในการโต้ตอบกับเซิร์ฟเวอร์ MCP ของคุณคือผ่านคำสั่ง CLI เมื่อคุณตั้งค่าสภาพแวดล้อมของคุณและเซิร์ฟเวอร์ MCP ของคุณทำงานอยู่ คุณสามารถส่งคำค้นหาได้โดยตรงจากเทอร์มินัลของคุณ ตัวอย่างเช่น:
dolphin-mcp-cli "What dolphin species are endangered?"
ตัวเลือกหลัก:
--model <name>
: ระบุโมเดล (เช่นgpt-4o
)--quiet
: ซ่อนเอาต์พุตกลาง--config <file>
: ใช้ไฟล์ config ที่กำหนดเอง
ตัวอย่าง:
dolphin-mcp-cli --model gpt-4o "List dolphins in the Atlantic Ocean"
สิ่งนี้จะกำหนดเส้นทางคำค้นหาของคุณไปยังเซิร์ฟเวอร์ MCP ที่เชื่อมต่อ (Ollama, OpenAI ฯลฯ) และส่งคืนผลลัพธ์ที่มีโครงสร้าง
ผ่านไลบรารี Python
หากคุณต้องการรวม Dolphin MCP เข้ากับโค้ด Python ของคุณโดยตรง ไลบรารีจะมีฟังก์ชันที่สะดวกซึ่งเรียกว่า run_interaction
ซึ่งช่วยให้คุณฝังการโต้ตอบ MCP เป็นส่วนหนึ่งของแอปพลิเคชันขนาดใหญ่ นี่คือสคริปต์ตัวอย่างที่สาธิตวิธีการใช้ไลบรารีแบบเป็นโปรแกรม:
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="What dolphin species are endangered?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
สิ่งนี้จัดการการเชื่อมต่อเซิร์ฟเวอร์ การค้นหาเครื่องมือ และการเรียกโมเดลโดยอัตโนมัติ
สคริปต์แบบเดิม
สำหรับการทดสอบอย่างรวดเร็ว (สำหรับผู้ที่ต้องการแนวทางที่ตรงไปตรงมามากขึ้น) ให้เรียกใช้สคริปต์ต้นฉบับโดยตรงจากบรรทัดคำสั่ง วิธีนี้ให้ฟังก์ชันการทำงานเช่นเดียวกับ CLI แต่ในรูปแบบที่ง่ายกว่า:
python dolphin_mcp.py "Analyze dolphin migration patterns"
เชื่อมต่อกับเซิร์ฟเวอร์ แสดงรายการเครื่องมือ และส่งคืนผลลัพธ์การสนทนาโดยไม่มีตัวเลือกเพิ่มเติม
ตัวอย่างคำค้นหา & ฐานข้อมูลสาธิต
ลองใช้คำค้นหาเหล่านี้:
- ทั่วไป:
dolphin-mcp-cli "Explain dolphin evolution"
- เฉพาะโมเดล:
dolphin-mcp-cli --model ollama "Define quantum physics"
- โหมดเงียบ:
dolphin-mcp-cli --quiet "List endangered species"
ฐานข้อมูลสาธิต:
เรียกใช้ setup_db.py
เพื่อสร้างฐานข้อมูล SQLite ตัวอย่างพร้อมข้อมูลสายพันธุ์โลมา ใช้เพื่อทดสอบคำค้นหาเช่น:
dolphin-mcp-cli "Which dolphins are critically endangered?"
เอาต์พุต:
{
"species": "Maui Dolphin",
"status": "Critically Endangered"
}
ด้วยเครื่องมือเหล่านี้ Dolphin MCP จะปรับให้เข้ากับเวิร์กโฟลว์ของคุณ ไม่ว่าคุณจะกำลังแก้ไขข้อบกพร่อง เขียนสคริปต์ หรือสร้างระบบ AI ที่ซับซ้อน อย่าลังเลที่จะเยี่ยมชม GitHub repo ของพวกเขา
บทสรุป
Dolphin MCP ปฏิวัติการรวม AI โดยเชื่อมต่อเครื่องมือต่างๆ เช่น Ollama และ OpenAI เข้ากับเวิร์กโฟลว์ที่เป็นเอกภาพ ด้วย CLI สำหรับการสอบถามภาษาธรรมชาติ ไลบรารี Python สำหรับการควบคุมแบบเป็นโปรแกรม และฐานข้อมูลสาธิตสำหรับการทดสอบ ช่วยให้นักพัฒนาสามารถสร้างตัวแทน AI ที่ซับซ้อนได้โดยไม่ต้องใช้โค้ด boilerplate ไม่ว่าจะวิเคราะห์ข้อมูลการอนุรักษ์ สร้างรายงาน หรือทดลองกับ LLM ในเครื่อง Dolphin MCP ช่วยลดความซับซ้อนของงานที่ซับซ้อนในขณะที่ยังคงรักษาความยืดหยุ่น การสนับสนุนหลายโมเดลและการกำหนดค่าที่ใช้งานง่ายทำให้เหมาะสำหรับทั้งต้นแบบอย่างรวดเร็วและระบบการผลิต
พร้อมที่จะปรับปรุงโครงการ AI ของคุณแล้วหรือยัง ดาวน์โหลด Apidog เพื่อทดสอบ API ของเซิร์ฟเวอร์ MCP ของคุณและเริ่มสร้างเวิร์กโฟลว์ที่ชาญฉลาดขึ้นในวันนี้!