วิธีใช้ MCP กับ Ollama (โดยไม่มี Claude, ใช้ Dolphin MCP)

ค้นพบวิธีใช้ MCP กับ Ollama, OpenAI และ Deepseek โดยใช้ Dolphin MCP ตั้งค่า, ผสานรวม, และทดสอบเซิร์ฟเวอร์ MCP ที่ขับเคลื่อนด้วย AI ของคุณ

อาชว์

อาชว์

4 June 2025

วิธีใช้ MCP กับ Ollama (โดยไม่มี Claude, ใช้ Dolphin MCP)

การเชื่อมต่อโมเดลภาษาเข้ากับแหล่งข้อมูลภายนอกเป็นสิ่งสำคัญสำหรับการสร้างแอปพลิเคชันที่แข็งแกร่งและชาญฉลาด Model Context Protocol (MCP) เป็นกรอบงานมาตรฐานที่ช่วยปรับปรุงการแลกเปลี่ยนบริบทและข้อมูลระหว่างโมเดล AI และระบบภายนอก ไม่ว่าคุณกำลังสร้างแชทบอท เครื่องมือค้นหา หรือเครื่องมือวิเคราะห์ข้อมูล MCP ช่วยเชื่อมช่องว่างระหว่างโมเดลและ API ต่างๆ เพื่อให้มั่นใจว่าข้อมูลจะไหลเวียนได้อย่างราบรื่น

ลองนึกภาพระบบที่คุณสามารถสลับไปมาระหว่างการใช้ Ollama สำหรับการอนุมานโมเดลในเครื่องที่มีน้ำหนักเบา OpenAI สำหรับการทำความเข้าใจภาษาธรรมชาติที่ล้ำสมัย และ Deepseek สำหรับความสามารถในการค้นหาที่มีประสิทธิภาพ ตอนนี้ เพิ่ม Dolphin MCP—ไลบรารี Python แบบโอเพนซอร์สและเครื่องมือ CLI ที่ช่วยลดความซับซ้อนของการรวมนี้ Dolphin MCP ไม่เพียงแต่เชื่อมต่อกับเซิร์ฟเวอร์ MCP หลายเครื่องพร้อมกันเท่านั้น แต่ยังทำให้เครื่องมือของพวกเขาสามารถเข้าถึงโมเดลภาษาได้ผ่านการสอบถามภาษาธรรมชาติ

ในบทช่วยสอนนี้ เราจะแนะนำคุณตลอดทุกอย่างตั้งแต่การติดตั้ง Dolphin MCP ไปจนถึงการรวมเข้ากับโมเดลต่างๆ เช่น Ollama และ OpenAI

💡
ก่อนที่เราจะเจาะลึก นี่คือเคล็ดลับด่วน: ดาวน์โหลด Apidog ได้ฟรีวันนี้! เป็นเครื่องมือที่ยอดเยี่ยมสำหรับนักพัฒนาที่ต้องการลดความซับซ้อนในการทดสอบโมเดล AI โดยเฉพาะอย่างยิ่งผู้ที่ใช้ LLM (Large Language Models) Apidog ช่วยให้คุณปรับปรุงกระบวนการทดสอบ API ทำให้ง่ายต่อการทำงานกับเทคโนโลยี AI ที่ทันสมัย ลองใช้ดูสิ!
Apidog — the all-in-one API development tool
button

MCP คืออะไร? (เริ่มต้นจากพื้นฐาน)

Model Context Protocol (MCP) เป็นกรอบงานที่ออกแบบมาเพื่อทำให้การโต้ตอบระหว่างโมเดล AI และแอปพลิเคชันภายนอกเป็นมาตรฐาน ช่วยให้โมเดลต่างๆ สามารถแบ่งปันบริบท แลกเปลี่ยนข้อมูล และเรียกใช้เครื่องมือในลักษณะที่เป็นเอกภาพและเป็นบทสนทนา ด้วย MCP คุณสามารถ:

ด้วยการใช้ MCP นักพัฒนาสามารถมุ่งเน้นไปที่การสร้างโซลูชันที่เป็นนวัตกรรมใหม่โดยไม่ต้องกังวลเกี่ยวกับความซับซ้อนพื้นฐานของการสื่อสารข้ามโมเดล คลิก ที่นี่ หากคุณต้องการบทช่วยสอนเชิงลึกเพิ่มเติมเกี่ยวกับ MCP และทุกสิ่งทุกอย่าง

ทำไมต้องใช้ Dolphin MCP?

Dolphin MCP เป็นไลบรารี Python แบบโอเพนซอร์สและเครื่องมือ CLI ที่ทำให้การโต้ตอบกับเซิร์ฟเวอร์ MCP หลายเครื่องเป็นเรื่องง่ายอย่างเหลือเชื่อ (คุณสามารถมีได้มากเท่าที่คุณต้องการ) การออกแบบเน้นที่โมดูลาร์และใช้งานง่าย โดยมี API ที่สะอาดสำหรับการรวมเข้ากับโมเดลภาษาต่างๆ เช่น OpenAI, Anthropic และ Ollama รวมถึงแหล่งข้อมูลภายนอก เช่น Deepseek คุณสามารถสลับระหว่างโมเดลได้ตามความต้องการของงานที่คุณกำลังทำ!

คุณสมบัติหลัก:

Dolphin MCP ช่วยลดความซับซ้อนของกระบวนการสร้างอินเทอร์เฟซการสนทนาสำหรับการจัดการข้อมูลและการโต้ตอบกับโมเดล AI ทำให้เป็นสินทรัพย์ที่มีประสิทธิภาพสำหรับนักพัฒนาทุกคน

ข้อกำหนดเบื้องต้นและการตั้งค่าสภาพแวดล้อม

ก่อนที่เราจะเจาะลึกขั้นตอนการติดตั้งและการรวม ให้ตรวจสอบให้แน่ใจว่าสภาพแวดล้อมของคุณได้รับการตั้งค่าอย่างถูกต้องเพื่อทำงานกับ Dophin MCP

ข้อกำหนดของระบบ:

การตั้งค่าเฉพาะแพลตฟอร์ม:

Windows:

curl -sSf https://install.ultraviolet.rs/windows
python --version
sqlite3 --version
uv --version

macOS:

brew install python
brew install sqlite
brew install ultraviolet/uv/uv

or

curl -sSf https://install.ultraviolet.rs/mac
python3 --version
sqlite3 --version
uv --version

Linux (Ubuntu/Debian):

sudo apt update
sudo apt install python3 python3-pip
sudo apt install sqlite3
curl -sSf https://install.ultraviolet.rs/linux
python3 --version
sqlite3 --version
uv --version

เมื่อดาวน์โหลดทุกอย่างแล้วและระบบของคุณพร้อม คุณก็พร้อมที่จะติดตั้ง Dolphin MCP

การติดตั้ง Dolphin MCP

มีสองวิธีในการติดตั้ง Dolphin MCP บนระบบของคุณ ไม่ว่าจะติดตั้งเป็นแพ็คเกจจาก PyPI หรือโดยตรงจากแหล่งที่มา

ตัวเลือกที่ 1: ติดตั้งจาก PyPI (แนะนำ)

วิธีที่ง่ายที่สุดคือการติดตั้ง Dolphin MCP ผ่าน pip:

pip install dolphin-mcp

คำสั่งนี้จะติดตั้งทั้งไลบรารีและเครื่องมือบรรทัดคำสั่ง dolphin-mcp-cli ซึ่งช่วยให้คุณใช้เครื่องมือได้โดยตรงจากเทอร์มินัลของคุณ

ตัวเลือกที่ 2: ติดตั้งจาก Source

หากคุณต้องการทำงานกับซอร์สโค้ดโดยตรงหรือตั้งใจที่จะมีส่วนร่วมในโครงการ คุณควรทำตามขั้นตอนด้านล่าง:

โคลนที่เก็บ:

git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp

ติดตั้งในโหมดการพัฒนา:

pip install -e .

ตั้งค่าตัวแปรสภาพแวดล้อม:

คัดลอกไฟล์สภาพแวดล้อมตัวอย่าง (ไฟล์ .env.example ในโครงการ) และอัปเดตด้วยรหัส API ของคุณ คุณสามารถระบุ Base Url สำหรับโมเดลของคุณได้:

cp .env.example .env

คุณสามารถแก้ไขไฟล์ .env ได้ตามที่คุณต้องการเพื่อใส่รหัส API ของ OpenAI ของคุณ (และรหัสอื่นๆ ที่คุณต้องการ)

(ไม่บังคับ) ตั้งค่าฐานข้อมูลสาธิต:

หากคุณต้องการทดสอบระบบด้วยข้อมูลตัวอย่างเพื่อดูว่า Dophin MCP เชื่อมต่อโมเดลของคุณกับ MCP ของคุณสำเร็จหรือไม่ ให้เรียกใช้:

python setup_db.py

คำสั่งนี้จะสร้างฐานข้อมูล SQLite ตัวอย่างพร้อมข้อมูลเกี่ยวกับสายพันธุ์โลมาเพื่อวัตถุประสงค์ในการสาธิต ให้ความสนใจกับเส้นทางเอาต์พุตที่จะบันทึกฐานข้อมูล SQLite ที่สร้างขึ้นใหม่ ฐานข้อมูลมีข้อมูลจำลองเกี่ยวกับ Dolphin ตรวจสอบให้แน่ใจว่าได้ตรวจสอบแล้วถ้าคุณชอบ!

การกำหนดค่าและตัวแปรสภาพแวดล้อม

Dolphin MCP ใช้ไฟล์การกำหนดค่าหลักสองไฟล์เพื่อจัดการการตั้งค่าของคุณ: ไฟล์ .env และไฟล์ mcp_config.json

ไฟล์ .env

ไฟล์ .env จัดเก็บข้อมูลประจำตัว API ที่ละเอียดอ่อน ตัวอย่างเช่น:

OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1  # Uncomment and update if needed

mcp_config.json

ไฟล์ JSON นี้กำหนดเซิร์ฟเวอร์ MCP ที่ไคลเอนต์ของคุณจะเชื่อมต่อด้วย การกำหนดค่าตัวอย่างอาจมีลักษณะเช่นนี้:

{
  "mcpServers": {
    "server1": {
      "command": "command-to-start-server",
      "args": ["arg1", "arg2"],
      "env": {
        "ENV_VAR1": "value1",
        "ENV_VAR2": "value2"
      }
    },
    "server2": {
      "command": "another-server-command",
      "args": ["--option", "value"]
    }
  }
}

ด้วยการกำหนดค่าไฟล์เหล่านี้ คุณอนุญาตให้ Dolphin MCP จัดเก็บและใช้รหัส API ของคุณอย่างปลอดภัย และเชื่อมต่อกับเซิร์ฟเวอร์ MCP หลายเครื่องพร้อมกัน

การทดสอบและการใช้ Dolphin MCP

Dolphin MCP มีวิธีที่ยืดหยุ่นในการทดสอบและโต้ตอบกับเซิร์ฟเวอร์ MCP ของคุณ ไม่ว่าคุณจะชอบคำสั่ง CLI, การรวม Python หรือสคริปต์แบบเดิม

การใช้คำสั่ง CLI

วิธีที่ง่ายที่สุดในการโต้ตอบกับเซิร์ฟเวอร์ MCP ของคุณคือผ่านคำสั่ง CLI เมื่อคุณตั้งค่าสภาพแวดล้อมของคุณและเซิร์ฟเวอร์ MCP ของคุณทำงานอยู่ คุณสามารถส่งคำค้นหาได้โดยตรงจากเทอร์มินัลของคุณ ตัวอย่างเช่น:

dolphin-mcp-cli "What dolphin species are endangered?"  

ตัวเลือกหลัก:

ตัวอย่าง:

dolphin-mcp-cli --model gpt-4o "List dolphins in the Atlantic Ocean"  

สิ่งนี้จะกำหนดเส้นทางคำค้นหาของคุณไปยังเซิร์ฟเวอร์ MCP ที่เชื่อมต่อ (Ollama, OpenAI ฯลฯ) และส่งคืนผลลัพธ์ที่มีโครงสร้าง

ผ่านไลบรารี Python

หากคุณต้องการรวม Dolphin MCP เข้ากับโค้ด Python ของคุณโดยตรง ไลบรารีจะมีฟังก์ชันที่สะดวกซึ่งเรียกว่า run_interaction ซึ่งช่วยให้คุณฝังการโต้ตอบ MCP เป็นส่วนหนึ่งของแอปพลิเคชันขนาดใหญ่ นี่คือสคริปต์ตัวอย่างที่สาธิตวิธีการใช้ไลบรารีแบบเป็นโปรแกรม:

import asyncio  
from dolphin_mcp import run_interaction  

async def main():  
    result = await run_interaction(  
        user_query="What dolphin species are endangered?",  
        model_name="gpt-4o",  
        quiet_mode=False  
    )  
    print(result)  

asyncio.run(main())  

สิ่งนี้จัดการการเชื่อมต่อเซิร์ฟเวอร์ การค้นหาเครื่องมือ และการเรียกโมเดลโดยอัตโนมัติ

สคริปต์แบบเดิม

สำหรับการทดสอบอย่างรวดเร็ว (สำหรับผู้ที่ต้องการแนวทางที่ตรงไปตรงมามากขึ้น) ให้เรียกใช้สคริปต์ต้นฉบับโดยตรงจากบรรทัดคำสั่ง วิธีนี้ให้ฟังก์ชันการทำงานเช่นเดียวกับ CLI แต่ในรูปแบบที่ง่ายกว่า:

python dolphin_mcp.py "Analyze dolphin migration patterns"  

เชื่อมต่อกับเซิร์ฟเวอร์ แสดงรายการเครื่องมือ และส่งคืนผลลัพธ์การสนทนาโดยไม่มีตัวเลือกเพิ่มเติม

ตัวอย่างคำค้นหา & ฐานข้อมูลสาธิต

ลองใช้คำค้นหาเหล่านี้:

ฐานข้อมูลสาธิต:
เรียกใช้ setup_db.py เพื่อสร้างฐานข้อมูล SQLite ตัวอย่างพร้อมข้อมูลสายพันธุ์โลมา ใช้เพื่อทดสอบคำค้นหาเช่น:

dolphin-mcp-cli "Which dolphins are critically endangered?"  

เอาต์พุต:

{  
  "species": "Maui Dolphin",  
  "status": "Critically Endangered"  
}  

ด้วยเครื่องมือเหล่านี้ Dolphin MCP จะปรับให้เข้ากับเวิร์กโฟลว์ของคุณ ไม่ว่าคุณจะกำลังแก้ไขข้อบกพร่อง เขียนสคริปต์ หรือสร้างระบบ AI ที่ซับซ้อน อย่าลังเลที่จะเยี่ยมชม GitHub repo ของพวกเขา

บทสรุป


Dolphin MCP ปฏิวัติการรวม AI โดยเชื่อมต่อเครื่องมือต่างๆ เช่น Ollama และ OpenAI เข้ากับเวิร์กโฟลว์ที่เป็นเอกภาพ ด้วย CLI สำหรับการสอบถามภาษาธรรมชาติ ไลบรารี Python สำหรับการควบคุมแบบเป็นโปรแกรม และฐานข้อมูลสาธิตสำหรับการทดสอบ ช่วยให้นักพัฒนาสามารถสร้างตัวแทน AI ที่ซับซ้อนได้โดยไม่ต้องใช้โค้ด boilerplate ไม่ว่าจะวิเคราะห์ข้อมูลการอนุรักษ์ สร้างรายงาน หรือทดลองกับ LLM ในเครื่อง Dolphin MCP ช่วยลดความซับซ้อนของงานที่ซับซ้อนในขณะที่ยังคงรักษาความยืดหยุ่น การสนับสนุนหลายโมเดลและการกำหนดค่าที่ใช้งานง่ายทำให้เหมาะสำหรับทั้งต้นแบบอย่างรวดเร็วและระบบการผลิต

พร้อมที่จะปรับปรุงโครงการ AI ของคุณแล้วหรือยัง ดาวน์โหลด Apidog เพื่อทดสอบ API ของเซิร์ฟเวอร์ MCP ของคุณและเริ่มสร้างเวิร์กโฟลว์ที่ชาญฉลาดขึ้นในวันนี้!

button

Explore more

สร้างทางเลือกสำหรับ Claude Web Search แบบ Open Source (พร้อมเซิร์ฟเวอร์ Firecrawl MCP)

สร้างทางเลือกสำหรับ Claude Web Search แบบ Open Source (พร้อมเซิร์ฟเวอร์ Firecrawl MCP)

สำหรับองค์กรที่ต้องการควบคุม, ปรับแต่ง, หรือความเป็นส่วนตัวมากกว่าการค้นหาเว็บของ Claude, การสร้างทางเลือกโดยใช้ Firecrawl เป็นทางออกที่ดี มาเรียนรู้กัน!

21 March 2025

10 อันดับทางเลือกที่ดีที่สุดสำหรับการเล่นวินเซิร์ฟสำหรับนักเขียนโค้ดที่ชอบความรู้สึกในปี 2025

10 อันดับทางเลือกที่ดีที่สุดสำหรับการเล่นวินเซิร์ฟสำหรับนักเขียนโค้ดที่ชอบความรู้สึกในปี 2025

ค้นพบ 10 ทางเลือก Windsurf ปี 2025 ปรับปรุงการเขียนโค้ด เหมาะสำหรับนักพัฒนาที่ต้องการโซลูชันการเขียนโค้ดที่มีประสิทธิภาพ ปลอดภัย และหลากหลาย

20 March 2025

Figma มีเซิร์ฟเวอร์ MCP แล้ว และนี่คือวิธีใช้งาน

Figma มีเซิร์ฟเวอร์ MCP แล้ว และนี่คือวิธีใช้งาน

ค้นพบวิธีเชื่อมต่อ Figma MCP กับ AI เช่น Cursor เพื่อสร้างโค้ดอัตโนมัติ เหมาะสำหรับนักพัฒนาและนักออกแบบ

20 March 2025

ฝึกการออกแบบ API แบบ Design-first ใน Apidog

ค้นพบวิธีที่ง่ายขึ้นในการสร้างและใช้ API