Menghubungkan model bahasa dengan sumber data eksternal sangat penting untuk membangun aplikasi cerdas yang kuat. Model Context Protocol (MCP) adalah kerangka kerja standar yang menyederhanakan pertukaran konteks dan data antara model AI dan sistem eksternal. Baik Anda membangun chatbot, mesin pencari, atau alat analisis data, MCP membantu menjembatani kesenjangan antara model dan API yang berbeda, memastikan aliran informasi yang lancar.
Bayangkan sebuah sistem di mana Anda dapat dengan mudah beralih antara menggunakan Ollama untuk inferensi model lokal yang ringan, OpenAI untuk pemahaman bahasa alami mutakhir, dan Deepseek untuk kemampuan pencarian yang kuat. Sekarang, tambahkan Dolphin MCP—sebuah pustaka Python sumber terbuka dan alat CLI yang menyederhanakan integrasi ini. Dolphin MCP tidak hanya terhubung ke beberapa server MCP secara bersamaan tetapi juga membuat alat mereka tersedia untuk model bahasa melalui kueri bahasa alami.
Dalam tutorial ini, kami akan memandu Anda melalui semuanya mulai dari menginstal Dolphin MCP hingga mengintegrasikannya dengan model seperti Ollama dan OpenAI.

Apa itu MCP? (Mulai dari dasar)
Model Context Protocol (MCP) adalah kerangka kerja yang dirancang untuk menstandarisasi interaksi antara model AI dan aplikasi eksternal. Ini memungkinkan model yang berbeda untuk berbagi konteks, bertukar data, dan memanggil alat dengan cara yang terpadu dan percakapan. Dengan MCP, Anda dapat:
- Mempertahankan riwayat percakapan yang lancar di berbagai kueri.
- Secara dinamis menemukan dan memanggil alat atau API eksternal.
- Mengintegrasikan beberapa penyedia AI di bawah protokol standar tunggal.
Dengan menggunakan MCP, pengembang dapat fokus pada pembangunan solusi inovatif tanpa mengkhawatirkan kompleksitas yang mendasari komunikasi lintas model. Klik di sini jika Anda ingin tutorial yang lebih mendalam tentang MCP dan apa itu.
Mengapa Menggunakan Dolphin MCP?
Dolphin MCP adalah pustaka Python sumber terbuka dan alat CLI yang membuatnya sangat mudah untuk berinteraksi dengan beberapa server MCP (Anda dapat memiliki sebanyak yang Anda suka). Desainnya menekankan modularitas dan kemudahan penggunaan, menyediakan API yang bersih untuk berintegrasi dengan berbagai model bahasa seperti OpenAI, Anthropic, dan Ollama, serta sumber data eksternal seperti Deepseek. Anda dapat dengan mudah beralih antar model sesuai dengan kebutuhan tugas yang sedang Anda kerjakan!
Fitur Utama:
- Dukungan Beberapa Penyedia: Bekerja dengan lancar dengan Ollama, OpenAI, DeepSeek, dan banyak lagi.
- Antarmuka Ganda: Gunakan sebagai pustaka Python atau melalui alat baris perintahnya.
- Penemuan Alat: Secara otomatis mendeteksi dan menggunakan alat yang disediakan oleh server MCP.
- Arsitektur Modular: Nikmati pemisahan masalah yang bersih dengan modul khusus penyedia.
- Konfigurasi Fleksibel: Konfigurasikan model dan server MCP dengan mudah menggunakan JSON dan variabel lingkungan.
- Dapat Digunakan Kembali: Bangun integrasi yang dapat diskalakan dan digunakan kembali yang dapat dengan cepat diadaptasi dengan persyaratan baru.
Dolphin MCP menyederhanakan proses pembangunan antarmuka percakapan untuk manipulasi data dan interaksi dengan model AI, menjadikannya aset yang kuat bagi setiap pengembang.
Prasyarat dan Pengaturan Lingkungan
Sebelum kita masuk ke langkah-langkah instalasi dan integrasi, mari pastikan bahwa lingkungan Anda telah disiapkan dengan benar untuk bekerja dengan Dophin MCP.
Persyaratan Sistem:
- Python 3.8 atau lebih tinggi: Pastikan Anda telah menginstal Python. Anda dapat mengunduhnya dari python.org.
- SQLite: Digunakan oleh basis data demo untuk menyimpan contoh data (Opsional).
- uv/uvx: Pemasang dan pemecah paket Python yang cepat.
- Node.js 18+ (jika menggunakan integrasi CLI): Diperlukan untuk beberapa alat tambahan.
Pengaturan Khusus Platform:
Windows:
- Python: Unduh dari python.org dan ingat untuk mencentang "Add Python to PATH."
- SQLite: Unduh biner pra-kompilasi dari situs web SQLite, ekstrak, dan tambahkan folder ke PATH Anda.
- uv/uvx: Buka Windows PowerShell Anda sebagai Administrator dan jalankan:
curl -sSf https://install.ultraviolet.rs/windows
- Verifikasi Instalasi:
python --version
sqlite3 --version
uv --version
macOS:
- Python: Instal menggunakan Homebrew:
brew install python
- SQLite: Sudah terinstal di macOS, atau perbarui menggunakan:
brew install sqlite
- uv/uvx: Instal dengan Homebrew atau penginstal resmi:
brew install ultraviolet/uv/uv
atau
curl -sSf https://install.ultraviolet.rs/mac
- Verifikasi Instalasi:
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian):
- Python:
sudo apt update
sudo apt install python3 python3-pip
- SQLite:
sudo apt install sqlite3
- uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
- Verifikasi Instalasi:
python3 --version
sqlite3 --version
uv --version
Setelah semuanya diunduh dan sistem Anda siap, Anda siap untuk menginstal Dolphin MCP.
Instalasi Dolphin MCP
Ada dua cara Dolphin MCP dapat diinstal pada sistem Anda, baik sebagai paket dari PyPI atau langsung dari sumbernya.
Opsi 1: Instal dari PyPI (Disarankan)
Metode paling sederhana adalah menginstal Dolphin MCP melalui pip:
pip install dolphin-mcp
Perintah ini menginstal pustaka dan alat baris perintah dolphin-mcp-cli
, yang memungkinkan Anda menggunakan alat ini langsung dari terminal Anda.
Opsi 2: Instal dari Sumber
Jika Anda lebih suka bekerja dengan kode sumber secara langsung atau Anda berniat untuk berkontribusi pada proyek, maka Anda harus mengikuti langkah-langkah di bawah ini:
Kloning Repositori:
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
Instal dalam Mode Pengembangan:
pip install -e .
Siapkan Variabel Lingkungan:
Salin contoh file lingkungan (file .env.example
dalam proyek) dan perbarui dengan kunci API Anda. Secara opsional Anda dapat menentukan basis Url untuk model Anda:
cp .env.example .env
Jangan ragu untuk mengedit file .env
sesuka Anda untuk menyertakan kunci API OpenAI Anda (dan kunci lain yang Anda butuhkan).
(Opsional) Siapkan Basis Data Demo:
Jika Anda ingin menguji sistem dengan beberapa contoh data untuk melihat apakah Dophin MCP berhasil menghubungkan model Anda ke MCP Anda, jalankan:
python setup_db.py
Perintah ini membuat contoh basis data SQLite dengan informasi tentang spesies lumba-lumba untuk tujuan demo. Perhatikan jalur keluaran tempat basis data SQLite yang baru dibuat akan disimpan. Basis data berisi beberapa data tiruan tentang Lumba-lumba. Pastikan untuk memeriksanya jika Anda suka!
Konfigurasi dan Variabel Lingkungan
Dolphin MCP menggunakan dua file konfigurasi utama untuk mengelola pengaturan Anda: file .env
dan file mcp_config.json
.
File .env
File .env
menyimpan kredensial API sensitif. Misalnya:
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # Uncomment and update if needed
mcp_config.json
File JSON ini mendefinisikan server MCP yang akan dihubungkan oleh klien Anda. Contoh konfigurasi mungkin terlihat seperti ini:
{
"mcpServers": {
"server1": {
"command": "command-to-start-server",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "value1",
"ENV_VAR2": "value2"
}
},
"server2": {
"command": "another-server-command",
"args": ["--option", "value"]
}
}
}
Dengan mengonfigurasi file-file ini, Anda mengizinkan Dolphin MCP untuk menyimpan dan menggunakan kunci API Anda dengan aman dan terhubung ke beberapa server MCP secara bersamaan.
Menguji dan Menggunakan Dolphin MCP
Dolphin MCP menawarkan cara fleksibel untuk menguji dan berinteraksi dengan server MCP Anda, apakah Anda lebih suka perintah CLI, integrasi Python, atau skrip lama.
Menggunakan Perintah CLI
Cara paling sederhana untuk berinteraksi dengan server MCP Anda adalah melalui perintah CLI. Setelah lingkungan Anda disiapkan dan server MCP Anda berjalan, Anda dapat mengirim kueri langsung dari terminal Anda. Misalnya:
dolphin-mcp-cli "What dolphin species are endangered?"
Opsi Utama:
--model <name>
: Tentukan model (misalnya,gpt-4o
).--quiet
: Sembunyikan keluaran perantara.--config <file>
: Gunakan file konfigurasi khusus.
Contoh:
dolphin-mcp-cli --model gpt-4o "List dolphins in the Atlantic Ocean"
Ini mengarahkan kueri Anda ke server MCP yang terhubung (Ollama, OpenAI, dll.) dan mengembalikan hasil terstruktur.
Melalui Pustaka Python
Jika Anda lebih suka mengintegrasikan Dolphin MCP langsung ke dalam kode Python Anda, pustaka ini menyediakan fungsi yang mudah yang disebut run_interaction
. Ini memungkinkan Anda untuk menyematkan interaksi MCP sebagai bagian dari aplikasi yang lebih besar. Berikut adalah contoh skrip yang menunjukkan cara menggunakan pustaka secara terprogram:
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="What dolphin species are endangered?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
Ini menangani koneksi server, penemuan alat, dan panggilan model secara otomatis.
Skrip Lama
Untuk pengujian cepat (bagi mereka yang lebih menyukai pendekatan yang lebih mudah), jalankan skrip asli langsung dari baris perintah. Metode ini menyediakan fungsionalitas yang sama dengan CLI tetapi dalam bentuk yang lebih sederhana:
python dolphin_mcp.py "Analyze dolphin migration patterns"
Ini terhubung ke server, mencantumkan alat, dan mengembalikan hasil percakapan tanpa opsi tambahan.
Contoh Kueri & Basis Data Demo
Coba kueri ini:
- Umum:
dolphin-mcp-cli "Explain dolphin evolution"
- Khusus Model:
dolphin-mcp-cli --model ollama "Define quantum physics"
- Mode Senyap:
dolphin-mcp-cli --quiet "List endangered species"
Basis Data Demo:
Jalankan setup_db.py
untuk membuat contoh basis data SQLite dengan data spesies lumba-lumba. Gunakan untuk menguji kueri seperti:
dolphin-mcp-cli "Which dolphins are critically endangered?"
Keluaran:
{
"species": "Maui Dolphin",
"status": "Critically Endangered"
}
Dengan alat-alat ini, Dolphin MCP beradaptasi dengan alur kerja Anda—apakah Anda melakukan debugging, membuat skrip, atau membangun sistem AI yang kompleks. Jangan ragu untuk juga mengunjungi repo GitHub mereka.
Kesimpulan
Dolphin MCP merevolusi integrasi AI dengan menghubungkan alat-alat seperti Ollama dan OpenAI dengan mulus ke dalam alur kerja terpadu. Dengan CLI-nya untuk kueri bahasa alami, pustaka Python untuk kontrol terprogram, dan basis data demo untuk pengujian, ini memberdayakan pengembang untuk membangun agen AI yang canggih tanpa kode boilerplate. Baik menganalisis data konservasi, menghasilkan laporan, atau bereksperimen dengan LLM lokal, Dolphin MCP menyederhanakan tugas-tugas kompleks sambil mempertahankan fleksibilitas. Dukungan multi-model dan konfigurasi intuitifnya menjadikannya ideal untuk prototipe cepat dan sistem produksi.
Siap untuk menyederhanakan proyek AI Anda? Unduh Apidog untuk menguji API server MCP Anda dan mulai membangun alur kerja yang lebih cerdas hari ini!