Connecter des modèles de langage avec des sources de données externes est essentiel pour créer des applications robustes et intelligentes. Model Context Protocol (MCP) est un cadre standardisé qui rationalise l'échange de contexte et de données entre les modèles d'IA et les systèmes externes. Que vous construisiez des chatbots, des moteurs de recherche ou des outils d'analyse de données, MCP aide à combler le fossé entre différents modèles et API, assurant un flux d'informations transparent.
Imaginez un système où vous pouvez facilement basculer entre l'utilisation d'Ollama pour l'inférence de modèles locaux et légers, d'OpenAI pour la compréhension du langage naturel de pointe et de Deepseek pour de puissantes capacités de recherche. Maintenant, ajoutez Dolphin MCP—une bibliothèque Python open-source et un outil CLI qui simplifie cette intégration. Dolphin MCP se connecte non seulement à plusieurs serveurs MCP simultanément, mais met également leurs outils à la disposition des modèles de langage grâce à des requêtes en langage naturel.
Dans ce tutoriel, nous vous guiderons à travers tout, de l'installation de Dolphin MCP à son intégration avec des modèles comme Ollama et OpenAI.

Qu'est-ce que MCP ? (En commençant par les bases)
Model Context Protocol (MCP) est un cadre conçu pour standardiser l'interaction entre les modèles d'IA et les applications externes. Il permet à différents modèles de partager du contexte, d'échanger des données et d'appeler des outils de manière unifiée et conversationnelle. Avec MCP, vous pouvez :
- Maintenir un historique de conversation transparent sur différentes requêtes.
- Découvrir et invoquer dynamiquement des outils ou des API externes.
- Intégrer plusieurs fournisseurs d'IA sous un seul protocole standardisé.
En utilisant MCP, les développeurs peuvent se concentrer sur la création de solutions innovantes sans se soucier des complexités sous-jacentes de la communication inter-modèles. Cliquez ici si vous souhaitez un tutoriel plus approfondi sur MCP et ce qu'il est.
Pourquoi utiliser Dolphin MCP ?
Dolphin MCP est une bibliothèque Python open-source et un outil CLI qui facilite incroyablement l'interaction avec plusieurs serveurs MCP (vous pouvez en avoir autant que vous le souhaitez). Sa conception met l'accent sur la modularité et la facilité d'utilisation, offrant une API claire pour l'intégration avec divers modèles de langage comme OpenAI, Anthropic et Ollama, ainsi que des sources de données externes comme Deepseek. Vous pouvez simplement basculer entre les modèles en fonction des besoins de la tâche sur laquelle vous travaillez !
Principales caractéristiques :
- Prise en charge de plusieurs fournisseurs : Fonctionne de manière transparente avec Ollama, OpenAI, DeepSeek, et bien d'autres.
- Double interface : Utilisez-le comme une bibliothèque Python ou via son outil en ligne de commande.
- Découverte d'outils : Détectez et utilisez automatiquement les outils fournis par les serveurs MCP.
- Architecture modulaire : Profitez d'une séparation claire des préoccupations avec des modules spécifiques au fournisseur.
- Configuration flexible : Configurez facilement les modèles et les serveurs MCP à l'aide de JSON et de variables d'environnement.
- Réutilisabilité : Créez des intégrations évolutives et réutilisables qui peuvent être rapidement adaptées aux nouvelles exigences.
Dolphin MCP simplifie le processus de création d'une interface conversationnelle pour la manipulation des données et l'interaction avec les modèles d'IA, ce qui en fait un atout puissant pour tout développeur.
Conditions préalables et configuration de l'environnement
Avant de plonger dans les étapes d'installation et d'intégration, assurons-nous que votre environnement est correctement configuré pour fonctionner avec Dophin MCP.
Configuration système requise :
- Python 3.8 ou supérieur : Assurez-vous que Python est installé. Vous pouvez le télécharger à partir de python.org.
- SQLite : Utilisé par la base de données de démonstration pour stocker des exemples de données (facultatif).
- uv/uvx : Un installateur et un résolveur de packages Python rapides.
- Node.js 18+ (si vous utilisez des intégrations CLI) : Requis pour certains outils supplémentaires.
Configuration spécifique à la plateforme :
Windows :
- Python : Téléchargez-le à partir de python.org et n'oubliez pas de cocher « Ajouter Python à PATH ».
- SQLite : Téléchargez les binaires précompilés à partir du site Web de SQLite, extrayez-les et ajoutez le dossier à votre PATH.
- uv/uvx : Ouvrez votre Windows PowerShell en tant qu'administrateur et exécutez :
curl -sSf https://install.ultraviolet.rs/windows
- Vérifier les installations :
python --version
sqlite3 --version
uv --version
macOS :
- Python : Installez-le à l'aide de Homebrew :
brew install python
- SQLite : Préinstallé sur macOS, ou mettez-le à jour à l'aide de :
brew install sqlite
- uv/uvx : Installez-le avec Homebrew ou le programme d'installation officiel :
brew install ultraviolet/uv/uv
ou
curl -sSf https://install.ultraviolet.rs/mac
- Vérifier les installations :
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian) :
- Python :
sudo apt update
sudo apt install python3 python3-pip
- SQLite :
sudo apt install sqlite3
- uv/uvx :
curl -sSf https://install.ultraviolet.rs/linux
- Vérifier les installations :
python3 --version
sqlite3 --version
uv --version
Une fois que tout a été téléchargé et que votre système est prêt, vous êtes prêt à installer Dolphin MCP.
Installation de Dolphin MCP
Il existe deux façons d'installer Dolphin MCP sur votre système, soit en tant que package de PyPI, soit directement à partir de la source.
Option 1 : Installer à partir de PyPI (recommandé)
La méthode la plus simple consiste à installer Dolphin MCP via pip :
pip install dolphin-mcp
Cette commande installe à la fois la bibliothèque et l'outil en ligne de commande dolphin-mcp-cli
, ce qui vous permet d'utiliser l'outil directement depuis votre terminal.
Option 2 : Installer à partir de la source
Si vous préférez travailler directement avec le code source ou si vous avez l'intention de contribuer au projet, vous devez suivre les étapes ci-dessous :
Clonez le référentiel :
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
Installer en mode développement :
pip install -e .
Configurez les variables d'environnement :
Copiez le fichier d'environnement d'exemple (le fichier .env.example
dans le projet) et mettez-le à jour avec votre clé API. Vous pouvez éventuellement spécifier l'URL de base de votre modèle :
cp .env.example .env
N'hésitez pas à modifier le fichier .env
comme vous le souhaitez pour inclure votre clé API OpenAI (et toutes les autres clés dont vous avez besoin).
(Facultatif) Configurez la base de données de démonstration :
Si vous souhaitez tester le système avec des exemples de données pour voir si Dophin MCP a correctement connecté vos modèles à votre MCP, exécutez :
python setup_db.py
Cette commande crée un exemple de base de données SQLite avec des informations sur les espèces de dauphins à des fins de démonstration. Faites attention au chemin de sortie où la base de données SQLite nouvellement créée sera enregistrée. La base de données contient des données factices sur les dauphins. Assurez-vous de le vérifier si vous aimez !
Configuration et variables d'environnement
Dolphin MCP utilise deux principaux fichiers de configuration pour gérer vos paramètres : le fichier .env
et le fichier mcp_config.json
.
Fichier .env
Le fichier .env
stocke les informations d'identification API sensibles. Par exemple :
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # Uncomment and update if needed
mcp_config.json
Ce fichier JSON définit les serveurs MCP auxquels votre client se connectera. Un exemple de configuration pourrait ressembler à ceci :
{
"mcpServers": {
"server1": {
"command": "command-to-start-server",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "value1",
"ENV_VAR2": "value2"
}
},
"server2": {
"command": "another-server-command",
"args": ["--option", "value"]
}
}
}
En configurant ces fichiers, vous permettez à Dolphin MCP de stocker et d'utiliser en toute sécurité vos clés API et de vous connecter à plusieurs serveurs MCP simultanément.
Tester et utiliser Dolphin MCP
Dolphin MCP offre des moyens flexibles de tester et d'interagir avec votre serveur MCP, que vous préfériez les commandes CLI, l'intégration Python ou un script hérité.
Utilisation de la commande CLI
Le moyen le plus simple d'interagir avec votre serveur MCP est d'utiliser la commande CLI. Une fois votre environnement configuré et votre serveur MCP en cours d'exécution, vous pouvez envoyer une requête directement depuis votre terminal. Par exemple :
dolphin-mcp-cli "Quelles espèces de dauphins sont en voie de disparition ?"
Options clés :
--model <name>
: Spécifiez un modèle (par exemple,gpt-4o
).--quiet
: Masquer la sortie intermédiaire.--config <file>
: Utilisez un fichier de configuration personnalisé.
Exemple :
dolphin-mcp-cli --model gpt-4o "Énumérer les dauphins de l'océan Atlantique"
Cela achemine votre requête vers les serveurs MCP connectés (Ollama, OpenAI, etc.) et renvoie des résultats structurés.
Via la bibliothèque Python
Si vous préférez intégrer Dolphin MCP directement dans votre code Python, la bibliothèque fournit une fonction pratique appelée run_interaction
. Cela vous permet d'intégrer les interactions MCP dans le cadre d'une application plus large. Voici un exemple de script qui montre comment utiliser la bibliothèque par programmation :
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="Quelles espèces de dauphins sont en voie de disparition ?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
Cela gère automatiquement les connexions au serveur, la découverte des outils et les appels de modèles.
Script hérité
Pour des tests rapides (pour ceux qui préfèrent une approche plus simple), exécutez le script d'origine directement à partir de la ligne de commande. Cette méthode fournit les mêmes fonctionnalités que la CLI, mais sous une forme plus simple :
python dolphin_mcp.py "Analyser les schémas de migration des dauphins"
Il se connecte aux serveurs, répertorie les outils et renvoie des résultats conversationnels sans options supplémentaires.
Exemples de requêtes et base de données de démonstration
Essayez ces requêtes :
- Général :
dolphin-mcp-cli "Expliquer l'évolution des dauphins"
- Spécifique au modèle :
dolphin-mcp-cli --model ollama "Définir la physique quantique"
- Mode silencieux :
dolphin-mcp-cli --quiet "Énumérer les espèces en voie de disparition"
Base de données de démonstration :
Exécutez setup_db.py
pour créer un exemple de base de données SQLite avec des données sur les espèces de dauphins. Utilisez-le pour tester des requêtes comme :
dolphin-mcp-cli "Quels dauphins sont en danger critique d'extinction ?"
Sortie :
{
"species": "Dauphin de Maui",
"status": "En danger critique d'extinction"
}
Avec ces outils, Dolphin MCP s'adapte à votre flux de travail, que vous déboguiez, scriptiez ou construisiez des systèmes d'IA complexes. N'hésitez pas à consulter également leur référentiel GitHub.
Conclusion
Dolphin MCP révolutionne l'intégration de l'IA en connectant de manière transparente des outils comme Ollama et OpenAI dans un flux de travail unifié. Avec sa CLI pour les requêtes en langage naturel, sa bibliothèque Python pour le contrôle programmatique et sa base de données de démonstration pour les tests, il permet aux développeurs de créer des agents d'IA sophistiqués sans code passe-partout. Qu'il s'agisse d'analyser des données de conservation, de générer des rapports ou d'expérimenter avec des LLM locaux, Dolphin MCP simplifie les tâches complexes tout en conservant une flexibilité. Sa prise en charge multi-modèles et sa configuration intuitive le rendent idéal pour les prototypes rapides et les systèmes de production.
Prêt à rationaliser vos projets d'IA ? Téléchargez Apidog pour tester les API de votre serveur MCP et commencez à créer des flux de travail plus intelligents dès aujourd'hui !