Comment utiliser MCP avec Ollama (sans Claude, avec Dolphin MCP)

Découvrez MCP avec Ollama, OpenAI, Deepseek et Dolphin. Guide d'installation, intégration et test de votre serveur MCP IA.

Louis Dupont

Louis Dupont

5 June 2025

Comment utiliser MCP avec Ollama (sans Claude, avec Dolphin MCP)

Connecter des modèles de langage avec des sources de données externes est essentiel pour créer des applications robustes et intelligentes. Model Context Protocol (MCP) est un cadre standardisé qui rationalise l'échange de contexte et de données entre les modèles d'IA et les systèmes externes. Que vous construisiez des chatbots, des moteurs de recherche ou des outils d'analyse de données, MCP aide à combler le fossé entre différents modèles et API, assurant un flux d'informations transparent.

Imaginez un système où vous pouvez facilement basculer entre l'utilisation d'Ollama pour l'inférence de modèles locaux et légers, d'OpenAI pour la compréhension du langage naturel de pointe et de Deepseek pour de puissantes capacités de recherche. Maintenant, ajoutez Dolphin MCP—une bibliothèque Python open-source et un outil CLI qui simplifie cette intégration. Dolphin MCP se connecte non seulement à plusieurs serveurs MCP simultanément, mais met également leurs outils à la disposition des modèles de langage grâce à des requêtes en langage naturel.

Dans ce tutoriel, nous vous guiderons à travers tout, de l'installation de Dolphin MCP à son intégration avec des modèles comme Ollama et OpenAI.

💡
Avant de plonger, voici une astuce rapide : Téléchargez Apidog gratuitement dès aujourd'hui ! C'est un excellent outil pour les développeurs qui souhaitent simplifier les tests des modèles d'IA, en particulier ceux qui utilisent des LLM (Large Language Models). Apidog vous aide à rationaliser le processus de test des API, ce qui facilite le travail avec les technologies d'IA de pointe. Essayez-le !
Apidog — the all-in-one API development tool
button

Qu'est-ce que MCP ? (En commençant par les bases)

Model Context Protocol (MCP) est un cadre conçu pour standardiser l'interaction entre les modèles d'IA et les applications externes. Il permet à différents modèles de partager du contexte, d'échanger des données et d'appeler des outils de manière unifiée et conversationnelle. Avec MCP, vous pouvez :

En utilisant MCP, les développeurs peuvent se concentrer sur la création de solutions innovantes sans se soucier des complexités sous-jacentes de la communication inter-modèles. Cliquez ici si vous souhaitez un tutoriel plus approfondi sur MCP et ce qu'il est.

Pourquoi utiliser Dolphin MCP ?

Dolphin MCP est une bibliothèque Python open-source et un outil CLI qui facilite incroyablement l'interaction avec plusieurs serveurs MCP (vous pouvez en avoir autant que vous le souhaitez). Sa conception met l'accent sur la modularité et la facilité d'utilisation, offrant une API claire pour l'intégration avec divers modèles de langage comme OpenAI, Anthropic et Ollama, ainsi que des sources de données externes comme Deepseek. Vous pouvez simplement basculer entre les modèles en fonction des besoins de la tâche sur laquelle vous travaillez !

Principales caractéristiques :

Dolphin MCP simplifie le processus de création d'une interface conversationnelle pour la manipulation des données et l'interaction avec les modèles d'IA, ce qui en fait un atout puissant pour tout développeur.

Conditions préalables et configuration de l'environnement

Avant de plonger dans les étapes d'installation et d'intégration, assurons-nous que votre environnement est correctement configuré pour fonctionner avec Dophin MCP.

Configuration système requise :

Configuration spécifique à la plateforme :

Windows :

curl -sSf https://install.ultraviolet.rs/windows
python --version
sqlite3 --version
uv --version

macOS :

brew install python
brew install sqlite
brew install ultraviolet/uv/uv

ou

curl -sSf https://install.ultraviolet.rs/mac
python3 --version
sqlite3 --version
uv --version

Linux (Ubuntu/Debian) :

sudo apt update
sudo apt install python3 python3-pip
sudo apt install sqlite3
curl -sSf https://install.ultraviolet.rs/linux
python3 --version
sqlite3 --version
uv --version

Une fois que tout a été téléchargé et que votre système est prêt, vous êtes prêt à installer Dolphin MCP.

Installation de Dolphin MCP

Il existe deux façons d'installer Dolphin MCP sur votre système, soit en tant que package de PyPI, soit directement à partir de la source.

Option 1 : Installer à partir de PyPI (recommandé)

La méthode la plus simple consiste à installer Dolphin MCP via pip :

pip install dolphin-mcp

Cette commande installe à la fois la bibliothèque et l'outil en ligne de commande dolphin-mcp-cli, ce qui vous permet d'utiliser l'outil directement depuis votre terminal.

Option 2 : Installer à partir de la source

Si vous préférez travailler directement avec le code source ou si vous avez l'intention de contribuer au projet, vous devez suivre les étapes ci-dessous :

Clonez le référentiel :

git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp

Installer en mode développement :

pip install -e .

Configurez les variables d'environnement :

Copiez le fichier d'environnement d'exemple (le fichier .env.example dans le projet) et mettez-le à jour avec votre clé API. Vous pouvez éventuellement spécifier l'URL de base de votre modèle :

cp .env.example .env

N'hésitez pas à modifier le fichier .env comme vous le souhaitez pour inclure votre clé API OpenAI (et toutes les autres clés dont vous avez besoin).

(Facultatif) Configurez la base de données de démonstration :

Si vous souhaitez tester le système avec des exemples de données pour voir si Dophin MCP a correctement connecté vos modèles à votre MCP, exécutez :

python setup_db.py

Cette commande crée un exemple de base de données SQLite avec des informations sur les espèces de dauphins à des fins de démonstration. Faites attention au chemin de sortie où la base de données SQLite nouvellement créée sera enregistrée. La base de données contient des données factices sur les dauphins. Assurez-vous de le vérifier si vous aimez !

Configuration et variables d'environnement

Dolphin MCP utilise deux principaux fichiers de configuration pour gérer vos paramètres : le fichier .env et le fichier mcp_config.json.

Fichier .env

Le fichier .env stocke les informations d'identification API sensibles. Par exemple :

OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1  # Uncomment and update if needed

mcp_config.json

Ce fichier JSON définit les serveurs MCP auxquels votre client se connectera. Un exemple de configuration pourrait ressembler à ceci :

{
  "mcpServers": {
    "server1": {
      "command": "command-to-start-server",
      "args": ["arg1", "arg2"],
      "env": {
        "ENV_VAR1": "value1",
        "ENV_VAR2": "value2"
      }
    },
    "server2": {
      "command": "another-server-command",
      "args": ["--option", "value"]
    }
  }
}

En configurant ces fichiers, vous permettez à Dolphin MCP de stocker et d'utiliser en toute sécurité vos clés API et de vous connecter à plusieurs serveurs MCP simultanément.

Tester et utiliser Dolphin MCP

Dolphin MCP offre des moyens flexibles de tester et d'interagir avec votre serveur MCP, que vous préfériez les commandes CLI, l'intégration Python ou un script hérité.

Utilisation de la commande CLI

Le moyen le plus simple d'interagir avec votre serveur MCP est d'utiliser la commande CLI. Une fois votre environnement configuré et votre serveur MCP en cours d'exécution, vous pouvez envoyer une requête directement depuis votre terminal. Par exemple :

dolphin-mcp-cli "Quelles espèces de dauphins sont en voie de disparition ?"  

Options clés :

Exemple :

dolphin-mcp-cli --model gpt-4o "Énumérer les dauphins de l'océan Atlantique"  

Cela achemine votre requête vers les serveurs MCP connectés (Ollama, OpenAI, etc.) et renvoie des résultats structurés.

Via la bibliothèque Python

Si vous préférez intégrer Dolphin MCP directement dans votre code Python, la bibliothèque fournit une fonction pratique appelée run_interaction. Cela vous permet d'intégrer les interactions MCP dans le cadre d'une application plus large. Voici un exemple de script qui montre comment utiliser la bibliothèque par programmation :

import asyncio  
from dolphin_mcp import run_interaction  

async def main():  
    result = await run_interaction(  
        user_query="Quelles espèces de dauphins sont en voie de disparition ?",  
        model_name="gpt-4o",  
        quiet_mode=False  
    )  
    print(result)  

asyncio.run(main())  

Cela gère automatiquement les connexions au serveur, la découverte des outils et les appels de modèles.

Script hérité

Pour des tests rapides (pour ceux qui préfèrent une approche plus simple), exécutez le script d'origine directement à partir de la ligne de commande. Cette méthode fournit les mêmes fonctionnalités que la CLI, mais sous une forme plus simple :

python dolphin_mcp.py "Analyser les schémas de migration des dauphins"  

Il se connecte aux serveurs, répertorie les outils et renvoie des résultats conversationnels sans options supplémentaires.

Exemples de requêtes et base de données de démonstration

Essayez ces requêtes :

Base de données de démonstration :
Exécutez setup_db.py pour créer un exemple de base de données SQLite avec des données sur les espèces de dauphins. Utilisez-le pour tester des requêtes comme :

dolphin-mcp-cli "Quels dauphins sont en danger critique d'extinction ?"  

Sortie :

{  
  "species": "Dauphin de Maui",  
  "status": "En danger critique d'extinction"  
}  

Avec ces outils, Dolphin MCP s'adapte à votre flux de travail, que vous déboguiez, scriptiez ou construisiez des systèmes d'IA complexes. N'hésitez pas à consulter également leur référentiel GitHub.

Conclusion


Dolphin MCP révolutionne l'intégration de l'IA en connectant de manière transparente des outils comme Ollama et OpenAI dans un flux de travail unifié. Avec sa CLI pour les requêtes en langage naturel, sa bibliothèque Python pour le contrôle programmatique et sa base de données de démonstration pour les tests, il permet aux développeurs de créer des agents d'IA sophistiqués sans code passe-partout. Qu'il s'agisse d'analyser des données de conservation, de générer des rapports ou d'expérimenter avec des LLM locaux, Dolphin MCP simplifie les tâches complexes tout en conservant une flexibilité. Sa prise en charge multi-modèles et sa configuration intuitive le rendent idéal pour les prototypes rapides et les systèmes de production.

Prêt à rationaliser vos projets d'IA ? Téléchargez Apidog pour tester les API de votre serveur MCP et commencez à créer des flux de travail plus intelligents dès aujourd'hui !

button

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API