Comment connecter n'importe quel LLM à n'importe quel serveur MCP en utilisant MCP-Use

Apprenez à connecter LLM aux serveurs MCP avec MCP-Use. Guide débutant : config, clés API, Scalar et plus !

Louis Dupont

Louis Dupont

5 June 2025

Comment connecter n'importe quel LLM à n'importe quel serveur MCP en utilisant MCP-Use

Souhaitez-vous connecter votre modèle de langage volumineux (LLM) préféré à une boîte à outils de superpouvoirs, comme le web scraping ou les opérations sur fichiers, sans vous emmêler dans le code ? C’est là qu’intervient MCP-Use : une bibliothèque Python open source élégante qui vous permet de connecter n’importe quel LLM à n’importe quel serveur MCP avec facilité. Considérez-la comme un adaptateur universel pour vos rêves d’IA alimentés par API ! Dans ce guide du débutant, je vais vous expliquer comment utiliser MCP-Use pour relier les LLM et les serveurs Model Context Protocol (MCP). Que vous soyez codeur ou simplement curieux, ce tutoriel est fait pour vous. Prêt à faire de votre LLM une rockstar multitâche ? Plongeons-nous !

💡
Avant de commencer avec MCP-Use, saluons rapidement Apidog, un outil génial pour les amateurs d’API ! Il facilite la conception, le test et la documentation des API, ce qui est parfait lorsque vous créez des projets avec des serveurs MCP. Découvrez-le sur apidog.com : c’est le meilleur ami d’un développeur ! 
button

Maintenant, passons à la magie de MCP-Use

Qu’est-ce que MCP-Use ? Votre connecteur IA-outil

Alors, qu’est-ce que MCP-Use ? C’est une bibliothèque Python qui agit comme un pont, permettant à n’importe quel LLM (pensez à Claude, GPT-4o ou DeepSeek) de communiquer avec les serveurs MCP, des outils spécialisés qui donnent à l’IA accès à des éléments tels que les navigateurs Web, les systèmes de fichiers ou même les recherches Airbnb. Basé sur les adaptateurs LangChain, MCP-Use simplifie la connexion de l’API de votre LLM à ces serveurs, afin que vous puissiez créer des agents personnalisés qui font plus que simplement discuter. Les utilisateurs l’appellent « la méthode open source pour créer des clients MCP locaux », et ils n’ont pas tort : c’est 100 % gratuit et flexible.

mcp-use display image

Pourquoi s’embêter ? Les serveurs MCP sont comme des ports USB pour l’IA, permettant à votre LLM d’appeler des fonctions, d’extraire des données ou d’automatiser des tâches via des interfaces de type API standardisées. Avec MCP-Use, vous n’avez pas besoin de vous battre avec des intégrations personnalisées : il suffit de brancher et de jouer. Commençons !

Installation de MCP-Use : rapide et indolore

L’exécution de MCP-Use est un jeu d’enfant, surtout si vous êtes à l’aise avec Python. Le référentiel GitHub (github.com/pietrozullo/mcp-use) l’explique clairement. Voici comment commencer.

Étape 1 : Prérequis

Vous aurez besoin de :

python download

Étape 2 : Installer MCP-Use

Utilisons pip dans un environnement virtuel pour que tout soit bien rangé :

Créer un dossier de projet :

mkdir mcp-use-project
cd mcp-use-project

Configurer un environnement virtuel :

python -m venv mcp-env

Activez-le :

Installer MCP-Use :

pip install mcp-use

Ou, si vous souhaitez la version de pointe, clonez le référentiel :

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .

Ajouter des fournisseurs LangChain :
MCP-Use s’appuie sur LangChain pour les connexions LLM. Installez le fournisseur pour votre LLM :

langchain chat models

Vérifier l’installation :
Exécutez :

python -c "import mcp_use; print(mcp_use.__version__)"

Vous devriez voir un numéro de version (par exemple, 0.42.1 en avril 2025). Sinon, vérifiez votre version de Python ou pip.

C’est tout ! MCP-Use est prêt à connecter votre LLM aux serveurs MCP. Cela m’a pris environ cinq minutes, comment se passe votre configuration ?

Connecter un LLM à un serveur MCP avec MCP-Use

Maintenant, faisons en sorte que la magie opère : connecter un LLM à un serveur MCP à l’aide de MCP-Use. Nous allons utiliser un exemple simple : connecter GPT-4o d’OpenAI à un serveur Playwright MCP pour la navigation Web.

Étape 1 : Obtenez votre clé API LLM

Pour GPT-4o, récupérez une clé API sur platform.openai.com. Inscrivez-vous, créez une clé et enregistrez-la en toute sécurité. D’autres LLM comme Claude (via console.anthropic.com) ou DeepSeek (sur la plateforme Deepseek) fonctionneront également.

openai developer platform

Étape 2 : Configurer les variables d’environnement

MCP-Use adore les fichiers .env pour le stockage sécurisé des clés API. Créez un fichier .env dans votre dossier de projet :

touch .env

Ajoutez votre clé et enregistrez-la :

OPENAI_API_KEY=sk-xxx

Important : gardez vos API_Keys hors de Git en ajoutant le fichier .env à .gitignore.

Étape 3 : Configurer le serveur MCP

Les serveurs MCP fournissent des outils que votre LLM peut utiliser. Nous allons utiliser le serveur Playwright MCP pour l’automatisation du navigateur. Créez un fichier de configuration appelé browser_mcp.json :

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    }
  }
}

Cela indique à MCP-Use d’exécuter le serveur MCP de Playwright. Enregistrez-le dans votre dossier de projet.

Étape 4 : Écrivez votre premier script MCP-Use

Créons un script Python pour connecter GPT-4o au serveur Playwright et trouver un restaurant. Créez mcp_example.py :

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    # Load environment variables
    load_dotenv()

    # Create MCPClient from config file
    client = MCPClient.from_config_file("browser_mcp.json")

    # Create LLM (ensure model supports tool calling)
    llm = ChatOpenAI(model="gpt-4o")

    # Create agent
    agent = MCPAgent(llm=llm, client=client, max_steps=30)

    # Run a query
    result = await agent.run("Find the best restaurant in San Francisco")
    print(f"\nResult: {result}")

if __name__ == "__main__":
    asyncio.run(main())

Ce script :

Étape 5 : Exécutez-le

Assurez-vous que votre environnement virtuel est actif, puis :

python mcp_example.py

MCP-Use lancera le serveur Playwright, permettra à GPT-4o de naviguer sur le Web et imprimera quelque chose comme : « Résultat : le meilleur restaurant de San Francisco est Gary Danko, connu pour son menu dégustation exquis. » (Vos résultats peuvent varier !) J’ai exécuté cela et j’ai obtenu une recommandation solide en moins d’une minute, c’est plutôt cool, non ?

Connexion à plusieurs serveurs MCP

MCP-Use brille lorsque vous vous connectez à plusieurs serveurs pour des tâches complexes. Ajoutons un serveur Airbnb MCP à notre configuration pour les recherches d’hébergement. Mettez à jour browser_mcp.json :

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    },
    "airbnb": {
      "command": "npx",
      "args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
    }
  }
}

Réexécutez mcp_example.py avec une nouvelle requête :

result = await agent.run("Find a restaurant and an Airbnb in San Francisco")

MCP-Use permet au LLM d’utiliser les deux serveurs : Playwright pour les recherches de restaurants, Airbnb pour l’hébergement. L’agent décide quel serveur appeler, ce qui rend votre IA super polyvalente.

Pourquoi MCP-Use est génial pour les débutants

MCP-Use est le rêve d’un débutant car :

Comparé aux intégrations API personnalisées, MCP-Use est beaucoup moins problématique, ce qui vous permet de vous concentrer sur la création de choses sympas.

Conseils de pro pour la réussite de MCP-Use

Conclusion : Votre aventure MCP-Use vous attend

Félicitations, vous êtes maintenant prêt à suralimenter n’importe quel LLM avec MCP-Use ! De la connexion de GPT-4o à un serveur Playwright, vous disposez des outils nécessaires pour créer des agents d’IA qui naviguent, recherchent et bien plus encore. Essayez d’ajouter un serveur GitHub MCP ensuite ou demandez à votre agent de planifier tout un voyage. Le référentiel MCP-Use contient d’autres exemples, et la communauté MCP est en pleine effervescence sur X. Et pour un style API supplémentaire, n’oubliez pas de consulter apidog.com.

button
Apidog Ui image

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API