¿Te gustaría conectar tu modelo de lenguaje favorito (LLM) a un conjunto de superpoderes, como scraping web o operaciones con archivos, sin enredarte en el código? Ahí es donde entra MCP-Use: una elegante biblioteca de Python de código abierto que te permite conectar cualquier LLM a cualquier servidor MCP con facilidad. ¡Piénsalo como un adaptador universal para tus sueños de IA impulsados por API! En esta guía para principiantes, te guiaré sobre cómo usar MCP-Use para conectar LLMs y servidores del Protocolo de Contexto de Modelo (MCP). Ya seas un programador o simplemente curioso, este tutorial te cubre. ¿Listo para convertir tu LLM en una estrella del multitasking? ¡Vamos a sumergirnos!

Ahora, vamos a sumergirnos en la magia de MCP-Use…
¿Qué es MCP-Use? Tu Conector de IA a Herramientas
Entonces, ¿qué es MCP-Use? Es una biblioteca de Python que actúa como un puente, permitiendo que cualquier LLM (piensa en Claude, GPT-4o o DeepSeek) se comunique con servidores MCP—herramientas especializadas que dan acceso a la IA a cosas como navegadores web, sistemas de archivos o incluso búsquedas de Airbnb. Basado en adaptadores de LangChain, MCP-Use simplifica la conexión de la API de tu LLM a estos servidores, así que puedes construir agentes personalizados que hagan más que solo chatear. Los usuarios lo llaman “la forma de código abierto de construir clientes MCP locales”, y no están equivocados: es 100% gratuito y flexible.

¿Por qué molestarse? Los servidores MCP son como puertos USB para la IA, permitiendo que tu LLM llame funciones, obtenga datos o automatice tareas a través de interfaces estandarizadas como API. Con MCP-Use, no necesitas luchar con integraciones personalizadas: solo conecta y juega. ¡Vamos a configurarlo!
Instalando MCP-Use: Rápido y Sin Dolor
Hacer funcionar MCP-Use es muy fácil, especialmente si te sientes cómodo con Python. El repositorio de GitHub (github.com/pietrozullo/mcp-use) lo explica claramente. Aquí tienes cómo empezar.
Paso 1: Requisitos Previos
Necesitarás:
- Python: Versión 3.11 o superior. Verifica con
python --version
. ¿No tienes Python? Consíguelo en python.org.

- pip: El gestor de paquetes de Python (generalmente viene con Python).
- Git (opcional): Para clonar el repositorio si quieres el código más reciente.
- Claves de API: Para LLMs premium como OpenAI o Anthropic. Cubriremos esto más adelante.
Paso 2: Instalar MCP-Use
Usaremos pip
en un entorno virtual para mantener las cosas ordenadas:
Crea una Carpeta de Proyecto:
mkdir mcp-use-project
cd mcp-use-project
Configura un Entorno Virtual:
python -m venv mcp-env
Actívalo:
- Mac/Linux:
source mcp-env/bin/activate
- Windows:
mcp-env\Scripts\activate
Instala MCP-Use:
pip install mcp-use
O, si quieres la versión más avanzada, clona el repositorio:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .
Agrega Proveedores de LangChain:
MCP-Use depende de LangChain para las conexiones LLM. Instala el proveedor para tu LLM:
- OpenAI:
pip install langchain-openai
- Anthropic:
pip install langchain-anthropic
- Otros: Verifica la documentación de modelos de chat de LangChain.

Verifica la Instalación:
Ejecuta:
python -c "import mcp_use; print(mcp_use.__version__)"
Deberías ver un número de versión (por ejemplo, 0.42.1 a partir de abril de 2025). Si no, verifica tu versión de Python o pip.
¡Eso es todo! MCP-Use está listo para conectar tu LLM a servidores MCP. Me tomó unos cinco minutos—¿cómo va tu configuración?
Conectando un LLM a un Servidor MCP con MCP-Use
Ahora, hagamos que la magia suceda: conectar un LLM a un servidor MCP usando MCP-Use. Usaremos un ejemplo simple: conectar GPT-4o de OpenAI a un servidor MCP de Playwright para navegación web.
Paso 1: Obtén tu Clave de API de LLM
Para GPT-4o, obtén una clave de API en platform.openai.com. Regístrate, crea una clave y guárdala de forma segura. Otros LLMs como Claude (a través de console.anthropic.com) o DeepSeek (en la plataforma de deepseek) también funcionarán.

Paso 2: Configura las Variables de Entorno
MCP-Use ama los archivos .env
para el almacenamiento seguro de claves de API. Crea un archivo .env
en tu carpeta de proyecto:
touch .env
Agrega tu clave y guárdala:
OPENAI_API_KEY=sk-xxx
Importante: mantén tus claves de API fuera de Git agregando el archivo .env
a .gitignore
.
Paso 3: Configura el Servidor MCP
Los servidores MCP proporcionan herramientas que tu LLM puede usar. Usaremos el servidor MCP de Playwright para la automatización del navegador. Crea un archivo de configuración llamado browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
Esto le indica a MCP-Use que ejecute el servidor MCP de Playwright. Guárdalo en tu carpeta de proyecto.
Paso 4: Escribe tu Primer Script de MCP-Use
Vamos a crear un script de Python para conectar GPT-4o al servidor de Playwright y encontrar un restaurante. Crea mcp_example.py
:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
# Cargar variables de entorno
load_dotenv()
# Crear MCPClient desde el archivo de configuración
client = MCPClient.from_config_file("browser_mcp.json")
# Crear LLM (asegúrate de que el modelo soporte la llamada de herramientas)
llm = ChatOpenAI(model="gpt-4o")
# Crear agente
agent = MCPAgent(llm=llm, client=client, max_steps=30)
# Ejecutar una consulta
result = await agent.run("Encuentra el mejor restaurante en San Francisco")
print(f"\nResultado: {result}")
if __name__ == "__main__":
asyncio.run(main())
Este script:
- Carga tu clave de API desde
.env
. - Configura un cliente MCP con el servidor de Playwright.
- Conecta GPT-4o a través de LangChain.
- Ejecuta una consulta para buscar restaurantes.
Paso 5: Ejecútalo
Asegúrate de que tu entorno virtual esté activo, luego:
python mcp_example.py
MCP-Use iniciará el servidor de Playwright, permitirá que GPT-4o navegue por la web, y mostrará algo como: “Resultado: El mejor restaurante en San Francisco es Gary Danko, conocido por su exquisito menú degustación.” (¡Tus resultados pueden variar!) Hice esto y obtuve una recomendación sólida en menos de un minuto—¡bastante genial, ¿verdad?
Conectando a Múltiples Servidores MCP
MCP-Use brilla cuando te conectas a múltiples servidores para tareas complejas. Agreguemos un servidor MCP de Airbnb a nuestra configuración para búsquedas de alojamiento. Actualiza browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
},
"airbnb": {
"command": "npx",
"args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
}
}
}
Ejecuta de nuevo mcp_example.py
con una nueva consulta:
result = await agent.run("Encuentra un restaurante y un Airbnb en San Francisco")
MCP-Use permite que el LLM use ambos servidores: Playwright para búsquedas de restaurantes, Airbnb para alojamiento. El agente decide qué servidor llamar, haciendo que tu IA sea súper versátil.
Por qué MCP-Use es Genial para Principiantes
MCP-Use es el sueño de un principiante porque:
- Configuración Simple: Un
pip install
y un script corto te ponen en marcha. - Flexible: Funciona con cualquier LLM y servidor MCP, desde Claude hasta el rastreador de problemas de GitHub.
- Código Abierto: Gratis y personalizable, con una comunidad acogedora en GitHub.
En comparación con integraciones personalizadas de API, MCP-Use es mucho menos complicado, permitiéndote concentrarte en construir cosas geniales.
Consejos Profesionales para el Éxito de MCP-Use
- Verifica la Compatibilidad del Modelo: Solo los LLMs con capacidad de llamada de herramientas (como GPT-4o o Claude 3.7 Sonnet) funcionan.
- Usa Scalar para Especificaciones: Valida las especificaciones de API del servidor para evitar sorpresas.
- Explora Servidores MCP: Navega por mcp.so para servidores como Firecrawl (scraping web) o ElevenLabs (texto a voz).
- Únete a la Comunidad: Informa sobre errores o sugiere características en el GitHub de MCP-Use.
Conclusión: Tu Aventura con MCP-Use Te Espera
¡Felicitaciones! Ahora estás listo para potenciar cualquier LLM con MCP-Use! Desde conectar GPT-4o a un servidor de Playwright, tienes las herramientas para construir agentes de IA que navegan, buscan y más. Intenta agregar un servidor MCP de GitHub la próxima vez o pídele a tu agente que planee un viaje completo. El repositorio de MCP-Use tiene más ejemplos, y la comunidad de MCP está activa en X. Y para un extra de estilo API, no olvides visitar apidog.com.
