Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de API

Cómo usar MCP con Ollama (sin Claude, con Dolphin MCP)

Descubre cómo usar MCP con Ollama, OpenAI y Deepseek usando Dolphin MCP. Sigue esta guía para configurar, integrar y probar tu servidor MCP impulsado por IA.

Daniel Costa

Daniel Costa

Updated on April 15, 2025

Conectar modelos de lenguaje con fuentes de datos externas es fundamental para construir aplicaciones robustas e inteligentes. El Protocolo de Contexto del Modelo (MCP) es un marco estandarizado que agiliza el intercambio de contexto y datos entre modelos de IA y sistemas externos. Ya sea que esté creando chatbots, motores de búsqueda o herramientas de análisis de datos, MCP ayuda a cerrar la brecha entre diferentes modelos y API, lo que garantiza un flujo de información continuo.

Imagine un sistema donde pueda cambiar fácilmente entre el uso de Ollama para la inferencia de modelos locales y ligeros, OpenAI para la comprensión del lenguaje natural de vanguardia y Deepseek para capacidades de búsqueda potentes. Ahora, agregue Dolphin MCP: una biblioteca de Python de código abierto y una herramienta CLI que simplifica esta integración. Dolphin MCP no solo se conecta a múltiples servidores MCP simultáneamente, sino que también pone sus herramientas a disposición de los modelos de lenguaje a través de consultas en lenguaje natural.

En este tutorial, lo guiaremos a través de todo, desde la instalación de Dolphin MCP hasta su integración con modelos como Ollama y OpenAI.

💡
Antes de sumergirnos, aquí hay un consejo rápido: ¡Descargue Apidog gratis hoy! Es una gran herramienta para los desarrolladores que desean simplificar las pruebas de modelos de IA, especialmente aquellos que usan LLM (Modelos de Lenguaje Grandes). Apidog le ayuda a optimizar el proceso de prueba de API, lo que facilita el trabajo con tecnologías de IA de vanguardia. ¡Pruébelo!
Apidog — the all-in-one API development tool
button

¿Qué es MCP? (Empezando por lo básico)

El Protocolo de Contexto del Modelo (MCP) es un marco diseñado para estandarizar la interacción entre los modelos de IA y las aplicaciones externas. Permite que diferentes modelos compartan contexto, intercambien datos y llamen a herramientas de una manera unificada y conversacional. Con MCP, puedes:

  • Mantener un historial de conversación continuo a través de diferentes consultas.
  • Descubrir e invocar dinámicamente herramientas o API externas.
  • Integrar múltiples proveedores de IA bajo un único protocolo estandarizado.

Al usar MCP, los desarrolladores pueden concentrarse en construir soluciones innovadoras sin preocuparse por las complejidades subyacentes de la comunicación entre modelos. Haga clic aquí si desea un tutorial más profundo sobre MCP y de qué se trata.

¿Por qué usar Dolphin MCP?

Dolphin MCP es una biblioteca de Python de código abierto y una herramienta CLI que hace que sea increíblemente simple interactuar con múltiples servidores MCP (puede tener tantos como desee). Su diseño enfatiza la modularidad y la facilidad de uso, proporcionando una API limpia para la integración con varios modelos de lenguaje como OpenAI, Anthropic y Ollama, así como fuentes de datos externas como Deepseek. ¡Simplemente puede cambiar entre modelos de acuerdo con las necesidades de la tarea en la que está trabajando!

Características clave:

  • Soporte para múltiples proveedores: Funciona a la perfección con Ollama, OpenAI, DeepSeek y muchos más.
  • Interfaz dual: Úselo como una biblioteca de Python o a través de su herramienta de línea de comandos.
  • Descubrimiento de herramientas: Detecta y usa automáticamente las herramientas proporcionadas por los servidores MCP.
  • Arquitectura modular: Disfrute de una separación limpia de preocupaciones con módulos específicos del proveedor.
  • Configuración flexible: Configure fácilmente modelos y servidores MCP usando JSON y variables de entorno.
  • Reutilización: Construya integraciones escalables y reutilizables que se puedan adaptar rápidamente a nuevos requisitos.

Dolphin MCP simplifica el proceso de construcción de una interfaz conversacional para la manipulación de datos y la interacción con modelos de IA, lo que lo convierte en un activo poderoso para cualquier desarrollador.

Requisitos previos y configuración del entorno

Antes de sumergirnos en los pasos de instalación e integración, asegurémonos de que su entorno esté configurado correctamente para trabajar con Dophin MCP.

Requisitos del sistema:

  • Python 3.8 o superior: Asegúrese de tener Python instalado. Puede descargarlo desde python.org.
  • SQLite: Utilizado por la base de datos de demostración para almacenar datos de muestra (Opcional).
  • uv/uvx: Un instalador y resolutor de paquetes de Python rápido.
  • Node.js 18+ (si usa integraciones CLI): Requerido para algunas herramientas adicionales.

Configuración específica de la plataforma:

Windows:

  • Python: Descargue desde python.org y recuerde marcar "Agregar Python a PATH".
  • SQLite: Descargue binarios precompilados del sitio web de SQLite, extráigalos y agregue la carpeta a su PATH.
  • uv/uvx: Abra su Windows PowerShell como Administrador y ejecute:
curl -sSf https://install.ultraviolet.rs/windows
  • Verificar instalaciones:
python --version
sqlite3 --version
uv --version

macOS:

  • Python: Instale usando Homebrew:
brew install python
  • SQLite: Preinstalado en macOS, o actualice usando:
brew install sqlite
  • uv/uvx: Instale con Homebrew o el instalador oficial:
brew install ultraviolet/uv/uv

o

curl -sSf https://install.ultraviolet.rs/mac
  • Verificar instalaciones:
python3 --version
sqlite3 --version
uv --version

Linux (Ubuntu/Debian):

  • Python:
sudo apt update
sudo apt install python3 python3-pip
  • SQLite:
sudo apt install sqlite3
  • uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
  • Verificar instalaciones:
python3 --version
sqlite3 --version
uv --version

Una vez que todo se haya descargado y su sistema esté listo, estará listo para instalar Dolphin MCP.

Instalación de Dolphin MCP

Hay dos formas en que Dolphin MCP se puede instalar en su sistema, ya sea como un paquete de PyPI o directamente desde la fuente.

Opción 1: Instalar desde PyPI (Recomendado)

El método más simple es instalar Dolphin MCP a través de pip:

pip install dolphin-mcp

Este comando instala tanto la biblioteca como la herramienta de línea de comandos dolphin-mcp-cli, que le permite usar la herramienta directamente desde su terminal.

Opción 2: Instalar desde la fuente

Si prefiere trabajar directamente con el código fuente o tiene la intención de contribuir al proyecto, debe seguir los pasos a continuación:

Clonar el repositorio:

git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp

Instalar en modo de desarrollo:

pip install -e .

Configurar las variables de entorno:

Copie el archivo de entorno de ejemplo (el archivo .env.example en el proyecto) y actualícelo con su clave API. Opcionalmente, puede especificar la URL base para su modelo:

cp .env.example .env

Siéntase libre de editar el archivo .env como desee para incluir su clave API de OpenAI (y cualquier otra clave que necesite).

(Opcional) Configurar la base de datos de demostración:

Si desea probar el sistema con algunos datos de muestra para ver si Dophin MCP conectó con éxito sus modelos a su MCP, ejecute:

python setup_db.py

Este comando crea una base de datos SQLite de muestra con información sobre especies de delfines con fines de demostración. Preste atención a la ruta de salida donde se guardará la base de datos SQLite recién creada. La base de datos contiene algunos datos simulados sobre Dolphin. ¡Asegúrese de echarle un vistazo si le gusta!

Configuración y variables de entorno

Dolphin MCP utiliza dos archivos de configuración principales para administrar su configuración: el archivo .env y el archivo mcp_config.json.

Archivo .env

El archivo .env almacena credenciales API confidenciales. Por ejemplo:

OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1  # Descomente y actualice si es necesario

mcp_config.json

Este archivo JSON define los servidores MCP a los que se conectará su cliente. Una configuración de ejemplo podría verse así:

{
  "mcpServers": {
    "server1": {
      "command": "command-to-start-server",
      "args": ["arg1", "arg2"],
      "env": {
        "ENV_VAR1": "value1",
        "ENV_VAR2": "value2"
      }
    },
    "server2": {
      "command": "another-server-command",
      "args": ["--option", "value"]
    }
  }
}

Al configurar estos archivos, permite que Dolphin MCP almacene y use de forma segura sus claves API y se conecte a múltiples servidores MCP simultáneamente.

Probar y usar Dolphin MCP

Dolphin MCP ofrece formas flexibles de probar e interactuar con su servidor MCP, ya sea que prefiera comandos CLI, integración de Python o un script heredado.

Usar el comando CLI

La forma más sencilla de interactuar con su servidor MCP es a través del comando CLI. Una vez que su entorno esté configurado y su servidor MCP esté en funcionamiento, puede enviar una consulta directamente desde su terminal. Por ejemplo:

dolphin-mcp-cli "¿Qué especies de delfines están en peligro de extinción?"

Opciones clave:

  • --model <name>: Especifique un modelo (por ejemplo, gpt-4o).
  • --quiet: Ocultar la salida intermedia.
  • --config <file>: Use un archivo de configuración personalizado.

Ejemplo:

dolphin-mcp-cli --model gpt-4o "Enumere los delfines en el Océano Atlántico"

Esto enruta su consulta a los servidores MCP conectados (Ollama, OpenAI, etc.) y devuelve resultados estructurados.

A través de la biblioteca de Python

Si prefiere integrar Dolphin MCP directamente en su código Python, la biblioteca proporciona una función conveniente llamada run_interaction. Esto le permite incrustar interacciones MCP como parte de una aplicación más grande. Aquí hay un script de ejemplo que demuestra cómo usar la biblioteca mediante programación:

import asyncio
from dolphin_mcp import run_interaction

async def main():
    result = await run_interaction(
        user_query="¿Qué especies de delfines están en peligro de extinción?",
        model_name="gpt-4o",
        quiet_mode=False
    )
    print(result)

asyncio.run(main())

Esto maneja las conexiones del servidor, el descubrimiento de herramientas y las llamadas al modelo automáticamente.

Script heredado

Para pruebas rápidas (para aquellos que prefieren un enfoque más directo), ejecute el script original directamente desde la línea de comandos. Este método proporciona la misma funcionalidad que la CLI pero de una forma más simple:

python dolphin_mcp.py "Analizar los patrones de migración de los delfines"

Se conecta a los servidores, enumera las herramientas y devuelve resultados conversacionales sin opciones adicionales.

Consultas de ejemplo y base de datos de demostración

Pruebe estas consultas:

  • General: dolphin-mcp-cli "Explicar la evolución de los delfines"
  • Específico del modelo: dolphin-mcp-cli --model ollama "Definir la física cuántica"
  • Modo silencioso: dolphin-mcp-cli --quiet "Enumere las especies en peligro de extinción"

Base de datos de demostración:
Ejecute setup_db.py para crear una base de datos SQLite de muestra con datos de especies de delfines. Úselo para probar consultas como:

dolphin-mcp-cli "¿Qué delfines están en peligro crítico de extinción?"

Salida:

{
  "species": "Maui Dolphin",
  "status": "Critically Endangered"
}

Con estas herramientas, Dolphin MCP se adapta a su flujo de trabajo, ya sea que esté depurando, creando scripts o construyendo sistemas de IA complejos. Siéntase libre de visitar también su repositorio de GitHub.

Conclusión


Dolphin MCP revoluciona la integración de la IA al conectar a la perfección herramientas como Ollama y OpenAI en un flujo de trabajo unificado. Con su CLI para consultas en lenguaje natural, la biblioteca de Python para el control programático y la base de datos de demostración para las pruebas, permite a los desarrolladores construir agentes de IA sofisticados sin código repetitivo. Ya sea que analice datos de conservación, genere informes o experimente con LLM locales, Dolphin MCP simplifica las tareas complejas al tiempo que mantiene la flexibilidad. Su soporte multi-modelo y su configuración intuitiva lo hacen ideal tanto para prototipos rápidos como para sistemas de producción.

¿Listo para optimizar sus proyectos de IA? ¡Descargue Apidog para probar las API de su servidor MCP y comience a construir flujos de trabajo más inteligentes hoy mismo!

button
Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con OllamaPunto de vista

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

Mikael Svenson

April 28, 2025

¿Dónde Descargar Swagger UI en Español Gratis?Punto de vista

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

Oliver Kingsley

April 23, 2025

¿Dónde Descargar Postman en Español Gratis?Punto de vista

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

Oliver Kingsley

April 22, 2025