Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de API

Construyamos un agente de investigación profunda de código abierto utilizando servidores MCP

Descubre cómo crear un agente de investigación profunda personalizable con servidores MCP de código abierto para mayor privacidad y control.

Daniel Costa

Daniel Costa

Updated on April 15, 2025

¿Alguna vez has pensado en crear tu propio agente de investigación profunda de código abierto en lugar de depender de opciones propietarias como Deep Research de OpenAI y Deep Researcher de Google? Con potentes servidores del Protocolo de Contexto del Modelo (MCP) como Sequential-Thinking y Exa, puedes construir una alternativa impresionante y robusta a las herramientas propietarias.

💡
¡Impulsa tu flujo de trabajo de API mientras trabajas con IDEs de IA como Windsurf o Cursor con Apidog! Esta plataforma gratuita todo en uno te permite diseñar, probar, simular y documentar APIs sin problemas, todo en una sola interfaz. ¡Pruébalo y lleva tu desarrollo al siguiente nivel!
Apidog all in one image
button

En esta guía, te guiaremos a través de la configuración y ejecución de tu propio agente de investigación utilizando solo dos servidores MCP:
Sequential-Thinking – para un razonamiento y análisis estructurados
Exa – para búsquedas web potentes impulsadas por IA

💡
¡No olvides echar un vistazo a HiMCP, descubre más de 1682 servidores y clientes MCP increíbles y potencia tu flujo de trabajo de codificación de IA con facilidad!

Trabajaremos con Windsurf IDE e integraremos tu elección de modelos de IA. Para este tutorial, usaré DeepSeek V3, pero también puedes optar por modelos como:

  • Claude Sonnet 3.5 o 3.7 (de Anthropic)
  • GPT-4o o GPT-3.5 (de OpenAI)
  • O3-mini y otros

¡Empecemos! 🚀

¿Qué es un agente de investigación profunda de código abierto?

Entonces, ¿qué es realmente esta herramienta de "agente de investigación profunda de código abierto" en la que vamos a trabajar? En esencia, el agente de investigación profunda de código abierto es una herramienta diseñada para automatizar las tareas de investigación aprovechando el poder del Protocolo de Contexto del Modelo (MCP). Combina el poder del razonamiento impulsado por IA con las capacidades de búsqueda web, lo que te permite recopilar, analizar y resumir información de múltiples fuentes de manera eficiente.

Así es como funciona:

  • La herramienta se conecta a un servidor MCP, como Sequential-Thinking o Exa, para procesar las consultas de investigación de forma inteligente.
  • Se integra con modelos de IA para interpretar, resumir y generar información a partir de la información recopilada.
  • Utiliza capacidades de búsqueda web para obtener datos relevantes, asegurando que tu investigación sea completa y actualizada.
  • Dado que está construido con componentes de código abierto, tienes control total sobre tus datos, lo que garantiza la transparencia y la personalización.

¿Para quién es adecuado este agente de investigación profunda de código abierto?

Este agente de investigación profunda es ideal para:
1. Investigadores y académicos: recopila y analiza rápidamente información de diversas fuentes para respaldar la escritura académica, las revisiones de literatura o la exploración científica.
2. Periodistas y escritores: automatiza la investigación de antecedentes, la verificación de datos y la selección de contenido para artículos, informes o periodismo de investigación.
3. Desarrolladores y entusiastas de la IA: experimenta con flujos de trabajo impulsados por IA, crea asistentes de investigación personalizados o integra servidores MCP en sus proyectos.
4. Analistas y responsables políticos: extrae información de vastos conjuntos de datos, informes y fuentes de noticias para informar la toma de decisiones.
5. Estudiantes y aprendices de por vida: agiliza las sesiones de estudio resumiendo conceptos clave y generando explicaciones bien estructuradas.

¿Cuándo es más útil un agente de investigación profunda de código abierto?

1. Manejo de investigaciones a gran escala: cuando se trata de grandes cantidades de información en múltiples fuentes, un agente de investigación asistido por IA puede ahorrar tiempo y esfuerzo.
2. Automatización de tareas de investigación repetitivas: si realizas búsquedas similares con frecuencia, esta herramienta puede automatizar el proceso, reduciendo el trabajo manual.
3. Garantizar una investigación imparcial y transparente: a diferencia de las herramientas de investigación de código cerrado, una solución de código abierto te permite verificar cómo se procesan los datos y mantener el control total sobre tu flujo de trabajo.
4. Trabajar con modelos de IA personalizados: si prefieres usar un LLM específico (como DeepSeek v3) o necesitas modelos de IA específicos del dominio, esta herramienta te permite integrar el modelo de tu elección.
5. Mejora de la productividad: al combinar el razonamiento impulsado por IA con la búsqueda web, obtienes información bien organizada más rápido que con los métodos de investigación tradicionales.

Cómo configurar tu agente de investigación profunda de código abierto

Requisitos previos:

  1. Windsurf IDE: la última versión de Windsurf se puede instalar desde el sitio web oficial.
  2. Node.js: se recomienda la versión v20 o superior.
  3. npm: se recomienda tener la última versión de npm, sin embargo, deberías poder arreglártelas bien con la v7.

Paso 1: Crear una nueva carpeta de proyecto

Crear una nueva carpeta: comienza creando una nueva carpeta para tu proyecto, por ejemplo, deep_researcher.

Abrir con Windsurf IDE: abre esta carpeta usando Windsurf IDE, que admite la integración del servidor MCP.

Paso 2: Instalar el servidor MCP Sequential-Thinking

Instalar Sequential-Thinking MCP: ejecuta el siguiente comando para instalar y configurar el servidor MCP Sequential-Thinking. Esto configurará automáticamente el servidor sin requerir cambios de configuración manuales.

npx -y @smithery/cli@latest install @smithery-ai/server-sequential-thinking --client windsurf --config "{}"

Verificar la configuración: comprueba el archivo mcp_config.json en el directorio de configuración de Windsurf .codeium (si no recuerdas dónde instalaste Windsurf, intenta buscar en: C:/Users/You/.codeium/windsurf/mcp_config.json) para asegurarte de que el servidor Sequential-Thinking esté configurado correctamente. Debería verse algo como esto:

# archivo mcp_config.json

{
  "mcpServers": {
    "server-sequential-thinking": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "@smithery/cli@latest",
        "run",
        "@smithery-ai/server-sequential-thinking",
        "--config",
        "\"{}\""
      ]
    }
  }
}

Si el archivo está vacío, visita su repositorio de GitHub para obtener las configuraciones actualizadas o simplemente copia y pega la anterior.

Probar el servidor: prueba el servidor MCP Sequential-Thinking ejecutando comandos de muestra, como:

# Entrada de muestra
>> Usa el pensamiento secuencial para ayudarme a desarrollar un juego simple de Flappy Bird en Python.

Paso 3: Configurar el servidor MCP de búsqueda web Exa

Crear una cuenta de Exa y obtener la clave de API:

Visita el sitio web oficial de Exa, crea una cuenta y obtén una clave de API gratuita en la sección "Claves de API" de tu perfil.

access your exa api keys

Clonar el repositorio del servidor Exa MCP: clona el repositorio del servidor Exa MCP de GitHub:

git clone https://github.com/exa-labs/exa-mcp-server.git cd exa-mcp-server

Instalar dependencias y construir el proyecto:

Para instalar todas las dependencias usando npm, ejecuta el comando:

npm install

Construye el proyecto:

npm run build

Crear un enlace global:

Ejecuta el siguiente comando para hacer que el servidor Exa MCP sea ejecutable desde cualquier lugar ejecutando:

npm link

Configurar el servidor Exa MCP en Windsurf:

Actualiza el archivo mcp_config.json con las últimas configuraciones del repositorio de GitHub de Exa. Reemplaza el texto de ejemplo con tu clave de API real. Debería verse algo como esto:

# archivo mcp_config.json

{
  "mcpServers": {
    "server-sequential-thinking": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "@smithery/cli@latest",
        "run",
        "@smithery-ai/server-sequential-thinking",
        "--config",
        "\"{}\""
      ]
    },
    "exa": {
      "command": "npx",
      "args": ["C:/Research_agent/exa-mcp-server/build/index.js"],
      "env": {
        "EXA_API_KEY": "TU_CLAVE_API"
      }
    }
  }
}

Probar el servidor Exa MCP: para verificar que el servidor Exa está funcionando, ejecuta indicaciones de muestra, como:

# Entrada de muestra
>> Encuentra publicaciones de blog sobre AGI.

Usar tu agente de investigación profunda de código abierto

Ahora que ambos servidores MCP se han configurado correctamente, puedes usarlos para crear una herramienta de investigación profunda. Aquí tienes una indicación de muestra para probar tu configuración:

# Entrada de muestra
>> Cuando uses el pensamiento secuencial, usa tantos pasos como sea posible. Cada paso del pensamiento secuencial debe usar ramas, isRevision y needsMoreThoughts, y cada rama debe tener al menos 3 pasos. Antes de cada paso del pensamiento secuencial, usa Exa para buscar 3 páginas web relacionadas y luego piensa en el contenido de las páginas web. La respuesta final debe ser lo suficientemente larga y bien estructurada. Pregunta: ¿Qué es la metafísica?

Esta indicación generará una respuesta estructurada con enlaces de búsqueda utilizados por el modelo para responder a tu pregunta.

Enlaces buscados en la web:

links used during web-search

Salida de muestra:

final output in structured order

Características y beneficios

Flexibilidad y control:

Al usar servidores MCP de código abierto, mantienes el control total sobre tu proceso de investigación y la privacidad de los datos.

Personalización:

Puedes elegir entre varios modelos de IA como DeepSeek v3, Claude Sonnet 3.5 o GPT 4o, lo que te permite adaptar tu herramienta de investigación a necesidades específicas.

Rentabilidad:

Ejecutar tus propios servidores MCP puede ser más rentable que depender de servicios propietarios, especialmente para tareas de investigación frecuentes o a gran escala.

Qué hacer cuando el agente de investigación profunda de código abierto no funciona

Al configurar y usar tu agente de investigación profunda de código abierto con servidores MCP, es posible que encuentres algunos problemas. Estos son algunos problemas comunes y sus soluciones:

Servidor MCP no configurado correctamente:

Si tu servidor MCP no funciona como se espera, comprueba los archivos de configuración (por ejemplo, mcp_config.json) en busca de errores. Asegúrate de que las claves de API estén configuradas correctamente y de que el servidor esté vinculado correctamente.

Problemas con la clave de API:

Si encuentras errores relacionados con las claves de API, verifica que estén ingresadas correctamente en tus archivos de configuración. Además, verifica si tus claves de API han caducado o si has excedido los límites de uso.

Modelo que no responde:

Si tu modelo de IA no responde, asegúrate de que esté instalado y configurado correctamente. Busca actualizaciones del modelo o sus dependencias.

Resultados de búsqueda web no encontrados:

Si no se devuelven los resultados de búsqueda web, verifica tu conexión a Internet y asegúrate de que la API de búsqueda (por ejemplo, Exa) esté funcionando correctamente.

Conclusión

La creación de un agente de investigación profunda de código abierto utilizando servidores MCP como Sequential-Thinking y Exa ofrece una alternativa poderosa a las herramientas propietarias. Al integrar estos servidores con Windsurf IDE y tu modelo de IA preferido, puedes crear una herramienta de investigación flexible y rentable que mantenga la privacidad y el control de tus datos.

button
Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con OllamaPunto de vista

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

Mikael Svenson

April 28, 2025

¿Dónde Descargar Swagger UI en Español Gratis?Punto de vista

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

Oliver Kingsley

April 23, 2025

¿Dónde Descargar Postman en Español Gratis?Punto de vista

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

Oliver Kingsley

April 22, 2025