Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de API

Cómo construir una herramienta de investigación profunda de código abierto con la API de Gemini

¡IA para investigación! Crea una herramienta de investigación profunda de código abierto con la API de Gemini. Controla tu investigación, protege tus datos y obtén información valiosa. Sigue nuestras instrucciones paso a paso.

Daniel Costa

Daniel Costa

Updated on April 15, 2025

¿Alguna vez has deseado poder aprovechar el poder de la IA para una investigación verdaderamente profunda, pero te has sentido limitado por las soluciones de código cerrado y las preocupaciones por la privacidad de los datos? Pues, ¡prepárate para arremangarte porque en este artículo, vamos a construir nuestra propia Herramienta de Investigación Profunda de Código Abierto impulsada por la API de Gemini!

Así es, vamos a crear una potencia de investigación que está completamente bajo tu control. Puedes pensar en ello como tener un asistente de investigación de IA dedicado a tu alcance, listo para sumergirse profundamente en cualquier tema que le lances. ¿Y la mejor parte? Estaremos aprovechando la API de Gemini para obtener análisis precisos y perspicaces. ¡Empecemos!


💡
Antes de empezar, aquí tienes un consejo rápido: Integrar el servidor MCP de Apidog en tu IDE impulsado por IA mejora tu experiencia de codificación al proporcionar acceso directo a las especificaciones de la API desde los proyectos de Apidog. Esto permite que tu asistente de IA genere y modifique código, busque documentación de la API, cree modelos de datos y DTO, y añada comentarios relevantes, todo ello alineado con el diseño de tu API.
button
apidog mcp

¿Qué es la Investigación Profunda de Código Abierto?

La Investigación Profunda de Código Abierto se trata de tomar el control de tu proceso de investigación. Se trata de aprovechar el poder de la IA manteniendo la transparencia, la privacidad y la capacidad de personalizar tus herramientas para que se ajusten a tus necesidades específicas. Al construir nuestra propia herramienta de investigación, evitamos las limitaciones y los posibles sesgos de las soluciones de código cerrado y nos aseguramos de que nuestros datos permanezcan seguros. El MCP puede facilitar este proceso, asegurando una integración adecuada con varias APIs y funcionalidades para un rendimiento mejorado.

¿Por qué usar la API de Gemini para la Investigación Profunda?

La API de Gemini ofrece un enfoque de vanguardia para la inteligencia artificial, permitiendo interacciones hombre-máquina más intuitivas y eficaces. Destaca al proporcionar no solo información basada en texto, sino también al admitir entradas multimodales, lo que permite una comprensión más rica de los materiales de investigación a través de imágenes, vídeos y audio. Esto la hace particularmente valiosa para proyectos de investigación exhaustivos que requieren el análisis de diversos tipos de datos. Además, el diseño flexible de la API y el sólido soporte para desarrolladores fomentan la innovación y la personalización, permitiendo a los investigadores adaptar la herramienta para satisfacer sus necesidades y contextos específicos, fomentando en última instancia una comprensión más profunda y matizada de temas complejos.

Características clave de nuestra herramienta de investigación profunda de código abierto

Antes de sumergirnos en el proceso de construcción, echemos un vistazo a algunas de las características que vamos a dar vida:

  • Investigación Profunda Rápida para obtener información rápida.
  • Soporte Multiplataforma para un acceso perfecto.
  • Impulsado por Google Gemini para capacidades avanzadas de IA.
  • Modelos de Pensamiento y Redes para un análisis inteligente.
  • Soporte de Lienzo para la organización visual.
  • Historial de Investigación para realizar un seguimiento del progreso.
  • Soporte de API Local y de Servidor para la flexibilidad.
  • Diseño Centrado en la Privacidad para una investigación segura.
  • Soporte de Carga Útil Multi-Clave para una funcionalidad mejorada.
  • Soporte Multilingüe: Inglés, 简体中文.
  • Construido con Tecnologías Modernas para la eficiencia y el rendimiento.

Empezando con la herramienta de investigación profunda de código abierto

¿Listo para construir tu propio asistente de investigación impulsado por IA? Esto es lo que necesitarás para empezar:

1. Obtener la clave de la API de Gemini: En primer lugar, necesitarás una clave de la API de Gemini para acceder al poder de los modelos de IA de Google. Dirígete a Google AI Studio y regístrate para obtener una clave de API. Mantén esta clave segura y protegida: ¡es tu pasaporte al mundo de Gemini!

google deep mind website

2. Despliegue con un solo clic (Opcional): Para el inicio más rápido posible, puedes utilizar las opciones de despliegue con un solo clic:

  • Desplegar con Vercel (Las instrucciones para Vercel suelen ser sencillas y requieren vincular tu repositorio de GitHub y tu cuenta de Vercel).
varcel website
cloaudflare website

Estas opciones pondrán en marcha tu herramienta de investigación en minutos, pero para la experiencia de personalización completa, nos centraremos en el desarrollo local.

Desarrollar la herramienta de investigación profunda de código abierto

¡Sumerjámonos en el corazón del proceso de construcción! Sigue estos pasos para poner en marcha Deep Research en tu navegador local.

Requisitos previos

Antes de empezar, asegúrate de tener lo siguiente instalado en tu sistema:

node js website
  • pnpm o npm o yarn: Estos son gestores de paquetes para Node.js. Usaremos pnpm en este tutorial, pero puedes usar el que prefieras.

Instalación

1. Clonar el repositorio:

git clone https://github.com/u14app/deep-research.git
cd deep-research

Esto descargará el código de GitHub y te moverá al directorio del proyecto.

2. Instalar dependencias:

pnpm install  # or npm install or yarn install

Este comando instalará todos los paquetes necesarios para el proyecto.

3. Configurar las variables de entorno:

¡Este es un paso crucial! Necesitarás crear un archivo .env en el directorio raíz de tu proyecto y configurar las siguientes variables de entorno:

# (Opcional) Clave de la API de Gemini del lado del servidor (Requerida para las llamadas a la API del servidor)
GOOGLE_GENERATIVE_AI_API_KEY=TU_CLAVE_DE_API_DE_GEMINI

# (Opcional) URL del proxy de la API del servidor. Por defecto, `https://generativelanguage.googleapis.com`
API_PROXY_BASE_URL=

# (Opcional) Contraseña de acceso a la API del servidor para una mayor seguridad
ACCESS_PASSWORD=

# (Opcional) El código de script inyectado se puede utilizar para estadísticas o seguimiento de errores.
HEAD_SCRIPTS=

Reemplaza TU_CLAVE_DE_API_DE_GEMINI con la clave de API real que obtuviste de Google AI Studio.

Notas importantes sobre las variables de entorno:

  • GOOGLE_GENERATIVE_AI_API_KEY: Opcional pero requerido para usar la API del lado del servidor. Necesitas obtener una clave de API de Google Generative AI de Google AI Studio. Esta clave debe mantenerse en secreto y nunca debe ser enviada a tu repositorio público.
  • API_PROXY_BASE_URL: Opcional. Si necesitas usar un servidor proxy para las peticiones de la API, configura esta variable con la URL base de tu servidor proxy. Esto es relevante para las llamadas a la API del lado del servidor.
  • ACCESS_PASSWORD: Opcional pero muy recomendable para las implementaciones del lado del servidor. Establece una contraseña segura para proteger tus puntos finales de la API del lado del servidor. Esta contraseña será necesaria para acceder a las funcionalidades de la API del lado del servidor.
  • HEAD_SCRIPTS: Opcional. El código de script inyectado se puede utilizar para estadísticas o seguimiento de errores.

Recordatorio de privacidad: Estas variables de entorno se utilizan principalmente para las llamadas a la API del lado del servidor. Cuando se utiliza el modo de API local, no se necesitan claves de API ni configuraciones del lado del servidor, lo que mejora aún más tu privacidad.
Soporte multi-clave: Soporta múltiples claves, cada clave está separada por ,, es decir, clave1,clave2,clave3. Cloudflare no puede usar multi-clave por el momento porque el script de construcción oficial no soporta Next.js 15.

4. Ejecutar el servidor de desarrollo:

pnpm dev  # or npm run dev or yarn dev

Esto iniciará el servidor de desarrollo, y puedes acceder a Deep Research en tu navegador en http://localhost:3000.

  • Empieza a hacer cualquier pregunta que necesites investigar.
ask deep research tool a question
  • ¡Y mira los resultados!
deep research tool results

Desplegar la herramienta de investigación profunda de código abierto

Una vez que estés contento con tu configuración local, ¡puedes desplegar tu herramienta de investigación en la nube! Aquí tienes algunas opciones populares:

1. Vercel: Desplegar con Vercel (Esta suele ser la opción más fácil).

2. Cloudflare: Actualmente el proyecto soporta el despliegue en Cloudflare, pero necesitas seguir Cómo desplegar en Cloudflare Pages para hacerlo.

3. Docker:

  • La versión de Docker debe ser 20 o superior.
  • Extrae la imagen preconstruida:
docker pull xiangfa/deep-research:latest
  • Ejecuta el contenedor:
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research

También puedes especificar variables de entorno:

docker run -d --name deep-research \
   -p 3333:3000 \
   -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \
   -e ACCESS_PASSWORD=your-password \
   xiangfa/deep-research
  • O construye tu propia imagen docker:
docker build -t deep-research .
docker run -d --name deep-research -p 3333:3000 deep-research
  • Despliega usando docker-compose.yml:
version: '3.9'
services:
   deep-research:
      image: xiangfa/deep-research
      container_name: deep-research
      environment:
         - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...
         - ACCESS_PASSWORD=your-password
      ports:
         - 3333:3000

Luego construye tu propio docker compose:

docker compose -f docker-compose.yml build

4. Despliegue estático:

  • También puedes construir una versión de página estática directamente y luego subir todos los archivos en el directorio out a cualquier servicio de sitio web que soporte páginas estáticas, como Github Page, Cloudflare, Vercel, etc.
pnpm build:export

Configuración de la herramienta de investigación profunda de código abierto

Como se mencionó en la sección "Empezando con la herramienta de investigación profunda de código abierto", Deep Research utiliza las siguientes variables de entorno para las configuraciones de la API del lado del servidor:

  • GOOGLE_GENERATIVE_AI_API_KEY
  • API_PROXY_BASE_URL
  • ACCESS_PASSWORD

Estas variables solo son necesarias si tienes la intención de utilizar la funcionalidad de llamada a la API del lado del servidor. Para las llamadas a la API local, no es necesaria ninguna configuración más allá de la configuración del proyecto.

¡Recuerda mantener siempre seguras tus claves de API y contraseñas!

Conclusión: Potenciando tu investigación con IA

¡Ahora has construido con éxito tu propia herramienta de Investigación Profunda de Código Abierto impulsada por la API de Gemini! Este es un gran paso para desbloquear todo el potencial de la IA en tu proceso de investigación.

Al construir tu propia herramienta, obtienes un control completo sobre tus datos, personalizas tus flujos de trabajo y contribuyes a la comunidad de código abierto. Experimenta con diferentes modelos de investigación, explora las capacidades de la API de Gemini y crea herramientas personalizadas para personalizar verdaderamente tu experiencia de investigación.

El futuro de la investigación es inteligente y abierto. ¡Adopta la Investigación Profunda de Código Abierto y empodérate con el conocimiento que necesitas!

button
Apidog Ui image
Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con OllamaPunto de vista

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

Mikael Svenson

April 28, 2025

¿Dónde Descargar Swagger UI en Español Gratis?Punto de vista

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

Oliver Kingsley

April 23, 2025

¿Dónde Descargar Postman en Español Gratis?Punto de vista

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

Oliver Kingsley

April 22, 2025