Cómo hacer llamadas a la API de Ollama con Apidog

Aprende a usar la API de Ollama fácilmente con Apidog. Guía paso a paso, funciones clave y prácticas recomendadas para una gestión API eficiente.

Daniel Costa

Daniel Costa

15 April 2025

Cómo hacer llamadas a la API de Ollama con Apidog

Imagina tener una supercomputadora en tu bolsillo, capaz de entender y generar texto similar al humano sobre cualquier tema. Suena a ciencia ficción, ¿verdad? Bueno, gracias a los recientes avances en inteligencia artificial, este sueño ahora es una realidad, y se llama Ollama.

Ollama es como una navaja suiza para LLM locales. Es una herramienta de código abierto que te permite ejecutar modelos de lenguaje potentes directamente en tu propia computadora. No necesitas servicios en la nube sofisticados ni un título en informática. Pero aquí es donde se pone realmente emocionante: Ollama tiene un superpoder oculto llamado API. Piensa en ello como un lenguaje secreto que permite que tus programas hablen directamente con estos cerebros de IA.

Ahora, sé lo que estás pensando. "¿APIs? ¡Eso suena complicado!"

No te preocupes, ahí es donde entra Apidog. Es como un traductor amigable que te ayuda a comunicarte con la API de Ollama sin sudar. En este artículo, vamos a embarcarnos juntos en un viaje. Seré tu guía mientras exploramos cómo liberar todo el potencial de Ollama usando Apidog. Al final, estarás creando aplicaciones impulsadas por IA como un profesional, todo desde la comodidad de tu propia máquina. Así que, abróchate el cinturón, ¡es hora de sumergirse en el fascinante mundo de la IA local y descubrir lo fácil que puede ser!

button

¿Qué es Ollama y cómo usar Ollama para ejecutar LLM localmente?

Ollama es una herramienta conveniente que permite a los usuarios ejecutar modelos de lenguaje grandes en sus máquinas locales. Simplifica el proceso de descarga, ejecución y ajuste fino de varios LLM, haciendo que las capacidades avanzadas de IA sean accesibles a un público más amplio. Por ejemplo, puedes simplemente descargar e instalar el último modelo Llama 3.1 8B con este comando solamente:

ollama run llama3.1

¿Ollama tiene una API?

Sí, puedes usar la API de Ollama para integrar estos potentes LLM locales en sus aplicaciones sin problemas.

Las características clave de la API de Ollama incluyen:

Usando la API de Ollama, puedes aprovechar fácilmente el poder de los LLM en sus aplicaciones sin la necesidad de una infraestructura compleja o dependencias de la nube.

Usando Apidog para probar las APIs de Ollama

Apidog es una plataforma versátil de desarrollo y documentación de APIs diseñada para optimizar todo el ciclo de vida de la API. Ofrece una interfaz fácil de usar para diseñar, probar y documentar APIs, lo que la convierte en una herramienta ideal para trabajar con la API de Ollama.

Algunas de las características destacadas de APIDog incluyen:

Con Apidog, los desarrolladores pueden crear, gestionar y compartir fácilmente la documentación de la API, asegurando que sus integraciones de la API de Ollama estén bien documentadas y sean mantenibles.

Prerrequisitos

Antes de sumergirte en hacer llamadas a la API de Ollama con Apidog, asegúrate de tener los siguientes prerrequisitos en su lugar:

Instalación de Ollama: Descarga e instala Ollama en tu máquina local. Sigue la documentación oficial de Ollama para obtener instrucciones de instalación específicas para tu sistema operativo.

Cuenta de APIDog: Regístrate para obtener una cuenta de Apidog si aún no lo has hecho. Puedes usar la versión basada en la web o descargar la aplicación de escritorio, dependiendo de tu preferencia.

Modelo de Ollama: Extrae un modelo usando la interfaz de línea de comandos de Ollama. Por ejemplo, para descargar el modelo "llama2", ejecutarías:

ollama pull llama3.1

Herramienta de prueba de API: Si bien Apidog proporciona capacidades de prueba integradas, también puedes tener a mano una herramienta como cURL o Postman para pruebas y verificaciones adicionales.

Con estos elementos en su lugar, estás listo para comenzar a explorar la API de Ollama usando Apidog.

Creando un proyecto de API de Ollama en Apidog

Para comenzar a trabajar con la API de Ollama en Apidog, sigue estos pasos:

Crear un nuevo proyecto: Inicia sesión en Apidog y crea un nuevo proyecto específicamente para tu trabajo con la API de Ollama. Haz clic en el botón Nuevo proyecto en la esquina superior derecha

Dale un nombre a tu nuevo proyecto. Digamos: API de Ollama:

Haz clic en el botón Crear para continuar.

Configurar la URL base: En la configuración de tu proyecto, establece la URL base en http://localhost:11434/api. Esta es la dirección predeterminada donde Ollama expone sus puntos finales de API.

Importar la especificación de la API de Ollama: Si bien Ollama no proporciona una especificación oficial de OpenAPI, puedes crear una estructura básica para los puntos finales de la API manualmente en APIDog.

Definir puntos finales: Comienza definiendo los principales puntos finales de la API de Ollama en APIDog. Algunos puntos finales clave para incluir son:

Para cada punto final, especifica el método HTTP, los parámetros de solicitud y el formato de respuesta esperado según la documentación de la API de Ollama.

Diseñando llamadas a la API de Ollama en Apidog

Repasemos el proceso de diseño de llamadas a la API para algunos de los puntos finales de Ollama más utilizados usando Apidog:

Punto final de generación de texto (/generate)

En Apidog, crea un nuevo punto final de API con la ruta /generate y establece el método HTTP en POST.

Define el esquema del cuerpo de la solicitud:

{
  "model": "string",
  "prompt": "string",
  "system": "string",
  "template": "string",
  "context": "array",
  "options": {
    "temperature": "number",
    "top_k": "integer",
    "top_p": "number",
    "num_predict": "integer",
    "stop": "array"
  }
}

Proporciona una descripción para cada parámetro, explicando su propósito y cualquier restricción.

Define el esquema de respuesta basado en la documentación de la API de Ollama, incluyendo campos como response, context y total_duration.

Punto final de chat (/chat)

Crea un nuevo punto final con la ruta /chat y establece el método HTTP en POST.

Define el esquema del cuerpo de la solicitud:

{
  "model": "string",
  "messages": [
    {
      "role": "string",
      "content": "string"
    }
  ],
  "format": "string",
  "options": {
    "temperature": "number",
    "top_k": "integer",
    "top_p": "number",
    "num_predict": "integer",
    "stop": "array"
  }
}

Proporciona descripciones detalladas para la matriz messages, explicando la estructura de los mensajes de chat con roles (sistema, usuario, asistente) y contenido.

Define el esquema de respuesta, incluyendo el objeto message con los campos role y content.

Puntos finales de gestión de modelos

Crea puntos finales para las operaciones de gestión de modelos:

Para cada uno de estos puntos finales, define los esquemas de solicitud y respuesta apropiados basados en la documentación de la API de Ollama.

Probando llamadas a la API de Ollama en Apidog

Apidog proporciona un entorno de prueba integrado que te permite enviar solicitudes a tu API de Ollama y verificar las respuestas. Aquí te mostramos cómo usarlo:

button

Selecciona un punto final: Elige uno de los puntos finales de la API de Ollama que hayas definido en Apidog.

Apidog

Configura los parámetros de solicitud: Completa los parámetros requeridos para el punto final seleccionado. Por ejemplo, para el punto final /generate, podrías establecer:

{
  "model": "llama2",
  "prompt": "Explica el concepto de inteligencia artificial en términos sencillos."
}
Apidog

Envía la solicitud: Usa el botón "Enviar" de Apidog para ejecutar la llamada a la API a tu instancia local de Ollama.

Apidog

Examina la respuesta de Ollama, verificando que coincida con el formato esperado y contenga el texto generado u otra información relevante. Si encuentras algún problema, usa las herramientas de depuración de Apidog para inspeccionar los encabezados de solicitud y respuesta, el cuerpo y cualquier mensaje de error.

Generando documentación de la API

Una de las características más poderosas de Apidog es su capacidad para generar automáticamente documentación completa de la API. Para crear documentación para tu proyecto de API de Ollama:

Paso 1: Regístrate en Apidog

Para comenzar a usar Apidog para la generación de documentación de la API, deberás registrarte para obtener una cuenta si aún no lo has hecho. Una vez que hayas iniciado sesión, serás recibido por la interfaz fácil de usar de Apidog.

Regístrate en Apidog

Paso 2: Creando tu solicitud de API

Un proyecto de documentación de API se compone de varios puntos finales, cada uno representando una ruta o funcionalidad de API específica. Para agregar un punto final, haz clic en el botón "+" o "Nueva API" dentro de tu proyecto.

Paso 3: Configura los parámetros de solicitud

Deberás proporcionar detalles como la URL del punto final, la descripción y los detalles de solicitud/respuesta. Ahora viene la parte crítica: documentar tus puntos finales. Apidog hace que este proceso sea increíblemente sencillo. Para cada punto final, puedes:

A muchos desarrolladores no les gusta escribir documentación de API, a menudo encontrándola compleja. Sin embargo, en realidad, con Apidog, puedes completarla con solo unos pocos clics del ratón. La interfaz visual de Apidog es amigable para principiantes, lo que la hace mucho más simple que generar documentación de API a partir del código.

Paso 4. Genera tu API

Cuando completes la información básica de la API, solo un clic para guardar como un caso. También puedes guardarlo directamente, pero se recomienda guardarlo como un caso de prueba para una referencia futura más fácil.

Seguir estos cuatro pasos te permite generar sin esfuerzo documentación de API estandarizada. Este proceso optimizado no solo garantiza la claridad y la coherencia, sino que también ahorra un tiempo valioso. Con la documentación automatizada, estás bien equipado para mejorar la colaboración, simplificar la interacción del usuario e impulsar tus proyectos con confianza.

Mejores prácticas para la integración de la API de Ollama

A medida que trabajes con la API de Ollama a través de APIDog, ten en cuenta estas mejores prácticas:

Conclusión

Integrar la API de Ollama en tus proyectos abre un mundo de posibilidades para aprovechar los potentes modelos de lenguaje en tus aplicaciones. Al usar APIDog para diseñar, probar y documentar tus llamadas a la API de Ollama, creas una integración robusta y mantenible que puede evolucionar con las necesidades de tu proyecto.

La combinación de las capacidades LLM locales de Ollama y las características integrales de gestión de API de APIDog proporciona a los desarrolladores un potente conjunto de herramientas para construir aplicaciones mejoradas con IA. A medida que continúes explorando el potencial de Ollama y refinando tus integraciones de API, recuerda que la documentación clara y las pruebas exhaustivas son clave para una implementación exitosa.

Siguiendo los pasos y las mejores prácticas descritas en este artículo, estarás bien equipado para aprovechar todo el potencial de la API de Ollama, creando aplicaciones sofisticadas impulsadas por IA con confianza y facilidad. El viaje de la integración de la IA es emocionante, y con herramientas como Ollama y APIDog a tu disposición, las posibilidades son realmente ilimitadas.

button

Explore more

Cómo usar Lovable AI (Alternativa a Cursor para desarrolladores web)

Cómo usar Lovable AI (Alternativa a Cursor para desarrolladores web)

Aprende a crear cualquier web con Lovable en esta guía completa. Descubre procesos paso a paso, funciones innovadoras e integra herramientas gratuitas como Apidog para gestión API.

15 April 2025

Cómo usar n8n con servidores MCP

Cómo usar n8n con servidores MCP

Automatiza flujos con n8n y servidores MCP para IA. Guía técnica: configuración, APIs, nodo "MCP Server Trigger" y Apidog para pruebas.

14 April 2025

Cómo añadir claves API personalizadas a Cursor: Una guía completa

Cómo añadir claves API personalizadas a Cursor: Una guía completa

Este tutorial te guiará para configurar y gestionar claves API personalizadas en Cursor (OpenAI, Anthropic, Google y Azure).

11 April 2025

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs