Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de API

Implementación local de LLM con Ollama: La guía definitiva para el desarrollo local de IA

Sumérgete en LLM local con Ollama. Guía completa de instalación, selección de modelos, depuración de API y pruebas con Apidog, que visualiza el razonamiento de la IA en lenguaje natural.

Daniel Costa

Daniel Costa

Updated on April 15, 2025

En el panorama en rápida evolución de la inteligencia artificial, la capacidad de ejecutar y probar modelos de lenguaje grandes (LLM) localmente se ha vuelto cada vez más valiosa para los desarrolladores, investigadores y organizaciones que buscan un mayor control, privacidad y rentabilidad. Ollama se encuentra a la vanguardia de este movimiento, ofreciendo un enfoque optimizado para implementar potentes modelos de código abierto en su propio hardware. Cuando se combina con las capacidades de prueba especializadas de Apidog para los puntos finales de IA locales, obtiene un ecosistema completo para el desarrollo y la depuración de la IA local.

Página de inicio de Ollama

Esta guía lo guiará a través de todo el proceso de configuración de Ollama, la implementación de modelos como DeepSeek R1 y Llama 3.2, y el uso de las características innovadoras de Apidog para probar y depurar sus puntos finales LLM locales con una claridad sin precedentes.

Por qué implementar Ollama localmente: los beneficios de los LLM autoalojados

La decisión de implementar LLM localmente a través de Ollama representa un cambio significativo en la forma en que los desarrolladores abordan la integración de la IA. A diferencia de las soluciones basadas en la nube que requieren una conectividad constante a Internet y llamadas API potencialmente costosas, la implementación local ofrece varias ventajas convincentes:

Privacidad y seguridad: cuando implementa Ollama localmente, todos los datos permanecen en su hardware. Esto elimina las preocupaciones sobre la transmisión de información confidencial a servidores externos, lo que lo hace ideal para aplicaciones que manejan datos confidenciales o que operan en industrias reguladas.

Rentabilidad: los servicios LLM basados en la nube generalmente cobran por token o solicitud. Para el desarrollo, las pruebas o las aplicaciones de gran volumen, estos costos pueden acumularse rápidamente. La implementación local a través de Ollama elimina estos gastos continuos después de la configuración inicial.

Latencia reducida: los modelos locales responden sin la demora de la transmisión de red, lo que resulta en tiempos de inferencia más rápidos. Esto es particularmente valioso para las aplicaciones que requieren respuestas en tiempo real o el procesamiento de grandes volúmenes de solicitudes.

Capacidad sin conexión: los modelos implementados localmente continúan funcionando sin conectividad a Internet, lo que garantiza que sus aplicaciones permanezcan operativas en entornos con acceso a la red limitado o no confiable.

Control de personalización: Ollama le permite seleccionar entre una amplia gama de modelos de código abierto con diferentes capacidades, tamaños y especializaciones. Esta flexibilidad le permite elegir el modelo perfecto para su caso de uso específico en lugar de limitarse a las ofertas de un proveedor.

La combinación de estos beneficios hace que Ollama sea una opción cada vez más popular para los desarrolladores que buscan integrar capacidades de IA en sus aplicaciones mientras mantienen el control sobre su infraestructura y datos.

Paso a paso: implemente Ollama localmente en su sistema

Configurar Ollama en su máquina local es notablemente sencillo, independientemente de su sistema operativo. Las siguientes instrucciones lo guiarán a través del proceso de instalación y la configuración inicial:

1. Descargue e instale Ollama

Comience por visitar el repositorio oficial de GitHub de Ollama en https://github.com/ollama/ollama. Desde allí:

1. Descargue la versión correspondiente a su sistema operativo (Windows, macOS o Linux)

Ollama github

2. Ejecute el instalador y siga las instrucciones en pantalla

Ejecute el instalador de Ollama

3. Complete el proceso de instalación

proceso de instalación de Ollama

Para verificar que Ollama se haya instalado correctamente, abra su terminal o símbolo del sistema e ingrese:

ollama
Ollama se instaló correctamente

Si la instalación fue exitosa, verá que aparece el símbolo del sistema de la interfaz de línea de comandos de Ollama, lo que indica que el servicio se está ejecutando y está listo para usar.

2. Instale modelos de IA a través de Ollama

Una vez que Ollama está instalado, puede descargar e implementar varios LLM usando comandos simples. La sintaxis básica para ejecutar un modelo es:

ollama run nombre_del_modelo

Por ejemplo, para implementar Llama 3.2, usaría:

ollama run llama3.2:1b

Ollama admite una amplia gama de modelos con diferentes capacidades y requisitos de recursos. Aquí hay una selección de opciones populares:

Modelo Parámetros Tamaño Comando
DeepSeek R1 7B 4.7GB ollama run deepseek-r1
Llama 3.2 3B 2.0GB ollama run llama3.2
Llama 3.2 1B 1.3GB ollama run llama3.2:1b
Phi 4 14B 9.1GB ollama run phi4
Gemma 2 9B 5.5GB ollama run gemma2
Mistral 7B 4.1GB ollama run mistral
Code Llama 7B 3.8GB ollama run codellama

Cuando ejecuta estos comandos, Ollama descargará el modelo (si aún no está presente en su sistema) y luego lo cargará en la memoria. Se mostrará un indicador de progreso durante el proceso de descarga:

Proceso de descarga del modelo Ollama

Una vez que se complete el proceso, se le presentará un mensaje donde puede comenzar a interactuar con el modelo.

Modelo LLM implementado con Ollama correctamente

Para sistemas con recursos limitados, los modelos más pequeños como Llama 3.2 (1B) o Moondream 2 (1.4B) ofrecen un buen rendimiento y requieren menos memoria y almacenamiento. Por el contrario, si tiene hardware potente, los modelos más grandes como Llama 3.1 (405B) o DeepSeek R1 (671B) brindan capacidades mejoradas a costa de un mayor consumo de recursos.

Interactúe con los modelos LLM locales: pruebe la funcionalidad básica

Después de implementar un modelo con Ollama, puede comenzar a interactuar con él de inmediato a través de la interfaz de línea de comandos. Esta interacción directa proporciona una forma rápida de probar las capacidades y el comportamiento del modelo antes de integrarlo en sus aplicaciones.

Interacción de línea de comandos

Cuando ejecuta un modelo usando el comando ollama run, se le presentará un mensaje donde puede ingresar mensajes. Por ejemplo:

ollama run llama3.2:1b
>>> ¿Podrías decirme qué es NDJSON (JSON delimitado por nueva línea)?
probando el LLM local

El modelo procesará su entrada y generará una respuesta basada en su entrenamiento y parámetros. Esta interacción básica es útil para:

  • Probar el conocimiento y las habilidades de razonamiento del modelo
  • Evaluar la calidad y la relevancia de la respuesta
  • Experimentar con diferentes técnicas de solicitud
  • Evaluar las limitaciones y fortalezas del modelo

Para finalizar una sesión, presione Control + D. Puede reiniciar la interacción en cualquier momento volviendo a ejecutar el mismo comando:

ollama run llama3.2:1b

Uso de interfaces gráficas y web

Si bien la línea de comandos proporciona acceso inmediato a sus modelos, puede que no sea la interfaz más conveniente para interacciones extendidas. Afortunadamente, la comunidad de Ollama ha desarrollado varias interfaces gráficas que ofrecen experiencias más fáciles de usar:

Aplicaciones de escritorio:

  • Ollama Desktop: una aplicación nativa para macOS y Windows que proporciona interfaces de administración de modelos y chat
  • LM Studio: una interfaz multiplataforma con integración integral de la biblioteca de modelos

Interfaces web:

  • Ollama WebUI: una interfaz de chat basada en navegador que se ejecuta localmente
  • OpenWebUI: un panel web personalizable para la interacción del modelo con características adicionales

Estas interfaces facilitan la administración de múltiples conversaciones, el guardado de historiales de chat y el ajuste de los parámetros del modelo sin memorizar las opciones de la línea de comandos. Son particularmente valiosos para los usuarios no técnicos que necesitan interactuar con LLM locales sin usar la terminal.

Depurar/Probar las API LLM locales con Apidog: visualización del razonamiento de la IA

Si bien la interacción básica a través de la línea de comandos o las herramientas de la GUI es suficiente para el uso casual, los desarrolladores que integran LLM en las aplicaciones necesitan capacidades de depuración más sofisticadas. Aquí es donde las características especializadas de Apidog para probar los puntos finales de Ollama se vuelven invaluables.

Comprensión de la estructura de la API de Ollama

De forma predeterminada, Ollama expone una API local que permite la interacción programática con sus modelos implementados. Esta API se ejecuta en el puerto 11434 y proporciona varios puntos finales para diferentes funciones:

  • /api/generate: genera finalizaciones para una solicitud dada
  • /api/chat: genera respuestas en un formato conversacional
  • /api/embeddings: crea incrustaciones vectoriales a partir de texto
  • /api/models: enumera y administra los modelos disponibles localmente

Estos puntos finales aceptan cargas útiles JSON con parámetros que controlan el comportamiento del modelo, como la temperatura, top_p y el recuento máximo de tokens.

Configuración de Apidog para pruebas de API LLM

Apidog ofrece capacidades especializadas para probar y depurar los puntos finales de la API local de Ollama, con características únicas diseñadas específicamente para trabajar con LLM:

  1. Descargue e instale Apidog desde el sitio web oficial
  2. Cree un nuevo proyecto HTTP en Apidog
creando un nuevo proyecto en Apidog

3. Configure su primera solicitud a la API de Ollama

Para una prueba básica del punto final, puede copiar este comando cURL en la barra de solicitud de Apidog, que completará los parámetros del punto final automáticamente, y hacer clic en "Enviar" para enviar la solicitud.

curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "¿Podrías decirme qué es NDJSON (JSON delimitado por nueva línea)?"
}'

Características únicas de prueba de LLM de Apidog

Lo que distingue a Apidog para probar los puntos finales de Ollama es su capacidad para fusionar automáticamente el contenido de los mensajes y mostrar las respuestas en lenguaje natural. Esta característica es particularmente valiosa cuando se trabaja con modelos de razonamiento como DeepSeek R1, ya que le permite visualizar el proceso de pensamiento del modelo en un formato claro y legible.

Al probar las respuestas de transmisión (estableciendo "stream": true), Apidog combina de forma inteligente los tokens transmitidos en una respuesta coherente, lo que facilita mucho el seguimiento de la salida del modelo en comparación con las respuestas de la API sin procesar. Esta capacidad mejora drásticamente la experiencia de depuración, especialmente cuando:

  • Solución de problemas de errores de razonamiento: identifique dónde la lógica de un modelo diverge de los resultados esperados
  • Optimización de las solicitudes: vea cómo las diferentes formulaciones de las solicitudes afectan la ruta de razonamiento del modelo
  • Prueba de escenarios complejos: observe cómo el modelo maneja problemas de varios pasos o instrucciones ambiguas

Técnicas avanzadas de prueba de API

Para una depuración más sofisticada, Apidog admite varias técnicas avanzadas:

1. Experimentación de parámetros

Pruebe cómo los diferentes parámetros afectan las salidas del modelo modificando la carga útil JSON:

{
  "model": "deepseek-r1",
  "prompt": "Explique la computación cuántica",
  "system": "Eres un profesor de física que explica conceptos a estudiantes universitarios",
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "max_tokens": 500
}

2. Pruebas comparativas

Cree varias solicitudes con solicitudes idénticas pero diferentes modelos para comparar sus respuestas en paralelo. Esto ayuda a identificar qué modelo funciona mejor para tareas específicas.

3. Verificación del manejo de errores

Envíe intencionalmente solicitudes mal formadas o parámetros no válidos para probar cómo su aplicación maneja los errores de la API. Apidog muestra claramente las respuestas de error, lo que facilita la implementación de un manejo de errores sólido.

Función de validación de respuesta de punto final de APidog

4. Evaluación comparativa del rendimiento

Use las funciones de sincronización de respuesta de Apidog para medir y comparar el rendimiento de diferentes modelos o configuraciones de parámetros. Esto ayuda a optimizar tanto la calidad como la velocidad.

Integración de Ollama con aplicaciones: de las pruebas a la producción

Una vez que haya implementado los modelos localmente con Ollama y haya verificado su funcionalidad a través de Apidog, el siguiente paso es integrar estos modelos en sus aplicaciones. Este proceso implica establecer la comunicación entre el código de su aplicación y la API de Ollama.

Patrones de integración de API

Existen varios enfoques para integrar Ollama con sus aplicaciones:

Llamadas API directas

El enfoque más simple es realizar solicitudes HTTP directamente a los puntos finales de la API de Ollama. Aquí hay un ejemplo en Python:

import requests

def generate_text(prompt, model="llama3.2"):
    response = requests.post(
        "http://localhost:11434/api/generate",
        json={
            "model": model,
            "prompt": prompt,
            "stream": False
        }
    )
    return response.json()["response"]

result = generate_text("Explique el concepto de recursión en la programación")
print(result)

Bibliotecas de cliente

Varias bibliotecas de cliente mantenidas por la comunidad simplifican la integración con varios lenguajes de programación:

  • Python: ollama-python o langchain
  • JavaScript/Node.js: ollama.js
  • Go: go-ollama
  • Ruby: ollama-ruby

Estas bibliotecas manejan los detalles de la comunicación de la API, lo que le permite concentrarse en la lógica de su aplicación.

Integración con marcos de IA

Para aplicaciones más complejas, puede integrar Ollama con marcos de IA como LangChain o LlamaIndex. Estos marcos proporcionan abstracciones de nivel superior para trabajar con LLM, que incluyen:

  • Gestión de contexto
  • Recuperación de documentos
  • Salidas estructuradas
  • Flujos de trabajo basados en agentes

Prueba de la integración con Apidog

Antes de implementar su aplicación integrada, es fundamental probar a fondo las interacciones de la API. Las capacidades de Apidog son particularmente valiosas durante esta fase:

  1. Simule las llamadas API de su aplicación para verificar el formato correcto
  2. Pruebe los casos extremos, como entradas largas o solicitudes inusuales
  3. Verifique el manejo de errores simulando fallas de la API
  4. Documente los patrones de API para referencia del equipo

Al usar Apidog para validar su integración antes de la implementación, puede identificar y resolver problemas al principio del proceso de desarrollo, lo que lleva a aplicaciones más sólidas.

Optimización del rendimiento de LLM local: equilibrio entre calidad y velocidad

La ejecución de LLM localmente introduce consideraciones en torno a la optimización del rendimiento que no están presentes cuando se utilizan servicios basados en la nube. Encontrar el equilibrio adecuado entre la calidad de la respuesta y la utilización de los recursos del sistema es esencial para una experiencia de usuario fluida.

Consideraciones de hardware

El rendimiento de los modelos implementados localmente depende significativamente de las especificaciones de su hardware:

  • RAM: los modelos más grandes requieren más memoria (por ejemplo, un modelo de parámetro 7B generalmente necesita 8-16 GB de RAM)
  • GPU: si bien no es obligatorio, una GPU dedicada acelera drásticamente la inferencia
  • CPU: los modelos se pueden ejecutar solo en la CPU, pero las respuestas serán más lentas
  • Almacenamiento: el almacenamiento SSD rápido mejora los tiempos de carga del modelo

Para el desarrollo y las pruebas, incluso el hardware de grado de consumo puede ejecutar modelos más pequeños de manera efectiva. Sin embargo, las implementaciones de producción pueden requerir sistemas más potentes, especialmente para manejar múltiples solicitudes simultáneas.

Estrategias de selección de modelos

Elegir el modelo correcto implica equilibrar varios factores:

Factor Consideraciones
Complejidad de la tarea Un razonamiento más complejo requiere modelos más grandes
Velocidad de respuesta Los modelos más pequeños generan respuestas más rápidas
Uso de recursos Los modelos más grandes consumen más memoria y potencia de procesamiento
Especialización Los modelos específicos del dominio pueden superar a los modelos generales para ciertas tareas

Una estrategia común es usar diferentes modelos para diferentes escenarios dentro de la misma aplicación. Por ejemplo:

  • Un modelo pequeño y rápido para interacciones en tiempo real
  • Un modelo más grande y capaz para tareas de razonamiento complejas
  • Un modelo especializado para funciones específicas del dominio

Optimización de parámetros de API

Ajustar los parámetros de la API puede afectar significativamente tanto el rendimiento como la calidad de la salida:

  • Temperatura: valores más bajos (0.1-0.4) para respuestas objetivas, valores más altos (0.7-1.0) para contenido creativo
  • Top_p/Top_k: ajuste para controlar la diversidad de la respuesta
  • Max_tokens: limite para evitar respuestas innecesariamente largas
  • Num_ctx: ajuste el tamaño de la ventana de contexto según sus necesidades

Las capacidades de prueba de Apidog son invaluables para experimentar con estos parámetros y observar sus efectos en la calidad de la respuesta y el tiempo de generación.

Solución de problemas comunes al probar las API de Ollama

Incluso con una configuración y configuración cuidadosas, puede encontrar desafíos al trabajar con LLM implementados localmente. Aquí hay soluciones a problemas comunes, junto con cómo Apidog puede ayudar a diagnosticar y resolverlos:

Problemas de conexión

Problema: no se puede conectar a los puntos finales de la API de Ollama

Soluciones:

  • Verifique que Ollama se esté ejecutando con ollama list
  • Compruebe si el puerto (11434) está bloqueado por un firewall
  • Asegúrese de que ningún otro servicio esté usando el mismo puerto

Uso de Apidog: pruebe la conectividad básica con una solicitud GET simple a http://localhost:11434/api/version

Fallos de carga del modelo

Problema: los modelos no se cargan o fallan durante el funcionamiento

Soluciones:

  • Asegúrese de que su sistema cumpla con los requisitos de memoria del modelo
  • Pruebe con un modelo más pequeño si los recursos son limitados
  • Compruebe el espacio en disco para las descargas de modelos

Uso de Apidog: supervise los tiempos de respuesta y los mensajes de error para identificar las limitaciones de recursos

Respuestas inconsistentes

Problema: el modelo genera respuestas inconsistentes o inesperadas

Soluciones:

  • Establezca un valor de semilla fijo para salidas reproducibles
  • Ajuste los parámetros de temperatura y muestreo
  • Refine sus solicitudes con instrucciones más específicas

Uso de Apidog: compare las respuestas en varias solicitudes con diferentes parámetros para identificar patrones

Problemas de respuesta de transmisión

Problema: dificultades para manejar las respuestas de transmisión en su aplicación

Soluciones:

  • Use las bibliotecas apropiadas para manejar los eventos enviados por el servidor
  • Implemente el almacenamiento en búfer adecuado para la acumulación de tokens
  • Considere usar "stream": false para una integración más simple

Uso de Apidog: visualice las respuestas de transmisión en un formato legible para comprender la salida completa

Preparación para el futuro de su desarrollo local de LLM

El campo de la IA y los modelos de lenguaje grandes está evolucionando a un ritmo notable. Mantenerse al día con los nuevos modelos, técnicas y mejores prácticas es esencial para mantener implementaciones locales de LLM efectivas.

Mantenerse al día con los lanzamientos de modelos

Ollama agrega regularmente soporte para nuevos modelos a medida que están disponibles. Para mantenerse actualizado:

  • Siga el repositorio de GitHub de Ollama
  • Ejecute periódicamente ollama list para ver los modelos disponibles
  • Pruebe los nuevos modelos a medida que se lanzan para evaluar sus capacidades

Evolución de las metodologías de prueba

A medida que los modelos se vuelven más sofisticados, los enfoques de prueba también deben evolucionar. Las características especializadas de Apidog para probar los puntos finales de LLM brindan varias ventajas:

Visualización de respuesta en lenguaje natural: a diferencia de las herramientas de prueba de API estándar que muestran JSON sin procesar, Apidog fusiona automáticamente el contenido transmitido desde los puntos finales de Ollama y lo presenta en un formato legible, lo que facilita la evaluación de las salidas del modelo.

Análisis del proceso de razonamiento: al probar modelos de razonamiento como DeepSeek R1, Apidog le permite visualizar el proceso de pensamiento paso a paso del modelo, lo que ayuda a identificar errores lógicos o lagunas de razonamiento.

Flujos de trabajo de prueba comparativa: cree colecciones de solicitudes similares para probar sistemáticamente cómo los diferentes modelos o configuraciones de parámetros afectan las respuestas, lo que permite la selección de modelos basada en datos.

Estas capacidades transforman el proceso de prueba de un ejercicio técnico en una evaluación significativa del comportamiento y el rendimiento del modelo.

Integración de Ollama en los flujos de trabajo de desarrollo

Para los desarrolladores que trabajan en aplicaciones impulsadas por IA, la integración de Ollama en los flujos de trabajo de desarrollo existentes crea un entorno más eficiente y productivo.

Beneficios del desarrollo local

El desarrollo con modelos implementados localmente ofrece varias ventajas:

  • Iteración rápida: pruebe los cambios de inmediato sin esperar las llamadas API a los servicios remotos
  • Desarrollo sin conexión: continúe trabajando incluso sin conectividad a Internet
  • Entorno de prueba consistente: elimine las variables introducidas por las condiciones de la red o los cambios de servicio
  • Experimentación sin costo: pruebe exhaustivamente sin incurrir en tarifas de uso

Integración de CI/CD

Para los equipos que adoptan prácticas de integración y entrega continuas, Ollama se puede incorporar en canalizaciones de prueba automatizadas:

  1. Prueba automatizada de solicitudes: verifique que los modelos produzcan las salidas esperadas para las solicitudes estándar
  2. Detección de regresión: identifique los cambios en el comportamiento del modelo al actualizar a versiones más recientes
  3. Evaluación comparativa del rendimiento: realice un seguimiento de los tiempos de respuesta y el uso de recursos en las compilaciones
  4. Validación entre modelos: asegúrese de que la lógica de la aplicación funcione correctamente con diferentes modelos

Las capacidades de prueba de API de Apidog se pueden integrar en estos flujos de trabajo a través de su interfaz CLI y funciones de automatización, lo que permite pruebas integrales sin intervención manual.

Aplicaciones del mundo real: estudios de caso en la implementación local de LLM

La flexibilidad de los LLM implementados localmente a través de Ollama permite una amplia gama de aplicaciones en diferentes dominios. Aquí hay algunos ejemplos del mundo real de cómo las organizaciones están aprovechando esta tecnología:

Asistente de documentación de atención médica

Un consultorio médico implementó un sistema LLM local para ayudar con la documentación del paciente. Al implementar Ollama con el modelo Mistral en un servidor seguro y aislado, crearon un sistema que:

  • Genera resúmenes estructurados a partir de las notas del médico
  • Sugiere códigos médicos apropiados para la facturación
  • Identifica la información faltante en los registros de los pacientes

La implementación local garantiza que los datos del paciente nunca salgan de su red segura, lo que aborda los requisitos críticos de privacidad al tiempo que mejora la eficiencia de la documentación.

Generación de contenido educativo

Una empresa de tecnología educativa utiliza LLM implementados localmente para generar materiales de aprendizaje personalizados. Su sistema:

  • Crea problemas de práctica adaptados a las necesidades individuales de los estudiantes
  • Genera explicaciones en niveles de complejidad apropiados
  • Produce preguntas de opción múltiple con distractores plausibles

Al ejecutar Ollama con diferentes modelos optimizados para diferentes temas, mantienen la generación de contenido de alta calidad al tiempo que controlan los costos.

Atención al cliente multilingüe

Una plataforma global de comercio electrónico implementó Ollama con modelos especializados en idiomas para mejorar su sistema de atención al cliente. La implementación local:

  • Analiza los tickets de soporte entrantes en varios idiomas
  • Sugiere respuestas apropiadas para los agentes de soporte
  • Identifica problemas comunes para mejorar la base de conocimientos

El uso de Apidog para probar y refinar las interacciones de la API garantiza un rendimiento constante en diferentes idiomas y tipos de consultas.

botón

Escalado de implementaciones locales de LLM: del desarrollo a la producción

A medida que los proyectos avanzan desde el desarrollo inicial hasta la implementación de producción, las consideraciones sobre el escalado y la confiabilidad se vuelven cada vez más importantes.

Contenedorización y orquestación

Para los entornos de producción, la contenedorización de las implementaciones de Ollama con Docker proporciona varios beneficios:

  • Entornos consistentes: asegúrese de una configuración idéntica en el desarrollo y la producción
  • Implementación simplificada: empaquete modelos y dependencias juntos
  • Aislamiento de recursos: evite la contención de recursos con otras aplicaciones
  • Escalado horizontal: implemente varias instancias para manejar una mayor carga

Una configuración de Docker Compose de muestra podría verse así:

version: '3'
services:
  ollama:
    image: ollama/oll
Cómo usar Lovable AI (Alternativa a Cursor para desarrolladores web)Tutoriales

Cómo usar Lovable AI (Alternativa a Cursor para desarrolladores web)

Aprende a crear cualquier web con Lovable en esta guía completa. Descubre procesos paso a paso, funciones innovadoras e integra herramientas gratuitas como Apidog para gestión API.

Daniel Costa

April 15, 2025

Cómo usar n8n con servidores MCPTutoriales

Cómo usar n8n con servidores MCP

Automatiza flujos con n8n y servidores MCP para IA. Guía técnica: configuración, APIs, nodo "MCP Server Trigger" y Apidog para pruebas.

Daniel Costa

April 14, 2025

Cómo añadir claves API personalizadas a Cursor: Una guía completaTutoriales

Cómo añadir claves API personalizadas a Cursor: Una guía completa

Este tutorial te guiará para configurar y gestionar claves API personalizadas en Cursor (OpenAI, Anthropic, Google y Azure).

Daniel Costa

April 11, 2025