Cómo Usar Open WebUI con Ollama: Guía Completa

Ashley Goolam

Ashley Goolam

21 May 2025

Cómo Usar Open WebUI con Ollama: Guía Completa

¿Te gustaría chatear con potentes modelos de lenguaje como Llama 3.1 o Mistral sin quedarte atascado en una terminal? Open WebUI es tu boleto a una interfaz elegante, similar a ChatGPT, que hace que interactuar con los LLMs de Ollama sea divertido e intuitivo. Te permite guardar historiales de chat, almacenar prompts e incluso subir documentos para obtener respuestas más inteligentes, todo en tu navegador. En esta guía para principiantes, te guiaré a través de la instalación de Ollama, probaremos un modelo en la terminal y luego daremos un paso más con Open WebUI para una experiencia más fácil de usar. Usaremos Docker para una configuración rápida y lo probaremos con un prompt divertido. ¿Listo para hacer que los chats con IA sean pan comido? ¡Pongámonos en marcha!

💡
¿Necesitas documentar tus APIs? Prueba APIdog para una forma pulida e interactiva de diseñar y compartir documentación de API, ¡perfecta para tus proyectos de IA!
button

¿Qué es Open WebUI? Tu centro de mando para LLMs

Open WebUI es una interfaz web de código abierto y autoalojada que se conecta a Ollama, permitiéndote interactuar con grandes modelos de lenguaje (LLMs) como Llama 3.1 o Mistral en un panel basado en navegador. A diferencia de la interfaz de línea de comandos de Ollama, Open WebUI se siente como ChatGPT, ofreciendo:

Con más de 50K estrellas en GitHub, Open WebUI es un éxito para desarrolladores y entusiastas de la IA que desean una forma colaborativa y gráfica de trabajar con LLMs localmente. Primero, ¡pongamos Ollama en marcha para ver por qué vale la pena añadir Open WebUI!

ollama and open webui

Instalando y probando Ollama

Antes de sumergirnos en Open WebUI, configuremos Ollama y probemos un modelo como Llama 3.1 o Mistral en la terminal. Esto te dará una base para apreciar la interfaz intuitiva de Open WebUI.

1. Verifica los requisitos del sistema:

2. Instala Ollama: Descarga e instala Ollama desde ollama.com para tu sistema operativo. Sigue las indicaciones del instalador, es una configuración rápida. Verifica la instalación con:

ollama --version

Espera una versión como 0.1.44 (abril de 2025). Si falla, asegúrate de que Ollama está en tu PATH.

ollama

3. Descarga un modelo: Elige un modelo como Llama 3.1 (8B) o Mistral (7B). Para esta guía, usaremos Llama 3.1:

ollama pull llama3.1

Esto descarga ~5 GB, así que tómate un café si tu internet es lento. Verifica que esté instalado:

ollama list

Busca llama3.1:latest. Mistral (ollama pull mistral) es otra gran opción si quieres un modelo más ligero (~4 GB).

ollama models

4. Prueba el modelo en la terminal: Prueba un prompt simple para ver Ollama en acción:

ollama run llama3.1

En el prompt (>>>), escribe: "Cuéntame un chiste de padre sobre ordenadores". Pulsa Enter. Podrías obtener: "¿Por qué el ordenador fue al médico? ¡Tenía un virus!" Sal con /bye. Ejecuté esto y obtuve un chiste digno de una carcajada, pero escribir en la terminal se sentía torpe: sin historial de chat, sin prompts guardados. Aquí es donde Open WebUI brilla, ofreciendo una interfaz visual para guardar conversaciones, reutilizar prompts y subir documentos para respuestas más ricas. ¡Vamos a configurarlo!

ollama terminal chat

Configurando tu entorno para Open WebUI

Ahora que has visto la interfaz de terminal de Ollama, preparemos el terreno para Open WebUI para hacer que tu experiencia con LLMs sea más intuitiva. Asumiremos que tienes Docker instalado, ya que es necesario para la configuración de Open WebUI.

1. Verifica Docker: Asegúrate de que Docker está instalado y en ejecución:

docker --version

Espera algo como Docker 27.4.0. Si no tienes Docker, descarga e instala Docker Desktop desde su sitio web oficial, es una configuración rápida para Windows, macOS o Linux.

docker

2. Crea una carpeta de proyecto: Mantén las cosas organizadas:

mkdir ollama-webui
cd ollama-webui

Esta carpeta será tu base para ejecutar Open WebUI.

3. Asegúrate de que Ollama está en ejecución: Inicia Ollama en una terminal separada:

ollama serve

Esto ejecuta la API de Ollama en http://localhost:11434. Mantén esta terminal abierta, ya que Open WebUI la necesita para conectarse a tus modelos.

Instalando Open WebUI con Docker

Con Ollama y Llama 3.1 listos, instalemos Open WebUI usando un solo comando de Docker para una configuración rápida y fiable.

1. Ejecuta Open WebUI: En tu carpeta ollama-webui, ejecuta:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Este comando:

Tarda un minuto en descargarse. Verifica que se está ejecutando con docker ps, busca el contenedor open-webui.

2. Accede a Open WebUI: Abre tu navegador y ve a http://localhost:3000. Verás la página de bienvenida de Open WebUI. Haz clic en "Sign Up" para crear una cuenta (el primer usuario obtiene privilegios de administrador). Usa una contraseña segura y guárdala bien. ¡Ya estás listo para chatear! Si la página no carga, asegúrate de que el contenedor está en ejecución (docker logs open-webui) y el puerto 3000 está libre.

user account

Usando Open WebUI: Chateando y explorando funciones

Con Open WebUI en funcionamiento, vamos a sumergirnos en el chat con Llama 3.1 y explorar sus increíbles funciones, que la convierten en una gran mejora respecto a la terminal.

1. Empieza a chatear:

chat interface

La interfaz es limpia, con tu prompt y respuesta guardados automáticamente en el historial de chat.

2. Guarda y organiza chats: En la barra lateral izquierda, haz clic en el icono del pin para guardar el chat. Renómbralo (por ejemplo, "Chistes de padre") para acceder fácilmente. Puedes archivar o eliminar chats a través de la barra lateral, manteniendo tus experimentos organizados, ¡mucho mejor que desplazarse por la terminal!

3. Almacena prompts: Guarda el prompt del chiste de padre para reutilizarlo:

4. Sube un documento para RAG: Añade contexto a tus chats:

Probé esto con un PDF de tutorial de Python, y Open WebUI acertó con las respuestas conscientes del contexto, a diferencia de las respuestas básicas de la terminal.

5. Explora más funciones:

change models

Documentando tus APIs con APIdog

¿Usas Open WebUI para interactuar con la API de Ollama y quieres documentar tu configuración? APIdog es una herramienta fantástica para crear documentación de API interactiva. Su elegante interfaz y opciones de autoalojamiento la hacen ideal para compartir tus proyectos de IA. ¡Échale un vistazo!

apidog documentation

Solución de problemas y consejos

¿Eres nuevo en Ollama? ¡Echa un vistazo a esto para empezar!

¿Por qué elegir Open WebUI?

Open WebUI transforma Ollama de una herramienta de terminal torpe a una plataforma potente y fácil de usar:

Después de probar tanto la terminal como Open WebUI, estoy convencido de la facilidad y las funciones de la GUI. ¡Es como pasar de un teléfono de tapa a un smartphone!

Conclusión: Tu aventura con Open WebUI te espera

¡Has pasado de los chats en la terminal a una configuración completa de Open WebUI con Ollama, haciendo que las interacciones con LLMs sean fluidas y divertidas! Con Llama 3.1, chats guardados y subida de documentos, estás listo para explorar la IA como nunca antes. Prueba nuevos modelos, guarda más prompts o documenta tus APIs con APIdog. Comparte tus éxitos con Open WebUI en el GitHub de Open WebUI. ¡Estoy emocionado de ver lo que creas! ¡Feliz experimentación con IA!

button

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs