Como Usar Open WebUI com Ollama: Guia Completo

Ashley Goolam

Ashley Goolam

21 maio 2025

Como Usar Open WebUI com Ollama: Guia Completo

Você gostaria de conversar com modelos de linguagem poderosos como Llama 3.1 ou Mistral sem ficar preso a um terminal? O Open WebUI é seu bilhete para uma interface elegante, semelhante ao ChatGPT, que torna a interação com os LLMs do Ollama divertida e intuitiva. Ele permite salvar históricos de chat, armazenar prompts e até mesmo fazer upload de documentos para respostas mais inteligentes—tudo no seu navegador. Neste guia para iniciantes, vou guiá-lo pela instalação do Ollama, testar um modelo no terminal e, em seguida, avançar com o Open WebUI para uma experiência mais amigável. Usaremos Docker para uma configuração rápida e o testaremos com um prompt divertido. Pronto para tornar os chats de IA uma brisa? Vamos começar!

💡
Precisa documentar suas APIs? Experimente APIdog para uma maneira elegante e interativa de projetar e compartilhar documentação de API—perfeito para seus projetos de IA!
botão

O que é o Open WebUI? Seu Centro de Comando para LLMs

O Open WebUI é uma interface web de código aberto e auto-hospedada que se conecta ao Ollama, permitindo que você interaja com grandes modelos de linguagem (LLMs) como Llama 3.1 ou Mistral em um painel baseado em navegador. Ao contrário da interface de linha de comando do Ollama, o Open WebUI parece com o ChatGPT, oferecendo:

Com mais de 50 mil estrelas no GitHub, o Open WebUI é um sucesso entre desenvolvedores e entusiastas de IA que desejam uma maneira colaborativa e gráfica de trabalhar com LLMs localmente. Primeiro, vamos colocar o Ollama para rodar para ver por que o Open WebUI vale a pena adicionar!

ollama e open webui

Instalando e Testando o Ollama

Antes de mergulharmos no Open WebUI, vamos configurar o Ollama e testar um modelo como Llama 3.1 ou Mistral no terminal. Isso lhe dará uma base para apreciar a interface intuitiva do Open WebUI.

1. Verificar Requisitos do Sistema:

2. Instalar Ollama: Baixe e instale o Ollama de ollama.com para seu sistema operacional. Siga os prompts do instalador—é uma configuração rápida. Verifique a instalação com:

ollama --version

Espere uma versão como 0.1.44 (Abril de 2025). Se falhar, certifique-se de que o Ollama está no seu PATH.

ollama

3. Baixar um Modelo: Escolha um modelo como Llama 3.1 (8B) ou Mistral (7B). Para este guia, usaremos Llama 3.1:

ollama pull llama3.1

Isso baixa ~5GB, então pegue um café se sua internet for lenta. Verifique se está instalado:

ollama list

Procure por llama3.1:latest. Mistral (ollama pull mistral) é outra ótima opção se você quiser um modelo mais leve (~4GB).

modelos ollama

4. Testar o Modelo no Terminal: Experimente um prompt simples para ver o Ollama em ação:

ollama run llama3.1

No prompt (>>>), digite: “Conte-me uma piada de pai sobre computadores.” Pressione Enter. Você pode receber: “Por que o computador foi ao médico? Porque ele tinha um vírus!” Saia com /bye. Eu executei isso e recebi uma piada que valeu a pena rir, mas digitar no terminal parecia desajeitado—sem histórico de chat, sem prompts salvos. É aqui que o Open WebUI brilha, oferecendo uma interface visual para salvar conversas, reutilizar prompts e fazer upload de documentos para respostas mais ricas. Vamos configurá-lo!

chat no terminal ollama

Configurando Seu Ambiente para o Open WebUI

Agora que você viu a interface de terminal do Ollama, vamos nos preparar para o Open WebUI para tornar sua experiência com LLM mais intuitiva. Assumiremos que você tem o Docker instalado, pois é necessário para a configuração do Open WebUI.

1. Verificar Docker: Certifique-se de que o Docker está instalado e rodando:

docker --version

Espere algo como Docker 27.4.0. Se você não tem o Docker, baixe e instale o Docker Desktop do site oficial—é uma configuração rápida para Windows, macOS ou Linux.

docker

2. Criar uma Pasta de Projeto: Mantenha as coisas organizadas:

mkdir ollama-webui
cd ollama-webui

Esta pasta será sua base para rodar o Open WebUI.

3. Certificar-se de que o Ollama Está Rodando: Inicie o Ollama em um terminal separado:

ollama serve

Isso roda a API do Ollama em http://localhost:11434. Mantenha este terminal aberto, pois o Open WebUI precisa dele para se conectar aos seus modelos.

Instalando o Open WebUI com Docker

Com o Ollama e o Llama 3.1 prontos, vamos instalar o Open WebUI usando um único comando Docker para uma configuração rápida e confiável.

1. Rodar Open WebUI: Na sua pasta ollama-webui, execute:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Este comando:

Leva um minuto para baixar. Verifique se está rodando com docker ps—procure pelo container open-webui.

2. Acessar Open WebUI: Abra seu navegador e vá para http://localhost:3000. Você verá a página de boas-vindas do Open WebUI. Clique em “Sign Up” (Cadastrar-se) para criar uma conta (o primeiro usuário obtém privilégios de administrador). Use uma senha forte e salve-a com segurança. Agora você está pronto para conversar! Se a página não carregar, certifique-se de que o container está rodando (docker logs open-webui) e que a porta 3000 está livre.

conta de usuário

Usando o Open WebUI: Conversando e Explorando Recursos

Com o Open WebUI rodando, vamos mergulhar na conversa com o Llama 3.1 e explorar seus recursos incríveis, que o tornam uma grande melhoria em relação ao terminal.

1. Começar a Conversar:

interface de chat

A interface é limpa, com seu prompt e resposta salvos automaticamente no histórico de chat.

2. Salvar e Organizar Chats: Na barra lateral esquerda, clique no ícone de alfinete para salvar o chat. Renomeie-o (por exemplo, “Piadas de Pai”) para fácil acesso. Você pode arquivar ou excluir chats pela barra lateral, mantendo seus experimentos organizados—muito melhor do que rolar o terminal!

3. Armazenar Prompts: Salve o prompt da piada de pai para reutilizar:

4. Fazer Upload de um Documento para RAG: Adicione contexto aos seus chats:

Testei isso com um PDF de tutorial de Python, e o Open WebUI acertou em cheio as respostas com contexto, ao contrário das respostas básicas do terminal.

5. Explorar Mais Recursos:

trocar modelos

Documentando Suas APIs com APIdog

Usando o Open WebUI para interagir com a API do Ollama e quer documentar sua configuração? O APIdog é uma ferramenta fantástica para criar documentação de API interativa. Sua interface elegante e opções de auto-hospedagem o tornam ideal para compartilhar seus projetos de IA—confira!

documentação apidog

Solução de Problemas e Dicas

É novo no Ollama? Confira isso para ajudar a começar!

Por Que Escolher o Open WebUI?

O Open WebUI transforma o Ollama de uma ferramenta de terminal desajeitada em uma plataforma poderosa e amigável:

Após testar tanto o terminal quanto o Open WebUI, estou convencido da facilidade e dos recursos da GUI. É como atualizar de um celular de flip para um smartphone!

Conclusão: Sua Aventura com o Open WebUI Espera por Você

Você passou de chats no terminal para uma configuração completa do Open WebUI com Ollama, tornando as interações com LLMs suaves e divertidas! Com Llama 3.1, chats salvos e upload de documentos, você está pronto para explorar IA como nunca antes. Experimente novos modelos, armazene mais prompts ou documente suas APIs com APIdog. Compartilhe seus sucessos com o Open WebUI no GitHub do Open WebUI—estou animado para ver o que você cria! Feliz experimentação com IA!

botão

Pratique o design de API no Apidog

Descubra uma forma mais fácil de construir e usar APIs