Wie man Open WebUI mit Ollama verwendet

Richte Open WebUI mit Ollama ein, um mit LLMs wie Llama 3.1 im Browser zu chatten. Speichere Verläufe, Prompts und lade Doks hoch!

Leo Schulz

Leo Schulz

5 June 2025

Wie man Open WebUI mit Ollama verwendet

Möchten Sie mit leistungsstarken Sprachmodellen wie Llama 3.1 oder Mistral chatten, ohne in einer Terminalumgebung festzustecken? Open WebUI ist Ihr Ticket zu einer eleganten, ChatGPT-ähnlichen Oberfläche, die die Interaktion mit Ollamas LLMs unterhaltsam und intuitiv macht. Es ermöglicht Ihnen, Chat-Verläufe zu speichern, Prompts zu speichern und sogar Dokumente hochzuladen, um intelligentere Antworten zu erhalten – alles in Ihrem Browser. In diesem anfängerfreundlichen Leitfaden führe ich Sie durch die Installation von Ollama, das Testen eines Modells im Terminal und dann das Aufleveln mit Open WebUI für eine benutzerfreundlichere Erfahrung. Wir verwenden Docker für ein schnelles Setup und testen es mit einem unterhaltsamen Prompt. Bereit, KI-Chats zum Kinderspiel zu machen? Legen wir los!

💡
Müssen Sie Ihre APIs dokumentieren? Probieren Sie APIdog für eine elegante, interaktive Möglichkeit, API-Dokumente zu entwerfen und zu teilen – perfekt für Ihre KI-Projekte!
button

Was ist Open WebUI? Ihr LLM-Kommandozentrum

Open WebUI ist eine Open-Source-, selbst gehostete Weboberfläche, die sich mit Ollama verbindet und es Ihnen ermöglicht, mit großen Sprachmodellen (LLMs) wie Llama 3.1 oder Mistral in einem browserbasierten Dashboard zu interagieren. Im Gegensatz zur Befehlszeilenschnittstelle von Ollama fühlt sich Open WebUI wie ChatGPT an und bietet:

Mit über 50.000 GitHub-Sternen ist Open WebUI ein Hit für Entwickler und KI-Enthusiasten, die eine kollaborative, grafische Möglichkeit suchen, lokal mit LLMs zu arbeiten. Lassen Sie uns zunächst Ollama zum Laufen bringen, um zu sehen, warum Open WebUI das Hinzufügen wert ist!

ollama and open webui

Installieren und Testen von Ollama

Bevor wir uns in Open WebUI stürzen, richten wir Ollama ein und testen ein Modell wie Llama 3.1 oder Mistral im Terminal. Dies gibt Ihnen eine Grundlage, um die intuitive Benutzeroberfläche von Open WebUI zu schätzen.

1. Systemanforderungen prüfen:

2. Ollama installieren: Laden Sie Ollama von ollama.com für Ihr Betriebssystem herunter und installieren Sie es. Befolgen Sie die Installationsaufforderungen – es ist ein schnelles Setup. Überprüfen Sie die Installation mit:

ollama --version

Erwarten Sie eine Version wie 0.1.44 (April 2025). Wenn es fehlschlägt, stellen Sie sicher, dass Ollama in Ihrem PATH ist.

ollama

3. Ein Modell herunterladen: Wählen Sie ein Modell wie Llama 3.1 (8B) oder Mistral (7B). Für diesen Leitfaden verwenden wir Llama 3.1:

ollama pull llama3.1

Dies lädt ~5 GB herunter, also holen Sie sich einen Kaffee, wenn Ihr Internet langsam ist. Überprüfen Sie, ob es installiert ist:

ollama list

Suchen Sie nach llama3.1:latest. Mistral (ollama pull mistral) ist eine weitere großartige Option, wenn Sie ein leichteres Modell (~4 GB) wünschen.

ollama models

4. Testen Sie das Modell im Terminal: Probieren Sie einen einfachen Prompt aus, um Ollama in Aktion zu sehen:

ollama run llama3.1

Geben Sie am Prompt (>>>) Folgendes ein: „Erzähl mir einen Papa-Witz über Computer.“ Drücken Sie die Eingabetaste. Möglicherweise erhalten Sie: „Warum ging der Computer zum Arzt? Er hatte einen Virus!“ Beenden Sie mit /bye. Ich habe dies ausgeführt und einen zum Schmunzeln anregenden Witz erhalten, aber das Tippen im Terminal fühlte sich umständlich an – kein Chat-Verlauf, keine gespeicherten Prompts. Hier glänzt Open WebUI und bietet eine visuelle Oberfläche, um Unterhaltungen zu speichern, Prompts wiederzuverwenden und Dokumente hochzuladen, um reichhaltigere Antworten zu erhalten. Richten wir es ein!

ollama terminal chat

Einrichten Ihrer Umgebung für Open WebUI

Nachdem Sie die Terminaloberfläche von Ollama gesehen haben, bereiten wir uns auf Open WebUI vor, um Ihre LLM-Erfahrung intuitiver zu gestalten. Wir gehen davon aus, dass Sie Docker installiert haben, da dies für die Einrichtung von Open WebUI erforderlich ist.

1. Docker überprüfen: Stellen Sie sicher, dass Docker installiert ist und ausgeführt wird:

docker --version

Erwarten Sie so etwas wie Docker 27.4.0. Wenn Sie Docker nicht haben, laden Sie Docker Desktop von der offiziellen Website herunter und installieren Sie es – es ist ein schnelles Setup für Windows, macOS oder Linux.

docker

2. Erstellen Sie einen Projektordner: Halten Sie die Dinge organisiert:

mkdir ollama-webui
cd ollama-webui

Dieser Ordner ist Ihre Basis für die Ausführung von Open WebUI.

3. Stellen Sie sicher, dass Ollama ausgeführt wird: Starten Sie Ollama in einem separaten Terminal:

ollama serve

Dies führt die API von Ollama unter http://localhost:11434 aus. Lassen Sie dieses Terminal geöffnet, da Open WebUI es benötigt, um sich mit Ihren Modellen zu verbinden.

Installieren von Open WebUI mit Docker

Mit Ollama und Llama 3.1 bereit, installieren wir Open WebUI mit einem einzigen Docker-Befehl für ein schnelles, zuverlässiges Setup.

1. Open WebUI ausführen: Führen Sie in Ihrem Ordner ollama-webui Folgendes aus:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Dieser Befehl:

Das Herunterladen dauert eine Minute. Überprüfen Sie mit docker ps, ob es ausgeführt wird – suchen Sie nach dem Container open-webui.

2. Auf Open WebUI zugreifen: Öffnen Sie Ihren Browser und gehen Sie zu http://localhost:3000. Sie sehen die Willkommensseite von Open WebUI. Klicken Sie auf „Anmelden“, um ein Konto zu erstellen (der erste Benutzer erhält Administratorrechte). Verwenden Sie ein sicheres Passwort und speichern Sie es sicher. Sie sind jetzt bereit zum Chatten! Wenn die Seite nicht geladen wird, stellen Sie sicher, dass der Container ausgeführt wird (docker logs open-webui) und Port 3000 frei ist.

user account

Verwenden von Open WebUI: Chatten und Erkunden von Funktionen

Wenn Open WebUI ausgeführt wird, tauchen wir in das Chatten mit Llama 3.1 ein und erkunden seine großartigen Funktionen, die es zu einem großen Upgrade gegenüber dem Terminal machen.

1. Mit dem Chatten beginnen:

chat interface

Die Benutzeroberfläche ist sauber, wobei Ihr Prompt und Ihre Antwort automatisch im Chat-Verlauf gespeichert werden.

2. Chats speichern und organisieren: Klicken Sie in der linken Seitenleiste auf das Pinsymbol, um den Chat zu speichern. Benennen Sie ihn um (z. B. „Papa-Witze“), um einen einfachen Zugriff zu ermöglichen. Sie können Chats über die Seitenleiste archivieren oder löschen und so Ihre Experimente organisiert halten – viel besser als das Scrollen im Terminal!

3. Prompts speichern: Speichern Sie den Papa-Witz-Prompt zur Wiederverwendung:

4. Ein Dokument für RAG hochladen: Fügen Sie Ihren Chats Kontext hinzu:

Ich habe dies mit einem Python-Tutorial-PDF getestet, und Open WebUI hat kontextbezogene Antworten perfekt getroffen, im Gegensatz zu den grundlegenden Antworten des Terminals.

5. Weitere Funktionen erkunden:

change models

Dokumentieren Ihrer APIs mit APIdog

Verwenden Sie Open WebUI, um mit der API von Ollama zu interagieren, und möchten Sie Ihr Setup dokumentieren? APIdog ist ein fantastisches Tool zum Erstellen interaktiver API-Dokumentation. Die elegante Benutzeroberfläche und die Self-Hosting-Optionen machen es ideal für das Teilen Ihrer KI-Projekte – probieren Sie es aus!

apidog documentation

Fehlerbehebung und Tipps

Neu bei Ollama? Schauen Sie sich dies an, um Ihnen den Einstieg zu erleichtern!

Warum Open WebUI wählen?

Open WebUI verwandelt Ollama von einem umständlichen Terminal-Tool in eine leistungsstarke, benutzerfreundliche Plattform:

Nachdem ich sowohl das Terminal als auch Open WebUI getestet habe, bin ich von der Benutzerfreundlichkeit und den Funktionen der GUI überzeugt. Es ist wie ein Upgrade von einem Klapphandy auf ein Smartphone!

Zusammenfassung: Ihr Open WebUI-Abenteuer erwartet Sie

Sie sind von Terminal-Chats zu einem vollständigen Open WebUI-Setup mit Ollama übergegangen und machen LLM-Interaktionen reibungslos und unterhaltsam! Mit Llama 3.1, gespeicherten Chats und Dokument-Uploads sind Sie bereit, KI wie nie zuvor zu erkunden. Probieren Sie neue Modelle aus, speichern Sie mehr Prompts oder dokumentieren Sie Ihre APIs mit APIdog. Teilen Sie Ihre Open WebUI-Erfolge auf dem Open WebUI GitHub – ich bin gespannt, was Sie erstellen! Viel Spaß beim KI-Tüfteln!

button

Explore more

So verwenden Sie Deepseek R1 lokal mit Cursor

So verwenden Sie Deepseek R1 lokal mit Cursor

Erfahre, wie du DeepSeek R1 lokal mit Cursor IDE einrichtest & konfigurierst – privates, kostengünstiges KI-Coding.

4 June 2025

Wie man Gemma 3n auf Android ausführt?

Wie man Gemma 3n auf Android ausführt?

Erfahre, wie du Gemma 3n auf Android installierst und ausführst, mit Google AI Edge Gallery.

3 June 2025

So verwenden Sie den Google Search Console MCP-Server

So verwenden Sie den Google Search Console MCP-Server

Google Search Console & Apidog: SEO-Analyse & KI-API-Entwicklung. Installation, Konfiguration & Nutzung für Web-Performance & API-Einblicke.

30 May 2025

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen