Comment utiliser Open WebUI avec Ollama

Configure Open WebUI & Ollama. Chat LLMs (Llama 3) in browser. Save histories, prompts, upload docs. Guide facile!

Louis Dupont

Louis Dupont

5 June 2025

Comment utiliser Open WebUI avec Ollama

Souhaitez-vous discuter avec des modèles de langage puissants comme Llama 3.1 ou Mistral sans rester bloqué dans un terminal ? Open WebUI est votre billet pour une interface élégante, semblable à ChatGPT, qui rend l’interaction avec les LLM d’Ollama amusante et intuitive. Il vous permet d’enregistrer les historiques de discussion, de stocker des invites et même de télécharger des documents pour des réponses plus intelligentes, le tout dans votre navigateur. Dans ce guide pour débutants, je vous guiderai à travers l’installation d’Ollama, le test d’un modèle dans le terminal, puis l’amélioration avec Open WebUI pour une expérience plus conviviale. Nous utiliserons Docker pour une configuration rapide et le testerons avec une invite amusante. Prêt à rendre les discussions d’IA faciles ? Commençons !

💡
Besoin de documenter vos API ? Essayez APIdog pour une façon soignée et interactive de concevoir et de partager des documents d’API, parfait pour vos projets d’IA !
button

Qu’est-ce qu’Open WebUI ? Votre centre de commande LLM

Open WebUI est une interface web open source et auto-hébergée qui se connecte à Ollama, vous permettant d’interagir avec des modèles de langage volumineux (LLM) comme Llama 3.1 ou Mistral dans un tableau de bord basé sur un navigateur. Contrairement à l’interface de ligne de commande d’Ollama, Open WebUI ressemble à ChatGPT, offrant :

Avec plus de 50 000 étoiles sur GitHub, Open WebUI est un succès pour les développeurs et les passionnés d’IA qui souhaitent une méthode collaborative et graphique pour travailler avec les LLM localement. Tout d’abord, lançons Ollama pour voir pourquoi Open WebUI vaut la peine d’être ajouté !

ollama and open webui

Installation et test d’Ollama

Avant de plonger dans Open WebUI, configurons Ollama et testons un modèle comme Llama 3.1 ou Mistral dans le terminal. Cela vous donne une base de référence pour apprécier l’interface intuitive d’Open WebUI.

1. Vérifiez la configuration système requise :

2. Installez Ollama : téléchargez et installez Ollama depuis ollama.com pour votre système d’exploitation. Suivez les invites de l’installateur, c’est une configuration rapide. Vérifiez l’installation avec :

ollama --version

Attendez-vous à une version comme 0.1.44 (avril 2025). En cas d’échec, assurez-vous qu’Ollama est dans votre PATH.

ollama

3. Téléchargez un modèle : choisissez un modèle comme Llama 3.1 (8B) ou Mistral (7B). Pour ce guide, nous utiliserons Llama 3.1 :

ollama pull llama3.1

Cela télécharge ~5 Go, alors prenez un café si votre connexion Internet est lente. Vérifiez qu’il est installé :

ollama list

Recherchez llama3.1:latest. Mistral (ollama pull mistral) est une autre excellente option si vous souhaitez un modèle plus léger (~4 Go).

ollama models

4. Testez le modèle dans le terminal : essayez une invite simple pour voir Ollama en action :

ollama run llama3.1

À l’invite (>>>), tapez : « Racontez-moi une blague de papa sur les ordinateurs. » Appuyez sur Entrée. Vous pourriez obtenir : « Pourquoi l’ordinateur est-il allé chez le médecin ? Il avait un virus ! » Quittez avec /bye. J’ai exécuté cela et j’ai obtenu une blague digne d’un rire, mais taper dans le terminal était maladroit, pas d’historique de discussion, pas d’invites enregistrées. C’est là qu’Open WebUI brille, offrant une interface visuelle pour enregistrer les conversations, réutiliser les invites et télécharger des documents pour des réponses plus riches. Configurons-le !

ollama terminal chat

Configuration de votre environnement pour Open WebUI

Maintenant que vous avez vu l’interface du terminal d’Ollama, préparons-nous pour Open WebUI afin de rendre votre expérience LLM plus intuitive. Nous supposerons que vous avez Docker installé, car il est requis pour la configuration d’Open WebUI.

1. Vérifiez Docker : assurez-vous que Docker est installé et en cours d’exécution :

docker --version

Attendez-vous à quelque chose comme Docker 27.4.0. Si vous n’avez pas Docker, téléchargez et installez Docker Desktop depuis leur site Web officiel, c’est une configuration rapide pour Windows, macOS ou Linux.

docker

2. Créez un dossier de projet : gardez les choses organisées :

mkdir ollama-webui
cd ollama-webui

Ce dossier sera votre base pour l’exécution d’Open WebUI.

3. Assurez-vous qu’Ollama est en cours d’exécution : démarrez Ollama dans un terminal séparé :

ollama serve

Cela exécute l’API d’Ollama à http://localhost:11434. Gardez ce terminal ouvert, car Open WebUI en a besoin pour se connecter à vos modèles.

Installation d’Open WebUI avec Docker

Avec Ollama et Llama 3.1 prêts, installons Open WebUI à l’aide d’une seule commande Docker pour une configuration rapide et fiable.

1. Exécutez Open WebUI : dans votre dossier ollama-webui, exécutez :

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande :

Cela prend une minute à télécharger. Vérifiez qu’il est en cours d’exécution avec docker ps, recherchez le conteneur open-webui.

2. Accédez à Open WebUI : ouvrez votre navigateur et accédez à http://localhost:3000. Vous verrez la page d’accueil d’Open WebUI. Cliquez sur « S’inscrire » pour créer un compte (le premier utilisateur obtient des privilèges d’administrateur). Utilisez un mot de passe fort et enregistrez-le en toute sécurité. Vous êtes maintenant prêt à discuter ! Si la page ne se charge pas, assurez-vous que le conteneur est en cours d’exécution (docker logs open-webui) et que le port 3000 est libre.

user account

Utilisation d’Open WebUI : discuter et explorer les fonctionnalités

Avec Open WebUI en cours d’exécution, plongeons-nous dans la discussion avec Llama 3.1 et explorons ses fonctionnalités impressionnantes, qui en font une énorme mise à niveau par rapport au terminal.

1. Commencer à discuter :

chat interface

L’interface est propre, avec votre invite et votre réponse enregistrées automatiquement dans l’historique des discussions.

2. Enregistrer et organiser les discussions : dans la barre latérale gauche, cliquez sur l’icône d’épingle pour enregistrer la discussion. Renommez-la (par exemple, « Blagues de papa ») pour un accès facile. Vous pouvez archiver ou supprimer des discussions via la barre latérale, en gardant vos expériences organisées, bien mieux que le défilement du terminal !

3. Stocker les invites : enregistrez l’invite de la blague de papa pour la réutiliser :

4. Télécharger un document pour RAG : ajoutez du contexte à vos discussions :

J’ai testé cela avec un PDF de tutoriel Python, et Open WebUI a réussi à donner des réponses contextuelles, contrairement aux réponses de base du terminal.

5. Explorer d’autres fonctionnalités :

change models

Documenter vos API avec APIdog

Vous utilisez Open WebUI pour interagir avec l’API d’Ollama et vous souhaitez documenter votre configuration ? APIdog est un outil fantastique pour créer une documentation d’API interactive. Son interface élégante et ses options d’auto-hébergement en font l’outil idéal pour partager vos projets d’IA, consultez-le !

apidog documentation

Dépannage et conseils

Débutant avec Ollama ? Consultez ceci pour vous aider à démarrer !

Pourquoi choisir Open WebUI ?

Open WebUI transforme Ollama d’un outil de terminal maladroit en une plateforme puissante et conviviale :

Après avoir testé le terminal et Open WebUI, je suis convaincu de la facilité et des fonctionnalités de l’interface graphique. C’est comme passer d’un téléphone à clapet à un smartphone !

Pour conclure : votre aventure Open WebUI vous attend

Vous êtes passé des discussions de terminal à une configuration Open WebUI complète avec Ollama, rendant les interactions LLM fluides et amusantes ! Avec Llama 3.1, les discussions enregistrées et les téléchargements de documents, vous êtes prêt à explorer l’IA comme jamais auparavant. Essayez de nouveaux modèles, stockez plus d’invites ou documentez vos API avec APIdog. Partagez vos réussites Open WebUI sur le GitHub d’Open WebUI, je suis ravi de voir ce que vous créez ! Bon bricolage d’IA !

button

Explore more

Comment utiliser Deepseek R1 en local avec Cursor

Comment utiliser Deepseek R1 en local avec Cursor

Apprenez à configurer DeepSeek R1 local avec Cursor IDE pour une aide au codage IA privée et économique.

4 June 2025

Comment exécuter Gemma 3n sur Android ?

Comment exécuter Gemma 3n sur Android ?

Apprenez à installer et exécuter Gemma 3n sur Android via Google AI Edge Gallery.

3 June 2025

Comment utiliser Claude Code avec GitHub Actions

Comment utiliser Claude Code avec GitHub Actions

Découvrez Claude Code avec GitHub Actions : revues de code, corrections de bugs, implémentation de fonctionnalités. Tutoriel pour développeurs.

29 May 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API