Hướng Dẫn Sử Dụng Open WebUI với Ollama

Ashley Goolam

Ashley Goolam

21 tháng 5 2025

Hướng Dẫn Sử Dụng Open WebUI với Ollama

Bạn có muốn trò chuyện với các mô hình ngôn ngữ mạnh mẽ như Llama 3.1 hoặc Mistral mà không bị kẹt trong cửa sổ dòng lệnh (terminal)? Open WebUI là "vé" của bạn để có một giao diện đẹp mắt, giống ChatGPT, giúp tương tác với các LLM của Ollama trở nên thú vị và trực quan. Nó cho phép bạn lưu lịch sử trò chuyện, lưu trữ các câu lệnh (prompts) và thậm chí tải lên tài liệu để nhận phản hồi thông minh hơn—tất cả ngay trong trình duyệt của bạn. Trong hướng dẫn thân thiện với người mới bắt đầu này, tôi sẽ hướng dẫn bạn cài đặt Ollama, thử nghiệm một mô hình trong terminal, và sau đó nâng cấp trải nghiệm với Open WebUI để có giao diện thân thiện với người dùng hơn. Chúng ta sẽ sử dụng Docker để thiết lập nhanh chóng và thử nghiệm với một câu lệnh thú vị. Sẵn sàng để biến các cuộc trò chuyện AI trở nên dễ dàng chưa? Hãy bắt đầu nào!

💡
Cần tài liệu hóa các API của bạn? Hãy thử APIdog để có một cách thức thiết kế và chia sẻ tài liệu API tương tác, chuyên nghiệp—hoàn hảo cho các dự án AI của bạn!
button

Open WebUI là gì? Trung tâm điều khiển LLM của bạn

Open WebUI là một giao diện web mã nguồn mở, tự host, kết nối với Ollama, cho phép bạn tương tác với các mô hình ngôn ngữ lớn (LLMs) như Llama 3.1 hoặc Mistral trong một bảng điều khiển dựa trên trình duyệt. Khác với giao diện dòng lệnh của Ollama, Open WebUI mang lại cảm giác giống ChatGPT, cung cấp:

Với hơn 50 nghìn lượt gắn sao trên GitHub, Open WebUI rất được ưa chuộng bởi các nhà phát triển và những người đam mê AI muốn có một cách làm việc đồ họa, cộng tác với LLMs trên máy tính cục bộ. Đầu tiên, hãy cài đặt Ollama để xem tại sao Open WebUI đáng để thêm vào!

ollama and open webui

Cài đặt và thử nghiệm Ollama

Trước khi đi sâu vào Open WebUI, hãy thiết lập Ollama và thử nghiệm một mô hình như Llama 3.1 hoặc Mistral trong terminal. Điều này giúp bạn có cơ sở để đánh giá giao diện trực quan của Open WebUI.

1. Kiểm tra yêu cầu hệ thống:

2. Cài đặt Ollama: Tải xuống và cài đặt Ollama từ ollama.com cho hệ điều hành của bạn. Làm theo hướng dẫn của trình cài đặt—quá trình thiết lập rất nhanh chóng. Xác minh cài đặt bằng lệnh:

ollama --version

Bạn sẽ nhận được một phiên bản như 0.1.44 (tháng 4 năm 2025). Nếu không thành công, hãy đảm bảo Ollama nằm trong biến môi trường PATH của bạn.

ollama

3. Tải xuống một mô hình: Chọn một mô hình như Llama 3.1 (8B) hoặc Mistral (7B). Trong hướng dẫn này, chúng ta sẽ sử dụng Llama 3.1:

ollama pull llama3.1

Lệnh này sẽ tải xuống khoảng 5GB, vì vậy hãy đi pha cà phê nếu mạng internet của bạn chậm. Kiểm tra xem mô hình đã được cài đặt chưa:

ollama list

Tìm kiếm llama3.1:latest. Mistral (ollama pull mistral) cũng là một lựa chọn tuyệt vời nếu bạn muốn một mô hình nhẹ hơn (khoảng 4GB).

ollama models

4. Thử nghiệm mô hình trong Terminal: Hãy thử một câu lệnh đơn giản để xem Ollama hoạt động:

ollama run llama3.1

Tại dấu nhắc (>>>), gõ: “Tell me a dad joke about computers.” (Kể cho tôi một câu chuyện cười về máy tính theo kiểu ông bố). Nhấn Enter. Bạn có thể nhận được: “Why did the computer go to the doctor? It had a virus!” (Tại sao máy tính lại đi khám bác sĩ? Nó bị virus!). Thoát bằng lệnh /bye. Tôi đã chạy thử và nhận được một câu chuyện cười khá hài hước, nhưng việc gõ trong terminal cảm thấy khá cồng kềnh—không có lịch sử trò chuyện, không lưu được câu lệnh. Đây là lúc Open WebUI tỏa sáng, cung cấp giao diện trực quan để lưu cuộc trò chuyện, sử dụng lại câu lệnh và tải lên tài liệu để nhận phản hồi phong phú hơn. Hãy cùng thiết lập nó!

ollama terminal chat

Thiết lập môi trường cho Open WebUI

Bây giờ bạn đã thấy giao diện terminal của Ollama, hãy chuẩn bị cho Open WebUI để làm cho trải nghiệm LLM của bạn trực quan hơn. Chúng ta sẽ giả định bạn đã cài đặt Docker, vì nó được yêu cầu cho việc thiết lập Open WebUI.

1. Xác minh Docker: Đảm bảo Docker đã được cài đặt và đang chạy:

docker --version

Bạn sẽ nhận được kết quả như Docker 27.4.0. Nếu bạn chưa có Docker, hãy tải xuống và cài đặt Docker Desktop từ trang web chính thức của họ—quá trình thiết lập nhanh chóng cho Windows, macOS hoặc Linux.

docker

2. Tạo thư mục dự án: Giữ mọi thứ có tổ chức:

mkdir ollama-webui
cd ollama-webui

Thư mục này sẽ là nơi cơ bản để bạn chạy Open WebUI.

3. Đảm bảo Ollama đang chạy: Khởi động Ollama trong một terminal riêng:

ollama serve

Lệnh này chạy API của Ollama tại http://localhost:11434. Giữ cửa sổ terminal này mở, vì Open WebUI cần nó để kết nối với các mô hình của bạn.

Cài đặt Open WebUI bằng Docker

Với Ollama và Llama 3.1 đã sẵn sàng, hãy cài đặt Open WebUI bằng một lệnh Docker duy nhất để thiết lập nhanh chóng, đáng tin cậy.

1. Chạy Open WebUI: Trong thư mục ollama-webui của bạn, thực thi lệnh:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Lệnh này:

Quá trình tải xuống mất vài phút. Kiểm tra xem nó đang chạy chưa bằng lệnh docker ps—tìm container có tên open-webui.

2. Truy cập Open WebUI: Mở trình duyệt của bạn và truy cập http://localhost:3000. Bạn sẽ thấy trang chào mừng của Open WebUI. Nhấp vào “Sign Up” để tạo tài khoản (người dùng đầu tiên sẽ có quyền admin). Sử dụng mật khẩu mạnh và lưu trữ nó an toàn. Bây giờ bạn đã sẵn sàng trò chuyện! Nếu trang không tải được, hãy đảm bảo container đang chạy (docker logs open-webui) và cổng 3000 không bị chiếm dụng.

user account

Sử dụng Open WebUI: Trò chuyện và khám phá các tính năng

Với Open WebUI đang chạy, hãy cùng đi sâu vào việc trò chuyện với Llama 3.1 và khám phá các tính năng tuyệt vời của nó, điều này làm cho nó trở thành một bản nâng cấp lớn so với terminal.

1. Bắt đầu trò chuyện:

chat interface

Giao diện rất gọn gàng, với câu lệnh và phản hồi của bạn được tự động lưu trong lịch sử trò chuyện.

2. Lưu và sắp xếp cuộc trò chuyện: Ở thanh bên trái, nhấp vào biểu tượng ghim để lưu cuộc trò chuyện. Đổi tên nó (ví dụ: “Dad Jokes”) để dễ dàng truy cập. Bạn có thể lưu trữ (archive) hoặc xóa các cuộc trò chuyện qua thanh bên, giúp các thử nghiệm của bạn được sắp xếp—tốt hơn nhiều so với việc cuộn trong terminal!

3. Lưu trữ câu lệnh (Prompts): Lưu câu lệnh chuyện cười kiểu bố để sử dụng lại:

4. Tải lên tài liệu cho RAG: Thêm ngữ cảnh cho các cuộc trò chuyện của bạn:

Tôi đã thử nghiệm tính năng này với một tệp PDF hướng dẫn Python, và Open WebUI đã đưa ra các câu trả lời có ngữ cảnh rất chính xác, khác biệt với các phản hồi cơ bản của terminal.

5. Khám phá thêm các tính năng khác:

change models

Tài liệu hóa các API của bạn với APIdog

Sử dụng Open WebUI để tương tác với API của Ollama và muốn tài liệu hóa thiết lập của bạn? APIdog là một công cụ tuyệt vời để tạo tài liệu API tương tác. Giao diện đẹp mắt và các tùy chọn tự host của nó lý tưởng để chia sẻ các dự án AI của bạn—hãy thử xem!

apidog documentation

Khắc phục sự cố và mẹo

Mới làm quen với Ollama? Hãy xem bài viết này để bắt đầu!

Tại sao chọn Open WebUI?

Open WebUI biến Ollama từ một công cụ terminal cồng kềnh thành một nền tảng mạnh mẽ, thân thiện với người dùng:

Sau khi thử nghiệm cả terminal và Open WebUI, tôi hoàn toàn bị thuyết phục bởi sự dễ dàng và các tính năng của giao diện đồ họa. Nó giống như nâng cấp từ điện thoại "cục gạch" lên điện thoại thông minh vậy!

Tổng kết: Cuộc phiêu lưu Open WebUI của bạn đang chờ đợi

Bạn đã đi từ những cuộc trò chuyện trong terminal đến một thiết lập Open WebUI hoàn chỉnh với Ollama, giúp tương tác với LLM trở nên mượt mà và thú vị! Với Llama 3.1, các cuộc trò chuyện đã lưu và khả năng tải lên tài liệu, bạn đã sẵn sàng khám phá AI như chưa từng có. Hãy thử các mô hình mới, lưu trữ thêm câu lệnh, hoặc tài liệu hóa các API của bạn với APIdog. Chia sẻ những thành công của bạn với Open WebUI trên GitHub của Open WebUI—tôi rất mong được thấy những gì bạn tạo ra! Chúc bạn mày mò AI vui vẻ!

button

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API