LangWatch là gì? Cách cài đặt và sử dụng LangWatch

Ashley Goolam

Ashley Goolam

18 tháng 7 2025

LangWatch là gì? Cách cài đặt và sử dụng LangWatch

Gặp khó khăn trong việc đánh giá và tối ưu hóa các quy trình mô hình ngôn ngữ lớn (LLM) của bạn? Hãy đến với LangWatch, một nền tảng thay đổi cuộc chơi giúp bạn dễ dàng giám sát, đánh giá và tinh chỉnh các quy trình LLM tùy chỉnh của mình. Trong hướng dẫn này, chúng ta sẽ tìm hiểu LangWatch là gì, tại sao nó tuyệt vời, và cách cài đặt cũng như sử dụng nó để tăng cường sức mạnh cho các dự án AI của bạn. Chúng ta sẽ cùng thiết lập một chatbot đơn giản, tích hợp LangWatch, và kiểm tra nó với một câu hỏi mẫu—tất cả đều được giữ cho dễ hiểu. Hãy bắt đầu nào!

💡
Bạn muốn một công cụ kiểm thử API tuyệt vời có thể tạo Tài liệu API đẹp mắt?

Bạn muốn một nền tảng tích hợp, tất cả trong một để Đội ngũ Nhà phát triển của bạn làm việc cùng nhau với năng suất tối đa?

Apidog đáp ứng mọi yêu cầu của bạn, và thay thế Postman với mức giá phải chăng hơn nhiều!
button

LangWatch là gì và tại sao bạn nên quan tâm?

LangWatch là nền tảng tối ưu giúp bạn giải quyết vấn đề khó khăn trong việc đánh giá LLM. Không giống như các mô hình truyền thống với các chỉ số tiêu chuẩn như điểm F1 cho phân loại, BLEU cho dịch thuật, hoặc ROUGE cho tóm tắt, các LLM tạo sinh không xác định và khó đánh giá chính xác. Hơn nữa, mỗi công ty đều có dữ liệu, mô hình tinh chỉnh và quy trình tùy chỉnh riêng, khiến việc đánh giá trở thành một vấn đề đau đầu. Đó là lúc LangWatch tỏa sáng!

LangWatch cho phép bạn:

Dù bạn đang xây dựng một chatbot, một công cụ dịch thuật, hay một ứng dụng AI tùy chỉnh, LangWatch giúp bạn đảm bảo LLM của mình mang lại kết quả hàng đầu. Sẵn sàng để xem nó hoạt động chưa? Hãy cài đặt và sử dụng LangWatch!

langwatch official website

Hướng dẫn từng bước để cài đặt và sử dụng LangWatch

Điều kiện tiên quyết

Trước khi bắt đầu, bạn sẽ cần:

Bước 1: Đăng ký LangWatch

Tạo tài khoản:

Lấy khóa API của bạn:

create an account with langwatch

Bước 2: Thiết lập dự án Python với LangWatch

Hãy tạo một dự án Python và tích hợp LangWatch để theo dõi một chatbot đơn giản.

  1. Tạo thư mục dự án:
mkdir langwatch-demo
cd langwatch-demo

2. Thiết lập môi trường ảo:

python -m venv venv
source venv/bin/activate  # Trên Windows: venv\Scripts\activate

3. Cài đặt LangWatch và các phụ thuộc:

pip install langwatch chainlit openai

4. Tạo mã chatbot:

import os
import chainlit as cl
import asyncio
from openai import AsyncClient

openai_client = AsyncClient()  # Giả định OPENAI_API_KEY được đặt trong môi trường
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

5. Đặt khóa API OpenAI của bạn:

export OPENAI_API_KEY="your-openai-api-key"  # Trên Windows: set OPENAI_API_KEY=your-openai-api-key

6. Chạy Chatbot:

chainlit run app.py
test chainlit application

Bước 3: Tích hợp LangWatch để theo dõi

Bây giờ, hãy thêm LangWatch để theo dõi các tin nhắn của chatbot.

  1. Sửa đổi app.py cho LangWatch:
import os
import chainlit as cl
import asyncio
import langwatch
from openai import AsyncClient

openai_client = AsyncClient()
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
@langwatch.trace()
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

2. Kiểm tra tích hợp:

chainlit run app.py
langwatch trace message

Bước 4: Thiết lập một quy trình để đánh giá Chatbot của bạn

Hãy tạo một bộ dữ liệu và công cụ đánh giá trong LangWatch để đánh giá hiệu suất của chatbot.

  1. Tạo bộ dữ liệu:
Question Expected Answer
What’s the French word for today? Aujourd’hui

2. Thiết lập công cụ đánh giá:

workflow structure

3. Chạy công cụ đánh giá:

run the llm answer match

Bạn sẽ thấy điều gì đó như sau:

pop up result

4. Đánh giá quy trình làm việc:

evaluate the entire llm workfolw

Bước 5: Tối ưu hóa quy trình làm việc của bạn

Sau khi quá trình đánh giá hoàn tất, hãy tối ưu hóa hiệu suất của chatbot.

1. Chạy Tối ưu hóa:

start the llm optimization process

2. Kiểm tra cải tiến:

workflow optimization results

Bước 6: Tùy chọn thiết lập LangWatch cục bộ

Bạn muốn chạy LangWatch cục bộ để kiểm thử với dữ liệu nhạy cảm? Hãy làm theo các bước sau:

  1. Clone kho lưu trữ:
git clone https://github.com/langwatch/langwatch.git
cd langwatch

2. Thiết lập môi trường:

cp langwatch/.env.example langwatch/.env

3. Chạy với Docker:

docker compose up -d --wait --build

4. Tru cập bảng điều khiển:

Lưu ý: Thiết lập Docker chỉ dành cho mục đích kiểm thử và không thể mở rộng cho môi trường sản xuất. Để sản xuất, hãy sử dụng LangWatch Cloud hoặc Enterprise On-Premises.

Tại sao nên sử dụng LangWatch?

LangWatch giải quyết bài toán đánh giá LLM bằng cách cung cấp một nền tảng thống nhất để giám sát, đánh giá và tối ưu hóa các quy trình AI của bạn. Dù bạn đang tinh chỉnh lời nhắc, phân tích hiệu suất hay đảm bảo chatbot của bạn đưa ra câu trả lời chính xác (như “Aujourd’hui” cho “today” trong tiếng Pháp), LangWatch đều giúp mọi việc trở nên dễ dàng. Việc tích hợp của nó với Python và các công cụ như Chainlit và OpenAI có nghĩa là bạn có thể bắt đầu theo dõi và cải thiện các ứng dụng LLM của mình chỉ trong vài phút.

Ví dụ, chatbot demo của chúng ta hiện phản hồi bằng các đoạn tin nhắn ngắn giống tweet với biểu tượng cảm xúc, và LangWatch giúp đảm bảo nó chính xác và được tối ưu hóa. Muốn mở rộng quy mô? Thêm nhiều câu hỏi vào bộ dữ liệu của bạn hoặc thử nghiệm với các mô hình LLM khác nhau trong công cụ đánh giá.

Kết luận

Vậy là xong! Bạn đã tìm hiểu LangWatch là gì, cách cài đặt và cách sử dụng nó để giám sát và tối ưu hóa một chatbot. Từ việc thiết lập một dự án Python đến theo dõi tin nhắn và đánh giá hiệu suất với một bộ dữ liệu, LangWatch trao quyền cho bạn kiểm soát các quy trình LLM của mình. Câu hỏi kiểm thử của chúng ta—“Từ tiếng Pháp cho hôm nay là gì?”—đã cho thấy việc theo dõi và cải thiện phản hồi của AI dễ dàng như thế nào.

Sẵn sàng nâng cấp trò chơi AI của bạn? Hãy truy cập app.langwatch.ai, đăng ký và bắt đầu thử nghiệm với LangWatch ngay hôm nay.

💡
Bạn muốn một công cụ kiểm thử API tuyệt vời có thể tạo Tài liệu API đẹp mắt?

Bạn muốn một nền tảng tích hợp, tất cả trong một để Đội ngũ Nhà phát triển của bạn làm việc cùng nhau với năng suất tối đa?

Apidog đáp ứng mọi yêu cầu của bạn, và thay thế Postman với mức giá phải chăng hơn nhiều!
button

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API