LangWatch คืออะไร ติดตั้งและใช้งาน LangWatch อย่างไร

Ashley Goolam

Ashley Goolam

18 July 2025

LangWatch คืออะไร ติดตั้งและใช้งาน LangWatch อย่างไร

กำลังประสบปัญหาในการประเมินและเพิ่มประสิทธิภาพไปป์ไลน์โมเดลภาษาขนาดใหญ่ (LLM) ของคุณอยู่ใช่ไหม? ขอแนะนำ LangWatch แพลตฟอร์มที่พลิกโฉมวงการซึ่งช่วยให้การตรวจสอบ ประเมิน และปรับแต่งเวิร์กโฟลว์ LLM ที่กำหนดเองของคุณเป็นเรื่องง่าย ในคู่มือนี้ เราจะเจาะลึกว่า LangWatch คืออะไร ทำไมถึงยอดเยี่ยม และวิธีการติดตั้งและใช้งานเพื่อเสริมพลังให้กับโปรเจกต์ AI ของคุณ เราจะแนะนำวิธีการตั้งค่าแชทบอทง่ายๆ การรวม LangWatch และการทดสอบด้วยคำถามตัวอย่าง—ทั้งหมดนี้ทำได้อย่างง่ายดาย มาเริ่มกันเลย!

💡
ต้องการเครื่องมือทดสอบ API ที่ยอดเยี่ยมซึ่งสร้าง เอกสาร API ที่สวยงาม ใช่ไหม?

ต้องการแพลตฟอร์มแบบครบวงจรสำหรับทีมพัฒนาของคุณเพื่อทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด ใช่ไหม?

Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ด้วยราคาที่คุ้มค่ากว่ามาก!
ปุ่ม

LangWatch คืออะไร และทำไมคุณถึงควรสนใจ?

LangWatch คือแพลตฟอร์มที่คุณไว้วางใจในการจัดการกับปัญหาที่ซับซ้อนของการประเมิน LLM ซึ่งแตกต่างจากโมเดลแบบดั้งเดิมที่มีเมตริกมาตรฐาน เช่น F1 score สำหรับการจัดหมวดหมู่, BLEU สำหรับการแปล หรือ ROUGE สำหรับการสรุปผล LLM แบบสร้างสรรค์นั้นไม่สามารถคาดเดาผลลัพธ์ได้ตายตัวและยากที่จะระบุได้อย่างแม่นยำ นอกจากนี้ ทุกบริษัทต่างก็มีข้อมูล โมเดลที่ปรับแต่ง และไปป์ไลน์ที่กำหนดเอง ทำให้การประเมินเป็นเรื่องที่น่าปวดหัว นั่นคือจุดที่ LangWatch โดดเด่น!

LangWatch ช่วยให้คุณสามารถ:

ไม่ว่าคุณจะกำลังสร้างแชทบอท เครื่องมือแปล หรือแอป AI ที่กำหนดเอง LangWatch ช่วยให้คุณมั่นใจว่า LLM ของคุณจะให้ผลลัพธ์ที่ยอดเยี่ยม พร้อมที่จะเห็นการทำงานแล้วหรือยัง? มาติดตั้งและใช้งาน LangWatch กันเถอะ!

เว็บไซต์อย่างเป็นทางการของ LangWatch

คู่มือการติดตั้งและใช้งาน LangWatch ทีละขั้นตอน

ข้อกำหนดเบื้องต้น

ก่อนที่เราจะเริ่ม คุณจะต้องมี:

ขั้นตอนที่ 1: ลงทะเบียนสำหรับ LangWatch

สร้างบัญชี:

รับคีย์ API ของคุณ:

สร้างบัญชีกับ LangWatch

ขั้นตอนที่ 2: ตั้งค่าโปรเจกต์ Python ด้วย LangWatch

มาสร้างโปรเจกต์ Python และรวม LangWatch เพื่อติดตามแชทบอทง่ายๆ กัน

  1. สร้างโฟลเดอร์โปรเจกต์:
mkdir langwatch-demo
cd langwatch-demo

2. ตั้งค่าสภาพแวดล้อมเสมือน (Virtual Environment):

python -m venv venv
source venv/bin/activate  # On Windows: venv\Scripts\activate

3. ติดตั้ง LangWatch และ Dependencies:

pip install langwatch chainlit openai

4. สร้างโค้ดแชทบอท:

import os
import chainlit as cl
import asyncio
from openai import AsyncClient

openai_client = AsyncClient()  # Assumes OPENAI_API_KEY is set in environment
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

5. ตั้งค่าคีย์ API ของ OpenAI ของคุณ:

export OPENAI_API_KEY="your-openai-api-key"  # On Windows: set OPENAI_API_KEY=your-openai-api-key

6. รันแชทบอท:

chainlit run app.py
ทดสอบแอปพลิเคชัน Chainlit

ขั้นตอนที่ 3: ผสานรวม LangWatch สำหรับการติดตาม

ตอนนี้ มาเพิ่ม LangWatch เพื่อติดตามข้อความของแชทบอทกัน

  1. แก้ไข app.py สำหรับ LangWatch:
import os
import chainlit as cl
import asyncio
import langwatch
from openai import AsyncClient

openai_client = AsyncClient()
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
@langwatch.trace()
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

2. ทดสอบการผสานรวม:

chainlit run app.py
ข้อความติดตาม LangWatch

ขั้นตอนที่ 4: ตั้งค่าเวิร์กโฟลว์เพื่อประเมินแชทบอทของคุณ

มาสร้างชุดข้อมูลและเครื่องมือประเมินใน LangWatch เพื่อประเมินประสิทธิภาพของแชทบอทกัน

  1. สร้างชุดข้อมูล (Dataset):
คำถาม คำตอบที่คาดหวัง
วันนี้ภาษาฝรั่งเศสว่าอะไร? Aujourd’hui

2. ตั้งค่าเครื่องมือประเมิน (Evaluator):

โครงสร้างเวิร์กโฟลว์

3. รันเครื่องมือประเมิน:

รันการจับคู่คำตอบ LLM

คุณควรเห็นบางอย่างเช่น:

ผลลัพธ์ป๊อปอัป

4. ประเมินเวิร์กโฟลว์:

ประเมินเวิร์กโฟลว์ LLM ทั้งหมด

ขั้นตอนที่ 5: เพิ่มประสิทธิภาพเวิร์กโฟลว์ของคุณ

เมื่อการประเมินของคุณเสร็จสมบูรณ์ มาเพิ่มประสิทธิภาพการทำงานของแชทบอทกัน

1. รันการเพิ่มประสิทธิภาพ:

เริ่มกระบวนการเพิ่มประสิทธิภาพ LLM

2. ตรวจสอบการปรับปรุง:

ผลลัพธ์การเพิ่มประสิทธิภาพเวิร์กโฟลว์

ขั้นตอนที่ 6: การตั้งค่า LangWatch ในเครื่อง (ทางเลือก)

ต้องการรัน LangWatch ในเครื่องเพื่อทดสอบกับข้อมูลที่ละเอียดอ่อนใช่ไหม? ทำตามขั้นตอนเหล่านี้:

  1. โคลน Repository:
git clone https://github.com/langwatch/langwatch.git
cd langwatch

2. ตั้งค่าสภาพแวดล้อม:

cp langwatch/.env.example langwatch/.env

3. รันด้วย Docker:

docker compose up -d --wait --build

4. เข้าถึงแดชบอร์ด:

หมายเหตุ: การตั้งค่า Docker นี้มีไว้สำหรับการทดสอบเท่านั้น และไม่สามารถปรับขนาดสำหรับการใช้งานจริงได้ สำหรับการใช้งานจริง โปรดใช้ LangWatch Cloud หรือ Enterprise On-Premises

ทำไมต้องใช้ LangWatch?

LangWatch ช่วยไขปริศนาการประเมิน LLM ด้วยการนำเสนอแพลตฟอร์มแบบครบวงจรเพื่อตรวจสอบ ประเมิน และเพิ่มประสิทธิภาพไปป์ไลน์ AI ของคุณ ไม่ว่าคุณจะกำลังปรับแต่ง prompt วิเคราะห์ประสิทธิภาพ หรือตรวจสอบให้แน่ใจว่าแชทบอทของคุณให้คำตอบที่ถูกต้อง (เช่น “Aujourd’hui” สำหรับ “today” ในภาษาฝรั่งเศส) LangWatch ทำให้เป็นเรื่องง่าย การผสานรวมกับ Python และเครื่องมืออย่าง Chainlit และ OpenAI หมายความว่าคุณสามารถเริ่มติดตามและปรับปรุงแอป LLM ของคุณได้ในไม่กี่นาที

ตัวอย่างเช่น แชทบอทสาธิตของเราตอนนี้ตอบกลับเป็นข้อความสั้นๆ คล้ายทวีตพร้อมอีโมจิ และ LangWatch ช่วยให้มั่นใจว่าถูกต้องและได้รับการเพิ่มประสิทธิภาพ ต้องการขยายขนาดใช่ไหม? เพิ่มคำถามในชุดข้อมูลของคุณ หรือทดลองกับโมเดล LLM ที่แตกต่างกันในเครื่องมือประเมิน

บทสรุป

และนี่คือทั้งหมด! คุณได้เรียนรู้แล้วว่า LangWatch คืออะไร วิธีการติดตั้ง และวิธีการใช้งานเพื่อตรวจสอบและเพิ่มประสิทธิภาพแชทบอท ตั้งแต่การตั้งค่าโปรเจกต์ Python ไปจนถึงการติดตามข้อความและการประเมินประสิทธิภาพด้วยชุดข้อมูล LangWatch ช่วยให้คุณสามารถควบคุมไปป์ไลน์ LLM ของคุณได้ คำถามทดสอบของเรา—“วันนี้ภาษาฝรั่งเศสว่าอะไร?”—แสดงให้เห็นว่าการติดตามและปรับปรุงการตอบกลับของ AI นั้นง่ายดายเพียงใด

พร้อมที่จะยกระดับเกม AI ของคุณแล้วหรือยัง? ไปที่ app.langwatch.ai ลงทะเบียน และเริ่มทดลองกับ LangWatch ได้เลยวันนี้

💡
ต้องการเครื่องมือทดสอบ API ที่ยอดเยี่ยมซึ่งสร้าง เอกสาร API ที่สวยงาม ใช่ไหม?

ต้องการแพลตฟอร์มแบบครบวงจรสำหรับทีมพัฒนาของคุณเพื่อทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด ใช่ไหม?

Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ด้วยราคาที่คุ้มค่ากว่ามาก!
ปุ่ม

ฝึกการออกแบบ API แบบ Design-first ใน Apidog

ค้นพบวิธีที่ง่ายขึ้นในการสร้างและใช้ API