ما هو LangWatch وكيفية تثبيته واستخدامه

Ashley Goolam

Ashley Goolam

18 يوليو 2025

ما هو LangWatch وكيفية تثبيته واستخدامه

هل تواجه صعوبة في تقييم وتحسين مسارات نماذج اللغة الكبيرة (LLM) الخاصة بك؟ إليك LangWatch، منصة رائدة تجعل من السهل مراقبة وتقييم وضبط سير عمل نماذج اللغة الكبيرة المخصصة لديك. في هذا الدليل، سنتعمق في ماهية LangWatch، ولماذا هي رائعة، وكيفية تثبيتها واستخدامها لتعزيز مشاريع الذكاء الاصطناعي الخاصة بك. سنستعرض إعداد روبوت دردشة بسيط، ودمج LangWatch، واختباره بسؤال نموذجي — كل ذلك مع الحفاظ على سهولة المتابعة. هيا بنا نبدأ!

💡
هل تريد أداة رائعة لاختبار واجهة برمجة التطبيقات (API) تولد توثيق API جميل؟

هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى قدر من الإنتاجية؟

Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر أكثر معقولية!
زر

ما هو LangWatch ولماذا يجب أن تهتم به؟

LangWatch هي منصتك المفضلة لمعالجة مشكلة تقييم نماذج اللغة الكبيرة (LLM) المعقدة. على عكس النماذج التقليدية ذات المقاييس القياسية مثل درجة F1 للتصنيف، أو BLEU للترجمة، أو ROUGE للتلخيص، فإن نماذج اللغة الكبيرة التوليدية غير حتمية ويصعب تحديدها بدقة. بالإضافة إلى ذلك، تمتلك كل شركة بياناتها الخاصة، ونماذجها المضبوطة بدقة، ومسارات عملها المخصصة، مما يجعل التقييم أمرًا صعبًا. هنا تبرز LangWatch!

يتيح لك LangWatch ما يلي:

سواء كنت تقوم ببناء روبوت دردشة، أو أداة ترجمة، أو تطبيق ذكاء اصطناعي مخصص، يساعدك LangWatch على ضمان تقديم نموذج اللغة الكبيرة الخاص بك لنتائج ممتازة. هل أنت مستعد لرؤيته في العمل؟ دعنا نثبت ونستخدم LangWatch!

الموقع الرسمي لـ LangWatch

دليل خطوة بخطوة لتثبيت واستخدام LangWatch

المتطلبات الأساسية

قبل أن نبدأ، ستحتاج إلى:

الخطوة 1: التسجيل في LangWatch

إنشاء حساب:

الحصول على مفتاح API الخاص بك:

إنشاء حساب في LangWatch

الخطوة 2: إعداد مشروع بايثون باستخدام LangWatch

لنقم بإنشاء مشروع بايثون ودمج LangWatch لتتبع روبوت دردشة بسيط.

  1. إنشاء مجلد للمشروع:
mkdir langwatch-demo
cd langwatch-demo

2. إعداد بيئة افتراضية:

python -m venv venv
source venv/bin/activate  # On Windows: venv\Scripts\activate

3. تثبيت LangWatch والتبعيات:

pip install langwatch chainlit openai

4. إنشاء كود روبوت الدردشة:

import os
import chainlit as cl
import asyncio
from openai import AsyncClient

openai_client = AsyncClient()  # Assumes OPENAI_API_KEY is set in environment
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

5. تعيين مفتاح OpenAI API الخاص بك:

export OPENAI_API_KEY="your-openai-api-key"  # On Windows: set OPENAI_API_KEY=your-openai-api-key

6. تشغيل روبوت الدردشة:

chainlit run app.py
اختبار تطبيق Chainlit

الخطوة 3: دمج LangWatch للتتبع

الآن، دعنا نضيف LangWatch لتتبع رسائل روبوت الدردشة.

  1. تعديل app.py لـ LangWatch:
import os
import chainlit as cl
import asyncio
import langwatch
from openai import AsyncClient

openai_client = AsyncClient()
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
@langwatch.trace()
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

2. اختبار التكامل:

chainlit run app.py
رسالة تتبع LangWatch

الخطوة 4: إعداد سير عمل لتقييم روبوت الدردشة الخاص بك

لنقم بإنشاء مجموعة بيانات ومقيّم في LangWatch لتقييم أداء روبوت الدردشة.

  1. إنشاء مجموعة بيانات:
السؤال الإجابة المتوقعة
ما هي الكلمة الفرنسية لليوم؟ Aujourd’hui

2. إعداد مقيّم:

هيكل سير العمل

3. تشغيل المقيّم:

تشغيل مطابقة إجابة LLM

يجب أن ترى شيئًا كهذا:

نتيجة منبثقة

4. تقييم سير العمل:

تقييم سير عمل LLM بالكامل

الخطوة 5: تحسين سير عملك

بمجرد اكتمال التقييم، دعنا نحسّن أداء روبوت الدردشة.

1. تشغيل التحسين:

بدء عملية تحسين LLM

2. التحقق من التحسينات:

نتائج تحسين سير العمل

الخطوة 6: إعداد LangWatch محلي اختياري

هل تريد تشغيل LangWatch محليًا للاختبار باستخدام بيانات حساسة؟ اتبع هذه الخطوات:

  1. استنساخ المستودع:
git clone https://github.com/langwatch/langwatch.git
cd langwatch

2. إعداد البيئة:

cp langwatch/.env.example langwatch/.env

3. التشغيل باستخدام Docker:

docker compose up -d --wait --build

4. الوصول إلى لوحة التحكم:

ملاحظة: إعداد Docker مخصص للاختبار فقط وغير قابل للتوسع للإنتاج. للإنتاج، استخدم LangWatch Cloud أو Enterprise On-Premises.

لماذا تستخدم LangWatch؟

يحل LangWatch لغز تقييم نماذج اللغة الكبيرة (LLM) من خلال توفير منصة موحدة لمراقبة وتقييم وتحسين مسارات عمل الذكاء الاصطناعي الخاصة بك. سواء كنت تقوم بتعديل الموجهات، أو تحليل الأداء، أو التأكد من أن روبوت الدردشة الخاص بك يقدم إجابات دقيقة (مثل “Aujourd’hui” لكلمة “today” بالفرنسية)، فإن LangWatch يجعل الأمر سهلاً. يعني تكامله مع بايثون وأدوات مثل Chainlit وOpenAI أنه يمكنك البدء في تتبع وتحسين تطبيقات LLM الخاصة بك في دقائق.

على سبيل المثال، يستجيب روبوت الدردشة التجريبي الخاص بنا الآن بانفجارات شبيهة بالتغريدات مع الرموز التعبيرية، ويساعد LangWatch على ضمان دقته وتحسينه. هل تريد التوسع؟ أضف المزيد من الأسئلة إلى مجموعة البيانات الخاصة بك أو جرب نماذج LLM مختلفة في المقيّم.

الخاتمة

ها قد وصلت! لقد تعلمت ما هو LangWatch، وكيفية تثبيته، وكيفية استخدامه لمراقبة وتحسين روبوت الدردشة. من إعداد مشروع بايثون إلى تتبع الرسائل وتقييم الأداء باستخدام مجموعة بيانات، يمكّنك LangWatch من التحكم في مسارات عمل نماذج اللغة الكبيرة الخاصة بك. أظهر سؤالنا التجريبي — "ما هي الكلمة الفرنسية لليوم؟" — مدى سهولة تتبع استجابات الذكاء الاصطناعي وتحسينها.

هل أنت مستعد لرفع مستوى لعبتك في مجال الذكاء الاصطناعي؟ توجه إلى app.langwatch.ai، سجل، وابدأ في التجربة مع LangWatch اليوم.

💡
هل تريد أداة رائعة لاختبار واجهة برمجة التطبيقات (API) تولد توثيق API جميل؟

هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى قدر من الإنتاجية؟

Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر أكثر معقولية!
زر

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات