Qu'est-ce que LangWatch ? Installation et Utilisation

Ashley Goolam

Ashley Goolam

18 July 2025

Qu'est-ce que LangWatch ? Installation et Utilisation

Vous avez du mal à évaluer et optimiser vos pipelines de modèles de langage étendus (LLM) ? Découvrez LangWatch, une plateforme révolutionnaire qui facilite la surveillance, l'évaluation et l'ajustement précis de vos flux de travail LLM personnalisés. Dans ce guide, nous allons explorer ce qu'est LangWatch, pourquoi c'est génial, et comment l'installer et l'utiliser pour dynamiser vos projets d'IA. Nous vous guiderons à travers la configuration d'un chatbot simple, l'intégration de LangWatch, et son test avec une question d'exemple, tout en restant facile à suivre. Commençons !

💡
Envie d'un excellent outil de test d'API qui génère une magnifique documentation d'API ?

Envie d'une plateforme intégrée et tout-en-un pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos exigences et remplace Postman à un prix bien plus abordable !
button

Qu'est-ce que LangWatch et pourquoi devriez-vous vous en soucier ?

LangWatch est votre plateforme de référence pour aborder le problème délicat de l'évaluation des LLM. Contrairement aux modèles traditionnels avec des métriques standard comme le score F1 pour la classification, BLEU pour la traduction ou ROUGE pour le résumé, les LLM génératifs sont non déterministes et difficiles à cerner. De plus, chaque entreprise possède ses propres données, modèles affinés et pipelines personnalisés, ce qui rend l'évaluation complexe. C'est là que LangWatch excelle !

LangWatch vous permet de :

Que vous construisiez un chatbot, un outil de traduction ou une application d'IA personnalisée, LangWatch vous aide à garantir que votre LLM fournit des résultats de premier ordre. Prêt à le voir en action ? Installons et utilisons LangWatch !

site officiel de langwatch

Guide étape par étape pour installer et utiliser LangWatch

Prérequis

Avant de commencer, vous aurez besoin de :

Étape 1 : S'inscrire à LangWatch

Créer un compte :

Obtenir votre clé API :

créer un compte avec langwatch

Étape 2 : Configurer un projet Python avec LangWatch

Créons un projet Python et intégrons LangWatch pour suivre un chatbot simple.

  1. Créer un dossier de projet :
mkdir langwatch-demo
cd langwatch-demo

2. Configurer un environnement virtuel :

python -m venv venv
source venv/bin/activate  # Sous Windows : venv\Scripts\activate

3. Installer LangWatch et les dépendances :

pip install langwatch chainlit openai

4. Créer le code du chatbot :

import os
import chainlit as cl
import asyncio
from openai import AsyncClient

openai_client = AsyncClient()  # Suppose que OPENAI_API_KEY est définie dans l'environnement
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "Vous êtes un assistant utile qui ne répond que par de courtes réponses de type tweet, en utilisant beaucoup d'émojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

5. Définir votre clé API OpenAI :

export OPENAI_API_KEY="votre-clé-api-openai"  # Sous Windows : set OPENAI_API_KEY=votre-clé-api-openai

6. Exécuter le chatbot :

chainlit run app.py
tester l'application chainlit

Étape 3 : Intégrer LangWatch pour le suivi

Maintenant, ajoutons LangWatch pour suivre les messages du chatbot.

  1. Modifier app.py pour LangWatch :
import os
import chainlit as cl
import asyncio
import langwatch
from openai import AsyncClient

openai_client = AsyncClient()
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "Vous êtes un assistant utile qui ne répond que par de courtes réponses de type tweet, en utilisant beaucoup d'émojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
@langwatch.trace()
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

2. Tester l'intégration :

chainlit run app.py
message de trace langwatch

Étape 4 : Configurer un flux de travail pour évaluer votre chatbot

Créons un ensemble de données et un évaluateur dans LangWatch pour évaluer les performances du chatbot.

  1. Créer un ensemble de données :
Question Réponse attendue
Quel est le mot français pour aujourd'hui ? Aujourd’hui

2. Configurer un évaluateur :

structure du flux de travail

3. Exécuter l'évaluateur :

exécuter la correspondance de réponse LLM

Vous devriez voir quelque chose comme :

résultat pop-up

4. Évaluer le flux de travail :

évaluer l'ensemble du flux de travail LLM

Étape 5 : Optimiser votre flux de travail

Une fois votre évaluation terminée, optimisons les performances du chatbot.

1. Exécuter l'optimisation :

démarrer le processus d'optimisation LLM

2. Vérifier les améliorations :

résultats d'optimisation du flux de travail

Étape 6 : Configuration locale optionnelle de LangWatch

Vous voulez exécuter LangWatch localement pour des tests avec des données sensibles ? Suivez ces étapes :

  1. Cloner le dépôt :
git clone https://github.com/langwatch/langwatch.git
cd langwatch

2. Configurer l'environnement :

cp langwatch/.env.example langwatch/.env

3. Exécuter avec Docker :

docker compose up -d --wait --build

4. Accéder au tableau de bord :

Remarque : La configuration Docker est uniquement destinée aux tests et n'est pas évolutive pour la production. Pour la production, utilisez LangWatch Cloud ou Enterprise On-Premises.

Pourquoi utiliser LangWatch ?

LangWatch résout le casse-tête de l'évaluation des LLM en fournissant une plateforme unifiée pour surveiller, évaluer et optimiser vos pipelines d'IA. Que vous ajustiez des invites, analysiez les performances ou vous assuriez que votre chatbot donne des réponses précises (comme « Aujourd’hui » pour « today » en français), LangWatch rend la tâche aisée. Son intégration avec Python et des outils comme Chainlit et OpenAI signifie que vous pouvez commencer à suivre et à améliorer vos applications LLM en quelques minutes.

Par exemple, notre chatbot de démonstration répond maintenant par des rafales de type tweet avec des émojis, et LangWatch aide à garantir qu'il est précis et optimisé. Vous voulez passer à l'échelle supérieure ? Ajoutez plus de questions à votre ensemble de données ou expérimentez avec différents modèles LLM dans l'évaluateur.

Conclusion

Voilà ! Vous avez appris ce qu'est LangWatch, comment l'installer et comment l'utiliser pour surveiller et optimiser un chatbot. De la configuration d'un projet Python au suivi des messages et à l'évaluation des performances avec un ensemble de données, LangWatch vous permet de prendre le contrôle de vos pipelines LLM. Notre question de test – « Quel est le mot français pour aujourd'hui ? » – a montré à quel point il est facile de suivre et d'améliorer les réponses de l'IA.

Prêt à faire passer votre jeu d'IA au niveau supérieur ? Rendez-vous sur app.langwatch.ai, inscrivez-vous et commencez à expérimenter avec LangWatch dès aujourd'hui.

💡
Envie d'un excellent outil de test d'API qui génère une magnifique documentation d'API ?

Envie d'une plateforme intégrée et tout-en-un pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos exigences et remplace Postman à un prix bien plus abordable !
button

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API