Qué es LangWatch, Cómo Instalar y Usar LangWatch

Ashley Goolam

Ashley Goolam

18 July 2025

Qué es LangWatch, Cómo Instalar y Usar LangWatch

¿Le cuesta evaluar y optimizar sus pipelines de modelos de lenguaje grandes (LLM)? Presentamos LangWatch, una plataforma revolucionaria que facilita la monitorización, evaluación y ajuste fino de sus flujos de trabajo LLM personalizados. En esta guía, profundizaremos en qué es LangWatch, por qué es increíble y cómo instalarlo y usarlo para potenciar sus proyectos de IA. Le guiaremos a través de la configuración de un chatbot simple, la integración de LangWatch y la prueba con una pregunta de ejemplo, todo mientras mantenemos las cosas fáciles de seguir. ¡Empecemos!

💡
¿Quiere una excelente herramienta de prueba de API que genere hermosa documentación de API?

¿Quiere una plataforma integrada y todo en uno para que su equipo de desarrolladores trabaje con máxima productividad?

¡Apidog satisface todas sus demandas y reemplaza a Postman a un precio mucho más asequible!
botón

¿Qué es LangWatch y por qué debería importarle?

LangWatch es su plataforma de referencia para abordar el complicado problema de la evaluación de LLM. A diferencia de los modelos tradicionales con métricas estándar como la puntuación F1 para clasificación, BLEU para traducción o ROUGE para resumen, los LLM generativos no son deterministas y son difíciles de precisar. Además, cada empresa tiene sus propios datos, modelos ajustados y pipelines personalizados, lo que hace que la evaluación sea un dolor de cabeza. ¡Ahí es donde LangWatch brilla!

LangWatch le permite:

Ya sea que esté construyendo un chatbot, una herramienta de traducción o una aplicación de IA personalizada, LangWatch le ayuda a garantizar que su LLM ofrezca resultados de primera. ¿Listo para verlo en acción? ¡Instalemos y usemos LangWatch!

sitio web oficial de langwatch

Guía paso a paso para instalar y usar LangWatch

Requisitos previos

Antes de empezar, necesitará:

Paso 1: Regístrese en LangWatch

Crear una cuenta:

Obtenga su clave API:

crear una cuenta con langwatch

Paso 2: Configure un proyecto de Python con LangWatch

Creemos un proyecto de Python e integremos LangWatch para rastrear un chatbot simple.

  1. Cree una carpeta de proyecto:
mkdir langwatch-demo
cd langwatch-demo

2. Configure un entorno virtual:

python -m venv venv
source venv/bin/activate  # On Windows: venv\Scripts\activate

3. Instale LangWatch y las dependencias:

pip install langwatch chainlit openai

4. Cree el código del Chatbot:

import os
import chainlit as cl
import asyncio
from openai import AsyncClient

openai_client = AsyncClient()  # Assumes OPENAI_API_KEY is set in environment
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

5. Configure su clave API de OpenAI:

export OPENAI_API_KEY="your-openai-api-key"  # On Windows: set OPENAI_API_KEY=your-openai-api-key

6. Ejecute el Chatbot:

chainlit run app.py
probar aplicación chainlit

Paso 3: Integre LangWatch para el seguimiento

Ahora, agreguemos LangWatch para rastrear los mensajes del chatbot.

  1. Modifique app.py para LangWatch:
import os
import chainlit as cl
import asyncio
import langwatch
from openai import AsyncClient

openai_client = AsyncClient()
model_name = "gpt-4o-mini"
settings = {
    "temperature": 0.3,
    "max_tokens": 500,
    "top_p": 1,
    "frequency_penalty": 0,
    "presence_penalty": 0,
}

@cl.on_chat_start
async def start():
    cl.user_session.set(
        "message_history",
        [
            {
                "role": "system",
                "content": "You are a helpful assistant that only reply in short tweet-like responses, using lots of emojis."
            }
        ]
    )

async def answer_as(name: str):
    message_history = cl.user_session.get("message_history")
    msg = cl.Message(author=name, content="")
    stream = await openai_client.chat.completions.create(
        model=model_name,
        messages=message_history + [{"role": "user", "content": f"speak as {name}"}],
        stream=True,
        **settings,
    )
    async for part in stream:
        if token := part.choices[0].delta.content or "":
            await msg.stream_token(token)
    message_history.append({"role": "assistant", "content": msg.content})
    await msg.send()

@cl.on_message
@langwatch.trace()
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history.append({"role": "user", "content": message.content})
    await asyncio.gather(answer_as("AI Bites"))

2. Pruebe la integración:

chainlit run app.py
mensaje de rastreo de langwatch

Paso 4: Configure un flujo de trabajo para evaluar su Chatbot

Creemos un conjunto de datos y un evaluador en LangWatch para evaluar el rendimiento del chatbot.

  1. Cree un conjunto de datos:
Pregunta Respuesta esperada
¿Cuál es la palabra francesa para hoy? Aujourd’hui

2. Configure un evaluador:

estructura del flujo de trabajo

3. Ejecute el evaluador:

ejecutar la coincidencia de respuesta llm

Debería ver algo como:

resultado emergente

4. Evalúe el flujo de trabajo:

evaluar todo el flujo de trabajo llm

Paso 5: Optimice su flujo de trabajo

Una vez que su evaluación esté completa, optimicemos el rendimiento del chatbot.

1. Ejecute la optimización:

iniciar el proceso de optimización llm

2. Verifique las mejoras:

resultados de optimización del flujo de trabajo

Paso 6: Configuración local opcional de LangWatch

¿Quiere ejecutar LangWatch localmente para pruebas con datos sensibles? Siga estos pasos:

  1. Clone el repositorio:
git clone https://github.com/langwatch/langwatch.git
cd langwatch

2. Configure el entorno:

cp langwatch/.env.example langwatch/.env

3. Ejecute con Docker:

docker compose up -d --wait --build

4. Acceda al panel de control:

Nota: La configuración de Docker es solo para pruebas y no es escalable para producción. Para producción, use LangWatch Cloud o Enterprise On-Premises.

¿Por qué usar LangWatch?

LangWatch resuelve el rompecabezas de la evaluación de LLM al proporcionar una plataforma unificada para monitorear, evaluar y optimizar sus pipelines de IA. Ya sea que esté ajustando prompts, analizando el rendimiento o asegurándose de que su chatbot dé respuestas precisas (como “Aujourd’hui” para “hoy” en francés), LangWatch lo hace muy fácil. Su integración con Python y herramientas como Chainlit y OpenAI significa que puede comenzar a rastrear y mejorar sus aplicaciones LLM en minutos.

Por ejemplo, nuestro chatbot de demostración ahora responde en ráfagas tipo tuit con emojis, y LangWatch ayuda a garantizar que sea preciso y optimizado. ¿Quiere escalar? Agregue más preguntas a su conjunto de datos o experimente con diferentes modelos LLM en el evaluador.

Conclusión

¡Ahí lo tiene! Ha aprendido qué es LangWatch, cómo instalarlo y cómo usarlo para monitorear y optimizar un chatbot. Desde la configuración de un proyecto de Python hasta el seguimiento de mensajes y la evaluación del rendimiento con un conjunto de datos, LangWatch le permite tomar el control de sus pipelines LLM. Nuestra pregunta de prueba —“¿Cuál es la palabra francesa para hoy?”— mostró lo fácil que es rastrear y mejorar las respuestas de la IA.

¿Listo para mejorar su juego de IA? Vaya a app.langwatch.ai, regístrese y comience a experimentar con LangWatch hoy mismo.

💡
¿Quiere una excelente herramienta de prueba de API que genere hermosa documentación de API?

¿Quiere una plataforma integrada y todo en uno para que su equipo de desarrolladores trabaje con máxima productividad?

¡Apidog satisface todas sus demandas y reemplaza a Postman a un precio mucho más asequible!
botón

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs