Cómo Usar gpt-oss con Claude Code

Ashley Goolam

Ashley Goolam

8 August 2025

Cómo Usar gpt-oss con Claude Code

¿Quieres potenciar tu flujo de trabajo de codificación con GPT-OSS, el modelo de peso abierto de Open AI, directamente dentro de Claude Code? ¡Estás de enhorabuena! Lanzado en agosto de 2025, GPT-OSS (variantes 20B o 120B) es una potencia para la codificación y el razonamiento, y puedes emparejarlo con la elegante interfaz CLI de Claude Code para configuraciones gratuitas o de bajo coste. En esta guía conversacional, te guiaremos a través de tres rutas para integrar GPT-OSS con Claude Code usando Hugging Face, OpenRouter o LiteLLM. ¡Vamos a sumergirnos y poner en marcha a tu compañero de codificación con IA!

💡
¿Quieres una gran herramienta de prueba de API que genere hermosa documentación de API?

¿Quieres una plataforma integrada y todo en uno para que tu equipo de desarrolladores trabaje en conjunto con máxima productividad?

¡Apidog cumple con todas tus demandas y reemplaza a Postman a un precio mucho más asequible!
botón

¿Qué es GPT-OSS y por qué usarlo con Claude Code?

GPT-OSS es la familia de modelos de peso abierto de Open AI, con las variantes 20B y 120B que ofrecen un rendimiento estelar para tareas de codificación, razonamiento y agenciales. Con una ventana de contexto de 128K tokens y licencia Apache 2.0, es perfecto para desarrolladores que desean flexibilidad y control. Claude Code, la herramienta CLI de Anthropic (versión 0.5.3+), es la favorita de los desarrolladores por sus capacidades de codificación conversacional. Al enrutar Claude Code a GPT-OSS a través de APIs compatibles con OpenAI, puedes disfrutar de la interfaz familiar de Claude mientras aprovechas el poder de código abierto de GPT-OSS, sin los costes de suscripción de Anthropic. ¿Listo para hacerlo realidad? ¡Exploremos las opciones de configuración!

open ai's open weight models

Requisitos previos para usar GPT-OSS con Claude Code

Antes de empezar, asegúrate de tener:

Claude code

Ruta A: Autoalojar GPT-OSS en Hugging Face

¿Quieres control total? Aloja GPT-OSS en los puntos finales de inferencia de Hugging Face para una configuración privada y escalable. Así es como:

Paso 1: Obtén el modelo

  1. Visita el repositorio de GPT-OSS en Hugging Face (openai/gpt-oss-20b o openai/gpt-oss-120b).
  2. Acepta la licencia Apache 2.0 para acceder al modelo.
  3. Alternativamente, prueba Qwen3-Coder-480B-A35B-Instruct (Qwen/Qwen3-Coder-480B-A35B-Instruct) para un modelo enfocado en la codificación (usa una versión GGUF para hardware más ligero).
hugging face gpt-oss model

Paso 2: Despliega un punto final de inferencia de generación de texto

  1. En la página del modelo, haz clic en Deploy > Inference Endpoint.
  2. Selecciona la plantilla Text Generation Inference (TGI) (≥ v1.4.0).
  3. Habilita la compatibilidad con OpenAI marcando Enable OpenAI compatibility o añadiendo --enable-openai en la configuración avanzada.
  4. Elige el hardware: A10G o CPU para 20B, A100 para 120B. Crea el punto final.

Paso 3: Recopila las credenciales

  1. Una vez que el estado del punto final sea Running, copia:

2. Anota el ID del modelo (por ejemplo, gpt-oss-20b o gpt-oss-120b).

Paso 4: Configura Claude Code

  1. Establece las variables de entorno en tu terminal:
export ANTHROPIC_BASE_URL="https://<tu-punto-final>.us-east-1.aws.endpoints.huggingface.cloud"
export ANTHROPIC_AUTH_TOKEN="hf_xxxxxxxxxxxxxxxxx"
export ANTHROPIC_MODEL="gpt-oss-20b"  # o gpt-oss-120b

Reemplaza <tu-punto-final> y hf_xxxxxxxxxxxxxxxxx con tus valores.

2. Prueba la configuración:

claude --model gpt-oss-20b

Claude Code se enruta a tu punto final de GPT-OSS, transmitiendo respuestas a través de la API /v1/chat/completions de TGI, imitando el esquema de OpenAI.

Paso 5: Notas sobre costes y escalado

docker run --name tgi -p 8080:80 -e HF_TOKEN=hf_xxxxxxxxxxxxxxxxx ghcr.io/huggingface/text-generation-inference:latest --model-id openai/gpt-oss-20b --enable-openai

Luego, establece ANTHROPIC_BASE_URL="http://localhost:8080".

Ruta B: Proxy de GPT-OSS a través de OpenRouter

¿No tienes DevOps? ¡No hay problema! Usa OpenRouter para acceder a GPT-OSS con una configuración mínima. Es rápido y gestiona la facturación por ti.

Paso 1: Regístrate y elige un modelo

  1. Regístrate en openrouter.ai y copia tu clave API de la sección Keys.
  2. Elige un slug de modelo:
gpt-oss model on openrouter

Paso 2: Configura Claude Code

  1. Establece las variables de entorno:
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="or_xxxxxxxxx"
export ANTHROPIC_MODEL="openai/gpt-oss-20b"

Reemplaza or_xxxxxxxxx con tu clave API de OpenRouter.

2. Pruébalo:

claude --model openai/gpt-oss-20b

Claude Code se conecta a GPT-OSS a través de la API unificada de OpenRouter, con soporte de streaming y fallback.

Paso 3: Notas de coste

Ruta C: Usa LiteLLM para flotas de modelos mixtos

¿Quieres manejar GPT-OSS, Qwen y modelos de Anthropic en un solo flujo de trabajo? LiteLLM actúa como un proxy para intercambiar modelos sin problemas.

Paso 1: Instala y configura LiteLLM

  1. Instala LiteLLM:
pip install litellm

2. Crea un archivo de configuración (litellm.yaml):

model_list:
  - model_name: gpt-oss-20b
    litellm_params:
      model: openai/gpt-oss-20b
      api_key: or_xxxxxxxxx  # Clave de OpenRouter
      api_base: https://openrouter.ai/api/v1
  - model_name: qwen3-coder
    litellm_params:
      model: openrouter/qwen/qwen3-coder
      api_key: or_xxxxxxxxx
      api_base: https://openrouter.ai/api/v1

Reemplaza or_xxxxxxxxx con tu clave de OpenRouter.

3. Inicia el proxy:

litellm --config litellm.yaml

Paso 2: Apunta Claude Code a LiteLLM

  1. Establece las variables de entorno:
export ANTHROPIC_BASE_URL="http://localhost:4000"
export ANTHROPIC_AUTH_TOKEN="litellm_master"
export ANTHROPIC_MODEL="gpt-oss-20b"

2. Pruébalo:

claude --model gpt-oss-20b

LiteLLM enruta las solicitudes a GPT-OSS a través de OpenRouter, con registro de costes y enrutamiento simple-shuffle para mayor fiabilidad.

Paso 3: Notas

¿Nuevo en LiteLLM? Haz clic aquí para saber más.

Probando GPT-OSS con Claude Code

¡Asegurémonos de que GPT-OSS funciona! Abre Claude Code y prueba estos comandos:

Generación de código:

claude --model gpt-oss-20b "Escribe una API REST en Python con Flask"

Espera una respuesta como:

from flask import Flask, jsonify
app = Flask(__name__)
@app.route('/api', methods=['GET'])
def get_data():
    return jsonify({"message": "¡Hola desde GPT-OSS!"})
if __name__ == '__main__':
    app.run(debug=True)

Análisis de base de código:

claude --model gpt-oss-20b "Resume src/server.js"

GPT-OSS aprovecha su ventana de contexto de 128K para analizar tu archivo JavaScript y devolver un resumen.

Depuración:

claude --model gpt-oss-20b "Depura este código Python con errores: [pega el código]"

Con una tasa de aprobación de HumanEval del 87.3%, GPT-OSS debería detectar y corregir problemas con precisión.

Consejos para la resolución de problemas

¿Por qué usar GPT-OSS con Claude Code?

Emparejar GPT-OSS con Claude Code es el sueño de todo desarrollador. Obtienes:

Los usuarios están entusiasmados con la destreza de codificación de GPT-OSS, llamándolo "una bestia económica para proyectos de múltiples archivos". Ya sea que lo autoalojes o lo proxies a través de OpenRouter, esta configuración mantiene los costes bajos y la productividad alta.

Conclusión

¡Ahora estás listo para usar GPT-OSS con Claude Code! Ya sea que te autoalojes en Hugging Face, uses un proxy a través de OpenRouter o utilices LiteLLM para la gestión de modelos, tienes una configuración de codificación potente y rentable. Desde la generación de API REST hasta la depuración de código, GPT-OSS cumple, y Claude Code lo hace sentir sin esfuerzo. ¡Pruébalo, comparte tus instrucciones favoritas en los comentarios y disfrutemos de la codificación con IA!

💡
¿Quieres una gran herramienta de prueba de API que genere hermosa documentación de API?

¿Quieres una plataforma integrada y todo en uno para que tu equipo de desarrolladores trabaje en conjunto con máxima productividad?

¡Apidog cumple con todas tus demandas y reemplaza a Postman a un precio mucho más asequible!
botón

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs