Hướng Dẫn Sử Dụng gpt-oss với Claude Code

Ashley Goolam

Ashley Goolam

8 tháng 8 2025

Hướng Dẫn Sử Dụng gpt-oss với Claude Code

Bạn muốn tăng cường quy trình làm việc mã hóa của mình với GPT-OSS, mô hình mã nguồn mở của Open AI, ngay bên trong Claude Code? Bạn sắp có một trải nghiệm tuyệt vời! Ra mắt vào tháng 8 năm 2025, GPT-OSS (phiên bản 20B hoặc 120B) là một công cụ mạnh mẽ cho việc viết mã và suy luận, và bạn có thể kết hợp nó với giao diện CLI bóng bẩy của Claude Code để có các thiết lập miễn phí hoặc chi phí thấp. Trong hướng dẫn đàm thoại này, chúng tôi sẽ chỉ cho bạn ba cách để tích hợp GPT-OSS với Claude Code bằng cách sử dụng Hugging Face, OpenRouter hoặc LiteLLM. Hãy cùng tìm hiểu và đưa trợ thủ mã hóa AI của bạn vào hoạt động!

💡
Bạn muốn một công cụ kiểm thử API tuyệt vời có thể tạo Tài liệu API đẹp mắt?

Bạn muốn một nền tảng tích hợp, tất cả trong một để Đội ngũ phát triển của bạn làm việc cùng nhau với năng suất tối đa?

Apidog đáp ứng mọi yêu cầu của bạn và thay thế Postman với mức giá phải chăng hơn nhiều!
nút

GPT-OSS là gì và tại sao nên sử dụng nó với Claude Code?

GPT-OSS là dòng mô hình mã nguồn mở của Open AI, với các biến thể 20B và 120B mang lại hiệu suất vượt trội cho các tác vụ mã hóa, suy luận và tác nhân. Với cửa sổ ngữ cảnh 128K token và giấy phép Apache 2.0, nó hoàn hảo cho các nhà phát triển muốn có sự linh hoạt và kiểm soát. Claude Code, công cụ CLI của Anthropic (phiên bản 0.5.3+), là một công cụ được các nhà phát triển yêu thích nhờ khả năng mã hóa đàm thoại. Bằng cách định tuyến Claude Code tới GPT-OSS thông qua các API tương thích với OpenAI, bạn có thể tận hưởng giao diện quen thuộc của Claude trong khi tận dụng sức mạnh mã nguồn mở của GPT-OSS—mà không phải trả phí đăng ký của Anthropic. Sẵn sàng thực hiện chưa? Hãy cùng khám phá các tùy chọn thiết lập!

open ai's open weight models

Điều kiện tiên quyết để sử dụng GPT-OSS với Claude Code

Trước khi bắt đầu, hãy đảm bảo bạn có:

Claude code

Đường dẫn A: Tự lưu trữ GPT-OSS trên Hugging Face

Muốn kiểm soát hoàn toàn? Lưu trữ GPT-OSS trên các Điểm cuối suy luận của Hugging Face để có một thiết lập riêng tư, có thể mở rộng. Đây là cách thực hiện:

Bước 1: Lấy mô hình

  1. Truy cập kho lưu trữ GPT-OSS trên Hugging Face (openai/gpt-oss-20b hoặc openai/gpt-oss-120b).
  2. Chấp nhận giấy phép Apache 2.0 để truy cập mô hình.
  3. Ngoài ra, hãy thử Qwen3-Coder-480B-A35B-Instruct (Qwen/Qwen3-Coder-480B-A35B-Instruct) cho một mô hình tập trung vào mã hóa (sử dụng phiên bản GGUF cho phần cứng nhẹ hơn).
hugging face gpt-oss model

Bước 2: Triển khai một điểm cuối suy luận tạo văn bản

  1. Trên trang mô hình, nhấp vào Deploy (Triển khai) > Inference Endpoint (Điểm cuối suy luận).
  2. Chọn mẫu Text Generation Inference (TGI) (≥ v1.4.0).
  3. Bật khả năng tương thích OpenAI bằng cách chọn Enable OpenAI compatibility (Bật khả năng tương thích OpenAI) hoặc thêm --enable-openai trong cài đặt nâng cao.
  4. Chọn phần cứng: A10G hoặc CPU cho 20B, A100 cho 120B. Tạo điểm cuối.

Bước 3: Thu thập thông tin xác thực

  1. Khi trạng thái điểm cuối là Running (Đang chạy), sao chép:

2. Ghi lại ID mô hình (ví dụ: gpt-oss-20b hoặc gpt-oss-120b).

Bước 4: Cấu hình Claude Code

  1. Đặt các biến môi trường trong terminal của bạn:
export ANTHROPIC_BASE_URL="https://<your-endpoint>.us-east-1.aws.endpoints.huggingface.cloud"
export ANTHROPIC_AUTH_TOKEN="hf_xxxxxxxxxxxxxxxxx"
export ANTHROPIC_MODEL="gpt-oss-20b"  # hoặc gpt-oss-120b

Thay thế <your-endpoint>hf_xxxxxxxxxxxxxxxxx bằng các giá trị của bạn.

2. Kiểm tra thiết lập:

claude --model gpt-oss-20b

Claude Code định tuyến đến điểm cuối GPT-OSS của bạn, truyền phát phản hồi qua API /v1/chat/completions của TGI, mô phỏng lược đồ của OpenAI.

Bước 5: Lưu ý về chi phí và khả năng mở rộng

docker run --name tgi -p 8080:80 -e HF_TOKEN=hf_xxxxxxxxxxxxxxxxx ghcr.io/huggingface/text-generation-inference:latest --model-id openai/gpt-oss-20b --enable-openai

Sau đó đặt ANTHROPIC_BASE_URL="http://localhost:8080".

Đường dẫn B: Proxy GPT-OSS qua OpenRouter

Không có DevOps? Không vấn đề gì! Sử dụng OpenRouter để truy cập GPT-OSS với thiết lập tối thiểu. Nó nhanh chóng và xử lý thanh toán cho bạn.

Bước 1: Đăng ký và chọn một mô hình

  1. Đăng ký tại openrouter.ai và sao chép khóa API của bạn từ phần Keys (Khóa).
  2. Chọn một slug mô hình:
gpt-oss model on openrouter

Bước 2: Cấu hình Claude Code

  1. Đặt các biến môi trường:
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="or_xxxxxxxxx"
export ANTHROPIC_MODEL="openai/gpt-oss-20b"

Thay thế or_xxxxxxxxx bằng khóa API OpenRouter của bạn.

2. Kiểm tra:

claude --model openai/gpt-oss-20b

Claude Code kết nối với GPT-OSS qua API hợp nhất của OpenRouter, với hỗ trợ truyền phát và dự phòng.

Bước 3: Lưu ý về chi phí

Đường dẫn C: Sử dụng LiteLLM cho các nhóm mô hình hỗn hợp

Bạn muốn sử dụng đồng thời các mô hình GPT-OSS, Qwen và Anthropic trong một quy trình làm việc? LiteLLM hoạt động như một proxy để hoán đổi nóng các mô hình một cách liền mạch.

Bước 1: Cài đặt và cấu hình LiteLLM

  1. Cài đặt LiteLLM:
pip install litellm

2. Tạo một tệp cấu hình (litellm.yaml):

model_list:
  - model_name: gpt-oss-20b
    litellm_params:
      model: openai/gpt-oss-20b
      api_key: or_xxxxxxxxx  # Khóa OpenRouter
      api_base: https://openrouter.ai/api/v1
  - model_name: qwen3-coder
    litellm_params:
      model: openrouter/qwen/qwen3-coder
      api_key: or_xxxxxxxxx
      api_base: https://openrouter.ai/api/v1

Thay thế or_xxxxxxxxx bằng khóa OpenRouter của bạn.

3. Khởi động proxy:

litellm --config litellm.yaml

Bước 2: Trỏ Claude Code tới LiteLLM

  1. Đặt các biến môi trường:
export ANTHROPIC_BASE_URL="http://localhost:4000"
export ANTHROPIC_AUTH_TOKEN="litellm_master"
export ANTHROPIC_MODEL="gpt-oss-20b"

2. Kiểm tra:

claude --model gpt-oss-20b

LiteLLM định tuyến các yêu cầu tới GPT-OSS qua OpenRouter, với tính năng ghi nhật ký chi phí và định tuyến xáo trộn đơn giản để đảm bảo độ tin cậy.

Bước 3: Lưu ý

Mới sử dụng LiteLLM? Nhấp vào đây để tìm hiểu thêm.

Kiểm tra GPT-OSS với Claude Code

Hãy đảm bảo GPT-OSS đang hoạt động! Mở Claude Code và thử các lệnh sau:

Tạo mã:

claude --model gpt-oss-20b "Write a Python REST API with Flask"

Mong đợi một phản hồi như sau:

from flask import Flask, jsonify
app = Flask(__name__)
@app.route('/api', methods=['GET'])
def get_data():
    return jsonify({"message": "Hello from GPT-OSS!"})
if __name__ == '__main__':
    app.run(debug=True)

Phân tích codebase:

claude --model gpt-oss-20b "Summarize src/server.js"

GPT-OSS tận dụng cửa sổ ngữ cảnh 128K của nó để phân tích tệp JavaScript của bạn và trả về một bản tóm tắt.

Gỡ lỗi:

claude --model gpt-oss-20b "Debug this buggy Python code: [paste code]"

Với tỷ lệ vượt qua HumanEval 87,3%, GPT-OSS sẽ phát hiện và sửa lỗi một cách chính xác.

Mẹo khắc phục sự cố

Tại sao nên sử dụng GPT-OSS với Claude Code?

Kết hợp GPT-OSS với Claude Code là ước mơ của mọi nhà phát triển. Bạn sẽ nhận được:

Người dùng đang ca ngợi khả năng mã hóa của GPT-OSS, gọi nó là “một con quái vật thân thiện với ngân sách cho các dự án đa tệp.” Dù bạn tự lưu trữ hay proxy qua OpenRouter, thiết lập này giúp giữ chi phí thấp và năng suất cao.

Kết luận

Giờ đây bạn đã sẵn sàng sử dụng GPT-OSS với Claude Code! Dù bạn tự lưu trữ trên Hugging Face, proxy qua OpenRouter hay sử dụng LiteLLM để quản lý mô hình, bạn đều có một thiết lập mã hóa mạnh mẽ, hiệu quả về chi phí. Từ việc tạo API REST đến gỡ lỗi mã, GPT-OSS đều đáp ứng, và Claude Code giúp mọi thứ trở nên dễ dàng. Hãy dùng thử, chia sẻ các lời nhắc yêu thích của bạn trong phần bình luận và hãy cùng nhau tìm hiểu sâu hơn về mã hóa AI!

💡
Bạn muốn một công cụ kiểm thử API tuyệt vời có thể tạo Tài liệu API đẹp mắt?

Bạn muốn một nền tảng tích hợp, tất cả trong một để Đội ngũ phát triển của bạn làm việc cùng nhau với năng suất tối đa?

Apidog đáp ứng mọi yêu cầu của bạn và thay thế Postman với mức giá phải chăng hơn nhiều!
nút

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API