Cara Menggunakan gpt-oss dengan Claude Code

Ashley Goolam

Ashley Goolam

8 August 2025

Cara Menggunakan gpt-oss dengan Claude Code

Ingin meningkatkan alur kerja coding Anda dengan **GPT-OSS**, model *open-weight* dari Open AI, langsung di dalam **Claude Code**? Anda akan sangat senang! Dirilis pada Agustus 2025, **GPT-OSS** (varian 20B atau 120B) adalah kekuatan besar untuk coding dan penalaran, dan Anda dapat memasangkannya dengan antarmuka CLI Claude Code yang ramping untuk pengaturan gratis atau berbiaya rendah. Dalam panduan percakapan ini, kami akan memandu Anda melalui tiga cara untuk mengintegrasikan **GPT-OSS** dengan Claude Code menggunakan Hugging Face, OpenRouter, atau LiteLLM. Mari kita mulai dan siapkan asisten coding AI Anda!

💡
Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah?

Ingin platform All-in-One yang terintegrasi untuk Tim Pengembang Anda agar dapat bekerja sama dengan produktivitas maksimum?

Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
tombol

Apa Itu GPT-OSS dan Mengapa Menggunakannya dengan Claude Code?

**GPT-OSS** adalah keluarga model *open-weight* Open AI, dengan varian 20B dan 120B menawarkan kinerja luar biasa untuk tugas coding, penalaran, dan keagenan. Dengan jendela konteks 128K token dan lisensi Apache 2.0, ini sangat cocok untuk pengembang yang menginginkan fleksibilitas dan kontrol. **Claude Code**, alat CLI Anthropic (versi 0.5.3+), adalah favorit pengembang karena kemampuan coding percakapannya. Dengan mengarahkan Claude Code ke **GPT-OSS** melalui API yang kompatibel dengan OpenAI, Anda dapat menikmati antarmuka Claude yang familiar sambil memanfaatkan kekuatan *open-source* **GPT-OSS**—tanpa biaya langganan Anthropic. Siap mewujudkannya? Mari jelajahi opsi pengaturannya!

model open weight dari open ai

Prasyarat untuk Menggunakan GPT-OSS dengan Claude Code

Sebelum kita mulai, pastikan Anda memiliki:

Claude code

Jalur A: Hosting Mandiri GPT-OSS di Hugging Face

Ingin kontrol penuh? Hosting **GPT-OSS** di Inference Endpoints Hugging Face untuk pengaturan pribadi yang skalabel. Berikut caranya:

Langkah 1: Dapatkan Modelnya

  1. Kunjungi repo **GPT-OSS** di Hugging Face (openai/gpt-oss-20b atau openai/gpt-oss-120b).
  2. Setujui lisensi Apache 2.0 untuk mengakses model.
  3. Sebagai alternatif, coba **Qwen3-Coder-480B-A35B-Instruct** (Qwen/Qwen3-Coder-480B-A35B-Instruct) untuk model yang berfokus pada coding (gunakan versi GGUF untuk perangkat keras yang lebih ringan).
model gpt-oss hugging face

Langkah 2: Terapkan Titik Akhir Inferensi Generasi Teks

  1. Pada halaman model, klik **Deploy** > **Inference Endpoint**.
  2. Pilih templat **Text Generation Inference (TGI)** (≥ v1.4.0).
  3. Aktifkan kompatibilitas OpenAI dengan mencentang **Enable OpenAI compatibility** atau menambahkan --enable-openai di pengaturan lanjutan.
  4. Pilih perangkat keras: A10G atau CPU untuk 20B, A100 untuk 120B. Buat titik akhir.

Langkah 3: Kumpulkan Kredensial

  1. Setelah status titik akhir adalah **Running**, salin:

2. Catat ID model (misalnya, gpt-oss-20b atau gpt-oss-120b).

Langkah 4: Konfigurasi Claude Code

  1. Atur variabel lingkungan di terminal Anda:
export ANTHROPIC_BASE_URL="https://<titik-akhir-anda>.us-east-1.aws.endpoints.huggingface.cloud"
export ANTHROPIC_AUTH_TOKEN="hf_xxxxxxxxxxxxxxxxx"
export ANTHROPIC_MODEL="gpt-oss-20b"  # atau gpt-oss-120b

Ganti <titik-akhir-anda> dan hf_xxxxxxxxxxxxxxxxx dengan nilai Anda.

2. Uji pengaturannya:

claude --model gpt-oss-20b

Claude Code mengarahkan ke titik akhir **GPT-OSS** Anda, mengalirkan respons melalui API /v1/chat/completions TGI, meniru skema OpenAI.

Langkah 5: Catatan Biaya dan Skala

docker run --name tgi -p 8080:80 -e HF_TOKEN=hf_xxxxxxxxxxxxxxxxx ghcr.io/huggingface/text-generation-inference:latest --model-id openai/gpt-oss-20b --enable-openai

Kemudian atur ANTHROPIC_BASE_URL="http://localhost:8080".

Jalur B: Proxy GPT-OSS Melalui OpenRouter

Tidak ada DevOps? Tidak masalah! Gunakan **OpenRouter** untuk mengakses **GPT-OSS** dengan pengaturan minimal. Ini cepat dan menangani penagihan untuk Anda.

Langkah 1: Daftar dan Pilih Model

  1. Daftar di openrouter.ai dan salin kunci API Anda dari bagian **Keys**.
  2. Pilih slug model:
model gpt-oss di openrouter

Langkah 2: Konfigurasi Claude Code

  1. Atur variabel lingkungan:
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="or_xxxxxxxxx"
export ANTHROPIC_MODEL="openai/gpt-oss-20b"

Ganti or_xxxxxxxxx dengan kunci API OpenRouter Anda.

2. Uji coba:

claude --model openai/gpt-oss-20b

Claude Code terhubung ke **GPT-OSS** melalui API terpadu OpenRouter, dengan dukungan streaming dan fallback.

Langkah 3: Catatan Biaya

Jalur C: Gunakan LiteLLM untuk Armada Model Campuran

Ingin mengelola model **GPT-OSS**, Qwen, dan Anthropic dalam satu alur kerja? **LiteLLM** bertindak sebagai proxy untuk menukar model dengan mulus.

Langkah 1: Instal dan Konfigurasi LiteLLM

  1. Instal LiteLLM:
pip install litellm

2. Buat file konfigurasi (litellm.yaml):

model_list:
  - model_name: gpt-oss-20b
    litellm_params:
      model: openai/gpt-oss-20b
      api_key: or_xxxxxxxxx  # Kunci OpenRouter
      api_base: https://openrouter.ai/api/v1
  - model_name: qwen3-coder
    litellm_params:
      model: openrouter/qwen/qwen3-coder
      api_key: or_xxxxxxxxx
      api_base: https://openrouter.ai/api/v1

Ganti or_xxxxxxxxx dengan kunci OpenRouter Anda.

3. Mulai proxy:

litellm --config litellm.yaml

Langkah 2: Arahkan Claude Code ke LiteLLM

  1. Atur variabel lingkungan:
export ANTHROPIC_BASE_URL="http://localhost:4000"
export ANTHROPIC_AUTH_TOKEN="litellm_master"
export ANTHROPIC_MODEL="gpt-oss-20b"

2. Uji coba:

claude --model gpt-oss-20b

LiteLLM mengarahkan permintaan ke **GPT-OSS** melalui OpenRouter, dengan pencatatan biaya dan routing *simple-shuffle* untuk keandalan.

Langkah 3: Catatan

Baru mengenal LiteLLM? Klik di sini untuk mempelajari lebih lanjut.

Menguji GPT-OSS dengan Claude Code

Mari pastikan **GPT-OSS** berfungsi! Buka Claude Code dan coba perintah berikut:

**Generasi Kode**:

claude --model gpt-oss-20b "Tulis REST API Python dengan Flask"

Harapkan respons seperti:

from flask import Flask, jsonify
app = Flask(__name__)
@app.route('/api', methods=['GET'])
def get_data():
    return jsonify({"message": "Halo dari GPT-OSS!"})
if __name__ == '__main__':
    app.run(debug=True)

**Analisis Kodebasis**:

claude --model gpt-oss-20b "Ringkas src/server.js"

**GPT-OSS** memanfaatkan jendela konteks 128K-nya untuk menganalisis file JavaScript Anda dan mengembalikan ringkasan.

**Debugging**:

claude --model gpt-oss-20b "Debug kode Python yang *buggy* ini: [tempel kode]"

Dengan tingkat kelulusan HumanEval 87.3%, **GPT-OSS** seharusnya dapat menemukan dan memperbaiki masalah secara akurat.

Tips Pemecahan Masalah

Mengapa Menggunakan GPT-OSS dengan Claude Code?

Memasangkan **GPT-OSS** dengan Claude Code adalah impian para pengembang. Anda mendapatkan:

Pengguna memuji kehebatan coding **GPT-OSS**, menyebutnya "binatang buas yang hemat anggaran untuk proyek multi-file." Baik Anda menghosting sendiri atau melalui proxy OpenRouter, pengaturan ini menjaga biaya tetap rendah dan produktivitas tetap tinggi.

Kesimpulan

Anda sekarang siap untuk menggunakan **GPT-OSS** dengan **Claude Code**! Baik Anda menghosting sendiri di Hugging Face, menggunakan proxy melalui OpenRouter, atau menggunakan LiteLLM untuk mengelola model, Anda memiliki pengaturan coding yang kuat dan hemat biaya. Dari menghasilkan REST API hingga men-debug kode, **GPT-OSS** memberikan hasil, dan Claude Code membuatnya terasa mudah. Cobalah, bagikan prompt favorit Anda di komentar, dan mari kita nikmati coding AI!

💡
Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah?

Ingin platform All-in-One yang terintegrasi untuk Tim Pengembang Anda agar dapat bekerja sama dengan produktivitas maksimum?

Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
tombol

Mengembangkan API dengan Apidog

Apidog adalah alat pengembangan API yang membantu Anda mengembangkan API dengan lebih mudah dan efisien.