วิธีใช้ gpt-oss ร่วมกับ Claude Code

Ashley Goolam

Ashley Goolam

8 August 2025

วิธีใช้ gpt-oss ร่วมกับ Claude Code

ต้องการเพิ่มประสิทธิภาพเวิร์กโฟลว์การเขียนโค้ดของคุณด้วย GPT-OSS ซึ่งเป็นโมเดลแบบ open-weight ของ Open AI โดยตรงใน Claude Code ใช่ไหม คุณมาถูกที่แล้ว! GPT-OSS (รุ่น 20B หรือ 120B) ที่เปิดตัวในเดือนสิงหาคม 2025 เป็นขุมพลังสำหรับการเขียนโค้ดและการให้เหตุผล และคุณสามารถจับคู่กับอินเทอร์เฟซ CLI ที่ทันสมัยของ Claude Code สำหรับการตั้งค่าฟรีหรือต้นทุนต่ำ ในคู่มือเชิงสนทนานี้ เราจะแนะนำคุณตลอดสามเส้นทางในการรวม GPT-OSS เข้ากับ Claude Code โดยใช้ Hugging Face, OpenRouter หรือ LiteLLM มาเริ่มกันเลยและทำให้ผู้ช่วย AI ในการเขียนโค้ดของคุณพร้อมใช้งาน!

💡
ต้องการเครื่องมือทดสอบ API ที่ยอดเยี่ยมที่สร้าง เอกสารประกอบ API ที่สวยงาม?

ต้องการแพลตฟอร์มแบบ All-in-One ที่รวมทุกอย่างเข้าด้วยกันเพื่อให้ทีมพัฒนาของคุณทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด?

Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ในราคาที่ย่อมเยาขึ้นมาก!
ปุ่ม

GPT-OSS คืออะไร และทำไมต้องใช้กับ Claude Code?

GPT-OSS คือตระกูลโมเดลแบบ open-weight ของ Open AI โดยมีรุ่น 20B และ 120B ที่ให้ประสิทธิภาพที่ยอดเยี่ยมสำหรับการเขียนโค้ด การให้เหตุผล และงานที่ต้องใช้ Agent ด้วยหน้าต่างบริบท 128K โทเค็นและใบอนุญาต Apache 2.0 ทำให้เหมาะสำหรับนักพัฒนาที่ต้องการความยืดหยุ่นและการควบคุม Claude Code ซึ่งเป็นเครื่องมือ CLI ของ Anthropic (เวอร์ชัน 0.5.3+) เป็นที่ชื่นชอบของนักพัฒนาสำหรับความสามารถในการเขียนโค้ดแบบสนทนา ด้วยการกำหนดเส้นทาง Claude Code ไปยัง GPT-OSS ผ่าน API ที่เข้ากันได้กับ OpenAI คุณสามารถเพลิดเพลินกับอินเทอร์เฟซที่คุ้นเคยของ Claude ในขณะที่ใช้ประโยชน์จากพลังโอเพนซอร์สของ GPT-OSS โดยไม่มีค่าใช้จ่ายในการสมัครสมาชิกของ Anthropic พร้อมที่จะทำให้มันเกิดขึ้นแล้วใช่ไหม มาสำรวจตัวเลือกการตั้งค่ากัน!

โมเดล open-weight ของ open ai

ข้อกำหนดเบื้องต้นสำหรับการใช้ GPT-OSS กับ Claude Code

ก่อนที่เราจะเริ่มต้น ตรวจสอบให้แน่ใจว่าคุณมีสิ่งต่อไปนี้:

โค้ด Claude

เส้นทาง A: โฮสต์ GPT-OSS ด้วยตัวเองบน Hugging Face

ต้องการควบคุมอย่างเต็มที่ใช่ไหม โฮสต์ GPT-OSS บน Inference Endpoints ของ Hugging Face เพื่อการตั้งค่าส่วนตัวที่ปรับขนาดได้ นี่คือวิธีการ:

ขั้นตอนที่ 1: รับโมเดล

  1. เยี่ยมชมที่เก็บ GPT-OSS บน Hugging Face (openai/gpt-oss-20b หรือ openai/gpt-oss-120b)
  2. ยอมรับใบอนุญาต Apache 2.0 เพื่อเข้าถึงโมเดล
  3. อีกทางเลือกหนึ่ง ลองใช้ Qwen3-Coder-480B-A35B-Instruct (Qwen/Qwen3-Coder-480B-A35B-Instruct) สำหรับโมเดลที่เน้นการเขียนโค้ด (ใช้เวอร์ชัน GGUF สำหรับฮาร์ดแวร์ที่เบากว่า)
โมเดล gpt-oss ของ hugging face

ขั้นตอนที่ 2: ปรับใช้ Text Generation Inference Endpoint

  1. บนหน้าโมเดล คลิก Deploy > Inference Endpoint
  2. เลือกเทมเพลต Text Generation Inference (TGI) (≥ v1.4.0)
  3. เปิดใช้งานความเข้ากันได้กับ OpenAI โดยการทำเครื่องหมายที่ Enable OpenAI compatibility หรือเพิ่ม --enable-openai ในการตั้งค่าขั้นสูง
  4. เลือกฮาร์ดแวร์: A10G หรือ CPU สำหรับ 20B, A100 สำหรับ 120B สร้าง Endpoint

ขั้นตอนที่ 3: รวบรวมข้อมูลรับรอง

  1. เมื่อสถานะ Endpoint เป็น Running ให้คัดลอก:

2. จดรหัสโมเดล (เช่น gpt-oss-20b หรือ gpt-oss-120b)

ขั้นตอนที่ 4: กำหนดค่า Claude Code

  1. ตั้งค่าตัวแปรสภาพแวดล้อมในเทอร์มินัลของคุณ:
export ANTHROPIC_BASE_URL="https://<your-endpoint>.us-east-1.aws.endpoints.huggingface.cloud"
export ANTHROPIC_AUTH_TOKEN="hf_xxxxxxxxxxxxxxxxx"
export ANTHROPIC_MODEL="gpt-oss-20b"  # หรือ gpt-oss-120b

แทนที่ <your-endpoint> และ hf_xxxxxxxxxxxxxxxxx ด้วยค่าของคุณ

2. ทดสอบการตั้งค่า:

claude --model gpt-oss-20b

Claude Code จะกำหนดเส้นทางไปยัง Endpoint GPT-OSS ของคุณ โดยสตรีมการตอบกลับผ่าน API /v1/chat/completions ของ TGI ซึ่งเลียนแบบ Schema ของ OpenAI

ขั้นตอนที่ 5: หมายเหตุเกี่ยวกับค่าใช้จ่ายและการปรับขนาด

docker run --name tgi -p 8080:80 -e HF_TOKEN=hf_xxxxxxxxxxxxxxxxx ghcr.io/huggingface/text-generation-inference:latest --model-id openai/gpt-oss-20b --enable-openai

จากนั้นตั้งค่า ANTHROPIC_BASE_URL="http://localhost:8080"

เส้นทาง B: พร็อกซี GPT-OSS ผ่าน OpenRouter

ไม่มี DevOps ใช่ไหม ไม่มีปัญหา! ใช้ OpenRouter เพื่อเข้าถึง GPT-OSS ด้วยการตั้งค่าที่น้อยที่สุด มันรวดเร็วและจัดการการเรียกเก็บเงินให้คุณ

ขั้นตอนที่ 1: ลงทะเบียนและเลือกโมเดล

  1. ลงทะเบียนที่ openrouter.ai และคัดลอกคีย์ API ของคุณจากส่วน Keys
  2. เลือก slug โมเดล:
โมเดล gpt-oss บน openrouter

ขั้นตอนที่ 2: กำหนดค่า Claude Code

  1. ตั้งค่าตัวแปรสภาพแวดล้อม:
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="or_xxxxxxxxx"
export ANTHROPIC_MODEL="openai/gpt-oss-20b"

แทนที่ or_xxxxxxxxx ด้วยคีย์ API ของ OpenRouter ของคุณ

2. ทดสอบ:

claude --model openai/gpt-oss-20b

Claude Code เชื่อมต่อกับ GPT-OSS ผ่าน API แบบรวมของ OpenRouter พร้อมการสตรีมและการรองรับการสำรองข้อมูล

ขั้นตอนที่ 3: หมายเหตุเกี่ยวกับค่าใช้จ่าย

เส้นทาง C: ใช้ LiteLLM สำหรับกลุ่มโมเดลแบบผสม

ต้องการสลับใช้โมเดล GPT-OSS, Qwen และ Anthropic ในเวิร์กโฟลว์เดียวใช่ไหม LiteLLM ทำหน้าที่เป็นพร็อกซีเพื่อสลับโมเดลได้อย่างราบรื่น

ขั้นตอนที่ 1: ติดตั้งและกำหนดค่า LiteLLM

  1. ติดตั้ง LiteLLM:
pip install litellm

2. สร้างไฟล์คอนฟิก (litellm.yaml):

model_list:
  - model_name: gpt-oss-20b
    litellm_params:
      model: openai/gpt-oss-20b
      api_key: or_xxxxxxxxx  # คีย์ OpenRouter
      api_base: https://openrouter.ai/api/v1
  - model_name: qwen3-coder
    litellm_params:
      model: openrouter/qwen/qwen3-coder
      api_key: or_xxxxxxxxx
      api_base: https://openrouter.ai/api/v1

แทนที่ or_xxxxxxxxx ด้วยคีย์ OpenRouter ของคุณ

3. เริ่มพร็อกซี:

litellm --config litellm.yaml

ขั้นตอนที่ 2: ชี้ Claude Code ไปยัง LiteLLM

  1. ตั้งค่าตัวแปรสภาพแวดล้อม:
export ANTHROPIC_BASE_URL="http://localhost:4000"
export ANTHROPIC_AUTH_TOKEN="litellm_master"
export ANTHROPIC_MODEL="gpt-oss-20b"

2. ทดสอบ:

claude --model gpt-oss-20b

LiteLLM กำหนดเส้นทางคำขอไปยัง GPT-OSS ผ่าน OpenRouter พร้อมการบันทึกค่าใช้จ่ายและการกำหนดเส้นทางแบบ simple-shuffle เพื่อความน่าเชื่อถือ

ขั้นตอนที่ 3: หมายเหตุ

ยังใหม่กับ LiteLLM ใช่ไหม คลิกที่นี่เพื่อเรียนรู้เพิ่มเติม

การทดสอบ GPT-OSS ด้วย Claude Code

มาตรวจสอบให้แน่ใจว่า GPT-OSS ทำงานได้! เปิด Claude Code และลองใช้คำสั่งเหล่านี้:

การสร้างโค้ด:

claude --model gpt-oss-20b "Write a Python REST API with Flask"

คาดว่าจะได้รับคำตอบเช่น:

from flask import Flask, jsonify
app = Flask(__name__)
@app.route('/api', methods=['GET'])
def get_data():
    return jsonify({"message": "Hello from GPT-OSS!"})
if __name__ == '__main__':
    app.run(debug=True)

การวิเคราะห์ Codebase:

claude --model gpt-oss-20b "Summarize src/server.js"

GPT-OSS ใช้ประโยชน์จากหน้าต่างบริบท 128K เพื่อวิเคราะห์ไฟล์ JavaScript ของคุณและส่งคืนสรุป

การดีบัก:

claude --model gpt-oss-20b "Debug this buggy Python code: [paste code]"

ด้วยอัตราการผ่าน HumanEval 87.3% GPT-OSS ควรจะสามารถตรวจจับและแก้ไขปัญหาได้อย่างแม่นยำ

เคล็ดลับการแก้ไขปัญหา

ทำไมต้องใช้ GPT-OSS กับ Claude Code?

การจับคู่ GPT-OSS กับ Claude Code คือความฝันของนักพัฒนา คุณจะได้รับ:

ผู้ใช้ต่างชื่นชมความสามารถในการเขียนโค้ดของ GPT-OSS โดยเรียกมันว่า “สัตว์ร้ายที่ประหยัดงบประมาณสำหรับโปรเจกต์หลายไฟล์” ไม่ว่าคุณจะโฮสต์ด้วยตัวเองหรือใช้พร็อกซีผ่าน OpenRouter การตั้งค่านี้จะช่วยให้ต้นทุนต่ำและประสิทธิภาพการทำงานสูง

บทสรุป

ตอนนี้คุณพร้อมแล้วที่จะใช้ GPT-OSS กับ Claude Code! ไม่ว่าคุณจะโฮสต์ด้วยตัวเองบน Hugging Face, ใช้พร็อกซีผ่าน OpenRouter หรือใช้ LiteLLM สำหรับการสลับโมเดล คุณก็มีการตั้งค่าการเขียนโค้ดที่ทรงพลังและคุ้มค่า ตั้งแต่การสร้าง REST API ไปจนถึงการดีบักโค้ด GPT-OSS ก็ทำได้ดีเยี่ยม และ Claude Code ก็ทำให้มันดูง่ายดาย ลองใช้ดู แชร์พรอมต์ที่คุณชื่นชอบในความคิดเห็น และมาสนุกกับการเขียนโค้ดด้วย AI กันเถอะ!

💡
ต้องการเครื่องมือทดสอบ API ที่ยอดเยี่ยมที่สร้าง เอกสารประกอบ API ที่สวยงาม?

ต้องการแพลตฟอร์มแบบ All-in-One ที่รวมทุกอย่างเข้าด้วยกันเพื่อให้ทีมพัฒนาของคุณทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด?

Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ในราคาที่ย่อมเยาขึ้นมาก!
ปุ่ม

ฝึกการออกแบบ API แบบ Design-first ใน Apidog

ค้นพบวิธีที่ง่ายขึ้นในการสร้างและใช้ API