Claude Codeでgpt-ossを使う方法

Ashley Goolam

Ashley Goolam

8 8月 2025

Claude Codeでgpt-ossを使う方法

Claude Code内でOpen AIのオープンウェイトモデルであるGPT-OSSを使って、コーディングワークフローを強化したいと思いませんか?きっと気に入るはずです!2025年8月にリリースされたGPT-OSS(20Bまたは120Bのバリアント)は、コーディングと推論のための強力なツールであり、Claude Codeの洗練されたCLIインターフェースと組み合わせて、無料で、または低コストでセットアップできます。この対話形式のガイドでは、Hugging Face、OpenRouter、またはLiteLLMを使用してGPT-OSSをClaude Codeと統合する3つの方法をご紹介します。さあ、AIコーディングの相棒を稼働させましょう!

💡
美しいAPIドキュメントを生成する優れたAPIテストツールをお探しですか?

最大限の生産性で開発チームが協力できる統合されたオールインワンプラットフォームをお探しですか?

Apidogは、お客様のあらゆる要求に応え、Postmanをはるかに手頃な価格で置き換えます
button

GPT-OSSとは?Claude Codeで使う理由とは?

GPT-OSSはOpen AIのオープンウェイトモデルファミリーであり、20Bおよび120Bのバリアントは、コーディング、推論、エージェントタスクにおいて優れたパフォーマンスを提供します。128KトークンのコンテキストウィンドウとApache 2.0ライセンスにより、柔軟性と制御を求める開発者に最適です。AnthropicのCLIツール(バージョン0.5.3以降)であるClaude Codeは、その対話型コーディング機能により、開発者のお気に入りです。Claude CodeをOpenAI互換API経由でGPT-OSSにルーティングすることで、Anthropicのサブスクリプション費用なしで、Claudeの使い慣れたインターフェースを楽しみながら、GPT-OSSのオープンソースのパワーを活用できます。実現する準備はできましたか?セットアップオプションを見ていきましょう!

open ai's open weight models

Claude CodeでGPT-OSSを使用するための前提条件

始める前に、以下が揃っていることを確認してください。

Claude code

パスA: Hugging FaceでGPT-OSSをセルフホストする

完全に制御したいですか?Hugging FaceのInference EndpointsでGPT-OSSをホストし、プライベートでスケーラブルなセットアップを実現しましょう。方法は以下の通りです。

ステップ1: モデルを入手する

  1. Hugging FaceのGPT-OSSリポジトリにアクセスします(openai/gpt-oss-20bまたはopenai/gpt-oss-120b)。
  2. Apache 2.0ライセンスに同意してモデルにアクセスします。
  3. または、コーディングに特化したモデルとしてQwen3-Coder-480B-A35B-InstructQwen/Qwen3-Coder-480B-A35B-Instruct)を試してください(より軽量なハードウェアの場合はGGUFバージョンを使用してください)。
hugging face gpt-oss model

ステップ2: テキスト生成推論エンドポイントをデプロイする

  1. モデルページで、Deploy > Inference Endpointをクリックします。
  2. Text Generation Inference (TGI)テンプレート(v1.4.0以降)を選択します。
  3. Enable OpenAI compatibilityにチェックを入れるか、詳細設定で--enable-openaiを追加してOpenAI互換性を有効にします。
  4. ハードウェアを選択します: 20BにはA10GまたはCPU、120BにはA100。エンドポイントを作成します。

ステップ3: 認証情報を収集する

  1. エンドポイントのステータスがRunningになったら、以下をコピーします。

2. モデルID(例: gpt-oss-20bまたはgpt-oss-120b)をメモします。

ステップ4: Claude Codeを設定する

  1. ターミナルで環境変数を設定します。
export ANTHROPIC_BASE_URL="https://<your-endpoint>.us-east-1.aws.endpoints.huggingface.cloud"
export ANTHROPIC_AUTH_TOKEN="hf_xxxxxxxxxxxxxxxxx"
export ANTHROPIC_MODEL="gpt-oss-20b"  # or gpt-oss-120b

<your-endpoint>hf_xxxxxxxxxxxxxxxxxをあなたの値に置き換えてください。

2. セットアップをテストします。

claude --model gpt-oss-20b

Claude Codeは、TGIの/v1/chat/completions APIを介して応答をストリーミングし、OpenAIのスキーマを模倣して、あなたのGPT-OSSエンドポイントにルーティングします。

ステップ5: コストとスケーリングに関する注意点

docker run --name tgi -p 8080:80 -e HF_TOKEN=hf_xxxxxxxxxxxxxxxxx ghcr.io/huggingface/text-generation-inference:latest --model-id openai/gpt-oss-20b --enable-openai

次に、ANTHROPIC_BASE_URL="http://localhost:8080"を設定します。

パスB: OpenRouter経由でGPT-OSSをプロキシする

DevOpsは不要です!最小限のセットアップでGPT-OSSにアクセスするには、OpenRouterを使用します。高速で、課金も処理してくれます。

ステップ1: 登録してモデルを選択する

  1. openrouter.aiでサインアップし、KeysセクションからAPIキーをコピーします。
  2. モデルのスラッグを選択します。
gpt-oss model on openrouter

ステップ2: Claude Codeを設定する

  1. 環境変数を設定します。
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="or_xxxxxxxxx"
export ANTHROPIC_MODEL="openai/gpt-oss-20b"

or_xxxxxxxxxをあなたのOpenRouter APIキーに置き換えてください。

2. テストします。

claude --model openai/gpt-oss-20b

Claude Codeは、OpenRouterの統合APIを介してGPT-OSSに接続し、ストリーミングとフォールバックをサポートします。

ステップ3: コストに関する注意点

パスC: LiteLLMで混合モデルフリートを使用する

GPT-OSS、Qwen、Anthropicモデルを1つのワークフローで切り替えたいですか?LiteLLMは、モデルをシームレスにホットスワップするためのプロキシとして機能します。

ステップ1: LiteLLMをインストールして設定する

  1. LiteLLMをインストールします。
pip install litellm

2. 設定ファイル(litellm.yaml)を作成します。

model_list:
  - model_name: gpt-oss-20b
    litellm_params:
      model: openai/gpt-oss-20b
      api_key: or_xxxxxxxxx  # OpenRouter key
      api_base: https://openrouter.ai/api/v1
  - model_name: qwen3-coder
    litellm_params:
      model: openrouter/qwen/qwen3-coder
      api_key: or_xxxxxxxxx
      api_base: https://openrouter.ai/api/v1

or_xxxxxxxxxをあなたのOpenRouterキーに置き換えてください。

3. プロキシを開始します。

litellm --config litellm.yaml

ステップ2: Claude CodeをLiteLLMに向ける

  1. 環境変数を設定します。
export ANTHROPIC_BASE_URL="http://localhost:4000"
export ANTHROPIC_AUTH_TOKEN="litellm_master"
export ANTHROPIC_MODEL="gpt-oss-20b"

2. テストします。

claude --model gpt-oss-20b

LiteLLMは、コストログと信頼性のためのシンプルシャッフルルーティングを使用して、OpenRouter経由でGPT-OSSにリクエストをルーティングします。

ステップ3: 注意点

LiteLLMを初めてお使いですか?詳細はこちらをクリックしてください。

Claude CodeでGPT-OSSをテストする

GPT-OSSが動作していることを確認しましょう!Claude Codeを開いて、以下のコマンドを試してください。

コード生成:

claude --model gpt-oss-20b "Write a Python REST API with Flask"

次のような応答が期待できます。

from flask import Flask, jsonify
app = Flask(__name__)
@app.route('/api', methods=['GET'])
def get_data():
    return jsonify({"message": "Hello from GPT-OSS!"})
if __name__ == '__main__':
    app.run(debug=True)

コードベース分析:

claude --model gpt-oss-20b "Summarize src/server.js"

GPT-OSSは、128Kのコンテキストウィンドウを活用してJavaScriptファイルを分析し、要約を返します。

デバッグ:

claude --model gpt-oss-20b "Debug this buggy Python code: [paste code]"

87.3%のHumanEval合格率を持つGPT-OSSは、問題を正確に特定し修正するはずです。

トラブルシューティングのヒント

なぜClaude CodeでGPT-OSSを使用するのか?

GPT-OSSとClaude Codeを組み合わせることは、開発者にとって夢のようなことです。以下のメリットが得られます。

ユーザーはGPT-OSSのコーディング能力を絶賛しており、「複数ファイルプロジェクト向けの予算に優しい野獣」と呼んでいます。セルフホストするにしても、OpenRouterを介してプロキシするにしても、このセットアップはコストを低く抑え、生産性を高く保ちます。

結論

これで、Claude CodeGPT-OSSを使いこなす準備が整いました!Hugging Faceでセルフホストするにしても、OpenRouter経由でプロキシするにしても、LiteLLMでモデルを切り替えるにしても、強力で費用対効果の高いコーディング環境が手に入ります。REST APIの生成からコードのデバッグまで、GPT-OSSは期待に応え、Claude Codeはそれを楽々と感じさせます。ぜひ試して、お気に入りのプロンプトをコメントで共有し、AIコーディングについて語り合いましょう!

💡
美しいAPIドキュメントを生成する優れたAPIテストツールをお探しですか?

最大限の生産性で開発チームが協力できる統合されたオールインワンプラットフォームをお探しですか?

Apidogは、お客様のあらゆる要求に応え、Postmanをはるかに手頃な価格で置き換えます
button

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる