GPT-5.3 Codex API の使い方ガイド

本記事では GPT-5.3 Codex API の基本的な利用方法を解説します。OpenAI 開発者プラットフォームと OpenRouter の2つのアクセス方法を取り上げ、APIキーの取得、最初のリクエスト作成、Python および Node.js での基本的な統合方法を整理しています。さらに、主要パラメータ、料金構成、コンテキストウィンドウ、トラブルシューティングの要点についても概観します。

Ashley Innocent

Ashley Innocent

12 3月 2026

GPT-5.3 Codex API の使い方ガイド

GPT-5.3 Codex がついに API 経由で利用可能になりました。最初のリリースから数週間後のことです。アクセス方法は2通りあります。

  1. OpenRouter - モデル ID openai/gpt-5.3-codex、競争力のある価格設定
  2. OpenAI 開発者プラットフォーム - モデル ID  gpt-5.3-codex、直接アクセス

始めるには:OpenRouter または OpenAI のプラットフォームでサインアップし、API キーを取得して、標準のチャット補完エンドポイントを使って最初のリクエストを送信してください。

💡
GPT-5.3 Codex でコードを生成した後、Apidog に API 仕様をインポートして、エンドポイントの検証、テストケースの生成を行い、AI が作成したコードが実際に機能することを確認してください。
ボタン

はじめに

数週間にわたり、開発者たちはGPT-5.3 Codexをアプリケーションに統合したいと考えていましたが、問題がありました。OpenAI は Codex AppCLI、および IDE 拡張機能を通じてモデルをリリースしましたが、API はアクセスできないままでした。AI を活用した開発ツール、自動化パイプライン、およびコーディングアシスタントを構築するチームは、ひたすら待っていました。

その待機は終わりました。

GPT-5.3 Codex が API 経由で利用可能になり、開発者はモデルのリリース以来要望していたプログラミングアクセスを手に入れることができます。2つの選択肢があります。

  1. OpenRouter - 競争力のある価格設定と統一された API を介して openrouter.ai からアクセス
  2. OpenAI 開発者プラットフォーム - developers.openai.com から直接アクセス

SaaS 製品を構築している場合でも、社内ツールを自動化している場合でも、既存のアプリケーションに AI 機能を統合している場合でも、GPT-5.3 Codex API は、OpenAI の最も有能なコーディングモデルを活用するための簡単なパスを提供します。100万入力トークンあたりわずか0.00125ドルから始まる価格設定と、大規模なコードベースを処理できるコンテキストウィンドウにより、かつてないほどアクセスしやすくなっています。

このガイドでは、GPT-5.3 Codex を開発ワークフローに統合するために必要なすべてのことを説明します。OpenRouter アカウントの設定から、本番環境対応の API コールを行うまで、よりスマートに、より速く構築を開始するための知識が得られます。

GPT-5.3 Codex とは?

OpenAI によってリリースされた GPT-5.3 Codex は、コード生成、理解、デバッグタスクに特化して最適化されています。汎用言語モデルとは異なり、Codex は膨大な量のプログラミングコードでトレーニングされており、以下の点で非常に優れています。

Codex ベンチマーク

OpenRouter (openai/gpt-5.3-codex) を通じて利用できるバージョンは、400,000トークンのコンテキストウィンドウをサポートしており、単一のリクエストで中規模のコードベース全体をアップロードするのに十分です。これにより、複数のファイルにわたる広範なコード関係を理解する必要があるタスクに最適です。

OpenRouter を利用する理由

OpenRouter は、単一の一貫したインターフェースを通じて、さまざまなプロバイダーの複数の AI モデルにアクセスできる統一 API ゲートウェイとして機能します。

OpenRouter 公式ウェブサイトのインターフェース

開発者が GPT-5 Codex にアクセスするために OpenRouter を選択する理由は次のとおりです。

  1. 統一 API: 1つの API キーで数十のモデルにアクセス
  2. 競争力のある価格設定: 直接 API アクセスよりも安価なことが多い
  3. レート制限なし: 使用量に応じた柔軟なクォータ
  4. 簡単な切り替え: コードを変更せずにモデルを切り替え
  5. 無料クレジット: 新規アカウントには$1の無料クレジットが進呈されます

OpenRouter を通じてすでに他のモデルを使用している場合、GPT-5 Codex を追加するには、既存の API コールでモデル ID を変更するだけで済みます。

OpenRouter vs OpenAI 開発者プラットフォーム

API 経由で GPT-5.3 Codex にアクセスするには、2つのオプションがあります。

機能OpenRouterOpenAI 開発者プラットフォーム
モデル IDopenai/gpt-5.3-codexgpt-5.3-codex
入力価格0.681ドル / 100万トークン1.75ドル / 100万トークン
キャッシュされた入力-0.175ドル / 100万トークン
出力価格14.00ドル / 100万トークン14.00ドル / 100万トークン
セットアップ時間即時OpenAI アカウントが必要
統一アクセスはい (100以上のモデル)いいえ (OpenAI モデルのみ)
最適な用途マルチモデルプロジェクトOpenAI中心のワークフロー

OpenRouter を選択する場合: 複数の LLM プロバイダーへの統一アクセス、競争力のある価格設定、およびモデルを切り替える柔軟性を求めている場合。

OpenAI 開発者プラットフォームを選択する場合: 直接アクセスを好み、すでに OpenAI API を使用しており、公式サポートを求めている場合。

どちらのオプションも同じ基盤となる GPT-5.3 Codex モデルを提供しますが、価格、利便性、および既存のセットアップに違いがあります。

アクセスオプション1:OpenAI 開発者プラットフォーム

OpenAI の公式 API を介した直接アクセスを希望する場合は、以下の手順で開始してください。

ステップ1:OpenAI アカウントを作成

platform.openai.com にアクセスし、サインアップまたはログインします。

ステップ2:API キーを生成

  1. 左側のサイドバーで API キーに移動します
  2. 新しいシークレットキーを作成をクリックします
  3. キーをコピーして保存します(一度だけ表示されます)
OpenAI 開発プラットフォームで API キーを生成

ステップ3:最初のリクエストを作成

curl -X POST https://api.openai.com/v1/chat/completions \
  -H "Authorization: Bearer YOUR_OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-5.3-codex",
    "messages": [
      {
        "role": "user",
        "content": "与えられた数値の階乗を計算する Python 関数を記述してください。"
      }
    ]
  }'

YOUR_OPENAI_API_KEY を実際の API キーに置き換えてください。

Python 例 (OpenAI 直接)

import os
from openai import OpenAI

client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))

response = client.chat.completions.create(
    model="gpt-5.3-codex",
    messages=[
        {
            "role": "user",
            "content": "ユーザー認証のための FastAPI で REST API エンドポイントを作成してください。"
        }
    ],
    temperature=0.7,
    max_tokens=2000
)

print(response.choices[0].message.content)

アクセスオプション2:OpenRouter

ステップ1:アカウントを作成

openrouter.ai にアクセスし、メールアドレスでサインアップしてください。登録プロセスは2分もかかりません。

OpenRouter でアカウントを作成

ステップ2:API キーを取得

ログイン後、プロフィールアイコンをクリックし、「API Keys」を選択してください。新しいキーを作成し、セキュリティ上の理由から一度しか表示されないため、すぐにコピーしてください。

OpenRouter で API キーを取得

ステップ3:クレジットを追加

新規アカウントには1ドルの無料クレジットが付与されますが、継続して使用するには追加が必要です。「Credits」に移動し、クレジットカードまたはその他のサポートされている方法で資金を追加してください。通常の開発には最低5〜10ドルをお勧めします。

OpenRouterでクレジットを追加

ステップ4:モデルの可用性を確認

OpenRouter ダッシュボードで「gpt-5.3-codex」を検索し、利用可能であることを確認してください。使用するモデル ID は openai/gpt-5.3-codex です。

OpenRouter の GPT-5.3-Codex

最初の API コールを作成

セットアップをテストする最も簡単な方法は curl を使用することです。ターミナルを開いて、以下を実行してください。

curl -X POST https://openrouter.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_OPENROUTER_API_KEY" \
  -H "Content-Type: application/json" \
  -H "HTTP-Referer: https://your-site.com" \
  -d '{
    "model": "openai/gpt-5.3-codex",
    "messages": [
      {
        "role": "user",
        "content": "与えられた数値の階乗を計算する Python 関数を記述してください。"
      }
    ]
  }'

YOUR_OPENROUTER_API_KEY を実際のキーに、https://your-site.com をウェブサイトの URL (OpenRouter の分析に必要) に置き換えてください。

生成されたコードを含む JSON レスポンスが返されるはずです。おめでとうございます!最初の GPT-5.3 Codex API コールが成功しました。

Python 統合

Python アプリケーションの場合、カスタムベース URL を使用して OpenAI SDK を利用できます。

インストール

pip install openai requests python-dotenv

基本的な使い方

import os
from openai import OpenAI
from dotenv import load_dotenv

load_dotenv()

client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key=os.getenv("OPENROUTER_API_KEY"),
)

def generate_code(prompt: str) -> str:
    """OpenRouter経由でGPT-5.3 Codexを使用してコードを生成します。"""
    response = client.chat.completions.create(
        model="openai/gpt-5.3-codex",
        messages=[
            {
                "role": "system",
                "content": "あなたは熟練したプログラマーです。クリーンで十分に文書化されたコードを記述してください。"
            },
            {
                "role": "user",
                "content": prompt
            }
        ],
        temperature=0.7,
        max_tokens=2000
    )

    return response.choices[0].message.content

# 使用例
code = generate_code("ユーザー認証のための FastAPI で REST API エンドポイントを作成してください。")
print(code)

ストリーミング応答

長いコード生成の場合、ストリーミングはより良いユーザー体験を提供します。

def generate_code_streaming(prompt: str):
    """ストリーミング応答でコードを生成します。"""
    response = client.chat.completions.create(
        model="openai/gpt-5.3-codex",
        messages=[{"role": "user", "content": prompt}],
        stream=True,
        temperature=0.7
    )

    for chunk in response:
        if chunk.choices[0].delta.content:
            print(chunk.choices[0].delta.content, end="", flush=True)

# 使用例
generate_code_streaming("ファイルアップロードボタンの React コンポーネントを記述してください。")

エラー処理

本番アプリケーションでは、常に適切なエラー処理を実装してください。

import json

def generate_code_safe(prompt: str) -> dict:
    """適切なエラー処理でコードを生成します。"""
    try:
        response = client.chat.completions.create(
            model="openai/gpt-5.3-codex",
            messages=[{"role": "user", "content": prompt}],
            temperature=0.7,
            max_tokens=2000
        )

        return {
            "success": True,
            "code": response.choices[0].message.content,
            "usage": {
                "prompt_tokens": response.usage.prompt_tokens,
                "completion_tokens": response.usage.completion_tokens,
                "total_tokens": response.usage.total_tokens
            }
        }

    except Exception as e:
        return {
            "success": False,
            "error": str(e)
        }

# トークンの使用量を確認
result = generate_code_safe("ロギングのためのPythonデコレータを記述してください。")
if result["success"]:
    print(f"トークンの使用量: {result['usage']['total_tokens']} トークン")

Node.js 統合

JavaScript と TypeScript の開発者は、OpenAI SDK またはネイティブ fetch を使用して GPT-5.3 Codex を統合できます。

インストール

npm install openai

基本的な使い方

import OpenAI from "openai";

const openai = new OpenAI({
  baseURL: "https://openrouter.ai/api/v1",
  apiKey: process.env.OPENROUTER_API_KEY,
  defaultHeaders: {
    "HTTP-Referer": "https://your-site.com",
    "X-Title": "あなたのアプリ名",
  },
});

async function generateCode(prompt) {
  const completion = await openai.chat.completions.create({
    model: "openai/gpt-5.3-codex",
    messages: [
      {
        role: "system",
        content: "あなたは熟練したフルスタック開発者です。本番環境対応のコードを記述してください。",
      },
      {
        role: "user",
        content: prompt,
      },
    ],
    temperature: 0.7,
    max_tokens: 2000,
  });

  return completion.choices[0].message.content;
}

// 使用例
const code = await generateCode("二分探索のための Python 関数を作成してください");
console.log(code);

ネイティブ Fetch の使用

async function generateCodeFetch(prompt) {
  const response = await fetch(
    "https://openrouter.ai/api/v1/chat/completions",
    {
      method: "POST",
      headers: {
        "Authorization": `Bearer ${process.env.OPENROUTER_API_KEY}`,
        "Content-Type": "application/json",
        "HTTP-Referer": "https://your-site.com",
        "X-Title": "あなたのアプリ名",
      },
      body: JSON.stringify({
        model: "openai/gpt-5.3-codex",
        messages: [{ role: "user", content: prompt }],
        temperature: 0.7,
        max_tokens: 2000,
      }),
    }
  );

  const data = await response.json();
  return data.choices[0].message.content;
}

高度なパラメータとオプション

GPT-5.3 Codex は、API コールを微調整するためのいくつかのパラメータをサポートしています。

Temperature

ランダム性を制御します。低い値 (0.1〜0.3) は、一貫性が重要なコード生成に理想的な、より決定論的な出力を生成します。

response = client.chat.completions.create(
    model="openai/gpt-5.3-codex",
    messages=[{"role": "user", "content": "ソートアルゴリズムを記述してください"}],
    temperature=0.2,  # 一貫性のある予測可能なコードには低めに設定
)

Max Tokens

コストを制御するために応答長を制限します。

response = client.chat.completions.create(
    model="openai/gpt-5.3-codex",
    messages=[{"role": "user", "content": "このコードベース全体を説明してください"}],
    max_tokens=4000,  # 応答長を制限
)

Top P

出力の多様性を制御するための temperature の代替手段。

response = client.chat.completions.create(
    model="openai/gpt-5.3-codex",
    messages=[{"role": "user", "content": "関数を記述してください"}],
    top_p=0.9,
)

停止シーケンス

生成を停止する文字列を指定します。

response = client.chat.completions.create(
    model="openai/gpt-5.3-codex",
    messages=[{"role": "user", "content": "Python コードを記述してください"}],
    stop=["```", "###"],  # コードブロックで停止
)

Apidog で生成されたコードを検証する

多くの開発者がつまずくのはここです。GPT-5.3 Codex に「API を構築して」と依頼すると、有効そうに見えるコードが生成されますが、それが機能しない理由をデバッグするのに何時間も費やしてしまいます。解決策は、デプロイする前に検証することです。

Apidog で応答を検証

ワークフロー

  1. 仕様を生成: コードだけでなく、OpenAPI 仕様を Codex に要求します
  2. Apidog にインポート: 仕様を検証し、テストケースを生成します
  3. 実装をテスト: 生成されたコードに対して自動テストを実行します

例: API 仕様の検証

# コードだけでなく、OpenAPI 仕様の生成を Codex に依頼します
prompt = """
タスク管理アプリケーション用の REST API を作成してください。
完全な OpenAPI 3.0 仕様を YAML 形式で出力してください。
以下を含めてください。
- タスクの CRUD 操作用エンドポイント
- ベアラートークンを使用した認証
- 400, 401, 404, 500 のエラー応答
- リクエスト/レスポンスの例
"""

仕様を受け取ったら、Apidog にインポートします。

  1. Apidog を開いて新しいプロジェクトを作成
  2. インポートOpenAPI/Swagger に移動
  3. Codex からの YAML を貼り付け
  4. Apidog が自動的にテストケースを生成
  5. テストを実行して仕様を検証
Apidog でOpenAPI 仕様をインポート

この「信頼するが検証する」アプローチにより、デバッグに費やす時間を節約し、AI が生成したコードがプロフェッショナルな基準を満たしていることを保証します。

料金内訳

GPT-5.3 Codex のコストについて知っておくべきことは次のとおりです。

OpenRouter 料金

トークンタイプ100万トークンあたりの価格
入力0.681ドル
出力14.00ドル

OpenAI 開発者プラットフォーム料金

トークンタイプ100万トークンあたりの価格
入力1.75ドル
キャッシュされた入力0.175ドル
出力14.00ドル

注: OpenRouter は大幅に低い入力料金を提供しており、大規模なコードベースをコンテキストとして送信するコード生成タスクにとって、よりコスト効率が高いです。両プラットフォームとも、出力料金は100万トークンあたり14.00ドルと同じです。

コスト比較例

タスクOpenRouter コストOpenAI プラットフォーム コスト
小規模 (1K 入力, 500 出力)0.007ドル0.009ドル
中規模 (10K 入力, 2K 出力)0.035ドル0.046ドル
大規模 (50K 入力, 5K 出力)0.104ドル0.158ドル

コンテキストウィンドウ

両方のプラットフォームは、400,000トークンのコンテキストウィンドウをサポートしており、単一のリクエストでコードベース全体をアップロードできます。

トラブルシューティングのヒント

レート制限

レート制限に達した場合は、指数関数的バックオフを実装してください。

import time

def generate_code_with_retry(prompt, max_retries=3):
    for attempt in range(max_retries):
        try:
            return generate_code(prompt)
        except Exception as e:
            if attempt < max_retries - 1:
                wait_time = 2 ** attempt
                print(f"レート制限されました。{wait_time}秒待機中...")
                time.sleep(wait_time)
            else:
                raise e

無効な API キー

OpenRouter の場合、キーが「sk-or-」で始まることを確認してください。

# 間違い
api_key = "sk-xxxx"  # これは OpenAI キーです

# 正しい
api_key = "sk-or-v1-xxxx"  # これは OpenRouter キーです

モデルが見つかりません

モデル ID を再確認してください: openai/gpt-5.3-codex (単独の「gpt-5」や「codex」ではありません)。

結論

OpenRouter を通じて GPT-5.3 Codex にアクセスすることで、すべての開発者が強力な AI アシスト開発機能を利用できるようになります。シンプルな API アクセス、競争力のある価格設定、および広大なコンテキストウィンドウにより、インテリジェントなコード生成をあらゆるアプリケーションに統合できます。

成功の鍵はワークフローにあります。GPT-5.3 Codex でコードを生成し、Apidog で検証し、自信を持ってデプロイします。この組み合わせにより、AI 生成のスピードとプロフェッショナルなテストの信頼性を両立させることができます。

ボタン
ApidogオールインワンAPI開発プラットフォーム

Explore more

OllamaでOpenClawを実行する方法

OllamaでOpenClawを実行する方法

本記事では Ollama 上で OpenClaw を実行するための基本手順を解説します。Ollama のインストール、モデルの選択とダウンロード、モデル実行方法、Python ライブラリの利用、OpenClaw との統合手順を整理します。さらに Temperature、Top-P、Context Length、System Prompt などの設定項目や、実行時の一般的なトラブルについても触れます。

26 2月 2026

OpenClawとDeepSeekで無料ローカルAIアシスタントを構築する方法

OpenClawとDeepSeekで無料ローカルAIアシスタントを構築する方法

本記事では OpenClaw と DeepSeek を組み合わせ、ローカル環境で AI アシスタントを構築する手順を解説します。Ollama のインストール、DeepSeek-R1 と DeepSeek-V3 モデルのセットアップ、OpenClaw との統合、Python によるテスト、プラットフォーム経由のチャット連携までを整理します。あわせてモデル設定、コンテキスト長、GPU アクセラレーション、トラブルシューティングについても触れます。

26 2月 2026

GLM-5をローカルで無料実行する手順

GLM-5をローカルで無料実行する手順

本記事では、GLM-5 をローカル環境で無料実行する構成を中心に、クラウド API との違いや利点、必要なハードウェア要件を整理します。Unsloth GGUF と llama.cpp を用いた実行手順では、ビルド、量子化モデルの取得、推論開始、OpenAI API としての提供方法までを解説します。あわせて Ollama による簡易実行や、vLLM を利用した高性能デプロイにも触れます。さらにパフォーマンス最適化、一般的な問題への対処、ローカル GLM-5 と各種システム構成の方向性についても整理します。

13 2月 2026

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる