情報過多の時代において、迅速、正確、かつ包括的な調査を行う能力は、まさに超能力です。開発者、アナリスト、ストラテジストは、文書を精査し、情報源を確認し、調査結果を統合するために膨大な時間を費やしています。このワークフロー全体を自動化できたらどうでしょうか?OpenAIのDeep Research APIは、その方向への大きな一歩であり、高度な質問を構造化された引用豊富なレポートに変換するための強力なツールを提供します。
Deep Research APIは、単なる別の大規模言語モデルではありません。それは、複雑な調査タスクに取り組むために設計されたエージェントシステムです。クエリを自律的に分解し、ウェブ検索を実行し、コードを実行してデータを分析し、その結果を一貫性のある検証可能なレポートに統合することができます。深さ、ニュアンス、信頼性を重視して構築されており、単なる回答だけでなく、その根拠となる証拠も提供します。
このガイドでは、Deep Research APIの開発者向けウォークスルーを提供します。最初のAPI呼び出しから高度なプロンプト技術まで、すべてを網羅します。主にAPIを通じて利用可能な2つのモデルに焦点を当てます。
o3-deep-research-2025-06-26
: 最高の品質の統合と詳細な分析に最適化されたフラッグシップモデル。o4-mini-deep-research-2025-06-26
: レイテンシに敏感なアプリケーションに最適な、より軽量で高速なモデル。
この記事の終わりには、この強力な調査エージェントを自身のアプリケーションに統合する方法について、しっかりとした理解が得られるでしょう。
開発チームが最高の生産性で共同作業できる、統合されたオールインワンプラットフォームをお探しですか?
Apidogは、お客様のあらゆる要求に応え、Postmanをはるかに手頃な価格で置き換えます!
OpenAI Deep Research APIの料金、レート制限

適切なモデルを選択し、コストを理解することは、本番環境のアプリケーションにとって非常に重要です。
モデルの選択
o3-deep-research
: 最高レベルの推論と統合を必要とする複雑なタスクに最適です。速度は遅いですが、優れた品質を提供します。o4-mini-deep-research
: 速度が優先される場合にこのモデルを使用します。より単純な調査タスクや、低レイテンシが重要なインタラクティブアプリケーションに最適です。
コストの理解
2024年後半現在、強力なo3-deep-research
モデルの料金はトークンベースです。
- 入力: 100万トークンあたり$10.00
- 出力: 100万トークンあたり$40.00
出力トークンのコストが高いのは、モデルが実行する集中的な統合と生成作業を反映しています。
主な仕様 (o3-deep-research
)
- コンテキストウィンドウ: 200,000トークンという巨大なサイズ。
- 最大出力トークン数: 100,000トークンという十分な量で、非常に長文のレポート作成が可能。
- 知識のカットオフ日: 2024年6月1日。モデルの内部知識はこの日付まで最新ですが、
web_search_preview
ツールによりリアルタイム情報にアクセスできます。
OpenAI Deep Research APIを初めて呼び出す
早速始めましょう。APIを使用する前に、OpenAI Python SDKが必要です。
セットアップ
まだの場合は、ライブラリの最新バージョンをインストールしてください。
pip install --upgrade openai
次に、認証が必要です。OpenAI
クライアントをインポートし、APIキーで初期化します。
from openai import OpenAI
import os
# APIキーには環境変数を使用するのがベストプラクティスです
client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))
リクエストの作成
Deep Researchタスクは、特に複雑なクエリの場合、完了までに数分かかることがあります。タイムアウトを避けるため、リクエストをバックグラウンドで実行することを強くお勧めします。APIはこれを簡単にします。
ヘルスケア金融サービス企業向けのツールを構築していると想像してみましょう。タスクは、新しい糖尿病および肥満治療薬の経済的影響に関するレポートを作成することです。そのリクエストをどのように構成するかを以下に示します。
system_message = """
あなたは、グローバルヘルス経済学チームを代表して、構造化されたデータ駆動型のレポートを作成するプロの調査員です。あなたのタスクは、ユーザーが提起する健康に関する質問を分析することです。
実行すること:
- データが豊富な洞察に焦点を当てる: 具体的な数値、傾向、統計、測定可能な結果を含める。
- 適切な場合、データがチャートやテーブルに変換できるような形で要約する。
- 信頼できる最新の情報源を優先する: 査読済みの研究、保健機関(例:WHO、CDC)など。
- インライン引用を含め、すべてのソースメタデータを返す。
分析的であること、一般論を避けること、そして各セクションがデータに基づいた推論を裏付けていることを確認すること。
"""
user_query = "セマグルチドが世界の医療システムに与える経済的影響を調査する。"
response = client.responses.create(
model="o3-deep-research", # または "o3-deep-research-2025-06-26"
input=[
{
"role": "developer",
"content": [
{
"type": "input_text",
"text": system_message,
}
]
},
{
"role": "user",
"content": [
{
"type": "input_text",
"text": user_query,
}
]
}
],
reasoning={
"summary": "auto"
},
tools=[
{
"type": "web_search_preview"
},
{
"type": "code_interpreter"
}
]
)
この呼び出しを分解してみましょう。
model
: 高品質なレポートのためにo3-deep-research
を指定します。input
: ここでプロンプトを提供します。system_message
はエージェントのペルソナと全体的な目標を設定します。user_query
は具体的な調査タスクです。reasoning
:summary
を"auto"
に設定すると、モデルがレポートに最適な要約を生成できるようになります。より詳細なレポートの場合は、これを"detailed"
に設定できます。tools
: この配列は、エージェントが利用できるツールを示します。web_search_preview
はウェブを閲覧するために必須です。code_interpreter
はオプションですが、エージェントがデータ分析や視覚化のためにPythonコードを実行することを可能にします。
Deep Research APIの真の力は、それが返す構造化された詳細な応答オブジェクトにあります。それは単なるテキストの塊ではなく、調査プロセスの透明な記録です。
最終レポート
主な出力は、もちろん最終レポートです。output
配列の最後の項目からアクセスできます。
# 応答オブジェクトから最終レポートにアクセスする
print(response.output[-1].content[0].text)
これにより、モデルによって生成された完全な統合テキストが得られます。
引用と情報源
どのような本格的な調査にとっても最も重要な機能の1つが引用です。Deep Research APIは、引用メタデータを応答に直接埋め込みます。各引用はテキストの特定の部分にリンクされており、簡単に検証できます。
引用を抽出して表示する方法は次のとおりです。
annotations = response.output[-1].content[0].annotations
for i, citation in enumerate(annotations):
print(f"引用 {i+1}:")
print(f" タイトル: {citation.title}")
print(f" URL: {citation.url}")
print(f" 場所: {citation.start_index}~{citation.end_index}文字目")
この構造は、高度な信頼性と透明性を必要とするアプリケーションを構築する上で非常に貴重です。これを使用して、クリック可能な脚注を作成したり、参考文献リストを構築したり、主張をプログラムで元の情報源に遡って追跡したりできます。
内部を覗く: 中間ステップ
APIは、エージェントの思考プロセス全体も公開します。response.output
には、最終的な回答に到達するために実行されたすべての中間ステップのログが含まれています。これは、デバッグ、分析、または単にエージェントの動作を理解する上で非常に役立ちます。
- 推論ステップ: これらは、モデルが問題を分解する際の内部計画と要約を表します。
reasoning = next(item for item in response.output if item.type == "reasoning")
for s in reasoning.summary:
print(s.text)
- ウェブ検索呼び出し: エージェントが使用した正確な検索クエリを確認できます。
search = next(item for item in response.output if item.type == "web_search_call")
print("クエリ:", search.action["query"])
- コード実行:
code_interpreter
ツールが使用された場合、実行されたコードと結果の出力を調べることができます。
code_step = next((item for item in response.output if item.type == "code_interpreter_call"), None)
if code_step:
print("コード入力:", code_step.input)
print("コード出力:", code_step.output)
MCPサーバーでOpenAI Deep Researchを使用する
MCPサーバーによる高度な調査
ウェブ検索によりDeep Researchエージェントは膨大な公開情報リポジトリにアクセスできますが、その真の力は、独自のプライベートデータに接続したときに解放されます。
ここでモデルコンテキストプロトコル (MCP)が登場します。MCPを使用すると、エージェントの機能を拡張するカスタムツールを構築でき、内部のナレッジベース、データベース、またはその他の独自のサービスをクエリできるようになります。
現在人気のあるMCPサーバーの1つはApidog MCPサーバーです。これにより、Cursorや他のAIコーディングツール内でAPIドキュメントに接続でき、事実に基づいたAPI仕様から情報を取得することでAIのハルシネーションを大幅に削減します。
結論: 自動化された調査の未来
OpenAI Deep Research APIは、単なる段階的な改善ではありません。知識労働にAIを活用する方法における根本的な変化を表しています。推論し、計画し、ツールを実行し、検証可能な結果を生成できるエージェントを提供することで、OpenAIは新世代の調査アプリケーションの構成要素を生み出しました。
競合インテリジェンスダッシュボードを構築する場合でも、文献レビューを自動化する場合でも、洗練された市場分析レポートを作成する場合でも、Deep Research APIは、本格的な実世界のユースケースに必要なパワー、透明性、信頼性を提供します。クックブックが示唆するように、次のステップは本格的な「Deep Research Agents」となる可能性が高く、さらに自律的で有能な未来を示唆しています。今のところ、このAPIは開発者に探索すべき信じられないほど新しいツールを提供します。今日からこれを使って構築を始めましょう。