À l'ère de la surcharge d'informations, la capacité à mener des recherches rapides, précises et complètes est un superpouvoir. Les développeurs, les analystes et les stratèges passent d'innombrables heures à parcourir des documents, à vérifier des sources et à synthétiser des découvertes. Et si vous pouviez automatiser l'intégralité de ce flux de travail ? L'API Deep Research d'OpenAI est un pas significatif dans cette direction, offrant un outil puissant pour transformer des questions de haut niveau en rapports structurés et riches en citations.
L'API Deep Research n'est pas juste un autre grand modèle linguistique. C'est un système agentique conçu pour s'attaquer à des tâches de recherche complexes. Il peut décomposer une requête de manière autonome, effectuer des recherches web, exécuter du code pour analyser des données et synthétiser les résultats en un rapport cohérent et vérifiable. Il est conçu pour la profondeur, la nuance et la confiance, fournissant non seulement des réponses, mais aussi les preuves qui les étayent.
Ce guide fournira une présentation de l'API Deep Research axée sur les développeurs. Nous couvrirons tout, du premier appel API aux techniques de prompt avancées. Nous nous concentrerons principalement sur deux modèles disponibles via l'API :
o3-deep-research-2025-06-26
: Le modèle phare, optimisé pour la synthèse de la plus haute qualité et l'analyse approfondie.o4-mini-deep-research-2025-06-26
: Un modèle plus léger et plus rapide, parfait pour les applications sensibles à la latence.
À la fin de cet article, vous aurez une solide compréhension de la manière d'intégrer cet agent de recherche puissant dans vos propres applications.
Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?
Apidog répond à toutes vos exigences et remplace Postman à un prix beaucoup plus abordable !
API Deep Research d'OpenAI : Tarification, Limites de Taux

Choisir le bon modèle et comprendre les coûts sont cruciaux pour les applications en production.
Choisir votre Modèle
o3-deep-research
: C'est votre choix pour les tâches complexes nécessitant le plus haut niveau de raisonnement et de synthèse. Il est plus lent mais offre une qualité supérieure.o4-mini-deep-research
: Utilisez ce modèle lorsque la vitesse est une priorité. Il est idéal pour les tâches de recherche plus simples ou les applications interactives où une faible latence est essentielle.
Comprendre les Coûts
Fin 2024, la tarification du puissant modèle o3-deep-research
est basée sur les jetons :
- Entrée : 10,00 $ par million de jetons
- Sortie : 40,00 $ par million de jetons
Le coût plus élevé pour les jetons de sortie reflète le travail intensif de synthèse et de génération effectué par le modèle.
Spécifications Clés (o3-deep-research
)
- Fenêtre de Contexte : Un énorme 200 000 jetons.
- Jetons de Sortie Max. : Un généreux 100 000 jetons, permettant des rapports très longs.
- Date de Coupure des Connaissances : 1er juin 2024. Les connaissances internes du modèle sont à jour jusqu'à cette date, mais l'outil
web_search_preview
lui donne accès à des informations en temps réel.
Effectuer votre Premier Appel à l'API Deep Research d'OpenAI
Plongeons directement. Avant de pouvoir utiliser l'API, vous aurez besoin du SDK Python d'OpenAI.
Configuration
Si ce n'est pas déjà fait, installez la dernière version de la bibliothèque :
pip install --upgrade openai
Ensuite, vous devrez vous authentifier. Importez le client OpenAI
et initialisez-le avec votre clé API.
from openai import OpenAI
import os
# Il est préférable d'utiliser une variable d'environnement pour votre clé API
client = OpenAI(api_key=os.environ.get("OPENAI_API_KEY"))
Effectuer la Requête
Une tâche de Deep Research peut prendre plusieurs minutes à se terminer, surtout pour des requêtes complexes. Pour éviter les délais d'attente, il est fortement recommandé d'exécuter les requêtes en arrière-plan. L'API facilite cela.
Imaginons que nous construisons un outil pour une société de services financiers de santé. La tâche est de produire un rapport sur l'impact économique des nouveaux médicaments contre le diabète et l'obésité. Voici comment vous structureriez cette requête :
system_message = """
Vous êtes un chercheur professionnel préparant un rapport structuré et basé sur des données pour une équipe mondiale d'économie de la santé. Votre tâche est d'analyser la question de santé posée par l'utilisateur.
Faites :
- Concentrez-vous sur des informations riches en données : incluez des chiffres spécifiques, des tendances, des statistiques et des résultats mesurables.
- Le cas échéant, résumez les données de manière à pouvoir les transformer en graphiques ou en tableaux.
- Priorisez les sources fiables et à jour : recherches évaluées par des pairs, organisations de santé (ex: OMS, CDC), etc.
- Incluez des citations en ligne et retournez toutes les métadonnées de source.
Soyez analytique, évitez les généralités et assurez-vous que chaque section soutient un raisonnement basé sur des données.
"""
user_query = "Recherchez l'impact économique du sémaglutide sur les systèmes de santé mondiaux."
response = client.responses.create(
model="o3-deep-research", # Ou "o3-deep-research-2025-06-26"
input=[
{
"role": "developer",
"content": [
{
"type": "input_text",
"text": system_message,
}
]
},
{
"role": "user",
"content": [
{
"type": "input_text",
"text": user_query,
}
]
}
],
reasoning={
"summary": "auto"
},
tools=[
{
"type": "web_search_preview"
},
{
"type": "code_interpreter"
}
]
)
Décortiquons cet appel :
model
: Nous spécifionso3-deep-research
pour un rapport de haute qualité.input
: C'est là que nous fournissons nos invites. Lesystem_message
définit la persona et l'objectif global de l'agent. Leuser_query
est la tâche de recherche spécifique.reasoning
: Définirsummary
sur"auto"
permet au modèle de générer le meilleur résumé possible pour le rapport. Pour des rapports plus détaillés, vous pouvez le définir sur"detailed"
.tools
: Ce tableau indique à l'agent quels outils il a à sa disposition.web_search_preview
est requis pour qu'il puisse naviguer sur le web.code_interpreter
est facultatif mais permet à l'agent d'exécuter du code Python pour l'analyse et la visualisation des données.
La véritable puissance de l'API Deep Research réside dans l'objet de réponse structuré et détaillé qu'elle renvoie. C'est plus qu'un simple bloc de texte ; c'est un enregistrement transparent du processus de recherche.
Le Rapport Final
Le résultat principal est, bien sûr, le rapport final. Vous pouvez y accéder à partir du dernier élément du tableau output
:
# Accédez au rapport final à partir de l'objet de réponse
print(response.output[-1].content[0].text)
Cela vous donnera le texte complet et synthétisé généré par le modèle.
Citations et Sources
L'une des fonctionnalités les plus critiques pour toute recherche sérieuse est la citation. L'API Deep Research intègre les métadonnées de citation directement dans la réponse. Chaque citation est liée à une partie spécifique du texte, permettant une vérification facile.
Voici comment vous pouvez extraire et afficher les citations :
annotations = response.output[-1].content[0].annotations
for i, citation in enumerate(annotations):
print(f"Citation {i+1}:")
print(f" Titre: {citation.title}")
print(f" URL: {citation.url}")
print(f" Emplacement: caractères {citation.start_index}–{citation.end_index}")
Cette structure est inestimable pour la création d'applications nécessitant un haut degré de confiance et de transparence. Vous pouvez l'utiliser pour créer des notes de bas de page cliquables, construire une bibliographie ou retracer de manière programmatique les affirmations jusqu'à leur source originale.
Jeter un Œil sous le Capot : Étapes Intermédiaires
L'API expose également l'ensemble du processus de pensée de l'agent. Le response.output
contient un journal de toutes les étapes intermédiaires prises pour arriver à la réponse finale. C'est incroyablement utile pour le débogage, l'analyse ou simplement pour comprendre comment l'agent fonctionne.
- Étapes de Raisonnement : Celles-ci représentent les plans internes et les résumés du modèle lorsqu'il décompose le problème.
reasoning = next(item for item in response.output if item.type == "reasoning")
for s in reasoning.summary:
print(s.text)
- Appels de Recherche Web : Vous pouvez voir les requêtes de recherche exactes utilisées par l'agent.
search = next(item for item in response.output if item.type == "web_search_call")
print("Requête:", search.action["query"])
- Exécution de Code : Si l'outil
code_interpreter
a été utilisé, vous pouvez inspecter le code qu'il a exécuté et le résultat obtenu.
code_step = next((item for item in response.output if item.type == "code_interpreter_call"), None)
if code_step:
print("Entrée du Code:", code_step.input)
print("Sortie du Code:", code_step.output)
Utilisation de l'API Deep Research d'OpenAI avec les Serveurs MCP
Recherche Avancée avec les Serveurs MCP
Alors que la recherche web donne à l'agent Deep Research accès à un vaste répertoire d'informations publiques, sa véritable puissance est libérée lorsque vous le connectez à vos propres données privées.
C'est là qu'intervient le Protocole de Contexte de Modèle (MCP). Le MCP vous permet de créer des outils personnalisés qui étendent les capacités de l'agent, lui permettant d'interroger vos bases de connaissances internes, vos bases de données ou d'autres services propriétaires.
L'un des serveurs MCP populaires actuellement est Apidog MCP Server, qui vous permet de vous connecter à votre documentation API dans Cursor et d'autres outils de codage IA, et réduit considérablement l'hallucination de l'IA en tirant parti des spécifications API factuelles.
Conclusion : L'Avenir de la Recherche Automatisée
L'API Deep Research d'OpenAI est plus qu'une simple amélioration incrémentale. Elle représente un changement fondamental dans la manière dont nous pouvons exploiter l'IA pour le travail intellectuel. En fournissant un agent capable de raisonner, de planifier, d'exécuter des outils et de produire des résultats vérifiables, OpenAI a créé un élément constitutif pour une nouvelle génération d'applications de recherche.
Que vous construisiez des tableaux de bord d'intelligence concurrentielle, automatisiez des revues de littérature ou créiez des rapports d'analyse de marché sophistiqués, l'API Deep Research offre la puissance, la transparence et la confiance nécessaires pour des cas d'utilisation sérieux et réels. Comme le suggère le guide, la prochaine étape est probablement des "Agents de Recherche Profonde" à part entière, suggérant un avenir encore plus autonome et performant. Pour l'instant, l'API offre aux développeurs un nouvel outil incroyable à explorer. Commencez à construire avec elle dès aujourd'hui.