Open Codex CLI est un outil open-source qui apporte la puissance des grands modèles de langage (LLM) directement dans votre flux de travail de terminal. Ce guide se concentre spécifiquement sur l'exploitation de l'un des modèles les plus avancés disponibles aujourd'hui – Gemini 2.5 Pro de Google – au sein de l'environnement Open Codex CLI.
Open Codex CLI est un fork de l'OpenAI Codex CLI original, conservant ses fonctionnalités de base mais élargissant considérablement ses capacités en ajoutant la prise en charge de plusieurs fournisseurs d'IA, dont Google Gemini. Cela permet aux développeurs de choisir le meilleur modèle pour leur tâche tout en restant dans leur interface de terminal familière. Imaginez poser des questions de codage complexes, générer du code boilerplate, refactoriser des fonctions existantes, expliquer des scripts complexes, ou même orchestrer des commandes de construction, le tout piloté par l'intelligence de Gemini sans quitter votre ligne de commande.
Cet article fournit un guide complet, étape par étape, pour l'installation, la configuration et l'utilisation de l'Open Codex CLI spécifiquement avec Google Gemini 2.5 Pro (en référence à la version du modèle gemini-2.5-pro-preview-03-25
disponible au moment de la rédaction, comme spécifié dans la configuration Open Codex CLI) et ses modèles frères comme gemini-2.0-flash
. Que vous soyez un développeur chevronné cherchant à optimiser votre flux de travail ou nouveau dans les assistants de codage IA, vous apprendrez comment exploiter cette combinaison puissante.
Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?
Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !

Pourquoi Open Codex CLI avec Gemini ?
This is wild. In just a few hours my friend forked Open AI Codex to work with Gemini 2.5 Pro 🤯 pic.twitter.com/gENT01q82P
— Sawyer Hood (@sawyerhood) April 17, 2025
Combiner Open Codex CLI avec Gemini 2.5 Pro offre un ensemble d'avantages convaincants :
- Flux de travail natif du terminal : Pour les développeurs qui préfèrent la ligne de commande, Open Codex CLI offre une intégration transparente. Pas besoin de changer de contexte entre votre éditeur, le terminal et une fenêtre de navigateur séparée pour l'assistance de l'IA. Cela conduit à une itération plus rapide et à moins de perturbations.
- Open Source et flexible : Étant open-source (
open-codex
sur npm), l'outil offre de la transparence et le potentiel de contributions de la communauté. Sa prise en charge multi-fournisseurs (Gemini, OpenAI, OpenRouter, Ollama) vous donne la flexibilité de changer de modèle ou de fournisseur selon vos besoins sans modifier vos outils de base. - Puissantes capacités d'IA : Gemini 2.5 Pro apporte des capacités de raisonnement, de génération de code et de compréhension à la pointe de la technologie. Cela permet des tâches plus complexes, de meilleures suggestions de qualité de code et une analyse plus approfondie directement dans le CLI.
- Axé sur l'action : Contrairement aux chatbots simples, Open Codex CLI est conçu pour l'action. Il peut lire vos fichiers locaux pour le contexte, proposer des modifications de fichiers (correctifs) et exécuter des commandes shell dans un bac à sable sécurisé, permettant un véritable développement axé sur le chat.
- Axé sur la sécurité : Le CLI intègre des mécanismes de bac à sable (Apple Seatbelt sur macOS, Docker recommandé sur Linux) pour exécuter en toute sécurité des opérations potentiellement risquées comme les commandes shell, en particulier lors de l'utilisation des modes d'approbation automatique. Il exécute les commandes avec le réseau désactivé et le répertoire en bac à sable par défaut dans les modes de plus grande autonomie.
- Intégration du contrôle de version : L'outil est conçu pour fonctionner avec Git. Par défaut, il nécessite une approbation avant de modifier les fichiers, ce qui vous permet de revoir les modifications avant qu'elles n'affectent votre répertoire de travail, vous assurant ainsi d'avoir toujours une sécurité.
Prérequis
Avant de commencer, assurez-vous d'avoir ce qui suit :
- Système d'exploitation : macOS 12 ou version ultérieure, une distribution Linux moderne (comme Ubuntu 20.04+, Debian 10+) ou Windows 10/11 utilisant le sous-système Windows pour Linux (WSL2). La prise en charge directe de Windows n'est pas disponible.
- Node.js : La version 22 ou ultérieure est requise. Les versions LTS (Long-Term Support) sont généralement recommandées. Vous pouvez vérifier votre version en exécutant
node -v
dans votre terminal. Téléchargez Node.js depuis nodejs.org. - Compte Google Cloud et clé API Gemini : Vous aurez besoin d'une clé API pour authentifier les requêtes vers les modèles Gemini. Vous pouvez en obtenir une via Google AI Studio ou Google Cloud Console. Gardez cette clé en sécurité, car elle est liée à votre compte.
- Familiarité avec le terminal : Une connaissance de base de l'utilisation de l'interface de ligne de commande de votre système (Terminal, iTerm, Bash, Zsh, etc.) est supposée.
Étape 1 : Installation d'Open Codex CLI
La méthode recommandée pour installer Open Codex CLI est globalement via npm (Node Package Manager), qui est fourni avec Node.js. Ouvrez votre terminal et exécutez :
npm install -g open-codex
Alternativement, si vous utilisez Yarn comme gestionnaire de paquets, vous pouvez exécuter :
yarn global add open-codex
Cette commande télécharge le paquet open-codex
et rend la commande open-codex
accessible de n'importe où dans votre terminal. Évitez d'utiliser sudo
pour les installations npm globales ; si vous rencontrez des problèmes d'autorisation, il est préférable de corriger les autorisations npm.
Vous pouvez vérifier l'installation en exécutant open-codex --version
ou open-codex --help
.
Étape 2 : Configuration de l'accès à Gemini
Pour utiliser les modèles Gemini, Open Codex CLI a besoin de votre clé API et doit savoir que vous souhaitez utiliser le fournisseur gemini
. Il existe deux façons principales de configurer cela :
Méthode 1 : Variable d'environnement (recommandée pour le démarrage rapide/les tests)
Le moyen le plus simple de fournir votre clé API est via une variable d'environnement. L'Open Codex CLI recherche spécifiquement GOOGLE_GENERATIVE_AI_API_KEY
lorsque le fournisseur gemini
est sélectionné.
Dans votre terminal, exécutez la commande suivante, en remplaçant "YOUR_API_KEY_HERE"
par votre clé API Gemini réelle :
export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"
Important : Cette commande définit la variable d'environnement uniquement pour la session de terminal actuelle. Si vous fermez le terminal ou en ouvrez un nouveau, vous devrez exécuter à nouveau la commande.
Pour rendre la clé API disponible en permanence, vous devez ajouter la ligne export
à votre fichier de configuration shell. Les fichiers courants incluent :
~/.zshrc
(pour Zsh, la valeur par défaut sur les macOS récents)~/.bashrc
ou~/.bash_profile
(pour Bash)
Ajoutez la ligne export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"
au fichier approprié, enregistrez-le, puis redémarrez votre terminal ou exécutez source ~/.zshrc
(ou le chemin du fichier pertinent) pour appliquer les modifications.
Vous pouvez ensuite spécifier Gemini comme fournisseur à chaque invocation à l'aide de l'indicateur --provider
:
open-codex --provider gemini "Quel est le capital de la France ?"
Méthode 2 : Fichier de configuration (recommandé pour une configuration persistante)
Pour une configuration plus permanente, surtout si vous prévoyez d'utiliser Gemini de manière cohérente, vous pouvez utiliser le fichier de configuration Open Codex CLI. Le CLI recherche un fichier de configuration à ~/.codex/config.json
.
Créez le répertoire s'il n'existe pas : mkdir -p ~/.codex
Créez et ouvrez le fichier de configuration : nano ~/.codex/config.json
(ou utilisez votre éditeur de texte préféré).
Ajoutez le contenu JSON suivant pour spécifier Gemini comme fournisseur par défaut :
{
"provider": "gemini"
}
Vous pouvez également définir en option un modèle Gemini par défaut. L'Open Codex CLI définit gemini-2.5-pro-preview-03-25
comme modèle « agentique » par défaut et gemini-2.0-flash
comme modèle « contexte complet » par défaut pour Gemini. Pour définir explicitement le puissant modèle 2.5 Pro comme valeur par défaut pour la plupart des interactions, utilisez :
{
"provider": "gemini",
"model": "gemini-2.5-pro-preview-03-25"
}
Enregistrez le fichier et quittez l'éditeur.
Fondamentalement, même lorsque vous utilisez le fichier de configuration pour définir le fournisseur et le modèle, vous devez toujours définir la variable d'environnement GOOGLE_GENERATIVE_AI_API_KEY
comme décrit dans la méthode 1. Le fichier de configuration indique au CLI quel fournisseur utiliser, tandis que la variable d'environnement fournit les informations d'identification pour ce fournisseur.
Avec le fichier de configuration défini, vous pouvez maintenant simplement exécuter open-codex
et il utilisera par défaut le fournisseur Gemini spécifié :
open-codex "Quel est le capital de la France ?"
Étape 3 : Utilisation de base avec Gemini
Maintenant qu'Open Codex CLI est installé et configuré pour Gemini, explorons comment interagir avec lui.
Mode interactif (REPL)
Pour une expérience de type chat, exécutez le CLI sans invite spécifique :
open-codex
# Ou si vous n'avez pas défini le fournisseur par défaut dans config.json :
# open-codex --provider gemini
Cela démarre une boucle Read-Eval-Print (REPL) où vous pouvez taper des invites, obtenir des réponses et avoir une conversation continue avec Gemini.
❯ open-codex --provider gemini
Bienvenue dans Open Codex CLI ! Tapez votre demande, puis appuyez deux fois sur Entrée pour l'envoyer.
> Parlez-moi du modèle Gemini 2.5 Pro.
Appuyez deux fois sur Entrée pour envoyer l'invite. Gemini répondra dans le terminal. Vous pouvez continuer la conversation en tapant des questions de suivi.
Invite directe
Pour les demandes ponctuelles, vous pouvez passer l'invite directement en tant qu'argument. Si vous n'avez pas défini de valeurs par défaut dans config.json
, vous aurez besoin de l'indicateur de fournisseur. Vous pouvez également spécifier le modèle exact à l'aide de l'indicateur --model
ou -m
:
- Utilisation du modèle Gemini par défaut (si défini dans config) :
open-codex "Expliquez le concept de fermetures en Python."
- Spécification explicite du fournisseur et du modèle :
open-codex --provider gemini --model gemini-2.5-pro-preview-03-25 "Écrivez un script bash pour trouver tous les fichiers de plus de 10 Mo dans le répertoire actuel et ses sous-répertoires."
- Utilisation d'un autre modèle Gemini (par exemple, Flash pour des tâches potentiellement plus rapides/moins chères) :
open-codex --provider gemini --model gemini-2.0-flash "Résumez les principaux points de la documentation React sur les hooks."
Le CLI traitera la demande avec Gemini et imprimera la réponse directement sur la sortie standard.
Étape 4 : Exploiter les fonctionnalités d'Open Codex avec Gemini
La véritable puissance d'Open Codex CLI réside dans sa capacité à interagir avec votre environnement de développement local, guidée par Gemini.
Interaction avec le système de fichiers
Gemini, via Open Codex CLI, peut lire les fichiers de votre projet actuel pour obtenir le contexte de vos demandes. Il peut également proposer des modifications (écritures ou correctifs) à vos fichiers.
- Lecture de fichiers : Lorsque vous mentionnez des noms de fichiers dans votre invite, le CLI les lit souvent automatiquement pour fournir un contexte à Gemini.
# En supposant que vous ayez un fichier nommé 'calculate.js'
open-codex --provider gemini "Lisez 'calculate.js' et suggérez des améliorations pour la lisibilité."
- Écriture/application de correctifs de fichiers : Si vous demandez à Gemini de modifier un fichier, le CLI générera un diff (un résumé des modifications proposées) et demandera votre approbation avant d'appliquer quoi que ce soit.
open-codex --provider gemini "Ajoutez une nouvelle fonction appelée 'subtract' à 'calculate.js' qui prend deux arguments et renvoie leur différence."
Le CLI affichera les modifications proposées et invitera : Appliquer le correctif ? [y/N]
. Appuyez sur y
pour accepter ou sur n
pour rejeter.
Exécution de commandes
Open Codex CLI peut également exécuter des commandes shell suggérées par Gemini. Ceci est puissant mais nécessite de la prudence.
- Modes d'approbation : L'indicateur
--approval-mode
(ou-a
) contrôle le niveau d'autonomie : suggest
(par défaut) : nécessite une approbation explicite pour toutes les modifications de fichiers et toutes les commandes shell. Recommandé pour commencer.auto-edit
: applique automatiquement les modifications de fichiers, mais demande toujours l'approbation des commandes shell.full-auto
: applique automatiquement les modifications de fichiers ET exécute les commandes shell (dans le bac à sable). À utiliser avec une extrême prudence, en particulier dans les référentiels non fiables.- Bac à sable : En modes
auto-edit
etfull-auto
, les commandes sont exécutées avec le réseau désactivé et limitées au répertoire de travail actuel et aux fichiers temporaires pour la sécurité. - Exemple (avec le mode « suggest » par défaut) :
open-codex --provider gemini "Installez la bibliothèque 'requests' à l'aide de pip."
Gemini pourrait proposer la commande pip install requests
. Le CLI affichera la commande et demandera : Exécuter la commande ? [y/N]
.
Contexte du projet (codex.md
)
Vous pouvez fournir des instructions ou un contexte persistant sur votre projet à Gemini en créant des fichiers codex.md
. Le CLI lit ces fichiers dans l'ordre :
~/.codex/instructions.md
(Instructions globales, personnelles)codex.md
à la racine de votre référentiel (Notes à l'échelle du projet)codex.md
dans le répertoire de travail actuel (Notes spécifiques au sous-répertoire)
Cela vous permet de guider le comportement de Gemini ou de fournir des informations sur les normes du projet, les bibliothèques utilisées, etc., sans le répéter dans chaque invite.
Conseils de dépannage
- Erreurs de clé API : Assurez-vous que
GOOGLE_GENERATIVE_AI_API_KEY
est correctement défini, exporté et accessible dans votre session de terminal actuelle. Vérifiez les fautes de frappe. - Modèle introuvable : Vérifiez que le nom du modèle (
gemini-2.5-pro-preview-03-25
,gemini-2.0-flash
, etc.) correspond à ceux pris en charge ou configurés. Vérifiez le~/.codex/config.json
ou utilisez correctement l'indicateur--model
. - Erreurs de fournisseur : Assurez-vous que le fournisseur est défini sur
gemini
viaconfig.json
ou l'indicateur--provider gemini
. - Journalisation détaillée : Pour le débogage, exécutez les commandes avec la variable d'environnement
DEBUG=true
ajoutée :DEBUG=true open-codex --provider gemini "Mon invite"
. Cela imprimera des informations détaillées sur les requêtes/réponses. - Commencez simplement : Commencez par des invites simples et augmentez progressivement la complexité au fur et à mesure que vous vous familiarisez avec la façon dont Gemini et le CLI interagissent.
- Examinez attentivement les approbations : Surtout lorsqu'il s'agit de modifications de fichiers ou d'exécution de commandes, examinez toujours les modifications ou commandes proposées avant de les approuver (en répondant
y
).
Conclusion
L'Open Codex CLI, suralimenté par Gemini 2.5 Pro de Google, transforme votre terminal en un assistant de codage intelligent. En suivant les étapes décrites dans ce guide, vous pouvez intégrer de manière transparente des capacités d'IA avancées dans votre flux de travail de développement quotidien, directement depuis la ligne de commande.
Des extraits de code et des explications rapides à la refactorisation et à l'exécution de scripts complexes, cette combinaison offre un potentiel important pour stimuler la productivité et rationaliser les tâches. L'accent mis par l'outil sur la sécurité grâce au bac à sable et aux approbations des utilisateurs, combiné à la flexibilité de la prise en charge multi-fournisseurs et à sa nature open-source, fait d'Open Codex CLI un choix convaincant pour les développeurs qui cherchent à exploiter l'IA dans leur terminal.
Expérimentez avec différentes invites, explorez les différents modes d'approbation (avec prudence !) et découvrez comment Gemini et Open Codex CLI peuvent améliorer votre expérience de codage.
Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?
Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !