Comment utiliser Google Gemini 2.5 Pro avec Open Codex CLI (Open Codex CLI)

Open Codex CLI : outil open-source pour les LLMs dans votre terminal. Ce guide utilise Gemini 2.5 Pro de Google. Fork de OpenAI Codex CLI.

Louis Dupont

Louis Dupont

5 June 2025

Comment utiliser Google Gemini 2.5 Pro avec Open Codex CLI (Open Codex CLI)

Open Codex CLI est un outil open-source qui apporte la puissance des grands modèles de langage (LLM) directement dans votre flux de travail de terminal. Ce guide se concentre spécifiquement sur l'exploitation de l'un des modèles les plus avancés disponibles aujourd'hui – Gemini 2.5 Pro de Google – au sein de l'environnement Open Codex CLI.

Open Codex CLI est un fork de l'OpenAI Codex CLI original, conservant ses fonctionnalités de base mais élargissant considérablement ses capacités en ajoutant la prise en charge de plusieurs fournisseurs d'IA, dont Google Gemini. Cela permet aux développeurs de choisir le meilleur modèle pour leur tâche tout en restant dans leur interface de terminal familière. Imaginez poser des questions de codage complexes, générer du code boilerplate, refactoriser des fonctions existantes, expliquer des scripts complexes, ou même orchestrer des commandes de construction, le tout piloté par l'intelligence de Gemini sans quitter votre ligne de commande.

Cet article fournit un guide complet, étape par étape, pour l'installation, la configuration et l'utilisation de l'Open Codex CLI spécifiquement avec Google Gemini 2.5 Pro (en référence à la version du modèle gemini-2.5-pro-preview-03-25 disponible au moment de la rédaction, comme spécifié dans la configuration Open Codex CLI) et ses modèles frères comme gemini-2.0-flash. Que vous soyez un développeur chevronné cherchant à optimiser votre flux de travail ou nouveau dans les assistants de codage IA, vous apprendrez comment exploiter cette combinaison puissante.

💡
Vous voulez un excellent outil de test d'API qui génère une belle documentation API ?

Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !
button

Pourquoi Open Codex CLI avec Gemini ?

Combiner Open Codex CLI avec Gemini 2.5 Pro offre un ensemble d'avantages convaincants :

Prérequis

Avant de commencer, assurez-vous d'avoir ce qui suit :

  1. Système d'exploitation : macOS 12 ou version ultérieure, une distribution Linux moderne (comme Ubuntu 20.04+, Debian 10+) ou Windows 10/11 utilisant le sous-système Windows pour Linux (WSL2). La prise en charge directe de Windows n'est pas disponible.
  2. Node.js : La version 22 ou ultérieure est requise. Les versions LTS (Long-Term Support) sont généralement recommandées. Vous pouvez vérifier votre version en exécutant node -v dans votre terminal. Téléchargez Node.js depuis nodejs.org.
  3. Compte Google Cloud et clé API Gemini : Vous aurez besoin d'une clé API pour authentifier les requêtes vers les modèles Gemini. Vous pouvez en obtenir une via Google AI Studio ou Google Cloud Console. Gardez cette clé en sécurité, car elle est liée à votre compte.
  4. Familiarité avec le terminal : Une connaissance de base de l'utilisation de l'interface de ligne de commande de votre système (Terminal, iTerm, Bash, Zsh, etc.) est supposée.

Étape 1 : Installation d'Open Codex CLI

La méthode recommandée pour installer Open Codex CLI est globalement via npm (Node Package Manager), qui est fourni avec Node.js. Ouvrez votre terminal et exécutez :

npm install -g open-codex

Alternativement, si vous utilisez Yarn comme gestionnaire de paquets, vous pouvez exécuter :

yarn global add open-codex

Cette commande télécharge le paquet open-codex et rend la commande open-codex accessible de n'importe où dans votre terminal. Évitez d'utiliser sudo pour les installations npm globales ; si vous rencontrez des problèmes d'autorisation, il est préférable de corriger les autorisations npm.

Vous pouvez vérifier l'installation en exécutant open-codex --version ou open-codex --help.

Étape 2 : Configuration de l'accès à Gemini

Pour utiliser les modèles Gemini, Open Codex CLI a besoin de votre clé API et doit savoir que vous souhaitez utiliser le fournisseur gemini. Il existe deux façons principales de configurer cela :

Méthode 1 : Variable d'environnement (recommandée pour le démarrage rapide/les tests)

Le moyen le plus simple de fournir votre clé API est via une variable d'environnement. L'Open Codex CLI recherche spécifiquement GOOGLE_GENERATIVE_AI_API_KEY lorsque le fournisseur gemini est sélectionné.

Dans votre terminal, exécutez la commande suivante, en remplaçant "YOUR_API_KEY_HERE" par votre clé API Gemini réelle :

export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"

Important : Cette commande définit la variable d'environnement uniquement pour la session de terminal actuelle. Si vous fermez le terminal ou en ouvrez un nouveau, vous devrez exécuter à nouveau la commande.

Pour rendre la clé API disponible en permanence, vous devez ajouter la ligne export à votre fichier de configuration shell. Les fichiers courants incluent :

Ajoutez la ligne export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE" au fichier approprié, enregistrez-le, puis redémarrez votre terminal ou exécutez source ~/.zshrc (ou le chemin du fichier pertinent) pour appliquer les modifications.

Vous pouvez ensuite spécifier Gemini comme fournisseur à chaque invocation à l'aide de l'indicateur --provider :

open-codex --provider gemini "Quel est le capital de la France ?"

Méthode 2 : Fichier de configuration (recommandé pour une configuration persistante)

Pour une configuration plus permanente, surtout si vous prévoyez d'utiliser Gemini de manière cohérente, vous pouvez utiliser le fichier de configuration Open Codex CLI. Le CLI recherche un fichier de configuration à ~/.codex/config.json.

Créez le répertoire s'il n'existe pas : mkdir -p ~/.codex

Créez et ouvrez le fichier de configuration : nano ~/.codex/config.json (ou utilisez votre éditeur de texte préféré).

Ajoutez le contenu JSON suivant pour spécifier Gemini comme fournisseur par défaut :

{
  "provider": "gemini"
}

Vous pouvez également définir en option un modèle Gemini par défaut. L'Open Codex CLI définit gemini-2.5-pro-preview-03-25 comme modèle « agentique » par défaut et gemini-2.0-flash comme modèle « contexte complet » par défaut pour Gemini. Pour définir explicitement le puissant modèle 2.5 Pro comme valeur par défaut pour la plupart des interactions, utilisez :

{
  "provider": "gemini",
  "model": "gemini-2.5-pro-preview-03-25"
}

Enregistrez le fichier et quittez l'éditeur.

Fondamentalement, même lorsque vous utilisez le fichier de configuration pour définir le fournisseur et le modèle, vous devez toujours définir la variable d'environnement GOOGLE_GENERATIVE_AI_API_KEY comme décrit dans la méthode 1. Le fichier de configuration indique au CLI quel fournisseur utiliser, tandis que la variable d'environnement fournit les informations d'identification pour ce fournisseur.

Avec le fichier de configuration défini, vous pouvez maintenant simplement exécuter open-codex et il utilisera par défaut le fournisseur Gemini spécifié :

open-codex "Quel est le capital de la France ?"

Étape 3 : Utilisation de base avec Gemini

Maintenant qu'Open Codex CLI est installé et configuré pour Gemini, explorons comment interagir avec lui.

Mode interactif (REPL)

Pour une expérience de type chat, exécutez le CLI sans invite spécifique :

open-codex
# Ou si vous n'avez pas défini le fournisseur par défaut dans config.json :
# open-codex --provider gemini

Cela démarre une boucle Read-Eval-Print (REPL) où vous pouvez taper des invites, obtenir des réponses et avoir une conversation continue avec Gemini.

❯ open-codex --provider gemini
Bienvenue dans Open Codex CLI ! Tapez votre demande, puis appuyez deux fois sur Entrée pour l'envoyer.
> Parlez-moi du modèle Gemini 2.5 Pro.

Appuyez deux fois sur Entrée pour envoyer l'invite. Gemini répondra dans le terminal. Vous pouvez continuer la conversation en tapant des questions de suivi.

Invite directe

Pour les demandes ponctuelles, vous pouvez passer l'invite directement en tant qu'argument. Si vous n'avez pas défini de valeurs par défaut dans config.json, vous aurez besoin de l'indicateur de fournisseur. Vous pouvez également spécifier le modèle exact à l'aide de l'indicateur --model ou -m :

open-codex "Expliquez le concept de fermetures en Python."
open-codex --provider gemini --model gemini-2.5-pro-preview-03-25 "Écrivez un script bash pour trouver tous les fichiers de plus de 10 Mo dans le répertoire actuel et ses sous-répertoires."
open-codex --provider gemini --model gemini-2.0-flash "Résumez les principaux points de la documentation React sur les hooks."

Le CLI traitera la demande avec Gemini et imprimera la réponse directement sur la sortie standard.

Étape 4 : Exploiter les fonctionnalités d'Open Codex avec Gemini

La véritable puissance d'Open Codex CLI réside dans sa capacité à interagir avec votre environnement de développement local, guidée par Gemini.

Interaction avec le système de fichiers

Gemini, via Open Codex CLI, peut lire les fichiers de votre projet actuel pour obtenir le contexte de vos demandes. Il peut également proposer des modifications (écritures ou correctifs) à vos fichiers.

# En supposant que vous ayez un fichier nommé 'calculate.js'
open-codex --provider gemini "Lisez 'calculate.js' et suggérez des améliorations pour la lisibilité."
open-codex --provider gemini "Ajoutez une nouvelle fonction appelée 'subtract' à 'calculate.js' qui prend deux arguments et renvoie leur différence."

Le CLI affichera les modifications proposées et invitera : Appliquer le correctif ? [y/N]. Appuyez sur y pour accepter ou sur n pour rejeter.

Exécution de commandes

Open Codex CLI peut également exécuter des commandes shell suggérées par Gemini. Ceci est puissant mais nécessite de la prudence.

open-codex --provider gemini "Installez la bibliothèque 'requests' à l'aide de pip."

Gemini pourrait proposer la commande pip install requests. Le CLI affichera la commande et demandera : Exécuter la commande ? [y/N].

Contexte du projet (codex.md)

Vous pouvez fournir des instructions ou un contexte persistant sur votre projet à Gemini en créant des fichiers codex.md. Le CLI lit ces fichiers dans l'ordre :

  1. ~/.codex/instructions.md (Instructions globales, personnelles)
  2. codex.md à la racine de votre référentiel (Notes à l'échelle du projet)
  3. codex.md dans le répertoire de travail actuel (Notes spécifiques au sous-répertoire)

Cela vous permet de guider le comportement de Gemini ou de fournir des informations sur les normes du projet, les bibliothèques utilisées, etc., sans le répéter dans chaque invite.

Conseils de dépannage

Conclusion

L'Open Codex CLI, suralimenté par Gemini 2.5 Pro de Google, transforme votre terminal en un assistant de codage intelligent. En suivant les étapes décrites dans ce guide, vous pouvez intégrer de manière transparente des capacités d'IA avancées dans votre flux de travail de développement quotidien, directement depuis la ligne de commande.

Des extraits de code et des explications rapides à la refactorisation et à l'exécution de scripts complexes, cette combinaison offre un potentiel important pour stimuler la productivité et rationaliser les tâches. L'accent mis par l'outil sur la sécurité grâce au bac à sable et aux approbations des utilisateurs, combiné à la flexibilité de la prise en charge multi-fournisseurs et à sa nature open-source, fait d'Open Codex CLI un choix convaincant pour les développeurs qui cherchent à exploiter l'IA dans leur terminal.

Expérimentez avec différentes invites, explorez les différents modes d'approbation (avec prudence !) et découvrez comment Gemini et Open Codex CLI peuvent améliorer votre expérience de codage.

💡
Vous voulez un excellent outil de test d'API qui génère une belle documentation API ?

Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !
button

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API