Open Codex CLI ist ein Open-Source-Tool, das die Leistung großer Sprachmodelle (LLMs) direkt in Ihren Terminal-Workflow bringt. Dieser Leitfaden konzentriert sich speziell auf die Nutzung eines der fortschrittlichsten heute verfügbaren Modelle – Google's Gemini 2.5 Pro – innerhalb der Open Codex CLI-Umgebung.
Open Codex CLI ist eine Fork des ursprünglichen OpenAI Codex CLI, der seine Kernfunktionalität beibehält, aber seine Fähigkeiten erheblich erweitert, indem er die Unterstützung für mehrere KI-Anbieter hinzufügt, einschließlich Google Gemini. Dies ermöglicht es Entwicklern, das beste Modell für ihre Aufgabe auszuwählen und gleichzeitig in ihrer vertrauten Terminal-Oberfläche zu bleiben. Stellen Sie sich vor, Sie stellen komplexe Programmierfragen, generieren Boilerplate-Code, refaktorieren bestehende Funktionen, erklären komplexe Skripte oder orchestrieren sogar Build-Befehle, alles angetrieben von Geminis Intelligenz, ohne Ihre Befehlszeile zu verlassen.
Dieser Artikel bietet eine umfassende, schrittweise Anleitung zur Installation, Konfiguration und Verwendung der Open Codex CLI speziell mit Google Gemini 2.5 Pro (unter Bezugnahme auf die Modellversion gemini-2.5-pro-preview-03-25
, die zum Zeitpunkt des Verfassens verfügbar ist, wie in der Open Codex CLI-Konfiguration angegeben) und seinen Schwestermodellen wie gemini-2.0-flash
. Egal, ob Sie ein erfahrener Entwickler sind, der Ihren Workflow optimieren möchte, oder neu bei KI-Coding-Assistenten sind, Sie erfahren, wie Sie diese leistungsstarke Kombination nutzen können.
Want an integrated, All-in-One platform for your Developer Team to work together with maximum productivity?
Apidog delivers all your demans, and replaces Postman at a much more affordable price!

Warum Open Codex CLI mit Gemini?
This is wild. In just a few hours my friend forked Open AI Codex to work with Gemini 2.5 Pro 🤯 pic.twitter.com/gENT01q82P
— Sawyer Hood (@sawyerhood) April 17, 2025
Die Kombination von Open Codex CLI mit Gemini 2.5 Pro bietet eine überzeugende Reihe von Vorteilen:
- Terminal-Native Workflow: Für Entwickler, die die Befehlszeile bevorzugen, bietet Open Codex CLI eine nahtlose Integration. Sie müssen nicht zwischen Ihrem Editor, dem Terminal und einem separaten Browserfenster für KI-Unterstützung wechseln. Dies führt zu schnelleren Iterationen und weniger Unterbrechungen.
- Open Source und flexibel: Als Open Source (
open-codex
auf npm) bietet das Tool Transparenz und das Potenzial für Community-Beiträge. Die Unterstützung mehrerer Anbieter (Gemini, OpenAI, OpenRouter, Ollama) gibt Ihnen die Flexibilität, Modelle oder Anbieter nach Bedarf zu wechseln, ohne Ihre Kernwerkzeuge zu ändern. - Leistungsstarke KI-Fähigkeiten: Gemini 2.5 Pro bietet modernste Fähigkeiten in Bezug auf Argumentation, Code-Generierung und Verständnis. Dies ermöglicht komplexere Aufgaben, bessere Vorschläge zur Codequalität und tiefere Analysen direkt in der CLI.
- Aktionsorientiert: Im Gegensatz zu einfachen Chatbots ist Open Codex CLI auf Aktionen ausgelegt. Es kann Ihre lokalen Dateien für den Kontext lesen, Dateiänderungen (Patches) vorschlagen und Shell-Befehle innerhalb einer sicheren Sandbox ausführen, wodurch eine echte chatgesteuerte Entwicklung ermöglicht wird.
- Sicherheitsfokus: Die CLI enthält Sandboxing-Mechanismen (Apple Seatbelt unter macOS, Docker empfohlen unter Linux), um potenziell riskante Operationen wie Shell-Befehle sicher auszuführen, insbesondere bei Verwendung von Auto-Approval-Modi. Es führt Befehle netzwerk-deaktiviert und standardmäßig verzeichnis-sandboxed in höheren Autonomiemodi aus.
- Version Control Integration: Das Tool ist so konzipiert, dass es zusammen mit Git funktioniert. Standardmäßig ist eine Genehmigung erforderlich, bevor Dateien geändert werden, sodass Sie Änderungen überprüfen können, bevor sie sich auf Ihr Arbeitsverzeichnis auswirken, wodurch Sie immer ein Sicherheitsnetz haben.
Voraussetzungen
Bevor Sie beginnen, stellen Sie Folgendes sicher:
- Betriebssystem: macOS 12 oder neuer, eine moderne Linux-Distribution (wie Ubuntu 20.04+, Debian 10+) oder Windows 10/11 mit dem Windows-Subsystem für Linux (WSL2). Direkte Windows-Unterstützung ist nicht verfügbar.
- Node.js: Version 22 oder neuer ist erforderlich. LTS-Versionen (Long-Term Support) werden im Allgemeinen empfohlen. Sie können Ihre Version überprüfen, indem Sie
node -v
in Ihrem Terminal ausführen. Laden Sie Node.js von nodejs.org herunter. - Google Cloud Account & Gemini API Key: Sie benötigen einen API-Schlüssel, um Anfragen an die Gemini-Modelle zu authentifizieren. Sie können einen über das Google AI Studio oder die Google Cloud Console erhalten. Bewahren Sie diesen Schlüssel sicher auf, da er mit Ihrem Konto verknüpft ist.
- Terminal-Vertrautheit: Grundkenntnisse in der Verwendung der Befehlszeilenschnittstelle Ihres Systems (Terminal, iTerm, Bash, Zsh usw.) werden vorausgesetzt.
Schritt 1: Installieren der Open Codex CLI
Der empfohlene Weg zur Installation der Open Codex CLI ist global über npm (Node Package Manager), das mit Node.js gebündelt wird. Öffnen Sie Ihr Terminal und führen Sie Folgendes aus:
npm install -g open-codex
Alternativ können Sie, wenn Sie Yarn als Ihren Paketmanager verwenden, Folgendes ausführen:
yarn global add open-codex
Dieser Befehl lädt das Paket open-codex
herunter und macht den Befehl open-codex
von überall in Ihrem Terminal aus zugänglich. Vermeiden Sie die Verwendung von sudo
für globale npm-Installationen; wenn Sie auf Berechtigungsprobleme stoßen, ist es besser, die npm-Berechtigungen zu beheben.
Sie können die Installation überprüfen, indem Sie open-codex --version
oder open-codex --help
ausführen.
Schritt 2: Konfigurieren des Gemini-Zugriffs
Um Gemini-Modelle zu verwenden, benötigt Open Codex CLI Ihren API-Schlüssel und muss wissen, dass Sie den gemini
-Anbieter verwenden möchten. Es gibt zwei Hauptmöglichkeiten, dies zu konfigurieren:
Methode 1: Umgebungsvariable (empfohlen für Schnellstart/Testen)
Der einfachste Weg, Ihren API-Schlüssel bereitzustellen, ist über eine Umgebungsvariable. Die Open Codex CLI sucht speziell nach GOOGLE_GENERATIVE_AI_API_KEY
, wenn der gemini
-Anbieter ausgewählt ist.
Führen Sie im Terminal den folgenden Befehl aus und ersetzen Sie "YOUR_API_KEY_HERE"
durch Ihren tatsächlichen Gemini-API-Schlüssel:
export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"
Wichtig: Dieser Befehl setzt die Umgebungsvariable nur für die aktuelle Terminalsitzung. Wenn Sie das Terminal schließen oder ein neues öffnen, müssen Sie den Befehl erneut ausführen.
Um den API-Schlüssel dauerhaft verfügbar zu machen, müssen Sie die export
-Zeile zu Ihrer Shell-Konfigurationsdatei hinzufügen. Häufige Dateien sind:
~/.zshrc
(für Zsh, die Standardeinstellung auf neueren macOS-Versionen)~/.bashrc
oder~/.bash_profile
(für Bash)
Fügen Sie die Zeile export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"
zu der entsprechenden Datei hinzu, speichern Sie sie und starten Sie dann entweder Ihr Terminal neu oder führen Sie source ~/.zshrc
(oder den relevanten Dateipfad) aus, um die Änderungen zu übernehmen.
Sie können dann Gemini als Anbieter bei jeder Aufrufung mit dem Flag --provider
angeben:
open-codex --provider gemini "What is the capital of France?"
Methode 2: Konfigurationsdatei (empfohlen für dauerhafte Einrichtung)
Für eine dauerhaftere Einrichtung, insbesondere wenn Sie planen, Gemini konsequent zu verwenden, können Sie die Open Codex CLI-Konfigurationsdatei verwenden. Die CLI sucht nach einer Konfigurationsdatei unter ~/.codex/config.json
.
Erstellen Sie das Verzeichnis, falls es nicht existiert: mkdir -p ~/.codex
Erstellen und öffnen Sie die Konfigurationsdatei: nano ~/.codex/config.json
(oder verwenden Sie Ihren bevorzugten Texteditor).
Fügen Sie den folgenden JSON-Inhalt hinzu, um Gemini als Standardanbieter anzugeben:
{
"provider": "gemini"
}
Sie können optional auch ein Standard-Gemini-Modell festlegen. Die Open Codex CLI definiert gemini-2.5-pro-preview-03-25
als das Standard-"agentische" Modell und gemini-2.0-flash
als das Standard-"Full Context"-Modell für Gemini. Um das leistungsstarke 2.5 Pro-Modell explizit als Standard für die meisten Interaktionen festzulegen, verwenden Sie:
{
"provider": "gemini",
"model": "gemini-2.5-pro-preview-03-25"
}
Speichern Sie die Datei und beenden Sie den Editor.
Entscheidend ist, dass Sie, selbst wenn Sie die Konfigurationsdatei verwenden, um den Anbieter und das Modell festzulegen, immer noch die Umgebungsvariable GOOGLE_GENERATIVE_AI_API_KEY
festlegen müssen, wie in Methode 1 beschrieben. Die Konfigurationsdatei teilt der CLI, welchen Anbieter sie verwenden soll, während die Umgebungsvariable die Anmeldeinformationen für diesen Anbieter bereitstellt.
Wenn die Konfigurationsdatei eingerichtet ist, können Sie jetzt einfach open-codex
ausführen, und es wird standardmäßig der angegebene Gemini-Anbieter verwendet:
open-codex "What is the capital of France?"
Schritt 3: Grundlegende Verwendung mit Gemini
Nachdem Open Codex CLI für Gemini installiert und konfiguriert wurde, wollen wir untersuchen, wie man damit interagiert.
Interaktiver Modus (REPL)
Für eine chatähnliche Erfahrung führen Sie die CLI ohne eine bestimmte Eingabeaufforderung aus:
open-codex
# Or if you haven't set the default provider in config.json:
# open-codex --provider gemini
Dadurch wird eine Read-Eval-Print-Schleife (REPL) gestartet, in der Sie Eingabeaufforderungen eingeben, Antworten erhalten und eine kontinuierliche Konversation mit Gemini führen können.
❯ open-codex --provider gemini
Welcome to Open Codex CLI! Type your request, then hit Enter twice to send.
> Tell me about the Gemini 2.5 Pro model.
Drücken Sie zweimal die Eingabetaste, um die Eingabeaufforderung zu senden. Gemini antwortet im Terminal. Sie können die Konversation fortsetzen, indem Sie Folgefragen eingeben.
Direkte Eingabeaufforderung
Für einmalige Anfragen können Sie die Eingabeaufforderung direkt als Argument übergeben. Wenn Sie keine Standardeinstellungen in config.json
festgelegt haben, benötigen Sie das Provider-Flag. Sie können das genaue Modell auch mit dem Flag --model
oder -m
angeben:
- Verwenden des Standard-Gemini-Modells (falls in der Konfiguration festgelegt):
open-codex "Explain the concept of closures in Python."
- Explizite Angabe von Anbieter und Modell:
open-codex --provider gemini --model gemini-2.5-pro-preview-03-25 "Write a bash script to find all files larger than 10MB in the current directory and its subdirectories."
- Verwenden eines anderen Gemini-Modells (z. B. Flash für potenziell schnellere/günstigere Aufgaben):
open-codex --provider gemini --model gemini-2.0-flash "Summarize the main points of the React documentation on hooks."
Die CLI verarbeitet die Anfrage mit Gemini und gibt die Antwort direkt auf die Standardausgabe aus.
Schritt 4: Nutzung der Open Codex-Funktionen mit Gemini
Die wahre Stärke der Open Codex CLI liegt in ihrer Fähigkeit, mit Ihrer lokalen Entwicklungsumgebung zu interagieren, geleitet von Gemini.
Dateisysteminteraktion
Gemini kann über die Open Codex CLI Dateien in Ihrem aktuellen Projekt lesen, um Kontext für Ihre Anfragen zu erhalten. Es kann auch Änderungen (Schreibvorgänge oder Patches) an Ihren Dateien vorschlagen.
- Dateien lesen: Wenn Sie Dateinamen in Ihrer Eingabeaufforderung erwähnen, liest die CLI diese oft automatisch, um Gemini Kontext zu geben.
# Assuming you have a file named 'calculate.js'
open-codex --provider gemini "Read 'calculate.js' and suggest improvements for readability."
- Dateien schreiben/patchen: Wenn Sie Gemini auffordern, eine Datei zu ändern, generiert die CLI einen Diff (eine Zusammenfassung der vorgeschlagenen Änderungen) und bittet um Ihre Zustimmung, bevor etwas angewendet wird.
open-codex --provider gemini "Add a new function called 'subtract' to 'calculate.js' that takes two arguments and returns their difference."
Die CLI gibt die vorgeschlagenen Änderungen aus und fordert auf: Apply patch? [y/N]
. Drücken Sie y
, um zu akzeptieren, oder n
, um abzulehnen.
Befehlsausführung
Open Codex CLI kann auch Shell-Befehle ausführen, die von Gemini vorgeschlagen werden. Dies ist leistungsstark, erfordert aber Vorsicht.
- Genehmigungsmodi: Das Flag
--approval-mode
(oder-a
) steuert den Grad der Autonomie: suggest
(Standard): Erfordert eine explizite Genehmigung für alle Dateiänderungen und alle Shell-Befehle. Empfohlen für den Einstieg.auto-edit
: Wendet Dateiänderungen automatisch an, bittet aber immer noch um Genehmigung für Shell-Befehle.full-auto
: Wendet Dateiänderungen automatisch an UND führt Shell-Befehle aus (innerhalb der Sandbox). Verwenden Sie dies mit extremer Vorsicht, insbesondere in nicht vertrauenswürdigen Repositories.- Sandboxing: In den Modi
auto-edit
undfull-auto
werden Befehle netzwerk-deaktiviert und auf das aktuelle Arbeitsverzeichnis und temporäre Dateien beschränkt, um die Sicherheit zu gewährleisten. - Beispiel (mit dem Standardmodus 'suggest'):
open-codex --provider gemini "Install the 'requests' library using pip."
Gemini könnte den Befehl pip install requests
vorschlagen. Die CLI zeigt den Befehl an und fragt: Run command? [y/N]
.
Projektkontext (codex.md
)
Sie können Gemini dauerhafte Anweisungen oder Kontext zu Ihrem Projekt geben, indem Sie codex.md
-Dateien erstellen. Die CLI liest diese Dateien in folgender Reihenfolge:
~/.codex/instructions.md
(Globale, persönliche Anweisungen)codex.md
in Ihrem Repository-Stammverzeichnis (Projektweite Notizen)codex.md
im aktuellen Arbeitsverzeichnis (Unterverzeichnis-spezifische Notizen)
Dies ermöglicht es Ihnen, Geminis Verhalten zu steuern oder Informationen über Projektstandards, verwendete Bibliotheken usw. bereitzustellen, ohne es in jeder Eingabeaufforderung zu wiederholen.
Fehlerbehebung & Tipps
- API-Schlüsselfehler: Stellen Sie sicher, dass
GOOGLE_GENERATIVE_AI_API_KEY
korrekt gesetzt, exportiert und in Ihrer aktuellen Terminalsitzung zugänglich ist. Überprüfen Sie auf Tippfehler. - Modell nicht gefunden: Überprüfen Sie, ob der Modellname (
gemini-2.5-pro-preview-03-25
,gemini-2.0-flash
usw.) mit den unterstützten oder konfigurierten übereinstimmt. Überprüfen Sie die~/.codex/config.json
oder verwenden Sie das Flag--model
korrekt. - Anbieterfehler: Stellen Sie sicher, dass der Anbieter entweder über
config.json
oder das Flag--provider gemini
aufgemini
gesetzt ist. - Ausführliche Protokollierung: Führen Sie zur Fehlerbehebung Befehle mit der Umgebungsvariablen
DEBUG=true
vorangestellt aus:DEBUG=true open-codex --provider gemini "My prompt"
. Dadurch werden detaillierte Anforderungs-/Antwortinformationen ausgegeben. - Einfach anfangen: Beginnen Sie mit einfachen Eingabeaufforderungen und erhöhen Sie die Komplexität schrittweise, wenn Sie sich damit vertraut machen, wie Gemini und die CLI interagieren.
- Überprüfen Sie Genehmigungen sorgfältig: Überprüfen Sie insbesondere bei Dateiänderungen oder Befehlsausführungen immer die vorgeschlagenen Änderungen oder Befehle, bevor Sie sie genehmigen (mit
y
antworten).
Fazit
Die Open Codex CLI, die von Google's Gemini 2.5 Pro angetrieben wird, verwandelt Ihr Terminal in einen intelligenten Coding-Assistenten. Indem Sie die in diesem Leitfaden beschriebenen Schritte befolgen, können Sie erweiterte KI-Funktionen nahtlos in Ihren täglichen Entwicklungsworkflow integrieren, direkt von der Befehlszeile aus.
Von schnellen Code-Snippets und Erklärungen bis hin zu komplexem Refactoring und Skriptausführung bietet diese Kombination ein erhebliches Potenzial zur Steigerung der Produktivität und zur Straffung von Aufgaben. Der Fokus des Tools auf Sicherheit durch Sandboxing und Benutzergenehmigungen, kombiniert mit der Flexibilität der Multi-Provider-Unterstützung und seiner Open-Source-Natur, macht Open Codex CLI zu einer überzeugenden Wahl für Entwickler, die KI in ihrem Terminal nutzen möchten.
Experimentieren Sie mit verschiedenen Eingabeaufforderungen, erkunden Sie die verschiedenen Genehmigungsmodi (vorsichtig!) und entdecken Sie, wie Gemini und Open Codex CLI Ihr Programmiererlebnis verbessern können.
Want an integrated, All-in-One platform for your Developer Team to work together with maximum productivity?
Apidog delivers all your demans, and replaces Postman at a much more affordable price!