So verwenden Sie Google Gemini 2.5 Pro mit Open Codex CLI (Open Codex CLI)

Open Codex CLI: Open-Source-Tool für LLMs im Terminal. Nutzt Gemini 2.5 Pro von Google. Fork von OpenAI Codex CLI mit erweiterter Funktionalität.

Leo Schulz

Leo Schulz

5 June 2025

So verwenden Sie Google Gemini 2.5 Pro mit Open Codex CLI (Open Codex CLI)

Open Codex CLI ist ein Open-Source-Tool, das die Leistung großer Sprachmodelle (LLMs) direkt in Ihren Terminal-Workflow bringt. Dieser Leitfaden konzentriert sich speziell auf die Nutzung eines der fortschrittlichsten heute verfügbaren Modelle – Google's Gemini 2.5 Pro – innerhalb der Open Codex CLI-Umgebung.

Open Codex CLI ist eine Fork des ursprünglichen OpenAI Codex CLI, der seine Kernfunktionalität beibehält, aber seine Fähigkeiten erheblich erweitert, indem er die Unterstützung für mehrere KI-Anbieter hinzufügt, einschließlich Google Gemini. Dies ermöglicht es Entwicklern, das beste Modell für ihre Aufgabe auszuwählen und gleichzeitig in ihrer vertrauten Terminal-Oberfläche zu bleiben. Stellen Sie sich vor, Sie stellen komplexe Programmierfragen, generieren Boilerplate-Code, refaktorieren bestehende Funktionen, erklären komplexe Skripte oder orchestrieren sogar Build-Befehle, alles angetrieben von Geminis Intelligenz, ohne Ihre Befehlszeile zu verlassen.

Dieser Artikel bietet eine umfassende, schrittweise Anleitung zur Installation, Konfiguration und Verwendung der Open Codex CLI speziell mit Google Gemini 2.5 Pro (unter Bezugnahme auf die Modellversion gemini-2.5-pro-preview-03-25, die zum Zeitpunkt des Verfassens verfügbar ist, wie in der Open Codex CLI-Konfiguration angegeben) und seinen Schwestermodellen wie gemini-2.0-flash. Egal, ob Sie ein erfahrener Entwickler sind, der Ihren Workflow optimieren möchte, oder neu bei KI-Coding-Assistenten sind, Sie erfahren, wie Sie diese leistungsstarke Kombination nutzen können.

💡
Want a great API Testing tool that generates beautiful API Documentation?

Want an integrated, All-in-One platform for your Developer Team to work together with maximum productivity?

Apidog delivers all your demans, and replaces Postman at a much more affordable price!
button

Warum Open Codex CLI mit Gemini?

Die Kombination von Open Codex CLI mit Gemini 2.5 Pro bietet eine überzeugende Reihe von Vorteilen:

Voraussetzungen

Bevor Sie beginnen, stellen Sie Folgendes sicher:

  1. Betriebssystem: macOS 12 oder neuer, eine moderne Linux-Distribution (wie Ubuntu 20.04+, Debian 10+) oder Windows 10/11 mit dem Windows-Subsystem für Linux (WSL2). Direkte Windows-Unterstützung ist nicht verfügbar.
  2. Node.js: Version 22 oder neuer ist erforderlich. LTS-Versionen (Long-Term Support) werden im Allgemeinen empfohlen. Sie können Ihre Version überprüfen, indem Sie node -v in Ihrem Terminal ausführen. Laden Sie Node.js von nodejs.org herunter.
  3. Google Cloud Account & Gemini API Key: Sie benötigen einen API-Schlüssel, um Anfragen an die Gemini-Modelle zu authentifizieren. Sie können einen über das Google AI Studio oder die Google Cloud Console erhalten. Bewahren Sie diesen Schlüssel sicher auf, da er mit Ihrem Konto verknüpft ist.
  4. Terminal-Vertrautheit: Grundkenntnisse in der Verwendung der Befehlszeilenschnittstelle Ihres Systems (Terminal, iTerm, Bash, Zsh usw.) werden vorausgesetzt.

Schritt 1: Installieren der Open Codex CLI

Der empfohlene Weg zur Installation der Open Codex CLI ist global über npm (Node Package Manager), das mit Node.js gebündelt wird. Öffnen Sie Ihr Terminal und führen Sie Folgendes aus:

npm install -g open-codex

Alternativ können Sie, wenn Sie Yarn als Ihren Paketmanager verwenden, Folgendes ausführen:

yarn global add open-codex

Dieser Befehl lädt das Paket open-codex herunter und macht den Befehl open-codex von überall in Ihrem Terminal aus zugänglich. Vermeiden Sie die Verwendung von sudo für globale npm-Installationen; wenn Sie auf Berechtigungsprobleme stoßen, ist es besser, die npm-Berechtigungen zu beheben.

Sie können die Installation überprüfen, indem Sie open-codex --version oder open-codex --help ausführen.

Schritt 2: Konfigurieren des Gemini-Zugriffs

Um Gemini-Modelle zu verwenden, benötigt Open Codex CLI Ihren API-Schlüssel und muss wissen, dass Sie den gemini-Anbieter verwenden möchten. Es gibt zwei Hauptmöglichkeiten, dies zu konfigurieren:

Methode 1: Umgebungsvariable (empfohlen für Schnellstart/Testen)

Der einfachste Weg, Ihren API-Schlüssel bereitzustellen, ist über eine Umgebungsvariable. Die Open Codex CLI sucht speziell nach GOOGLE_GENERATIVE_AI_API_KEY, wenn der gemini-Anbieter ausgewählt ist.

Führen Sie im Terminal den folgenden Befehl aus und ersetzen Sie "YOUR_API_KEY_HERE" durch Ihren tatsächlichen Gemini-API-Schlüssel:

export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE"

Wichtig: Dieser Befehl setzt die Umgebungsvariable nur für die aktuelle Terminalsitzung. Wenn Sie das Terminal schließen oder ein neues öffnen, müssen Sie den Befehl erneut ausführen.

Um den API-Schlüssel dauerhaft verfügbar zu machen, müssen Sie die export-Zeile zu Ihrer Shell-Konfigurationsdatei hinzufügen. Häufige Dateien sind:

Fügen Sie die Zeile export GOOGLE_GENERATIVE_AI_API_KEY="YOUR_API_KEY_HERE" zu der entsprechenden Datei hinzu, speichern Sie sie und starten Sie dann entweder Ihr Terminal neu oder führen Sie source ~/.zshrc (oder den relevanten Dateipfad) aus, um die Änderungen zu übernehmen.

Sie können dann Gemini als Anbieter bei jeder Aufrufung mit dem Flag --provider angeben:

open-codex --provider gemini "What is the capital of France?"

Methode 2: Konfigurationsdatei (empfohlen für dauerhafte Einrichtung)

Für eine dauerhaftere Einrichtung, insbesondere wenn Sie planen, Gemini konsequent zu verwenden, können Sie die Open Codex CLI-Konfigurationsdatei verwenden. Die CLI sucht nach einer Konfigurationsdatei unter ~/.codex/config.json.

Erstellen Sie das Verzeichnis, falls es nicht existiert: mkdir -p ~/.codex

Erstellen und öffnen Sie die Konfigurationsdatei: nano ~/.codex/config.json (oder verwenden Sie Ihren bevorzugten Texteditor).

Fügen Sie den folgenden JSON-Inhalt hinzu, um Gemini als Standardanbieter anzugeben:

{
  "provider": "gemini"
}

Sie können optional auch ein Standard-Gemini-Modell festlegen. Die Open Codex CLI definiert gemini-2.5-pro-preview-03-25 als das Standard-"agentische" Modell und gemini-2.0-flash als das Standard-"Full Context"-Modell für Gemini. Um das leistungsstarke 2.5 Pro-Modell explizit als Standard für die meisten Interaktionen festzulegen, verwenden Sie:

{
  "provider": "gemini",
  "model": "gemini-2.5-pro-preview-03-25"
}

Speichern Sie die Datei und beenden Sie den Editor.

Entscheidend ist, dass Sie, selbst wenn Sie die Konfigurationsdatei verwenden, um den Anbieter und das Modell festzulegen, immer noch die Umgebungsvariable GOOGLE_GENERATIVE_AI_API_KEY festlegen müssen, wie in Methode 1 beschrieben. Die Konfigurationsdatei teilt der CLI, welchen Anbieter sie verwenden soll, während die Umgebungsvariable die Anmeldeinformationen für diesen Anbieter bereitstellt.

Wenn die Konfigurationsdatei eingerichtet ist, können Sie jetzt einfach open-codex ausführen, und es wird standardmäßig der angegebene Gemini-Anbieter verwendet:

open-codex "What is the capital of France?"

Schritt 3: Grundlegende Verwendung mit Gemini

Nachdem Open Codex CLI für Gemini installiert und konfiguriert wurde, wollen wir untersuchen, wie man damit interagiert.

Interaktiver Modus (REPL)

Für eine chatähnliche Erfahrung führen Sie die CLI ohne eine bestimmte Eingabeaufforderung aus:

open-codex
# Or if you haven't set the default provider in config.json:
# open-codex --provider gemini

Dadurch wird eine Read-Eval-Print-Schleife (REPL) gestartet, in der Sie Eingabeaufforderungen eingeben, Antworten erhalten und eine kontinuierliche Konversation mit Gemini führen können.

❯ open-codex --provider gemini
Welcome to Open Codex CLI! Type your request, then hit Enter twice to send.
> Tell me about the Gemini 2.5 Pro model.

Drücken Sie zweimal die Eingabetaste, um die Eingabeaufforderung zu senden. Gemini antwortet im Terminal. Sie können die Konversation fortsetzen, indem Sie Folgefragen eingeben.

Direkte Eingabeaufforderung

Für einmalige Anfragen können Sie die Eingabeaufforderung direkt als Argument übergeben. Wenn Sie keine Standardeinstellungen in config.json festgelegt haben, benötigen Sie das Provider-Flag. Sie können das genaue Modell auch mit dem Flag --model oder -m angeben:

open-codex "Explain the concept of closures in Python."
open-codex --provider gemini --model gemini-2.5-pro-preview-03-25 "Write a bash script to find all files larger than 10MB in the current directory and its subdirectories."
open-codex --provider gemini --model gemini-2.0-flash "Summarize the main points of the React documentation on hooks."

Die CLI verarbeitet die Anfrage mit Gemini und gibt die Antwort direkt auf die Standardausgabe aus.

Schritt 4: Nutzung der Open Codex-Funktionen mit Gemini

Die wahre Stärke der Open Codex CLI liegt in ihrer Fähigkeit, mit Ihrer lokalen Entwicklungsumgebung zu interagieren, geleitet von Gemini.

Dateisysteminteraktion

Gemini kann über die Open Codex CLI Dateien in Ihrem aktuellen Projekt lesen, um Kontext für Ihre Anfragen zu erhalten. Es kann auch Änderungen (Schreibvorgänge oder Patches) an Ihren Dateien vorschlagen.

# Assuming you have a file named 'calculate.js'
open-codex --provider gemini "Read 'calculate.js' and suggest improvements for readability."
open-codex --provider gemini "Add a new function called 'subtract' to 'calculate.js' that takes two arguments and returns their difference."

Die CLI gibt die vorgeschlagenen Änderungen aus und fordert auf: Apply patch? [y/N]. Drücken Sie y, um zu akzeptieren, oder n, um abzulehnen.

Befehlsausführung

Open Codex CLI kann auch Shell-Befehle ausführen, die von Gemini vorgeschlagen werden. Dies ist leistungsstark, erfordert aber Vorsicht.

open-codex --provider gemini "Install the 'requests' library using pip."

Gemini könnte den Befehl pip install requests vorschlagen. Die CLI zeigt den Befehl an und fragt: Run command? [y/N].

Projektkontext (codex.md)

Sie können Gemini dauerhafte Anweisungen oder Kontext zu Ihrem Projekt geben, indem Sie codex.md-Dateien erstellen. Die CLI liest diese Dateien in folgender Reihenfolge:

  1. ~/.codex/instructions.md (Globale, persönliche Anweisungen)
  2. codex.md in Ihrem Repository-Stammverzeichnis (Projektweite Notizen)
  3. codex.md im aktuellen Arbeitsverzeichnis (Unterverzeichnis-spezifische Notizen)

Dies ermöglicht es Ihnen, Geminis Verhalten zu steuern oder Informationen über Projektstandards, verwendete Bibliotheken usw. bereitzustellen, ohne es in jeder Eingabeaufforderung zu wiederholen.

Fehlerbehebung & Tipps

Fazit

Die Open Codex CLI, die von Google's Gemini 2.5 Pro angetrieben wird, verwandelt Ihr Terminal in einen intelligenten Coding-Assistenten. Indem Sie die in diesem Leitfaden beschriebenen Schritte befolgen, können Sie erweiterte KI-Funktionen nahtlos in Ihren täglichen Entwicklungsworkflow integrieren, direkt von der Befehlszeile aus.

Von schnellen Code-Snippets und Erklärungen bis hin zu komplexem Refactoring und Skriptausführung bietet diese Kombination ein erhebliches Potenzial zur Steigerung der Produktivität und zur Straffung von Aufgaben. Der Fokus des Tools auf Sicherheit durch Sandboxing und Benutzergenehmigungen, kombiniert mit der Flexibilität der Multi-Provider-Unterstützung und seiner Open-Source-Natur, macht Open Codex CLI zu einer überzeugenden Wahl für Entwickler, die KI in ihrem Terminal nutzen möchten.

Experimentieren Sie mit verschiedenen Eingabeaufforderungen, erkunden Sie die verschiedenen Genehmigungsmodi (vorsichtig!) und entdecken Sie, wie Gemini und Open Codex CLI Ihr Programmiererlebnis verbessern können.

💡
Want a great API Testing tool that generates beautiful API Documentation?

Want an integrated, All-in-One platform for your Developer Team to work together with maximum productivity?

Apidog delivers all your demans, and replaces Postman at a much more affordable price!
button

Explore more

Fathom-R1-14B: Fortschrittliches KI-Argumentationsmodell aus Indien

Fathom-R1-14B: Fortschrittliches KI-Argumentationsmodell aus Indien

Künstliche Intelligenz wächst rasant. FractalAIResearch/Fathom-R1-14B (14,8 Mrd. Parameter) glänzt in Mathe & Logik.

5 June 2025

Cursor 1.0 mit BugBot: KI-gestütztes Automatisierungstest-Tool ist da:

Cursor 1.0 mit BugBot: KI-gestütztes Automatisierungstest-Tool ist da:

Die Softwareentwicklung erlebt Innovationen durch KI. Cursor, ein KI-Editor, erreicht mit Version 1.0 einen Meilenstein.

5 June 2025

30+ öffentliche Web 3.0 APIs, die Sie jetzt nutzen können

30+ öffentliche Web 3.0 APIs, die Sie jetzt nutzen können

Der Aufstieg von Web 3.0: Dezentral, nutzerorientiert, transparent. APIs ermöglichen innovative dApps und Blockchain-Integration.

4 June 2025

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen