So bauen Sie ein Open-Source-Deep-Research-Tool mit der Gemini-API

Entdecke KI für Forschung! Anleitung zum Bau eines Open-Source-Tools mit Gemini API. Daten schützen, Erkenntnisse gewinnen.

Leo Schulz

Leo Schulz

5 June 2025

So bauen Sie ein Open-Source-Deep-Research-Tool mit der Gemini-API

Haben Sie sich jemals gewünscht, Sie könnten die Leistungsfähigkeit von KI für wirklich fundierte Recherchen nutzen, sich aber durch Closed-Source-Lösungen und Bedenken hinsichtlich des Datenschutzes eingeschränkt gefühlt? Nun, machen Sie sich bereit, die Ärmel hochzukrempeln, denn in diesem Artikel erstellen wir unser eigenes Open-Source Deep Research Tool, das von der Gemini API betrieben wird!

Richtig, wir erstellen ein Recherche-Kraftwerk, das vollständig unter Ihrer Kontrolle steht. Sie können es sich als einen dedizierten KI-Rechercheassistenten vorstellen, der Ihnen jederzeit zur Verfügung steht und bereit ist, tief in jedes Thema einzutauchen, das Sie ihm zuwerfen. Und das Beste daran? Wir werden die Gemini API nutzen, um genaue und aufschlussreiche Analysen zu erhalten. Fangen wir an!


💡
Bevor wir beginnen, hier ein kurzer Tipp: Die Integration des Apidog MCP Servers in Ihre KI-gestützte IDE verbessert Ihr Programmiererlebnis, indem sie direkten Zugriff auf API-Spezifikationen von Apidog-Projekten bietet. Dies ermöglicht Ihrem KI-Assistenten, Code zu generieren und zu modifizieren, API-Dokumentation zu durchsuchen, Datenmodelle und DTOs zu erstellen und relevante Kommentare hinzuzufügen – alles im Einklang mit Ihrem API-Design.
button
apidog mcp

Was ist Open-Source Deep Research?

Bei Open-Source Deep Research geht es darum, die Kontrolle über Ihren Forschungsprozess zu übernehmen. Es geht darum, die Leistungsfähigkeit von KI zu nutzen und gleichzeitig Transparenz, Datenschutz und die Möglichkeit zu wahren, Ihre Tools an Ihre spezifischen Bedürfnisse anzupassen. Durch den Aufbau unseres eigenen Recherche-Tools vermeiden wir die Einschränkungen und potenziellen Vorurteile von Closed-Source-Lösungen und stellen sicher, dass unsere Daten sicher bleiben. Der MCP kann diesen Prozess erleichtern und die ordnungsgemäße Integration mit verschiedenen APIs und Funktionalitäten für eine verbesserte Leistung gewährleisten.

Warum die Gemini API für Deep Research verwenden?

Die Gemini API bietet einen hochmodernen Ansatz für künstliche Intelligenz und ermöglicht intuitivere und effektivere Mensch-Maschine-Interaktionen. Sie zeichnet sich dadurch aus, dass sie nicht nur textbasierte Erkenntnisse liefert, sondern auch multimodale Eingaben unterstützt, was ein umfassenderes Verständnis von Forschungsmaterialien durch Bilder, Videos und Audio ermöglicht. Dies macht sie besonders wertvoll für umfassende Forschungsprojekte, die die Analyse verschiedener Datentypen erfordern. Darüber hinaus fördern das flexible Design und die starke Entwicklerunterstützung der API Innovation und Anpassung, sodass Forscher das Tool an ihre spezifischen Bedürfnisse und Kontexte anpassen und letztendlich ein tieferes und differenzierteres Verständnis komplexer Themen fördern können.

Hauptmerkmale unseres Open-Source Deep Research Tools

Bevor wir uns in den Build-Prozess stürzen, werfen wir einen Blick auf einige der Funktionen, die wir zum Leben erwecken werden:

Erste Schritte mit dem Open-Source Deep Research Tool

Bereit, Ihren eigenen KI-gestützten Forschungsassistenten zu erstellen? Hier ist, was Sie für den Einstieg benötigen:

1. Get Gemini API Key: Zunächst einmal benötigen Sie einen Gemini API-Schlüssel, um auf die Leistungsfähigkeit der KI-Modelle von Google zuzugreifen. Gehen Sie zu Google AI Studio und melden Sie sich für einen API-Schlüssel an. Bewahren Sie diesen Schlüssel sicher auf – er ist Ihr Pass in die Welt von Gemini!

google deep mind website

2. One-click Deployment (Optional): Für den schnellstmöglichen Start können Sie die One-Click-Deployment-Optionen verwenden:

varcel website
cloaudflare website

Mit diesen Optionen ist Ihr Recherche-Tool in wenigen Minuten einsatzbereit, aber für das volle Anpassungserlebnis konzentrieren wir uns auf die lokale Entwicklung.

Entwickeln Sie das Open-Source Deep Research Tool

Lassen Sie uns in das Herz des Build-Prozesses eintauchen! Befolgen Sie diese Schritte, um Deep Research in Ihrem lokalen Browser zum Laufen zu bringen.

Voraussetzungen

Bevor wir beginnen, stellen Sie sicher, dass Sie Folgendes auf Ihrem System installiert haben:

node js website

Installation

1. Klonen Sie das Repository:

git clone https://github.com/u14app/deep-research.git
cd deep-research

Dadurch wird der Code von GitHub heruntergeladen und Sie werden in das Projektverzeichnis verschoben.

2. Installieren Sie Abhängigkeiten:

pnpm install  # or npm install or yarn install

Dieser Befehl installiert alle notwendigen Pakete für das Projekt.

3. Richten Sie Umgebungsvariablen ein:

Dies ist ein entscheidender Schritt! Sie müssen eine .env-Datei im Stammverzeichnis Ihres Projekts erstellen und die folgenden Umgebungsvariablen konfigurieren:

# (Optional) Server-side Gemini API Key (Required for server API calls)
GOOGLE_GENERATIVE_AI_API_KEY=YOUR_GEMINI_API_KEY

# (Optional) Server API Proxy URL. Default, `https://generativelanguage.googleapis.com`
API_PROXY_BASE_URL=

# (Optional) Server API Access Password for enhanced security
ACCESS_PASSWORD=

# (Optional) Injected script code can be used for statistics or error tracking.
HEAD_SCRIPTS=

Ersetzen Sie YOUR_GEMINI_API_KEY durch den tatsächlichen API-Schlüssel, den Sie von Google AI Studio erhalten haben.

Wichtige Hinweise zu Umgebungsvariablen:

Datenschutz-Erinnerung: Diese Umgebungsvariablen werden hauptsächlich für serverseitige API-Aufrufe verwendet. Bei Verwendung des lokalen API-Modus sind keine API-Schlüssel oder serverseitigen Konfigurationen erforderlich, was Ihren Datenschutz weiter verbessert.
Multi-key Support: Supports multiple keys, each key is separated by ,, i.e. key1,key2,key3. Cloudflare cannot use multi-key for the time being because the official build script does not support Next.js 15.

4. Führen Sie den Entwicklungsserver aus:

pnpm dev  # or npm run dev or yarn dev

Dadurch wird der Entwicklungsserver gestartet, und Sie können in Ihrem Browser unter http://localhost:3000 auf Deep Research zugreifen.

ask deep research tool a question
deep research tool results

Stellen Sie das Open-Source Deep Research Tool bereit

Sobald Sie mit Ihrem lokalen Setup zufrieden sind, können Sie Ihr Recherche-Tool in der Cloud bereitstellen! Hier sind ein paar beliebte Optionen:

1. Vercel: Deploy with Vercel (This is usually the easiest option).

2. Cloudflare: Derzeit unterstützt das Projekt die Bereitstellung auf Cloudflare, aber Sie müssen How to deploy to Cloudflare Pages befolgen, um dies zu tun.

3. Docker:

docker pull xiangfa/deep-research:latest
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research

You can also specify environment variables:

docker run -d --name deep-research \
   -p 3333:3000 \
   -e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \
   -e ACCESS_PASSWORD=your-password \
   xiangfa/deep-research
docker build -t deep-research .
docker run -d --name deep-research -p 3333:3000 deep-research
version: '3.9'
services:
   deep-research:
      image: xiangfa/deep-research
      container_name: deep-research
      environment:
         - GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...
         - ACCESS_PASSWORD=your-password
      ports:
         - 3333:3000

Then build your own docker compose:

docker compose -f docker-compose.yml build

4. Static Deployment:

pnpm build:export

Open-Source Deep Research Tool Konfiguration

Wie im Abschnitt "Erste Schritte mit dem Open-Source Deep Research Tool" erwähnt, verwendet Deep Research die folgenden Umgebungsvariablen für serverseitige API-Konfigurationen:

Diese Variablen sind nur erforderlich, wenn Sie die serverseitige API-Aufruffunktionalität verwenden möchten. Für lokale API-Aufrufe ist keine Konfiguration erforderlich, außer der Einrichtung des Projekts.

Denken Sie daran, Ihre API-Schlüssel und Passwörter immer sicher aufzubewahren!

Fazit: Ermächtigung Ihrer Forschung mit KI

Sie haben jetzt erfolgreich Ihr eigenes Open Source Deep Research-Tool erstellt, das von der Gemini API betrieben wird! Dies ist ein großer Schritt in Richtung der Erschließung des vollen Potenzials von KI in Ihrem Forschungsprozess.

Durch den Aufbau Ihres eigenen Tools erhalten Sie die vollständige Kontrolle über Ihre Daten, passen Ihre Workflows an und tragen zur Open-Source-Community bei. Experimentieren Sie mit verschiedenen Forschungsmodellen, erkunden Sie die Möglichkeiten der Gemini API und erstellen Sie benutzerdefinierte Tools, um Ihr Forschungserlebnis wirklich zu personalisieren.

Die Zukunft der Forschung ist intelligent und offen. Nutzen Sie Open-Source Deep Research und stärken Sie sich mit dem Wissen, das Sie benötigen!

button
Apidog Ui image

Explore more

Fathom-R1-14B: Fortschrittliches KI-Argumentationsmodell aus Indien

Fathom-R1-14B: Fortschrittliches KI-Argumentationsmodell aus Indien

Künstliche Intelligenz wächst rasant. FractalAIResearch/Fathom-R1-14B (14,8 Mrd. Parameter) glänzt in Mathe & Logik.

5 June 2025

Cursor 1.0 mit BugBot: KI-gestütztes Automatisierungstest-Tool ist da:

Cursor 1.0 mit BugBot: KI-gestütztes Automatisierungstest-Tool ist da:

Die Softwareentwicklung erlebt Innovationen durch KI. Cursor, ein KI-Editor, erreicht mit Version 1.0 einen Meilenstein.

5 June 2025

30+ öffentliche Web 3.0 APIs, die Sie jetzt nutzen können

30+ öffentliche Web 3.0 APIs, die Sie jetzt nutzen können

Der Aufstieg von Web 3.0: Dezentral, nutzerorientiert, transparent. APIs ermöglichen innovative dApps und Blockchain-Integration.

4 June 2025

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen