Haben Sie sich jemals gewünscht, Sie könnten die Leistungsfähigkeit von KI für wirklich fundierte Recherchen nutzen, sich aber durch Closed-Source-Lösungen und Bedenken hinsichtlich des Datenschutzes eingeschränkt gefühlt? Nun, machen Sie sich bereit, die Ärmel hochzukrempeln, denn in diesem Artikel erstellen wir unser eigenes Open-Source Deep Research Tool, das von der Gemini API betrieben wird!
Richtig, wir erstellen ein Recherche-Kraftwerk, das vollständig unter Ihrer Kontrolle steht. Sie können es sich als einen dedizierten KI-Rechercheassistenten vorstellen, der Ihnen jederzeit zur Verfügung steht und bereit ist, tief in jedes Thema einzutauchen, das Sie ihm zuwerfen. Und das Beste daran? Wir werden die Gemini API nutzen, um genaue und aufschlussreiche Analysen zu erhalten. Fangen wir an!
We’re thrilled to share that MCP support is coming soon to Apidog! 🚀
— Apidog (@ApidogHQ) March 19, 2025
Apidog MCP Server lets you feed API docs directly to Agentic AI, supercharging your vibe coding experience! Whether you're using Cursor, Cline, or Windsurf - it'll make your dev process faster and smoother.… pic.twitter.com/ew8U38mU0K

Was ist Open-Source Deep Research?
Bei Open-Source Deep Research geht es darum, die Kontrolle über Ihren Forschungsprozess zu übernehmen. Es geht darum, die Leistungsfähigkeit von KI zu nutzen und gleichzeitig Transparenz, Datenschutz und die Möglichkeit zu wahren, Ihre Tools an Ihre spezifischen Bedürfnisse anzupassen. Durch den Aufbau unseres eigenen Recherche-Tools vermeiden wir die Einschränkungen und potenziellen Vorurteile von Closed-Source-Lösungen und stellen sicher, dass unsere Daten sicher bleiben. Der MCP kann diesen Prozess erleichtern und die ordnungsgemäße Integration mit verschiedenen APIs und Funktionalitäten für eine verbesserte Leistung gewährleisten.
Warum die Gemini API für Deep Research verwenden?
Die Gemini API bietet einen hochmodernen Ansatz für künstliche Intelligenz und ermöglicht intuitivere und effektivere Mensch-Maschine-Interaktionen. Sie zeichnet sich dadurch aus, dass sie nicht nur textbasierte Erkenntnisse liefert, sondern auch multimodale Eingaben unterstützt, was ein umfassenderes Verständnis von Forschungsmaterialien durch Bilder, Videos und Audio ermöglicht. Dies macht sie besonders wertvoll für umfassende Forschungsprojekte, die die Analyse verschiedener Datentypen erfordern. Darüber hinaus fördern das flexible Design und die starke Entwicklerunterstützung der API Innovation und Anpassung, sodass Forscher das Tool an ihre spezifischen Bedürfnisse und Kontexte anpassen und letztendlich ein tieferes und differenzierteres Verständnis komplexer Themen fördern können.
Hauptmerkmale unseres Open-Source Deep Research Tools
Bevor wir uns in den Build-Prozess stürzen, werfen wir einen Blick auf einige der Funktionen, die wir zum Leben erwecken werden:
- Rapid Deep Research für schnelle Erkenntnisse.
- Multi-Plattform-Unterstützung für nahtlosen Zugriff.
- Powered by Google Gemini für erweiterte KI-Funktionen.
- Thinking & Networking Models für intelligente Analysen.
- Canvas-Unterstützung für visuelle Organisation.
- Research History zur Verfolgung des Fortschritts.
- Local & Server API Support für Flexibilität.
- Privacy-Focused Design für sichere Forschung.
- Multi-Key Payload Support für erweiterte Funktionalität.
- Multi-language Support: English, 简体中文.
- Built with Modern Technologies für Effizienz und Leistung.
Erste Schritte mit dem Open-Source Deep Research Tool
Bereit, Ihren eigenen KI-gestützten Forschungsassistenten zu erstellen? Hier ist, was Sie für den Einstieg benötigen:
1. Get Gemini API Key: Zunächst einmal benötigen Sie einen Gemini API-Schlüssel, um auf die Leistungsfähigkeit der KI-Modelle von Google zuzugreifen. Gehen Sie zu Google AI Studio und melden Sie sich für einen API-Schlüssel an. Bewahren Sie diesen Schlüssel sicher auf – er ist Ihr Pass in die Welt von Gemini!

2. One-click Deployment (Optional): Für den schnellstmöglichen Start können Sie die One-Click-Deployment-Optionen verwenden:
- Deploy with Vercel (Anweisungen für Vercel sind in der Regel unkompliziert und erfordern die Verknüpfung Ihres GitHub-Repositorys und Ihres Vercel-Kontos).

- Deploy with Cloudflare (Derzeit unterstützt das Projekt die Bereitstellung auf Cloudflare, aber Sie müssen How to deploy to Cloudflare Pages befolgen, um dies zu tun).

Mit diesen Optionen ist Ihr Recherche-Tool in wenigen Minuten einsatzbereit, aber für das volle Anpassungserlebnis konzentrieren wir uns auf die lokale Entwicklung.
Entwickeln Sie das Open-Source Deep Research Tool
Lassen Sie uns in das Herz des Build-Prozesses eintauchen! Befolgen Sie diese Schritte, um Deep Research in Ihrem lokalen Browser zum Laufen zu bringen.
Voraussetzungen
Bevor wir beginnen, stellen Sie sicher, dass Sie Folgendes auf Ihrem System installiert haben:
- Node.js: (Version 18.18.0 oder höher empfohlen). Sie können es von der offiziellen Node.js-Website herunterladen.

- pnpm or npm or yarn: Dies sind Paketmanager für Node.js. Wir verwenden in diesem Tutorial pnpm, aber Sie können auch den von Ihnen bevorzugten verwenden.
Installation
1. Klonen Sie das Repository:
git clone https://github.com/u14app/deep-research.git
cd deep-research
Dadurch wird der Code von GitHub heruntergeladen und Sie werden in das Projektverzeichnis verschoben.
2. Installieren Sie Abhängigkeiten:
pnpm install # or npm install or yarn install
Dieser Befehl installiert alle notwendigen Pakete für das Projekt.
3. Richten Sie Umgebungsvariablen ein:
Dies ist ein entscheidender Schritt! Sie müssen eine .env-Datei im Stammverzeichnis Ihres Projekts erstellen und die folgenden Umgebungsvariablen konfigurieren:
# (Optional) Server-side Gemini API Key (Required for server API calls)
GOOGLE_GENERATIVE_AI_API_KEY=YOUR_GEMINI_API_KEY
# (Optional) Server API Proxy URL. Default, `https://generativelanguage.googleapis.com`
API_PROXY_BASE_URL=
# (Optional) Server API Access Password for enhanced security
ACCESS_PASSWORD=
# (Optional) Injected script code can be used for statistics or error tracking.
HEAD_SCRIPTS=
Ersetzen Sie YOUR_GEMINI_API_KEY durch den tatsächlichen API-Schlüssel, den Sie von Google AI Studio erhalten haben.
Wichtige Hinweise zu Umgebungsvariablen:
- GOOGLE_GENERATIVE_AI_API_KEY: Optional, aber erforderlich für die Verwendung der serverseitigen API. Sie müssen einen Google Generative AI API-Schlüssel von Google AI Studio erhalten. Dieser Schlüssel sollte geheim gehalten und niemals in Ihr öffentliches Repository übernommen werden.
- API_PROXY_BASE_URL: Optional. Wenn Sie einen Proxyserver für API-Anfragen verwenden müssen, konfigurieren Sie diese Variable mit der Basis-URL Ihres Proxyservers. Dies ist für serverseitige API-Aufrufe relevant.
- ACCESS_PASSWORD: Optional, aber sehr empfehlenswert für serverseitige Bereitstellungen. Legen Sie ein sicheres Passwort fest, um Ihre serverseitigen API-Endpunkte zu schützen. Dieses Passwort ist für den Zugriff auf serverseitige API-Funktionen erforderlich.
- HEAD_SCRIPTS: Optional Injected script code can be used for statistics or error tracking.
Datenschutz-Erinnerung: Diese Umgebungsvariablen werden hauptsächlich für serverseitige API-Aufrufe verwendet. Bei Verwendung des lokalen API-Modus sind keine API-Schlüssel oder serverseitigen Konfigurationen erforderlich, was Ihren Datenschutz weiter verbessert.
Multi-key Support: Supports multiple keys, each key is separated by ,, i.e. key1,key2,key3. Cloudflare cannot use multi-key for the time being because the official build script does not support Next.js 15.
4. Führen Sie den Entwicklungsserver aus:
pnpm dev # or npm run dev or yarn dev
Dadurch wird der Entwicklungsserver gestartet, und Sie können in Ihrem Browser unter http://localhost:3000 auf Deep Research zugreifen.
- Beginnen Sie, alle Fragen zu stellen, die Sie recherchieren müssen.

- Und die Ergebnisse anzeigen!

Stellen Sie das Open-Source Deep Research Tool bereit
Sobald Sie mit Ihrem lokalen Setup zufrieden sind, können Sie Ihr Recherche-Tool in der Cloud bereitstellen! Hier sind ein paar beliebte Optionen:
1. Vercel: Deploy with Vercel (This is usually the easiest option).
2. Cloudflare: Derzeit unterstützt das Projekt die Bereitstellung auf Cloudflare, aber Sie müssen How to deploy to Cloudflare Pages befolgen, um dies zu tun.
3. Docker:
- Docker version needs to be 20 or above.
- Pull the pre-built image:
docker pull xiangfa/deep-research:latest
- Run the container:
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research
You can also specify environment variables:
docker run -d --name deep-research \
-p 3333:3000 \
-e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \
-e ACCESS_PASSWORD=your-password \
xiangfa/deep-research
- Or build your own docker image:
docker build -t deep-research .
docker run -d --name deep-research -p 3333:3000 deep-research
- Deploy using docker-compose.yml:
version: '3.9'
services:
deep-research:
image: xiangfa/deep-research
container_name: deep-research
environment:
- GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...
- ACCESS_PASSWORD=your-password
ports:
- 3333:3000
Then build your own docker compose:
docker compose -f docker-compose.yml build
4. Static Deployment:
- You can also build a static page version directly and then upload all files in the out directory to any website service that supports static pages, such as Github Page, Cloudflare, Vercel, etc.
pnpm build:export
Open-Source Deep Research Tool Konfiguration
Wie im Abschnitt "Erste Schritte mit dem Open-Source Deep Research Tool" erwähnt, verwendet Deep Research die folgenden Umgebungsvariablen für serverseitige API-Konfigurationen:
- GOOGLE_GENERATIVE_AI_API_KEY
- API_PROXY_BASE_URL
- ACCESS_PASSWORD
Diese Variablen sind nur erforderlich, wenn Sie die serverseitige API-Aufruffunktionalität verwenden möchten. Für lokale API-Aufrufe ist keine Konfiguration erforderlich, außer der Einrichtung des Projekts.
Denken Sie daran, Ihre API-Schlüssel und Passwörter immer sicher aufzubewahren!
Fazit: Ermächtigung Ihrer Forschung mit KI
Sie haben jetzt erfolgreich Ihr eigenes Open Source Deep Research-Tool erstellt, das von der Gemini API betrieben wird! Dies ist ein großer Schritt in Richtung der Erschließung des vollen Potenzials von KI in Ihrem Forschungsprozess.
Durch den Aufbau Ihres eigenen Tools erhalten Sie die vollständige Kontrolle über Ihre Daten, passen Ihre Workflows an und tragen zur Open-Source-Community bei. Experimentieren Sie mit verschiedenen Forschungsmodellen, erkunden Sie die Möglichkeiten der Gemini API und erstellen Sie benutzerdefinierte Tools, um Ihr Forschungserlebnis wirklich zu personalisieren.
Die Zukunft der Forschung ist intelligent und offen. Nutzen Sie Open-Source Deep Research und stärken Sie sich mit dem Wissen, das Sie benötigen!
