So verwenden Sie Deepseek R1 lokal mit Cursor

Erfahre, wie du DeepSeek R1 lokal mit Cursor IDE einrichtest & konfigurierst – privates, kostengünstiges KI-Coding.

Leo Schulz

Leo Schulz

5 June 2025

So verwenden Sie Deepseek R1 lokal mit Cursor

Moderne Entwickler suchen ständig nach leistungsstarken KI-Coding-Assistenten, die Datenschutz, Leistung und Kosteneffizienz bieten. DeepSeek R1 erweist sich als bahnbrechende Lösung, die fortschrittliche Denkfähigkeiten bietet und gleichzeitig vollständig auf Ihrem lokalen Rechner läuft. Diese umfassende Anleitung zeigt, wie Sie lokales DeepSeek mit Cursor IDE integrieren und so eine robuste Entwicklungsumgebung schaffen, die Ihren Code privat hält und gleichzeitig außergewöhnliche KI-Unterstützung bietet.

💡
Bevor Sie sich mit der technischen Einrichtung befassen, werden Entwickler, die mit APIs arbeiten, Apidog als unschätzbar wertvoll für das Testen und Verwalten ihrer lokalen DeepSeek-Integrationen empfinden. Laden Sie Apidog kostenlos herunter, um Ihren API-Entwicklungsworkflow zu optimieren und eine nahtlose Kommunikation zwischen Ihrer lokalen DeepSeek-Instanz und Cursor IDE sicherzustellen.
button

Warum DeepSeek R1?

DeepSeek R1 stellt einen Durchbruch bei Open-Source-Reasoning-Modellen dar und verwendet eine ausgeklügelte Mixture of Experts (MoE)-Architektur. Dieses Modell enthält 671 Milliarden Parameter, aktiviert aber nur 37 Milliarden während jedes Forward-Passes, wodurch ein optimales Gleichgewicht zwischen Recheneffizienz und Leistungsfähigkeit geschaffen wird.

Die Reinforcement-Learning-Methodik hinter DeepSeek R1 ermöglicht fortschrittliches Reasoning, das mit proprietären Modellen wie OpenAI's GPT-4 konkurriert. Darüber hinaus profitieren Entwickler von vollständiger Datenprivatsphäre, da das Modell lokal ausgeführt wird, ohne Code an externe Server zu senden.

Ja, Sie sollten Deepseek R1 lokal ausführen

Bevor Sie die technischen Schritte durchführen, sollten Sie überlegen, warum dieser Ansatz wichtig ist. Die lokale Ausführung von DeepSeek in Cursor bietet deutliche Vorteile:

Mit diesen Vorteilen im Hinterkopf, lassen Sie uns Deepseek R1 tatsächlich lokal ausführen, mit diesen Schritten:

Schritt 1: Richten Sie DeepSeek lokal mit Ollama ein

Zuerst benötigen Sie ein Tool, um DeepSeek auf Ihrem Rechner auszuführen. Ollama vereinfacht dies, indem es eine einfache Möglichkeit bietet, große Sprachmodelle lokal bereitzustellen. Befolgen Sie diese Schritte, um zu beginnen:

Laden Sie Ollama herunter und installieren Sie es
Besuchen Sie die Ollama-Website und holen Sie sich das Installationsprogramm für Ihr Betriebssystem – Windows, macOS oder Linux. Führen Sie das Installationsprogramm aus und befolgen Sie die Anweisungen, um die Einrichtung abzuschließen.

Ziehen Sie das DeepSeek-Modell
Öffnen Sie Ihr Terminal und führen Sie diesen Befehl aus, um das DeepSeek-R1-Modell herunterzuladen:

ollama pull deepseek-r1

Dieses leichte, aber leistungsfähige Modell eignet sich für die meisten Entwicklungsaufgaben. Wenn Sie eine andere Version benötigen, passen Sie den Befehl entsprechend an.

Überprüfen Sie das Modell
Bestätigen Sie, dass das Modell erfolgreich heruntergeladen wurde, indem Sie alle verfügbaren Modelle auflisten:

ollama list

Suchen Sie nach deepseek-r1 in der Ausgabe. Wenn es fehlt, wiederholen Sie den Pull-Befehl.

Starten Sie den Ollama-Server
Starten Sie den Server, um DeepSeek lokal zugänglich zu machen:

ollama serve

Dies führt den Server unter http://localhost:11434 aus. Halten Sie dieses Terminal während der Verwendung geöffnet.

Jetzt läuft DeepSeek lokal. Das Backend von Cursor kann jedoch nicht direkt auf localhost zugreifen. Als Nächstes werden Sie diesen Server mit einem Cloud-Tunnel im Internet verfügbar machen.

Schritt 2: Stellen Sie Ihren lokalen Server mit einem Cloud-Tunnel frei

Um die Lücke zwischen Ihrer lokalen DeepSeek-Instanz und Cursor zu schließen, erstellen Sie einen sicheren Tunnel. Cloudflare bietet mit seinem Tool cloudflared eine schnelle, zuverlässige Lösung. So richten Sie es ein:

Installieren Sie Cloudflare CLI
Installieren Sie cloudflared mit einem Paketmanager wie Homebrew (macOS):

brew install cloudflared

Für Windows oder Linux laden Sie es von der Cloudflare-Website herunter.

Überprüfen Sie die Installation
Überprüfen Sie, ob es funktioniert, indem Sie Folgendes ausführen:

cloudflared --version

Sie sollten die Versionsnummer sehen.

Erstellen Sie einen temporären Tunnel
Führen Sie diesen Befehl aus, um Ihren lokalen Ollama-Server freizugeben:

cloudflared tunnel --url http://localhost:11434 --http-host-header="localhost:11434"

Das Flag --http-host-header stellt sicher, dass Ollama eingehende Anfragen akzeptiert. Ohne dies erhalten Sie einen 403-Fehler.

Erfassen Sie die Tunnel-URL
Das Terminal zeigt eine URL an, z. B. https://xxxxxxxxxx.trycloudflare.com. Kopieren Sie diese – sie ist Ihr öffentlicher Endpunkt.

Testen Sie den Tunnel
Senden Sie eine Testanfrage mit curl, um die Konnektivität zu bestätigen:

curl https://xxxxxxxxxx.trycloudflare.com/v1/chat/completions -H "Content-Type: application/json" -d '{
  "messages": [
    { "role": "system", "content": "You are a test assistant." },
    { "role": "user", "content": "Say hello." }
  ],
  "model": "deepseek-r1"
}'

Erwarten Sie eine JSON-Antwort mit „hello“ von DeepSeek. Wenn dies fehlschlägt, überprüfen Sie die URL und den Serverstatus noch einmal.

Mit dem aktiven Tunnel ist Ihre lokale DeepSeek-Instanz jetzt über das Internet erreichbar. Konfigurieren wir Cursor so, dass er sie verwendet.

Schritt 3: Integrieren Sie DeepSeek mit Cursor

Verbinden Sie jetzt Cursor über den Tunnel mit Ihrem lokalen DeepSeek-Modell. Die Einstellungen von Cursor ermöglichen benutzerdefinierte API-Endpunkte, wodurch diese Integration unkompliziert wird. Gehen Sie wie folgt vor:

Greifen Sie auf die Cursor-Einstellungen zu
Öffnen Sie Cursor und gehen Sie zu File > Preferences > Settings oder drücken Sie Ctrl + , (Windows) oder Cmd + , (macOS).

Finden Sie die KI-Konfiguration
Navigieren Sie zum Abschnitt KI oder Modelle. Suchen Sie nach Optionen zum Verwalten von KI-Modellen oder API-Einstellungen.

Fügen Sie ein neues Modell hinzu
Klicken Sie auf „Modell hinzufügen“ oder eine ähnliche Schaltfläche, um eine benutzerdefinierte Konfiguration zu erstellen.

Geben Sie die Tunnel-URL ein
Legen Sie die Basis-URL auf Ihre Cloudflare-Tunneladresse fest (z. B. https://xxxxxxxxxx.trycloudflare.com).

Geben Sie das Modell an
Geben Sie deepseek-r1 als Modellnamen ein, der mit Ihrer Ollama-Einrichtung übereinstimmt.

Änderungen speichern
Übernehmen und speichern Sie die Konfiguration.

Testen Sie die Einrichtung
Öffnen Sie die Chat-Oberfläche von Cursor (Ctrl + L oder Cmd + L), wählen Sie Ihr neues Modell aus und geben Sie eine Testaufforderung wie „Schreiben Sie eine Python-Funktion“ ein. Wenn DeepSeek antwortet, funktioniert die Integration.

Sie haben jetzt DeepSeek und Cursor erfolgreich verknüpft. Als Nächstes erfahren Sie, wie Sie diese Einrichtung beheben und verbessern können.

Schritt 4: Beheben und optimieren Sie Ihre Einrichtung

Selbst bei sorgfältiger Einrichtung können Probleme auftreten. Darüber hinaus können Sie die Erfahrung optimieren. So gehen Sie mit häufigen Problemen um und fügen erweiterte Optimierungen hinzu:

Tipps zur Fehlerbehebung

403 Zugriff verweigert
Wenn der Tunnel einen 403-Fehler zurückgibt, stellen Sie sicher, dass Sie --http-host-header="localhost:11434" im Befehl cloudflared verwendet haben. Starten Sie den Tunnel bei Bedarf neu.

Modell nicht erkannt
Wenn Cursor deepseek-r1 nicht finden kann, überprüfen Sie, ob der Modellname mit Ihrer Ollama-Installation übereinstimmt. Bestätigen Sie außerdem, dass der Ollama-Server ausgeführt wird (ollama serve).

Langsame Antworten
Verzögerte Antworten können von begrenzter Hardware herrühren. Überprüfen Sie die CPU-/Speicherauslastung oder aktualisieren Sie bei Bedarf auf eine leichtere DeepSeek-Variante.

Erweiterte Verbesserungen

DeepSeek optimieren
Ollama unterstützt die Modellanpassung. Verwenden Sie die Dokumentation, um DeepSeek mit Ihren Codebasen zu trainieren, um bessere kontextbezogene Antworten zu erhalten.

Nutzen Sie Apidog
Kombinieren Sie Ihre Einrichtung mit Apidog, um APIs zu testen, die DeepSeek möglicherweise generiert. Apidog vereinfacht das Debuggen und die Validierung und verbessert Ihren Workflow. Laden Sie Apidog kostenlos herunter, um es auszuprobieren.

button

Persistente Tunnel
Richten Sie für die langfristige Nutzung einen benannten Cloudflare-Tunnel anstelle eines temporären Tunnels ein. Dadurch werden die URLs nicht neu generiert.

Diese Schritte gewährleisten eine robuste, effiziente Einrichtung. Lassen Sie uns mit einigen abschließenden Gedanken zusammenfassen.

Fazit

Die Integration von lokalem DeepSeek mit Cursor IDE schafft eine leistungsstarke, private und kostengünstige Coding-Umgebung. Diese Einrichtung kombiniert die fortschrittlichen Denkfähigkeiten von DeepSeek R1 mit der intuitiven Benutzeroberfläche von Cursor und bietet KI-Unterstützung in professioneller Qualität, ohne die Datenprivatsphäre zu beeinträchtigen.

Die technische Implementierung erfordert sorgfältige Beachtung der Systemanforderungen, die richtige Konfiguration und die laufende Optimierung. Die Vorteile der lokalen KI-Bereitstellung – einschließlich vollständiger Datenschutzkontrolle, null laufender Kosten und Offline-Funktionalität – machen diese Investition jedoch für ernsthafte Entwickler lohnenswert.

Der Erfolg mit lokalem DeepSeek hängt vom Verständnis Ihrer Hardwarebeschränkungen, der Optimierung der Konfigurationseinstellungen und der Entwicklung effektiver Prompt-Engineering-Techniken ab. Regelmäßige Überwachung und Anpassung gewährleisten eine konsistente Leistung, wenn sich Ihre Entwicklungsanforderungen weiterentwickeln.

💡
Benötigen Sie ein großartiges API-Testtool, das wunderschöne API-Dokumentation generiert?

Benötigen Sie eine integrierte All-in-One-Plattform für Ihr Entwicklerteam, um mit maximaler Produktivität zusammenzuarbeiten?

Apidog liefert alle Ihre Anforderungen und ersetzt Postman zu einem viel günstigeren Preis!
button

Explore more

Wie man Gemma 3n auf Android ausführt?

Wie man Gemma 3n auf Android ausführt?

Erfahre, wie du Gemma 3n auf Android installierst und ausführst, mit Google AI Edge Gallery.

3 June 2025

So verwenden Sie den Google Search Console MCP-Server

So verwenden Sie den Google Search Console MCP-Server

Google Search Console & Apidog: SEO-Analyse & KI-API-Entwicklung. Installation, Konfiguration & Nutzung für Web-Performance & API-Einblicke.

30 May 2025

So verwenden Sie Claude Code mit GitHub Actions

So verwenden Sie Claude Code mit GitHub Actions

Entdecke, wie du Claude Code mit GitHub Actions integrierst: Code-Reviews automatisieren, Bugs beheben, Features implementieren. Tutorial für Entwickler.

29 May 2025

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen