CursorでDeepseek R1をローカルで使用する方法

Ashley Innocent

Ashley Innocent

4 6月 2025

CursorでDeepseek R1をローカルで使用する方法

現代の開発者は、プライバシー、パフォーマンス、費用対効果を提供する強力なAIコーディングアシスタントを常に求めています。DeepSeek R1は、ローカルマシン上で完全に実行されながら高度な推論機能を提供する、画期的なソリューションとして登場しました。この包括的なガイドでは、ローカルのDeepSeekをCursor IDEと統合し、コードのプライバシーを保ちながら優れたAI支援を提供する堅牢な開発環境を構築する方法を解説します。

💡
技術的なセットアップに入る前に、APIを扱う開発者は、ローカルのDeepSeek統合をテストおよび管理する上でApidogが非常に役立つことに気づくでしょう。API開発ワークフローを効率化し、ローカルのDeepSeekインスタンスとCursor IDE間のシームレスな通信を確保するために、Apidogを無料でダウンロードしてください。
button

なぜDeepSeek R1なのか?

DeepSeek R1は、洗練されたMixture of Experts (MoE) アーキテクチャを利用した、オープンソースの推論モデルにおける画期的な進歩です。このモデルは6,710億のパラメータを含んでいますが、各フォワードパスでは370億のみをアクティブにするため、計算効率とパフォーマンス能力の最適なバランスが実現されています。

DeepSeek R1の背後にある強化学習手法は、OpenAIのGPT-4のようなプロプライエタリモデルに匹敵する高度な推論を可能にします。さらに、モデルはコードを外部サーバーに送信せずにローカルで実行されるため、開発者は完全なデータプライバシーの恩恵を受けられます。

はい、DeepSeek R1はローカルで実行すべきです

技術的なステップに進む前に、なぜこのアプローチが重要なのかを考えてみましょう。Cursor内でDeepSeekをローカルで実行することには、明確な利点があります。

これらの利点を念頭に置いて、実際にDeepSeek R1をローカルで実行してみましょう。手順は以下の通りです。

ステップ1:Ollamaを使ってDeepSeekをローカルでセットアップする

まず、マシン上でDeepSeekを実行するためのツールが必要です。Ollamaは、大規模言語モデルをローカルにデプロイする簡単な方法を提供することで、これを簡素化します。開始するには、以下の手順に従ってください。

Ollamaをダウンロードしてインストールする
Ollamaのウェブサイトにアクセスし、お使いのオペレーティングシステム(Windows、macOS、Linux)用のインストーラーを入手します。インストーラーを実行し、指示に従ってセットアップを完了します。

DeepSeekモデルをプルする
ターミナルを開き、このコマンドを実行してDeepSeek-R1モデルをダウンロードします。

ollama pull deepseek-r1

この軽量でありながら高性能なモデルは、ほとんどの開発タスクに適しています。別のバージョンが必要な場合は、それに応じてコマンドを調整してください。

モデルを確認する
利用可能なすべてのモデルをリストアップして、モデルが正常にダウンロードされたことを確認します。

ollama list

出力にdeepseek-r1があるか確認します。見つからない場合は、プルコマンドを再度実行してください。

Ollamaサーバーを起動する
DeepSeekをローカルでアクセス可能にするためにサーバーを起動します。

ollama serve

これにより、サーバーはhttp://localhost:11434で実行されます。使用中は、このターミナルを開いたままにしてください。

これでDeepSeekはローカルで実行されます。しかし、Cursorのバックエンドはlocalhostに直接アクセスできません。次に、クラウドトンネルを使用してこのサーバーをインターネットに公開します。

ステップ2:クラウドトンネルでローカルサーバーを公開する

ローカルのDeepSeekインスタンスとCursorの間のギャップを埋めるために、安全なトンネルを作成します。Cloudflareは、cloudflaredツールを使用して迅速で信頼性の高いソリューションを提供します。セットアップ方法は以下の通りです。

Cloudflare CLIをインストールする
Homebrew(macOS)のようなパッケージマネージャーを使用してcloudflaredをインストールします。

brew install cloudflared

WindowsまたはLinuxの場合は、Cloudflareのウェブサイトからダウンロードしてください。

インストールを確認する
以下のコマンドを実行して動作を確認します。

cloudflared --version

バージョン番号が表示されるはずです。

一時的なトンネルを作成する
このコマンドを実行して、ローカルのOllamaサーバーを公開します。

cloudflared tunnel --url http://localhost:11434 --http-host-header="localhost:11434"

--http-host-headerフラグは、Ollamaが着信リクエストを受け入れるようにします。これがないと、403エラーが発生します。

トンネルURLを取得する
ターミナルにhttps://xxxxxxxxxx.trycloudflare.comのようなURLが表示されます。これをコピーしてください。これがあなたの公開エンドポイントです。

トンネルをテストする
curlを使用してテストリクエストを送信し、接続を確認します。

curl https://xxxxxxxxxx.trycloudflare.com/v1/chat/completions -H "Content-Type: application/json" -d '{
  "messages": [
    { "role": "system", "content": "You are a test assistant." },
    { "role": "user", "content": "Say hello." }
  ],
  "model": "deepseek-r1"
}'

DeepSeekからの「hello」を含むJSONレスポンスが返ってくるはずです。失敗した場合は、URLとサーバーのステータスを再確認してください。

トンネルがアクティブになると、ローカルのDeepSeekインスタンスはインターネットからアクセス可能になります。次に、Cursorがこれを使用するように設定しましょう。

ステップ3:DeepSeekをCursorと統合する

次に、トンネルを介してCursorをローカルのDeepSeekモデルに接続します。Cursorの設定ではカスタムAPIエンドポイントが許可されているため、この統合は簡単です。以下の手順で進めてください。

Cursorの設定にアクセスする
Cursorを開き、「File > Preferences > Settings」に進むか、Ctrl + , (Windows) または Cmd + , (macOS) を押します。

AI設定を見つける
AIまたはModelsセクションに移動します。AIモデルまたはAPI設定を管理するオプションを探します。

新しいモデルを追加する
「Add Model」または類似のボタンをクリックして、カスタム設定を作成します。

トンネルURLを入力する
ベースURLをCloudflareトンネルのアドレス(例: https://xxxxxxxxxx.trycloudflare.com)に設定します。

モデルを指定する
モデル名としてdeepseek-r1を入力します。これはOllamaの設定と一致させる必要があります。

変更を保存する
設定を適用して保存します。

セットアップをテストする
Cursorのチャットインターフェース(Ctrl + L または Cmd + L)を開き、新しいモデルを選択し、「Python関数を書いて」のようなテストプロンプトを入力します。DeepSeekが応答すれば、統合は機能しています。

これでDeepSeekとCursorのリンクが成功しました。次に、このセットアップのトラブルシューティングと強化の方法を探ります。

ステップ4:セットアップのトラブルシューティングと最適化

慎重なセットアップを行っても、問題が発生することがあります。さらに、エクスペリエンスを最適化することも可能です。ここでは、一般的な問題に対処し、高度な調整を追加する方法を紹介します。

トラブルシューティングのヒント

403 アクセス拒否
トンネルが403エラーを返す場合は、cloudflaredコマンドで--http-host-header="localhost:11434"を使用したことを確認してください。必要に応じてトンネルを再起動します。

モデルが認識されない
Cursorがdeepseek-r1を見つけられない場合は、モデル名がOllamaのインストールと一致していることを確認してください。また、Ollamaサーバーが実行されていること(ollama serve)も確認してください。

応答が遅い
応答が遅いのは、ハードウェアの制限が原因である可能性があります。CPU/メモリの使用状況を確認するか、必要に応じてより軽量なDeepSeekバリアントにアップグレードしてください。

高度な強化

DeepSeekをファインチューニングする
Ollamaはモデルのカスタマイズをサポートしています。そのドキュメントを使用して、コードベースでDeepSeekをトレーニングし、より文脈を理解した応答を得ることができます。

Apidogを活用する
DeepSeekが生成する可能性のあるAPIをテストするために、セットアップとApidogを組み合わせて使用します。Apidogはデバッグと検証を簡素化し、ワークフローを強化します。Apidogを無料でダウンロードして試してみてください。

button

永続的なトンネル
長期的な使用には、一時的なトンネルではなく、名前付きのCloudflareトンネルをセットアップします。これにより、URLの再生成を回避できます。

これらの手順により、堅牢で効率的なセットアップが保証されます。最後にいくつかの考えで締めくくりましょう。

結論

ローカルのDeepSeekをCursor IDEと統合することで、強力でプライベートかつ費用対効果の高いコーディング環境が構築されます。このセットアップは、DeepSeek R1の高度な推論機能とCursorの直感的なインターフェースを組み合わせ、データプライバシーを損なうことなくプロフェッショナルグレードのAI支援を提供します。

技術的な実装には、システム要件、適切な構成、および継続的な最適化への注意が必要です。しかし、完全なプライバシー制御、継続的なコストゼロ、オフライン機能など、ローカルAIデプロイメントの利点は、真剣な開発者にとってこの投資を価値あるものにします。

ローカルのDeepSeekでの成功は、ハードウェアの制限を理解し、構成設定を最適化し、効果的なプロンプトエンジニアリング技術を開発することにかかっています。開発ニーズが進化するにつれて、定期的な監視と調整により一貫したパフォーマンスが保証されます。

💡
美しいAPIドキュメントを生成する優れたAPIテストツールをお探しですか?

開発チームが最大限の生産性で協力するための、統合されたオールインワンプラットフォームをお探しですか?

Apidogはあなたのすべての要望に応え、Postmanをはるかに手頃な価格で置き換えます
button

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる