Pengembang modern terus mencari asisten pengkodean AI yang kuat yang menyediakan privasi, kinerja, dan efektivitas biaya. DeepSeek R1 muncul sebagai solusi yang mengubah permainan, menawarkan kemampuan penalaran tingkat lanjut sambil berjalan sepenuhnya di mesin lokal Anda. Panduan komprehensif ini menunjukkan cara mengintegrasikan DeepSeek lokal dengan Cursor IDE, menciptakan lingkungan pengembangan yang tangguh yang menjaga kode Anda tetap pribadi sambil memberikan bantuan AI yang luar biasa.
Mengapa DeepSeek R1?
DeepSeek R1 mewakili terobosan dalam model penalaran sumber terbuka, menggunakan arsitektur Mixture of Experts (MoE) yang canggih. Model ini berisi 671 miliar parameter tetapi hanya mengaktifkan 37 miliar selama setiap forward pass, menciptakan keseimbangan optimal antara efisiensi komputasi dan kemampuan kinerja.

Metodologi pembelajaran penguatan di balik DeepSeek R1 memungkinkan penalaran tingkat lanjut yang menyaingi model berpemilik seperti GPT-4 milik OpenAI. Selain itu, pengembang mendapat manfaat dari privasi data lengkap karena model berjalan secara lokal tanpa mengirim kode ke server eksternal.
Ya, Anda Harus Menjalankan Deepseek R1 Secara Lokal
Sebelum melompat ke langkah-langkah teknis, pertimbangkan mengapa pendekatan ini penting. Menjalankan DeepSeek secara lokal di dalam Cursor menawarkan keuntungan yang jelas:
- Penghematan Biaya: Hindari biaya berulang yang terkait dengan layanan AI berbasis cloud.
- Peningkatan Privasi: Simpan kode dan data Anda di mesin Anda, mengurangi risiko paparan.
- Peningkatan Keandalan: Hilangkan downtime atau latensi dari server eksternal.
- Opsi Kustomisasi: Sesuaikan DeepSeek dengan kebutuhan pengkodean spesifik Anda.
Dengan mempertimbangkan manfaat ini, mari kita benar-benar menjalankan Deepseek R1 Secara Lokal, dengan langkah-langkah berikut:
Langkah 1: Siapkan DeepSeek Secara Lokal dengan Ollama
Pertama, Anda memerlukan alat untuk menjalankan DeepSeek di mesin Anda. Ollama menyederhanakan ini dengan menyediakan cara mudah untuk menyebarkan model bahasa besar secara lokal. Ikuti langkah-langkah ini untuk memulai:
Unduh dan Instal Ollama
Kunjungi situs web Ollama dan ambil installer untuk sistem operasi Anda—Windows, macOS, atau Linux. Jalankan installer dan ikuti petunjuk untuk menyelesaikan pengaturan.

Tarik Model DeepSeek
Buka terminal Anda dan jalankan perintah ini untuk mengunduh model DeepSeek-R1:
ollama pull deepseek-r1

Model yang ringan namun mumpuni ini cocok untuk sebagian besar tugas pengembangan. Jika Anda memerlukan versi yang berbeda, sesuaikan perintah yang sesuai.
Verifikasi Model
Konfirmasikan model berhasil diunduh dengan mencantumkan semua model yang tersedia:
ollama list

Cari deepseek-r1
di output. Jika tidak ada, ulangi perintah pull.
Luncurkan Server Ollama
Mulai server untuk membuat DeepSeek dapat diakses secara lokal:
ollama serve
Ini menjalankan server di http://localhost:11434
. Biarkan terminal ini tetap terbuka selama penggunaan.
Sekarang, DeepSeek berjalan secara lokal. Namun, backend Cursor tidak dapat langsung mengakses localhost
. Selanjutnya, Anda akan mengekspos server ini ke internet menggunakan cloud tunnel.
Langkah 2: Ekspos Server Lokal Anda dengan Cloud Tunnel
Untuk menjembatani kesenjangan antara instance DeepSeek lokal Anda dan Cursor, buat tunnel yang aman. Cloudflare menawarkan solusi cepat dan andal dengan alat cloudflared
-nya. Berikut cara mengaturnya:
Instal Cloudflare CLI
Instal cloudflared
menggunakan manajer paket seperti Homebrew (macOS):
brew install cloudflared

Untuk Windows atau Linux, unduh dari situs web Cloudflare.
Periksa Instalasi
Verifikasi berfungsi dengan menjalankan:
cloudflared --version
Anda akan melihat nomor versi.

Buat Tunnel Sementara
Jalankan perintah ini untuk mengekspos server Ollama lokal Anda:
cloudflared tunnel --url http://localhost:11434 --http-host-header="localhost:11434"
Flag --http-host-header
memastikan Ollama menerima permintaan masuk. Tanpanya, Anda akan mengalami kesalahan 403.
Ambil URL Tunnel
Terminal menampilkan URL, seperti https://xxxxxxxxxx.trycloudflare.com
. Salin ini—ini adalah endpoint publik Anda.
Uji Tunnel
Kirim permintaan uji menggunakan curl
untuk mengkonfirmasi konektivitas:
curl https://xxxxxxxxxx.trycloudflare.com/v1/chat/completions -H "Content-Type: application/json" -d '{
"messages": [
{ "role": "system", "content": "You are a test assistant." },
{ "role": "user", "content": "Say hello." }
],
"model": "deepseek-r1"
}'
Harapkan respons JSON dengan "hello" dari DeepSeek. Jika gagal, periksa kembali URL dan status server.
Dengan tunnel aktif, instance DeepSeek lokal Anda sekarang dapat diakses internet. Mari konfigurasikan Cursor untuk menggunakannya.
Langkah 3: Integrasikan DeepSeek dengan Cursor
Sekarang, sambungkan Cursor ke model DeepSeek lokal Anda melalui tunnel. Pengaturan Cursor memungkinkan endpoint API kustom, membuat integrasi ini mudah. Lanjutkan sebagai berikut:
Akses Pengaturan Cursor
Buka Cursor dan buka File > Preferences > Settings
atau tekan Ctrl + ,
(Windows) atau Cmd + ,
(macOS).

Temukan Konfigurasi AI
Navigasi ke bagian AI atau Models. Cari opsi untuk mengelola model AI atau pengaturan API.
Tambahkan Model Baru
Klik "Add Model" atau tombol serupa untuk membuat konfigurasi kustom.

Masukkan URL Tunnel
Atur URL dasar ke alamat tunnel Cloudflare Anda (misalnya, https://xxxxxxxxxx.trycloudflare.com
).

Tentukan Model
Masukkan deepseek-r1
sebagai nama model, cocok dengan pengaturan Ollama Anda.
Simpan Perubahan
Terapkan dan simpan konfigurasi.
Uji Pengaturan
Buka antarmuka chat Cursor (Ctrl + L
atau Cmd + L
), pilih model baru Anda, dan ketik prompt uji seperti "Tulis fungsi Python." Jika DeepSeek merespons, integrasi berfungsi.
Anda sekarang telah berhasil menghubungkan DeepSeek dan Cursor. Selanjutnya, jelajahi cara memecahkan masalah dan meningkatkan pengaturan ini.
Langkah 4: Pecahkan Masalah dan Optimalkan Pengaturan Anda
Bahkan dengan pengaturan yang hati-hati, masalah dapat muncul. Selain itu, Anda dapat mengoptimalkan pengalaman. Berikut cara mengatasi masalah umum dan menambahkan penyesuaian tingkat lanjut:
Tips Pemecahan Masalah
403 Akses Ditolak
Jika tunnel mengembalikan kesalahan 403, pastikan Anda menggunakan --http-host-header="localhost:11434"
dalam perintah cloudflared
. Mulai ulang tunnel jika diperlukan.
Model Tidak Dikenali
Jika Cursor tidak dapat menemukan deepseek-r1
, verifikasi nama model cocok dengan instalasi Ollama Anda. Juga, konfirmasikan server Ollama berjalan (ollama serve
).
Respons Lambat
Balasan yang lambat mungkin berasal dari keterbatasan perangkat keras. Periksa penggunaan CPU/memori atau tingkatkan ke varian DeepSeek yang lebih ringan jika perlu.
Peningkatan Tingkat Lanjut
Fine-Tune DeepSeek
Ollama mendukung kustomisasi model. Gunakan dokumentasinya untuk melatih DeepSeek dengan codebase Anda untuk respons yang lebih sadar konteks.
Manfaatkan Apidog
Pasangkan pengaturan Anda dengan Apidog untuk menguji API yang mungkin dihasilkan DeepSeek. Apidog menyederhanakan debugging dan validasi, meningkatkan alur kerja Anda. Unduh Apidog secara gratis untuk mencobanya.

Tunnel Persisten
Untuk penggunaan jangka panjang, atur tunnel Cloudflare bernama alih-alih yang sementara. Ini menghindari pembuatan ulang URL.
Langkah-langkah ini memastikan pengaturan yang tangguh dan efisien. Mari kita akhiri dengan beberapa pemikiran terakhir.
Kesimpulan
Mengintegrasikan DeepSeek lokal dengan Cursor IDE menciptakan lingkungan pengkodean yang kuat, pribadi, dan hemat biaya. Pengaturan ini menggabungkan kemampuan penalaran canggih DeepSeek R1 dengan antarmuka intuitif Cursor, memberikan bantuan AI tingkat profesional tanpa mengorbankan privasi data.
Implementasi teknis memerlukan perhatian cermat terhadap persyaratan sistem, konfigurasi yang tepat, dan optimasi berkelanjutan. Namun, manfaat penerapan AI lokal—termasuk kontrol privasi lengkap, tanpa biaya berkelanjutan, dan fungsionalitas offline—membuat investasi ini layak bagi pengembang serius.
Keberhasilan dengan DeepSeek lokal bergantung pada pemahaman keterbatasan perangkat keras Anda, mengoptimalkan pengaturan konfigurasi, dan mengembangkan teknik rekayasa prompt yang efektif. Pemantauan dan penyesuaian rutin memastikan kinerja yang konsisten seiring berkembangnya kebutuhan pengembangan Anda.
Ingin platform Terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum?
Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!