Cara Membuat Asisten AI Lokal Gratis dengan OpenClaw dan DeepSeek

Ashley Innocent

Ashley Innocent

26 February 2026

Cara Membuat Asisten AI Lokal Gratis dengan OpenClaw dan DeepSeek

TL;DR

DeepSeek adalah keluarga model AI sumber terbuka yang kuat (1.5B hingga 671B parameter) dengan kemampuan penalaran yang luar biasa. OpenClaw adalah asisten AI sumber terbuka viral (170K+ bintang GitHub) yang berjalan sepenuhnya secara lokal. Dengan menggabungkan DeepSeek dengan OpenClaw melalui Ollama, Anda mendapatkan asisten AI gratis yang berfokus pada privasi yang menyaingi alternatif berbayar, tanpa biaya API, tanpa langganan, kontrol penuh.

Pendahuluan

Membangun asisten AI pribadi tidak pernah semudah ini. Di antara biaya API, paket langganan, dan masalah privasi, pengembang membutuhkan jalur yang jelas untuk memulai dengan kemampuan AI lokal.

Jika Anda telah mencari cara untuk menjalankan model bahasa yang kuat secara lokal tanpa mengeluarkan uang untuk panggilan API, Anda berada di tempat yang tepat. Panduan ini akan memandu Anda dalam menyiapkan DeepSeek, model sumber terbuka yang mengesankan dari DeepSeek AI dengan OpenClaw, asisten AI sumber terbuka viral yang memberi Anda agen AI pribadi yang berjalan sepenuhnya di perangkat keras Anda.

Bagian terbaiknya? Baik DeepSeek maupun OpenClaw gratis untuk digunakan. Tanpa kartu kredit. Tanpa langganan. Tanpa data yang meninggalkan mesin Anda.

Baik Anda seorang pengembang yang ingin mengotomatiskan tugas, penghobi yang menjelajahi AI lokal, atau bisnis yang mencari solusi AI yang mengutamakan privasi, penyiapan ini memberikan kemampuan tingkat perusahaan tanpa biaya.

Mengapa DeepSeek + OpenClaw?

Kekuatan DeepSeek

DeepSeek telah muncul sebagai salah satu keluarga model AI sumber terbuka paling mumpuni pada tahun 2026. Inilah yang membuatnya menonjol:

Logo Deepseek

Penalaran Luar Biasa
DeepSeek-R1 mencapai kinerja mendekati model terkemuka seperti OpenAI O3 dan Gemini 2.5 Pro pada tugas penalaran. Ini sangat kuat dalam matematika, pengkodean, dan pemecahan masalah yang kompleks.

Variasi Model
DeepSeek menawarkan model untuk setiap kasus penggunaan:

ModelParameterTerbaik Untuk
DeepSeek-R11.5B - 671BPenalaran dan pemecahan masalah
DeepSeek-V3671BTugas serbaguna
DeepSeek-V3.1671BPemikiran hibrida/non-pemikiran
DeepSeek-Coder1.3B - 236BTugas pengkodean

Penalaran Hibrida
Seperti Qwen3, DeepSeek-V3.1 mendukung mode berpikir (penalaran Chain-of-Thought) dan mode non-berpikir (jawaban langsung), memungkinkan Anda memilih berdasarkan tugas Anda.

Efisiensi Biaya
Model DeepSeek adalah sumber terbuka dan gratis untuk dijalankan secara lokal. Anda hanya membayar perangkat kerasnya.

Fleksibilitas OpenClaw

OpenClaw (sebelumnya Clawdbot/Moltbot) adalah agen AI sumber terbuka dengan 170.000+ bintang GitHub.

Logo OpenClaw

Ini menyediakan:

Mengapa Kombinasi Ini Berhasil

Kombinasi penalaran DeepSeek yang kuat dengan kemampuan agen OpenClaw menciptakan asisten AI gratis dan pribadi yang menyaingi alternatif berbayar:

Prasyarat

Sebelum memulai, pastikan Anda memiliki:

  1. Komputer dengan RAM yang memadai (lihat persyaratan di bawah)
  2. Akses Administrator/root untuk menginstal perangkat lunak
  3. Koneksi internet untuk unduhan awal
  4. Pemahaman dasar tentang baris perintah (kami akan menjelaskan setiap langkah)

Persyaratan RAM berdasarkan Model

ModelRAM MinimumRAM yang Direkomendasikan
DeepSeek-R1 1.5B8GB8GB
DeepSeek-R1 7B16GB16GB
DeepSeek-R1 14B32GB32GB
DeepSeek-R1 32B64GB64GB
DeepSeek-R1 70B128GB128GB+
DeepSeek-V3 671B256GB256GB+

Tips Pro: Mulai dengan model 7B jika Anda memiliki RAM 16GB. Anda selalu dapat meningkatkan nanti.

Menginstal Ollama

Ollama adalah jembatan yang memungkinkan Anda menjalankan DeepSeek secara lokal. Ini menangani pengunduhan model, manajemen memori, dan penyajian inferensi.

Instalasi macOS

# Menggunakan Homebrew (direkomendasikan)
brew install ollama

# Atau menggunakan skrip instalasi
curl -fsSL https://ollama.ai/install.sh | sh

Instalasi Linux

# Menggunakan skrip instalasi
curl -fsSL https://ollama.ai/install.sh | sh

# Atau unduh binari langsung
sudo curl -L https://ollama.ai/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama

Instalasi Windows

Unduh dan jalankan installer dari ollama.

Memverifikasi Instalasi

Setelah instalasi, verifikasi Ollama berfungsi:

ollama --version

Anda akan melihat keluaran seperti ollama version 0.5.0 atau yang serupa.

Memulai Layanan Ollama

Ollama berjalan sebagai layanan latar belakang. Seharusnya dimulai secara otomatis, tetapi Anda dapat memverifikasinya:

# Periksa apakah Ollama berjalan
ollama list

# Jika tidak berjalan, mulai
ollama serve

Menyiapkan Model DeepSeek

Sekarang mari kita jalankan DeepSeek di mesin Anda.

Mengambil DeepSeek-R1 (Direkomendasikan)

DeepSeek-R1 adalah model penalaran unggulan. Untuk sebagian besar pengguna, kami merekomendasikan memulai dengan model 7B atau 8B:

# Tarik model 7B (direkomendasikan untuk sebagian besar pengguna)
ollama pull deepseek-r1:7b

# Atau tarik model 8B untuk kinerja yang sedikit lebih baik
ollama pull deepseek-r1:8b

# Untuk perangkat keras yang lebih kuat, coba model 14B
ollama pull deepseek-r1:14b

Mengambil DeepSeek-V3 (Serbaguna)

Jika Anda membutuhkan model serbaguna daripada yang berfokus pada penalaran:

# Tarik DeepSeek-V3 (membutuhkan RAM yang signifikan)
ollama pull deepseek-v3:671b

Mengambil Model Distilasi (Sumber Daya Rendah)

Untuk sistem dengan RAM terbatas, model distilasi menawarkan penalaran yang baik pada ukuran yang lebih kecil:

# Tarik model distilasi berdasarkan arsitektur Qwen
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:14b

Menjalankan Model

Uji bahwa model berfungsi:

# Mode obrolan interaktif
ollama run deepseek-r1:7b

Ketik pesan Anda dan tekan Enter. Ketik /exit untuk keluar.

Menguji dengan Python

Berikut cara menggunakan DeepSeek secara terprogram:

import requests

url = "http://localhost:11434/api/generate"
payload = {
    "model": "deepseek-r1:7b",
    "prompt": "Jelaskan apa itu DeepSeek R1 dalam satu kalimat",
    "stream": False,
}
response = requests.post(url, json=payload).json()
print(response["response"])

Menguji API Ollama Anda dengan Apidog

Sebelum berintegrasi dengan OpenClaw, Anda dapat menguji pengaturan DeepSeek Anda menggunakan Apidog. Ini sangat berguna untuk men-debug dan memverifikasi endpoint API Anda berfungsi dengan benar.

  1. Buat Permintaan baru di Apidog
  2. Atur metode ke POST
  3. Masukkan URL: http://localhost:11434/api/generate
  4. Tambahkan Header:
Buat Permintaan baru di Apidog

Tambahkan Isi (JSON):

{
  "model": "deepseek-r1:7b",
  "prompt": "Halo, dunia!",
  "stream": false
}

Antarmuka visual Apidog memudahkan pengujian respons API Ollama Anda dan men-debug masalah apa pun sebelum terhubung ke OpenClaw. Anda juga dapat menyimpan permintaan ini untuk menguji berbagai prompt dan konfigurasi.

Tambahkan Isi Untuk mengirim permintaan di Apidog

Menggunakan Pustaka Python Ollama

from ollama import Client

client = Client()
output = client.chat(
    model="deepseek-r1:7b",
    messages=[{"role": "user", "content": "Tulis 'hello world' dalam Python"}]
)
print(output["message"]["content"])

Menginstal OpenClaw

Sekarang mari kita instal OpenClaw untuk membuat asisten AI Anda.

Instalasi Cepat

# Menggunakan npx (tidak perlu instalasi)
npx openclaw

# Atau menggunakan skrip instalasi
curl -fsSL https://openclaw.ai/install.sh | bash

Penyiapan Awal

Jalankan OpenClaw untuk pertama kalinya:

npx openclaw
Instal OpenClaw

Ini akan memandu Anda melalui konfigurasi awal:

  1. Siapkan koneksi platform pertama Anda (Telegram, Discord, dll.)
  2. Konfigurasi preferensi dasar
  3. Mulai asisten

Memverifikasi OpenClaw Berjalan

# Periksa status OpenClaw
openclaw status

Mengintegrasikan DeepSeek dengan OpenClaw

Sekarang keajaiban terjadi, kami menghubungkan DeepSeek sebagai otak asisten OpenClaw Anda.

Metode 1: Menggunakan Ollama sebagai Backend

OpenClaw secara asli mendukung Ollama. Konfigurasikan untuk menggunakan DeepSeek:

# Atur OpenClaw untuk menggunakan Ollama dengan DeepSeek-R1
ollama launch openclaw --model deepseek-r1

# Atau tentukan ukuran model yang berbeda
ollama launch openclaw --model deepseek-v3.1

Metode 2: Konfigurasi Lingkungan

Atur variabel lingkungan untuk kontrol lebih lanjut:

# Konfigurasi endpoint Ollama
export OLLAMA_HOST=http://localhost:11434

# Atur model
export OLLAMA_MODEL=deepseek-r1

Metode 3: Berkas Konfigurasi

Buat atau edit ~/.openclaw/config.yaml:

models:
  default: ollama/deepseek-r1:7b

ollama:
  host: http://localhost:11434
  model: deepseek-r1:7b
  temperature: 0.7
  top_p: 0.9

Menguji Integrasi

# Uji apakah OpenClaw menggunakan DeepSeek
openclaw models status

Anda akan melihat keluaran yang mengonfirmasi DeepSeek-R1 aktif.

Obrolan Melalui Platform Anda

Sekarang Anda dapat mengobrol dengan DeepSeek melalui platform apa pun yang terhubung:

Telegram:
Kirim pesan ke bot OpenClaw Anda di Telegram.

Discord:
Sebutkan bot OpenClaw Anda di Discord.

WhatsApp:
Kirim pesan ke nomor WhatsApp OpenClaw Anda.

Respons akan datang dari DeepSeek yang berjalan secara lokal!

Konfigurasi dan Optimasi

Sempurnakan pengaturan DeepSeek + OpenClaw Anda dengan opsi-opsi ini.

Temperature dan Top-P

Kontrol kreativitas respons:

# Dalam config.yaml
ollama:
  temperature: 0.7    # 0.0 = fokus, 1.0 = kreatif
  top_p: 0.9         # Sampling nukleus
  top_k: 40          # Pemilihan token

Panjang Konteks

Sesuaikan untuk percakapan yang lebih panjang:

ollama:
  context_size: 4096  # Tingkatkan untuk konteks yang lebih panjang

Prompt Sistem

Sesuaikan perilaku DeepSeek:

ollama:
  system_prompt: |
    Anda adalah asisten pengkodean yang membantu.
    Anda memberikan contoh kode yang jelas dan ringkas.
    Anda menjelaskan konsep dalam istilah sederhana.

Beralih Antar Model

Anda dapat dengan mudah beralih antara model DeepSeek yang berbeda berdasarkan kebutuhan Anda:

# Beralih ke model 14B untuk kemampuan lebih
openclaw models set ollama/deepseek-r1:14b

# Beralih ke V3 untuk tugas umum
openclaw models set ollama/deepseek-v3:671b

# Beralih kembali ke 7B untuk kecepatan
openclaw models set ollama/deepseek-r1:7b

Menguji Asisten AI Anda

Menguji melalui Ollama secara Langsung

# Uji kemampuan penalaran DeepSeek
ollama run deepseek-r1:7b "Selesaikan masalah ini: Jika kereta menempuh 120km dalam 2 jam, berapa kecepatannya?"

Menguji melalui OpenClaw

# Kirim pesan uji melalui OpenClaw
openclaw chat "Halo, berapa 2 + 2?"

Menguji Integrasi Platform

Setelah platform Anda dikonfigurasi:

Telegram:
Kirim /start ke bot OpenClaw Anda.

Discord:
Sebutkan bot Anda dengan @your-bot hello.

WhatsApp:
Kirim pesan ke nomor WhatsApp Anda yang dikonfigurasi.

Memantau Log

Periksa log OpenClaw untuk melihat apa yang terjadi:

# Lihat log terbaru
openclaw logs --recent

# Lihat log langsung
openclaw logs --follow

Tips Penyiapan Lanjutan

Akselerasi GPU

Jika Anda memiliki GPU NVIDIA, aktifkan akselerasi CUDA:

# Verifikasi GPU terdeteksi
ollama list

# Jalankan dengan akselerasi GPU (otomatis jika GPU tersedia)
ollama run deepseek-r1:7b --gpu

Membuat Model Kustom

Gunakan prompt sistem untuk membuat versi khusus:

# Buat Modelfile
echo 'FROM deepseek-r1:7b
SYSTEM """Anda adalah seorang ahli Python.
Berikan kode yang bersih, sesuai PEP 8.
"""' > /tmp/python-expert

# Buat model kustom
ollama create python-expert -f /tmp/python-expert

# Gunakan di OpenClaw
openclaw models set ollama/python-expert

Penyiapan Multi-Model

Jalankan model yang berbeda untuk tugas yang berbeda:

# Dalam config.yaml - konfigurasikan beberapa preset model
models:
  default: ollama/deepseek-r1:7b
  coding: ollama/deepseek-coder:7b
  reasoning: ollama/deepseek-r1:14b

Kemudian beralih di antaranya:

# Gunakan model pengkodean
openclaw models set coding

# Gunakan model penalaran untuk tugas kompleks
openclaw models set reasoning

Optimasi Kinerja

Untuk kinerja yang lebih baik:

  1. Tutup aplikasi yang tidak perlu untuk membebaskan RAM
  2. Gunakan model terkecil yang memenuhi kebutuhan Anda
  3. Pertimbangkan untuk meningkatkan RAM jika Anda sering mencapai batas
  4. Gunakan penyimpanan SSD untuk pemuatan model yang lebih cepat

Memantau Penggunaan Sumber Daya

# Periksa model dan sumber daya saat ini
openclaw status --verbose

# Pantau Ollama secara langsung
ollama list

Memecahkan Masalah Umum

Model Tidak Dapat Dimuat (Kekurangan Memori)

Masalah: Ollama gagal memuat model karena RAM tidak mencukupi.

Solusi:

Respons Lambat

Masalah: Respons membutuhkan waktu terlalu lama.

Solusi:

OpenClaw Tidak Dapat Terhubung ke Ollama

Masalah: OpenClaw melaporkan kesalahan koneksi ke Ollama.

Solusi:

Masalah Koneksi Platform

Masalah: Tidak dapat menghubungkan Telegram/Discord/WhatsApp.

Solusi:

FAQ

Apakah DeepSeek benar-benar gratis untuk digunakan?

Ya, DeepSeek adalah sumber terbuka dan gratis untuk dijalankan secara lokal. Anda hanya perlu menyediakan perangkat keras (komputer dengan RAM). Tidak ada biaya API, tidak ada langganan.

Bisakah saya menggunakan DeepSeek secara komersial dengan OpenClaw?

Ya, baik DeepSeek maupun OpenClaw memiliki lisensi permisif yang mengizinkan penggunaan komersial. Selalu tinjau persyaratan lisensi terbaru.

Bagaimana jika saya tidak memiliki GPU?

DeepSeek dapat berjalan di sistem hanya CPU. Harapkan inferensi yang lebih lambat (beberapa detik per respons, bukan milidetik). Model yang lebih kecil (1.5B-7B) bekerja cukup baik pada CPU.

Bagaimana cara memilih antara DeepSeek-R1 dan DeepSeek-V3?

Bisakah saya menjalankan beberapa model DeepSeek sekaligus?

Ya, tetapi setiap model membutuhkan RAM tambahan. Penyiapan tipikal mungkin menjalankan model 7B bersama dengan model spesialis yang lebih kecil untuk tugas-tugas tertentu.

Bagaimana cara memperbarui DeepSeek ke versi terbaru?

ollama pull deepseek-r1:7b

Ollama akan secara otomatis memperbarui jika versi yang lebih baru tersedia.

Bisakah saya menghubungkan OpenClaw ke aplikasi saya sendiri?

Ya, OpenClaw menyediakan endpoint API dan webhook untuk integrasi kustom. Periksa dokumentasi OpenClaw untuk detailnya.


Kesimpulan

Anda kini memiliki asisten AI gratis dan canggih yang berjalan secara lokal di mesin Anda. DeepSeek menyediakan kecerdasan, OpenClaw menyediakan agensi, dan Ollama membuat semuanya bekerja dengan mulus.

Yang bisa Anda lakukan sekarang:

Kombinasi DeepSeek dan OpenClaw memberikan kemampuan yang akan menelan biaya ratusan dolar per bulan dengan alternatif cloud—semuanya berjalan di perangkat keras yang Anda miliki.

Langkah selanjutnya:

  1. Bereksperimen dengan berbagai ukuran model DeepSeek
  2. Jelajahi pasar keahlian OpenClaw (ClawHub)
  3. Hubungkan platform tambahan ke asisten Anda
  4. Buat prompt kustom untuk kasus penggunaan tertentu

Satu-satunya batasan adalah imajinasi Anda.

Siap membangun aplikasi AI profesional? Unduh Apidog gratis dan uji integrasi layanan AI Anda dengan antarmuka visual yang dirancang untuk pengembang. Coba suite pengujian API Apidog untuk memastikan alur kerja AI Anda kuat dan andal.

button

Mengembangkan API dengan Apidog

Apidog adalah alat pengembangan API yang membantu Anda mengembangkan API dengan lebih mudah dan efisien.