Özet
DeepSeek, olağanüstü akıl yürütme yeteneklerine sahip güçlü, açık kaynaklı bir yapay zeka model ailesidir (1.5B'den 671B parametreye kadar). OpenClaw, tamamen yerel olarak çalışan popüler bir açık kaynaklı yapay zeka asistanıdır (170K+ GitHub yıldızı). DeepSeek'i Ollama aracılığıyla OpenClaw ile birleştirerek, ücretli alternatiflere rakip, ücretsiz, gizliliğe odaklı bir yapay zeka asistanı elde edersiniz; API maliyeti yok, abonelik yok, tam kontrol sizin elinizde.
Giriş
Kişisel bir yapay zeka asistanı oluşturmak hiç bu kadar erişilebilir olmamıştı. API maliyetleri, abonelik planları ve gizlilik endişeleri arasında, geliştiricilerin yerel yapay zeka yetenekleriyle başlamak için net bir yola ihtiyacı var.
API çağrılarına para harcamadan güçlü dil modellerini yerel olarak çalıştırmanın bir yolunu arıyorsanız, doğru yerdesiniz. Bu rehber, DeepSeek AI'nın etkileyici açık kaynak modelini, OpenClaw ile birlikte nasıl kuracağınızı adım adım anlatıyor. OpenClaw, tamamen kendi donanımınızda çalışan kişisel bir yapay zeka ajanı sağlayan popüler bir açık kaynaklı yapay zeka asistanıdır.
En iyi yanı mı? Hem DeepSeek hem de OpenClaw ücretsizdir. Kredi kartı yok. Abonelik yok. Makinenizden hiçbir veri ayrılmaz.
İster görevleri otomatikleştirmek isteyen bir geliştirici, ister yerel yapay zekayı keşfeden bir hobi sahibi, ister gizlilik öncelikli yapay zeka çözümleri arayan bir işletme olun, bu kurulum sıfır maliyetle kurumsal düzeyde yetenekler sunar.
Neden DeepSeek + OpenClaw?
DeepSeek'in Gücü
DeepSeek, 2026 yılında en yetenekli açık kaynak yapay zeka model ailelerinden biri olarak ortaya çıktı. İşte onu öne çıkaran özellikleri:

Olağanüstü Akıl Yürütme
DeepSeek-R1, akıl yürütme görevlerinde OpenAI O3 ve Gemini 2.5 Pro gibi önde gelen modellere yaklaşan performans sergiliyor. Özellikle matematik, kodlama ve karmaşık problem çözmede güçlüdür.
Model Çeşitliliği
DeepSeek, her kullanım durumu için modeller sunar:
| Model | Parametreler | En İyi Olduğu Alan |
|---|---|---|
| DeepSeek-R1 | 1.5B - 671B | Akıl yürütme ve problem çözme |
| DeepSeek-V3 | 671B | Genel amaçlı görevler |
| DeepSeek-V3.1 | 671B | Hibrit düşünme/düşünmeme |
| DeepSeek-Coder | 1.3B - 236B | Kodlama görevleri |
Hibrit Akıl Yürütme
Qwen3 gibi, DeepSeek-V3.1 hem düşünme modunu (Düşünce Zinciri akıl yürütmesi) hem de düşünmeme modunu (doğrudan yanıtlar) destekler ve görevinize göre seçim yapmanızı sağlar.
Maliyet Verimliliği
DeepSeek modelleri açık kaynaklıdır ve yerel olarak çalıştırmak ücretsizdir. Sadece donanım için ödeme yaparsınız.
OpenClaw'ın Esnekliği
OpenClaw (eski adıyla Clawdbot/Moltbot), 170.000'den fazla GitHub yıldızına sahip açık kaynaklı bir yapay zeka ajanıdır.

Şunları sağlar:
- Çoklu platform entegrasyonu: WhatsApp, Telegram, Discord, Slack ve daha fazlası
- Otonom eylemler: E-posta gönder, takvimleri yönet, web'de gezin, komutları yürüt
- Kalıcı bellek: Oturumlar arasında bağlamı hatırlar
- Yetenek ekosistemi: ClawHub aracılığıyla 700'den fazla topluluk tarafından oluşturulmuş uzantı
- Gizliliğe odaklı: Tamamen yerel olarak çalışır
Bu Kombinasyon Neden İşler
DeepSeek'in güçlü akıl yürütme yeteneğinin OpenClaw'ın ajans yetenekleriyle birleşimi, ücretli alternatiflere rakip, ücretsiz, özel bir yapay zeka asistanı oluşturur:
- Sıfır API maliyeti
- Tam veri gizliliği
- Özelleştirilebilir davranış
- Yapay zeka asistanınız üzerinde tam kontrol
- Çoklu platform erişimi
Ön Koşullar
Başlamadan önce şunlara sahip olduğunuzdan emin olun:
- Yeterli RAM'e sahip bir bilgisayar (gereksinimler aşağıya bakınız)
- Yazılım yüklemek için Yönetici/root erişimi
- İlk indirmeler için İnternet bağlantısı
- Komut satırı hakkında temel bilgi (her adımı açıklayacağız)
Modele Göre RAM Gereksinimleri
| Model | Minimum RAM | Önerilen RAM |
|---|---|---|
| DeepSeek-R1 1.5B | 8GB | 8GB |
| DeepSeek-R1 7B | 16GB | 16GB |
| DeepSeek-R1 14B | 32GB | 32GB |
| DeepSeek-R1 32B | 64GB | 64GB |
| DeepSeek-R1 70B | 128GB | 128GB+ |
| DeepSeek-V3 671B | 256GB | 256GB+ |
Profesyonel ipucu: 16GB RAM'iniz varsa 7B modelle başlayın. Daha sonra her zaman yükseltebilirsiniz.
Ollama Kurulumu
Ollama, DeepSeek'i yerel olarak çalıştırmanızı sağlayan köprüdür. Model indirme, bellek yönetimi ve çıkarım sunuculuğunu halleder.
macOS Kurulumu
# Homebrew kullanarak (önerilir)
brew install ollama
# Veya kurulum betiğini kullanarak
curl -fsSL https://ollama.ai/install.sh | sh
Linux Kurulumu
# Kurulum betiğini kullanarak
curl -fsSL https://ollama.ai/install.sh | sh
# Veya doğrudan ikili dosyayı indirin
sudo curl -L https://ollama.ai/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama
Windows Kurulumu
Yükleyiciyi ollama adresinden indirin ve çalıştırın.
Kurulumu Doğrulama
Kurulumdan sonra Ollama'nın çalışıp çalışmadığını doğrulayın:
ollama --version
ollama version 0.5.0 veya benzeri bir çıktı görmelisiniz.
Ollama Servisini Başlatma
Ollama bir arka plan servisi olarak çalışır. Otomatik olarak başlaması gerekir, ancak doğrulayabilirsiniz:
# Ollama'nın çalışıp çalışmadığını kontrol edin
ollama list
# Çalışmıyorsa, başlatın
ollama serve
DeepSeek Modellerini Kurma
Şimdi DeepSeek'i makinenizde çalıştıralım.
DeepSeek-R1'i Çekme (Önerilir)
DeepSeek-R1 amiral gemisi akıl yürütme modelidir. Çoğu kullanıcı için 7B veya 8B modelle başlamanızı öneririz:
# 7B modelini çekin (çoğu kullanıcı için önerilir)
ollama pull deepseek-r1:7b
# Veya biraz daha iyi performans için 8B modelini çekin
ollama pull deepseek-r1:8b
# Daha güçlü donanım için 14B modelini deneyin
ollama pull deepseek-r1:14b
DeepSeek-V3'ü Çekme (Genel Amaçlı)
Akıl yürütme odaklı yerine genel amaçlı bir modele ihtiyacınız varsa:
# DeepSeek-V3'ü çekin (önemli miktarda RAM gerektirir)
ollama pull deepseek-v3:671b
Damıtılmış Modelleri Çekme (Düşük Kaynaklı)
Sınırlı RAM'e sahip sistemler için, damıtılmış modeller daha küçük boyutlarda iyi akıl yürütme sunar:
# Qwen mimarisine dayalı damıtılmış modelleri çekin
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:14b
Modeli Çalıştırma
Modelin çalışıp çalışmadığını test edin:
# Etkileşimli sohbet modu
ollama run deepseek-r1:7b
Mesajınızı yazın ve Enter tuşuna basın. Çıkmak için /exit yazın.
Python ile Test Etme
DeepSeek'i programlı olarak nasıl kullanacağınız aşağıda açıklanmıştır:
import requests
url = "http://localhost:11434/api/generate"
payload = {
"model": "deepseek-r1:7b",
"prompt": "DeepSeek R1'in ne olduğunu tek cümleyle açıkla",
"stream": False,
}
response = requests.post(url, json=payload).json()
print(response["response"])
Ollama API'nizi Apidog ile Test Etme
OpenClaw ile entegre etmeden önce, DeepSeek kurulumunuzu Apidog kullanarak test edebilirsiniz. Bu, API uç noktalarınızın doğru çalıştığını ayıklamak ve doğrulamak için özellikle kullanışlıdır.
- Apidog'da Yeni bir İstek Oluşturun
- Yöntemi POST olarak ayarlayın
- URL'yi girin:
http://localhost:11434/api/generate - Başlıkları Ekle:
Content-Type:application/json

Gövde Ekle (JSON):
{
"model": "deepseek-r1:7b",
"prompt": "Merhaba dünya!",
"stream": false
}
Apidog'un görsel arayüzü, OpenClaw'a bağlanmadan önce Ollama API yanıtlarınızı test etmeyi ve herhangi bir sorunu ayıklamayı kolaylaştırır. Farklı istemleri ve yapılandırmaları test etmek için bu isteği kaydedebilirsiniz.

Ollama Python Kütüphanesini Kullanma
from ollama import Client
client = Client()
output = client.chat(
model="deepseek-r1:7b",
messages=[{"role": "user", "content": "Python'da bir 'hello world' yaz"}]
)
print(output["message"]["content"])
OpenClaw Kurulumu
Şimdi yapay zeka asistanınızı oluşturmak için OpenClaw'u kuralım.
Hızlı Kurulum
# npx kullanarak (kurulum gerekmez)
npx openclaw
# Veya kurulum betiğini kullanarak
curl -fsSL https://openclaw.ai/install.sh | bash
İlk Kurulum
OpenClaw'u ilk kez çalıştırın:
npx openclaw

Bu, size ilk yapılandırma adımlarında yol gösterecektir:
- İlk platform bağlantınızı kurun (Telegram, Discord vb.)
- Temel tercihleri yapılandırın
- Asistanı başlatın
OpenClaw'ın Çalıştığını Doğrulama
# OpenClaw durumunu kontrol edin
openclaw status
DeepSeek'i OpenClaw ile Entegre Etme
Şimdi sihir gerçekleşiyor, DeepSeek'i OpenClaw asistanınızın beyni olarak bağlıyoruz.
Yöntem 1: Ollama'yı Arka Uç Olarak Kullanma
OpenClaw, Ollama'yı yerel olarak destekler. DeepSeek'i kullanacak şekilde yapılandırın:
# OpenClaw'u DeepSeek-R1 ile Ollama kullanacak şekilde ayarlayın
ollama launch openclaw --model deepseek-r1
# Veya farklı bir model boyutu belirtin
ollama launch openclaw --model deepseek-v3.1
Yöntem 2: Ortam Yapılandırması
Daha fazla kontrol için ortam değişkenlerini ayarlayın:
# Ollama uç noktasını yapılandırın
export OLLAMA_HOST=http://localhost:11434
# Modeli ayarlayın
export OLLAMA_MODEL=deepseek-r1
Yöntem 3: Yapılandırma Dosyası
~/.openclaw/config.yaml dosyasını oluşturun veya düzenleyin:
models:
default: ollama/deepseek-r1:7b
ollama:
host: http://localhost:11434
model: deepseek-r1:7b
temperature: 0.7
top_p: 0.9
Entegrasyonu Test Etme
# OpenClaw'un DeepSeek kullandığını test edin
openclaw models status
DeepSeek-R1'in etkin olduğunu onaylayan bir çıktı görmelisiniz.
Platformunuz Üzerinden Sohbet Edin
Artık DeepSeek ile bağlı herhangi bir platform üzerinden sohbet edebilirsiniz:
Telegram:
Telegram'daki OpenClaw botunuza bir mesaj gönderin.
Discord:
Discord'da OpenClaw botunuzdan bahsedin.
WhatsApp:
OpenClaw WhatsApp numaranıza mesaj gönderin.
Yanıt, yerel olarak çalışan DeepSeek'ten gelecektir!
Yapılandırma ve Optimizasyon
DeepSeek + OpenClaw kurulumunuzu bu seçeneklerle ince ayar yapın.
Sıcaklık ve Top-P
Yanıt yaratıcılığını kontrol edin:
# config.yaml içinde
ollama:
temperature: 0.7 # 0.0 = odaklanmış, 1.0 = yaratıcı
top_p: 0.9 # Çekirdek örnekleme
top_k: 40 # Token seçimi
Bağlam Uzunluğu
Daha uzun konuşmalar için ayarlayın:
ollama:
context_size: 4096 # Daha uzun bağlam için artırın
Sistem İstemcisi
DeepSeek'in davranışını özelleştirin:
ollama:
system_prompt: |
Yardımsever bir kodlama asistanısınız.
Temiz, PEP 8 uyumlu kod örnekleri sunarsınız.
Kavramları basit terimlerle açıklarsınız.
Modeller Arasında Geçiş Yapma
İhtiyaçlarınıza göre farklı DeepSeek modelleri arasında kolayca geçiş yapabilirsiniz:
# Daha fazla yetenek için 14B modeline geçin
openclaw models set ollama/deepseek-r1:14b
# Genel görevler için V3'e geçin
openclaw models set ollama/deepseek-v3:671b
# Hız için 7B'ye geri dönün
openclaw models set ollama/deepseek-r1:7b
Yapay Zeka Asistanınızı Test Etme
Doğrudan Ollama Üzerinden Test Etme
# DeepSeek akıl yürütme yeteneklerini test edin
ollama run deepseek-r1:7b "Şu problemi çöz: Bir tren 2 saatte 120km yol alırsa, hızı nedir?"
OpenClaw Üzerinden Test Etme
# OpenClaw aracılığıyla bir test mesajı gönderin
openclaw chat "Merhaba, 2 + 2 kaç eder?"
Platform Entegrasyonlarını Test Etme
Platformlarınız yapılandırıldıktan sonra:
Telegram:
OpenClaw botunuza /start gönderin.
Discord:
Botunuzdan @botunuz merhaba ile bahsedin.
WhatsApp:
Yapılandırılmış WhatsApp numaranıza bir mesaj gönderin.
Günlükleri İzleme
Ne olup bittiğini görmek için OpenClaw günlüklerini kontrol edin:
# Son günlükleri görüntüle
openclaw logs --recent
# Canlı günlükleri görüntüle
openclaw logs --follow
Gelişmiş Kurulum İpuçları
GPU Hızlandırma
Bir NVIDIA GPU'nuz varsa, CUDA hızlandırmayı etkinleştirin:
# GPU'nun algılandığını doğrulayın
ollama list
# GPU hızlandırma ile çalıştırın (GPU varsa otomatik)
ollama run deepseek-r1:7b --gpu
Özel Modeller Oluşturma
Özel sürümler oluşturmak için sistem istemlerini kullanın:
# Bir Modelfile oluşturun
echo 'FROM deepseek-r1:7b
SYSTEM """Siz bir Python uzmanısınız.
Temiz, PEP 8 uyumlu kod sağlayın.
"""' > /tmp/python-expert
# Özel modeli oluşturun
ollama create python-expert -f /tmp/python-expert
# OpenClaw'da kullanın
openclaw models set ollama/python-expert
Çoklu Model Kurulumu
Farklı görevler için farklı modeller çalıştırın:
# config.yaml içinde - birden fazla model ön ayarı yapılandırın
models:
default: ollama/deepseek-r1:7b
coding: ollama/deepseek-coder:7b
reasoning: ollama/deepseek-r1:14b
Ardından aralarında geçiş yapın:
# Kodlama modelini kullan
openclaw models set coding
# Karmaşık görevler için akıl yürütme modelini kullan
openclaw models set reasoning
Performans Optimizasyonu
Daha iyi performans için:
- RAM'i boşaltmak için gereksiz uygulamaları kapatın
- İhtiyaçlarınızı karşılayan en küçük modeli kullanın
- Sık sık sınırlara ulaşıyorsanız RAM yükseltmeyi düşünün
- Daha hızlı model yüklemesi için SSD depolama kullanın
Kaynak Kullanımını İzleme
# Mevcut modeli ve kaynakları kontrol edin
openclaw status --verbose
# Ollama'yı doğrudan izleyin
ollama list
Sık Karşılaşılan Sorunları Giderme
Model Yüklenmiyor (Bellek Yetmezliği)
Sorun: Ollama, yetersiz RAM nedeniyle modeli yükleyemiyor.
Çözüm:
- Daha küçük bir model kullanın (14B yerine 7B)
- RAM'i boşaltmak için diğer uygulamaları kapatın
- Sisteminize daha fazla RAM ekleyin
Yavaş Yanıtlar
Sorun: Yanıtlar çok uzun sürüyor.
Çözümler:
- Daha küçük bir model kullanın
- GPU hızlandırmayı etkinleştirin
- Bağlam boyutunu azaltın
- Daha hızlı bir depolama sürücüsü kullanın (SSD)
OpenClaw, Ollama'ya Bağlanamıyor
Sorun: OpenClaw, Ollama'ya bağlantı hataları bildiriyor.
Çözümler:
- Ollama'nın çalıştığını doğrulayın:
ollama serve - Yapılandırmadaki ana bilgisayarı kontrol edin (varsayılan:
http://localhost:11434) - Ollama'yı yeniden başlatın:
pkill ollama && ollama serve
Platform Bağlantı Sorunları
Sorun: Telegram/Discord/WhatsApp'a bağlanamıyor.
Çözümler:
- API kimlik bilgilerinizin doğru olduğunu doğrulayın
- Platformun API durumunu kontrol edin
- Belirli hata mesajları için OpenClaw günlüklerini inceleyin
Sıkça Sorulan Sorular
DeepSeek gerçekten ücretsiz mi?
Evet, DeepSeek açık kaynaklıdır ve yerel olarak çalıştırmak ücretsizdir. Sadece donanımı (RAM'e sahip bilgisayar) sağlamanız gerekir. API ücreti veya abonelik yok.
DeepSeek'i OpenClaw ile ticari olarak kullanabilir miyim?
Evet, hem DeepSeek hem de OpenClaw, ticari kullanıma izin veren esnek lisanslara sahiptir. Her zaman en son lisans koşullarını inceleyin.
GPU'm yoksa ne yapmalıyım?
DeepSeek, yalnızca CPU'lu sistemlerde çalışabilir. Daha yavaş çıkarım bekleyin (milisaniyeler yerine yanıt başına birkaç saniye). Daha küçük modeller (1.5B-7B) CPU'da oldukça iyi çalışır.
DeepSeek-R1 ve DeepSeek-V3 arasında nasıl seçim yaparım?
- DeepSeek-R1: Akıl yürütme görevleri, matematik, kodlama ve problem çözme için en iyisi
- DeepSeek-V3: Genel amaçlı konuşma ve görevler için en iyisi
Aynı anda birden fazla DeepSeek modeli çalıştırabilir miyim?
Evet, ancak her model ek RAM gerektirir. Tipik bir kurulum, belirli görevler için daha küçük bir uzman modelin yanı sıra 7B modelini çalıştırabilir.
DeepSeek'i en son sürüme nasıl güncellerim?
ollama pull deepseek-r1:7b
Daha yeni bir sürüm mevcutsa Ollama otomatik olarak güncellenecektir.
OpenClaw'u kendi uygulamalarıma bağlayabilir miyim?
Evet, OpenClaw özel entegrasyonlar için API uç noktaları ve web kancaları sağlar. Ayrıntılar için OpenClaw belgelerine bakın.
Sonuç
Artık makinenizde yerel olarak çalışan güçlü, ücretsiz bir yapay zeka asistanınız var. DeepSeek zekayı, OpenClaw ajansı sağlar ve Ollama her şeyin sorunsuz çalışmasını sağlar.
Artık yapabilecekleriniz:
- Telegram, Discord, WhatsApp veya diğer platformlar aracılığıyla DeepSeek ile sohbet edin
- E-posta gönderme ve takvimleri yönetme gibi görevleri otomatikleştirin
- Tam gizlilikle özel yapay zeka iş akışları oluşturun
- İhtiyaçlarınız arttıkça en küçük modelden en güçlü modele ölçeklendirin
DeepSeek ve OpenClaw'ın birleşimi, bulut alternatifleriyle aylık yüzlerce dolara mal olacak yetenekleri sunar – hepsi kendi donanımınızda çalışır.
Sonraki adımlar:
- Farklı DeepSeek model boyutlarını deneyin
- OpenClaw'ın yetenek pazarını (ClawHub) keşfedin
- Asistanınıza ek platformlar bağlayın
- Belirli kullanım durumları için özel istemler oluşturun
Tek sınır hayal gücünüzdür.
Profesyonel yapay zeka uygulamaları oluşturmaya hazır mısınız? Apidog'u ücretsiz indirin ve yapay zeka hizmet entegrasyonlarınızı geliştiriciler için tasarlanmış görsel bir arayüzle test edin. Yapay zeka iş akışlarınızın sağlam ve güvenilir olduğundan emin olmak için Apidog'un API test paketini deneyin.
