DeepSeek V4, 23 Nisan 2026'da dört kontrol noktası, canlı bir API ve Hugging Face'de MIT lisanslı ağırlıklarla yayınlandı. Bu kombinasyon, onu kullanmanın tek bir "doğru yolu" olmadığı anlamına geliyor; en iyi yol, anında erişim, üretim API çağrıları veya şirket içi dağıtım isteyip istemediğinize bağlıdır. Bu kılavuz, her üçünü de ödünleşimleri, püf noktaları ve yeniden kullanabileceğiniz üretime hazır bir prompt iş akışıyla birlikte anlatmaktadır.
Sadece ürün seviyesi genel bir bakış istiyorsanız, önce DeepSeek V4 nedir yazısını okuyun. Sadece API kullanımına ilişkin ayrıntılı bilgi için DeepSeek V4 API kılavuzuna bakın. Sıfır maliyetli yol için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınıza bakın. Gerçek istekleri test etmeye hazır olduğunuzda Apidog'u edinin ve koleksiyonu önceden oluşturun.
TL;DR
- En hızlı yol: chat.deepseek.com. Ücretsiz web sohbeti, varsayılan olarak V4-Pro, üç düşünme modu.
- Üretim yolu:
https://api.deepseek.com/v1/chat/completions, model ID'lerideepseek-v4-proveyadeepseek-v4-flashile. - Kendi kendine barındırılan yol: Hugging Face'den ağırlıkları çekin, repodaki
/inferencekomut dosyalarını çalıştırın. - Yönlendirme ve sınıflandırma için Non-Think'i, kod ve analiz için Think High'ı, maliyetten ziyade doğruluk önemli olduğunda ise sadece Think Max'i seçin.
- DeepSeek'ten örnekleme önerisi:
temperature=1.0, top_p=1.0. Buna tekrar şüpheyle yaklaşmayın. - API istemcisi olarak Apidog'u kullanın; OpenAI uyumlu format, kaydedilen bir isteğin DeepSeek, OpenAI ve Anthropic'te tekrar oynatılması anlamına gelir.

İş yükünüz için doğru yolu seçin
Dört gerçekçi yol bulunmaktadır. Her biri farklı bir konuda öne çıkar.
| Yol | Maliyet | Kurulum süresi | En iyisi |
|---|---|---|---|
| chat.deepseek.com | Ücretsiz | 30 saniye | Hızlı testler, geçici işler |
| DeepSeek API | Token başına ücretlendirme | 5 dakika | Üretim, ajanlar, toplu işler |
| Kendi kendine barındırılan V4-Flash | Yalnızca donanım maliyeti | Birkaç saat | Şirket içi uyumluluk, çevrimdışı çıkarım |
| Kendi kendine barındırılan V4-Pro | Yalnızca küme maliyeti | Bir gün | Araştırma, özel ince ayarlar |
| OpenRouter / toplayıcı | Token başına ücretlendirme | 2 dakika | Çoklu sağlayıcı yedeklemesi |
Yol 1: V4'ü web sohbetinde kullanın
V4 hakkında fikir edinmenin en hızlı yolu resmi sohbet arayüzüdür.
- chat.deepseek.com adresine gidin.
- E-posta, Google veya WeChat ile oturum açın.
- V4-Pro varsayılan modeldir. Oluşturucunun üst kısmındaki anahtar, Non-Think, Think High ve Think Max arasında geçiş yapar.
- Yazmaya başlayın.

Web sohbeti dosya yüklemeyi, web aramayı ve tam 1M token bağlamını destekler. Hesap düzeyinde hız sınırlamaları uygulanır; yoğun kullanım yanıtları yavaşlatabilir ancak nadiren tamamen engeller.
Web kullanıcı arayüzü için iyi görevler: teşhis etmek için bir hata izi yapıştırmak, özetlemek için 200 sayfalık bir PDF yüklemek, GPT-5.5 veya Claude aracılığıyla çalıştırdığınız aynı prompt'a karşı karşılaştırma yapmak. Kötü görevler: otomatikleştirmek veya tekrar oynatmak istediğiniz her şey.
Yol 2: DeepSeek API'sini kullanın
Çoğu ekibin tercih edeceği yol budur. API canlıdır, istek formatı OpenAI uyumludur ve model kimlikleri, DeepSeek'in Temmuz 2026'daki deepseek-chat'in kullanımdan kaldırılmasından sonra da kullanmaya devam edeceği kimliklerdir.
Bir anahtar alın
- platform.deepseek.com adresinden kaydolun.
- Bir ödeme yöntemi ekleyin. Yüklemeler 2 dolardan başlar.
- API Anahtarları altında bir API anahtarı oluşturun ve bir kez kopyalayın; sırrı bir daha göremeyeceksiniz.
Anahtarı dışa aktarın, böylece her istemci onu alabilir:
export DEEPSEEK_API_KEY="sk-..."
Minimum uygulanabilir istek
DeepSeek iki temel URL sunar. OpenAI uyumlu arayüz, varsayılan olarak kullanılması gerekendir.
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "Bu Python fonksiyonunu eşzamansız olarak yeniden düzenleyin. Sadece kodla yanıtlayın."}
],
"thinking_mode": "thinking"
}'
Daha ucuz varyantı istiyorsanız deepseek-v4-pro'yu deepseek-v4-flash ile değiştirin. Hızlı yolu istiyorsanız thinking'i non-thinking ile değiştirin.
Python istemcisi
Resmi openai SDK, tek bir temel URL geçersiz kılma ile çalışır. Bu, OpenAI uyumlu uç noktaların sessiz avantajıdır; LangChain, LlamaIndex ve DSPy dahil olmak üzere her sarıcı kütüphane dokunulmadan çalışır.
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ["DEEPSEEK_API_KEY"],
base_url="https://api.deepseek.com/v1",
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "Sen özlü bir kıdemli mühendissin."},
{"role": "user", "content": "CSA+HCA hibrit dikkat yığınını açıklayın."},
],
extra_body={"thinking_mode": "thinking_max"},
temperature=1.0,
top_p=1.0,
)
print(response.choices[0].message.content)
Node istemcisi
Node üzerinde aynı desen:
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.DEEPSEEK_API_KEY,
baseURL: "https://api.deepseek.com/v1",
});
const response = await client.chat.completions.create({
model: "deepseek-v4-flash",
messages: [{ role: "user", content: "Rust'ta bir fizzbuzz yaz." }],
temperature: 1.0,
top_p: 1.0,
});
console.log(response.choices[0].message.content);
Tüm uç nokta detayları, parametre tabloları ve hata yönetimi DeepSeek V4 API kılavuzunda yer almaktadır.
Yol 3: Apidog ile tekrarlayın
Curl, tek bir çağrı için iyidir. Ondan sonra, her yeniden çalıştırma kredileri boşa harcar ve terminalinizi dağınıklığa boğar. Apidog her iki sorunu da çözer.
- Mac, Windows veya Linux için Apidog'u indirin.
- Yeni bir API projesi oluşturun,
https://api.deepseek.com/v1/chat/completionsadresine yönlendirilmiş bir POST isteği ekleyin. Authorization: Bearer {{DEEPSEEK_API_KEY}}'i bir başlık olarak ekleyin ve anahtarı istek gövdesine değil, ortam değişkenlerine kaydedin.- İlk JSON gövdenizi yapıştırın ve kaydedin. Buradan itibaren her ince ayar, yeniden oynatmak için tek bir tıklama ile yapılır.
- Aynı prompt'taki Non-Think ve Think Max çalışmaları arasındaki akıl yürütme izlerini karşılaştırmak için yerleşik yanıt görüntüleyiciyi kullanın.
Aynı koleksiyon, bir OpenAI GPT-5.5 isteğini, bir Claude isteğini ve bir DeepSeek V4 isteğini yan yana tutabilir. Bu, sağlayıcılar arasında A/B testini önemsiz hale getirir ve faturalamanızı tek bir pencerede görünür kılar. Halihazırda diğer AI API'leriyle Apidog kullanan ekipler için iş akışı birebir eşleşir; kaydedilen GPT-5.5 API koleksiyonu, tek bir temel URL değişikliğiyle bir V4 koleksiyonu haline gelir.
Yol 4: V4-Flash'i kendi kendine barındır
Uyumluluk, hava boşluğu gereksinimleri veya birim ekonomisi sizi barındırılan API'lerden uzaklaştırıyorsa, MIT lisansı bu yola tamamen sahip olduğunuz anlamına gelir.
Donanım
- V4-Flash (13B aktif, toplam 284B): FP8'de 2 ila 4 H100 / H200 / MI300X kart. INT4'e nicemlenmiş halde, sıkı batch'lerle tek bir 80GB kartta çalışır.
- V4-Pro (49B aktif, toplam 1.6T): gerçek küme alanı. Üretim çıkarımı için gerçekçi taban 16 ila 32 H100'dür.
Ağırlıkları alın
# CLI'yi bir kez kurun
pip install -U "huggingface_hub[cli]"
# Repo kilitliyse giriş yapın (V4 halka açık, ancak giriş hız sınırlamalarına yardımcı olur)
huggingface-cli login
# V4-Flash'i çekin
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash \
--local-dir ./models/deepseek-v4-flash \
--local-dir-use-symlinks False
İndirmenin biraz zaman alacağını unutmayın. V4-Flash FP8'de yaklaşık 500GB'tır; V4-Pro ise çok terabaytlı aralıktadır.
Çıkarım çalıştırın
Model deposundaki /inference klasörü referans koduna sahiptir. Hızlı test için vLLM ve SGLang, yayınlandıktan bir gün sonra V4 destek dallarını yayınladı.
pip install "vllm>=0.9.0"
vllm serve deepseek-ai/DeepSeek-V4-Flash \
--tensor-parallel-size 4 \
--max-model-len 1048576 \
--dtype auto
vLLM çalıştıktan sonra, herhangi bir OpenAI uyumlu istemciyi http://localhost:8000/v1 adresine yönlendirin. Aynı Apidog koleksiyonu, farklı temel URL.
V4'ü etkili bir şekilde yönlendirme
V4, GPT-5.5 veya Claude'dan farklı şekilde prompt'lara yanıt verir. Çalışan üç desen.
- İstediğiniz düşünme modunu açıkça isteyin.
thinking_mode'u göreve uyacak şekilde ayarlayın. Modelin seçmesine güvenmeyin. - Sistem prompt'larını görev şekli için değil, kişilik için kullanın. V4-Pro, ton ve kısıtlama için sistem prompt'larını iyi takip eder; tüm görev spesifikasyonunu sistem mesajına sıkıştırmaya çalıştığınızda daha az güvenilirdir. Görevi kullanıcı mesajına koyun.
- Kod görevlerine bir test koşulu verin. 93.5 LiveCodeBench puanı, açık test vakalarıyla yapılan değerlendirmelerden geldi. Kod görevleriniz de bundan faydalanacaktır; başarısız testi yapıştırın ve model, "X yapan bir fonksiyon" istemekten daha sık geçmesini sağlayan kod yazacaktır.
Uzun bağlamlı çalışmalar (yüz binlerce token) için, en alakalı materyali giriş penceresinin üst ve alt kısımlarına yakın tutun. V4'ün hibrit dikkat mekanizması verimlidir, ancak yakınlık ve öncelik yanlılığı hala ortaya çıkar.
Maliyet kontrolü
V4'ün düşük token fiyatlarına rağmen, kontrolden çıkan bir ajan bütçeyi hızla tüketebilir. Üç koruyucu önlem:
- Varsayılan olarak V4-Flash kullanın. V4-Pro'yu yalnızca önemli bir kalite farkı ölçtüğünüzde kullanın.
- Varsayılan olarak Non-Think kullanın. Zorlu görevler için Think High'a yükseltin; Think Max'i doğruluğun kritik olduğu işler için saklayın.
max_tokenssınırlandırın. 1M bağlam bir üst sınırdır, bir hedef değil. Çoğu yanıt 2.000 çıktı token'ına sığar.
Apidog içinde, test çalışmalarının üretimden ayrı bir faturalandırma hesabını vurması için DEEPSEEK_API_KEY için ortam kapsamlı değişkenler ayarlayın. Apidog ayrıca her yanıttaki token sayılarını da kaydeder, bu da uzun süreli bir prompt'u tespit etmenin en basit yoludur.
DeepSeek V3 veya diğer modellerden geçiş
Üç geçiş yolu çoğu ekibi kapsar:
deepseek-chat/deepseek-reasoner'dan: model ID'sinideepseek-v4-proveyadeepseek-v4-flasholarak değiştirin. Eski ID'ler 24 Temmuz 2026'da kullanımdan kaldırılacaktır. Bu geçişi o zamandan önce yapın.- OpenAI GPT-5.x'ten: temel URL'yi
https://api.deepseek.com/v1olarak değiştirin, model ID'sini değiştirin, diğer her şeyi olduğu gibi bırakın. Paralel istek şekli için eşleşen GPT-5.5 API kılavuzuna bakın. - Anthropic Claude'dan: Anthropic mesaj formatını korumak için
https://api.deepseek.com/anthropicadresini işaret edin veya OpenAI formatına yeniden şekillendirip ana uç noktayı kullanın.
SSS
V4'ü kullanmak için ücretli bir hesaba mı ihtiyacım var? Web sohbeti ücretsizdir. API, yükleme gerektirir, ancak minimum 2 dolardır. Ücretsiz yollar için DeepSeek V4'ü ücretsiz olarak nasıl kullanacağınız konusuna bakın.
Varsayılan olarak hangi varyantı kullanmalıyım? V4-Flash ile Non-Think modunda başlayın. Kaliteyi ölçün. Sadece karşılığını verdiğinde yükseltin.
V4'ü MacBook'umda çalıştırabilir miyim? V4-Flash, 128GB birleşik belleğe sahip bir M3 Max veya M4 Max üzerinde ağır nicemleme ile yavaşça çalışacaktır. V4-Pro çalışmaz. Dizüstü bilgisayar düzeyinde deneyler için API'yi veya web sohbetini kullanın.
V4 araç kullanımını ve fonksiyon çağırmayı destekliyor mu? Evet. OpenAI uyumlu uç nokta standart tools dizisini kabul eder; yanıtlar tool_calls'u aynı şekilde geri taşır. Anthropic formatındaki uç nokta yerel Anthropic araç kullanma şemasını kullanır.
Yanıtları nasıl akış yaparım? İstek gövdesinde stream: true ayarlayın. Yanıt standart bir OpenAI uyumlu SSE akışıdır; OpenAI akışını yöneten herhangi bir kütüphane değişiklik yapmadan çalışır.
Hız sınırı var mı? Barındırılan API, katman başına limitleri api-docs.deepseek.com adresinde yayınlar. Kendi kendine barındırılan V4'ün donanımınızın ötesinde istek başına bir limiti yoktur.
