要点(TL;DR)
DeepSeek V4は、ウェブチャットインターフェースとOpenAI互換APIを通じて利用できます。APIを使用するには、APIキーを作成し、Bearerトークン認証を使用し、チャット補完エンドポイントにリクエストを送信します。コードや仕様記述には温度を0.2に設定し、クリエイティブなタスクには0.5に設定します。複雑なコーディングタスクは、1つの大きなプロンプトにするのではなく、順序立てたステップに分割してください。開発を始める前に、Apidogで統合をテストしてください。
はじめに
DeepSeek V4は、コーディング、推論、技術文書作成を効果的に処理します。このモデルは、低い温度設定で指示によく従い、追加の出力が最小限に抑えられたクリーンなコードを生成し、プロンプト内の明示的な制約にも適切に応答します。
このガイドでは、ウェブインターフェースでの開始方法、APIアクセスの設定方法、および実際のコーディングワークフローでのモデルの使用方法について説明します。
ウェブインターフェースから始める
ウェブインターフェースは、API統合を決定する前にV4の機能をテストする最も速い方法です。
アクセス方法:
- chat.deepseek.comにアクセスします
- アカウントでサインインします
- サイドバーのモデルリストからV4を選択します
プロンプトの記述方法:
V4は、直接的で明確なプロンプトによく応答します。前置きは省略してください。必要なものを述べ、制約を指定します。
- 「〜するPython関数を書いてください」のように。「〜を手伝ってくれませんか」ではない。
- ファイルサイズが重要な場合は、「実装は100行未満にしてください」
- 解説が不要な場合は、「コードのみを出力し、説明は含めないでください」
- 暗黙の決定を明らかにするために、「あなたがしている仮定をすべてリストアップしてください」
温度のガイダンス:
ウェブインターフェースは温度を直接公開していません。API使用の場合:
0.2— コード生成、仕様記述、構造化された出力0.5— 代替案の探索、バリエーションの生成0.7+— クリエイティブライティング、ブレーンストーミング
長時間の会話に関するヒント:
長時間の会話ではコンテキストが蓄積されます。応答がずれたり曖昧になったりし始めたら、会話を続けるのではなく新しいスレッドを開始してください。V4は、長く蓄積されたコンテキストよりも、新しく焦点を絞ったコンテキストの方がパフォーマンスが向上します。
APIのセットアップ
ステップ1: APIキーの作成
- platform.deepseek.comにアクセスします
- APIキーに移動します
- 新しいキーを作成し、すぐにコピーします(一度だけ表示されます)
- 環境変数として保存します:
export DEEPSEEK_API_KEY="your-api-key-here"
ステップ2: curlでテストする
DeepSeek V4はOpenAI互換のエンドポイントを使用します:
curl https://api.deepseek.com/v1/chat/completions \
-H "Authorization: Bearer $DEEPSEEK_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4",
"messages": [{"role": "user", "content": "Write a Python function that sorts a list of dictionaries by a specified key."}],
"temperature": 0.2
}'
ステップ3: Python統合
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.deepseek.com/v1"
)
response = client.chat.completions.create(
model="deepseek-v4",
messages=[
{"role": "system", "content": "You write clean, minimal Python. No explanatory prose unless asked."},
{"role": "user", "content": "Write a function that renames screenshot files based on their creation timestamp."}
],
temperature=0.2
)
print(response.choices[0].message.content)
エンドポイントの構造が互換性があるため、OpenAI PythonクライアントはDeepSeekのAPIで動作します。
Apidogでのテスト
統合を構築する前にApidogでAPIをテストすることで、応答形式の問題を早期に特定できます。
環境設定:
- Apidogを開き、新しいプロジェクトを作成します
- 環境に移動し、「DeepSeek Production」を作成します
- 変数「Name =
DEEPSEEK_API_KEY, Type = Secret, Value = あなたのキー」を追加します
テストリクエストの作成:
POST https://api.deepseek.com/v1/chat/completions
Authorization: Bearer {{DEEPSEEK_API_KEY}}
Content-Type: application/json
{
"model": "deepseek-v4",
"messages": [
{
"role": "system",
"content": "You are a coding assistant. Respond only with code unless asked for explanation."
},
{
"role": "user",
"content": "{{user_prompt}}"
}
],
"temperature": 0.2,
"max_tokens": 2000
}
アサーションの追加:
Status code is 200
Response body has field choices
Response body, field choices[0].message.content is not empty
ストリーミングモードのテスト:
リアルタイムストリーミング応答の場合:
{
"model": "deepseek-v4",
"messages": [...],
"stream": true,
"temperature": 0.2
}
Apidogはストリーミング応答を処理します。最終的なコンテンツが正しく組み立てられていることを確認してください。
最初のコーディングタスク: 自動化ワークフロー
V4を評価するために推奨される最初のタスクは、ファイル自動化スクリプトです。これにより、以下の点がテストされます:
- モデルが暗黙の要件を理解するかどうか
- ファイルシステム操作(バグの原因となりがち)をどのように処理するか
- 明確化を求めるか、または仮定を立てるか
コーディングタスクのプロンプト構造:
一度にすべてを要求するのではなく、リクエストをフェーズに分割します:
フェーズ1: リスク評価
I want to write a Python script that renames files in a folder based on their creation date.
Before you write any code, list the risks and edge cases I should handle.
フェーズ2: 実装計画
Now write a step-by-step implementation plan. Don't write code yet.
フェーズ3: コード
Write the Python script. Requirements:
- Under 120 lines
- Handle the edge cases you listed
- Add a --dry-run flag that shows what would be renamed without making changes
- No external dependencies beyond the standard library
フェーズ4: テスト
Write pytest tests for the main renaming logic. Mock the file system.
この4段階アプローチは、単一の「このアプリを作って」というプロンプトよりもクリーンな出力を生成します。
モデルの長所と限界
V4が得意なこと:
- 低い温度設定でフォーマット要件に確実に従う
- コンテキスト設定の前置きなしに、簡潔で直接的な指示を処理する
- 明示的に求められた際に、エッジケースを特定する
- 不要なボイラープレートなしで、最小限のコードを生成する
注意すべき点:
- V4はコードレビューに代わるものではありません。生成されたものを読み込んでください。
- 複雑なスクリプトは、より小さな連続したタスクに分割することで恩恵を受けます。
- 大規模なマルチファイルのリファクタリングでは、Claude Opus 4.6またはGPT-5の方が予期せぬ結果が少ない可能性があります。
- 高い温度設定での応答には、自信満々に聞こえるエラーが含まれることがあります。低い温度設定で確認してください。
レート制限と料金
現在のレート制限はplatform.deepseek.comで確認してください。DeepSeekの料金は主要プロバイダーと比較しても競争力があります。トークンあたりのコストが重要なバッチワークフローにおいて、DeepSeek V4は大きな価値を提供します。
本番環境で使用するには、以下を実装してください:
- レート制限エラー(HTTP 429)に対する指数バックオフ付きリトライロジック
- トークン消費を追跡するためのリクエストロギング
- 生成されたコードを使用する前の出力検証
よくある質問
DeepSeek V4はOpenAI互換ですか?
はい。チャット補完エンドポイントはOpenAI API形式に従っています。OpenAIを呼び出す既存のコードは、ベースURLとAPIキーを変更することでDeepSeekに切り替えることができます。
コンテキストウィンドウはどれくらいですか?
DeepSeek V4は、リポジトリ規模のコードレビューに適した大きなコンテキストウィンドウをサポートしています。正確な制限については、更新される可能性があるため、最新のドキュメントを確認してください。
DeepSeek V4をコーディング以外のタスクにも使用できますか?
はい。執筆、分析、研究タスクも上手く機能します。モデルの構造化出力と指示に従う強みは、非コードのユースケースにも適用されます。
V4はコーディングに関してClaude Opus 4.6と比較してどうですか?
SWE-benchベンチマークでは、Claude Opus 4.6が80.9%でリードしています。DeepSeek V4は、大規模なコンテキストを持つマルチファイル、リポジトリ規模のタスクに強いです。ほとんどのコーディングユースケースではどちらも能力がありますが、実用的な違いはコストと特定のエッジケースにあります。
APIは関数呼び出しをサポートしていますか?
はい。DeepSeek V4はOpenAI形式での関数呼び出しをサポートしており、OpenAI SDK上に構築されたツール使用ワークフローと互換性があります。
