Bagaimana Cara Menerapkan Deepseek R1 di Cloud?

Pelajari cara deploy Deepseek R1 di AWS, Azure, & Digital Ocean langkah demi langkah. Optimalkan performa & gunakan Apidog untuk tes API mudah. Mulai sekarang!

Ardianto Nugroho

Ardianto Nugroho

12 July 2025

Bagaimana Cara Menerapkan Deepseek R1 di Cloud?

Apakah Anda ingin menerapkan Deepseek R1 —salah satu model bahasa besar yang paling kuat—di platform cloud? Baik Anda bekerja di AWS, Azure, atau Digital Ocean, panduan ini akan membantu Anda. Pada akhir postingan ini, Anda akan memiliki peta jalan yang jelas untuk membuat model Deepseek R1 Anda berjalan dengan mudah. Selain itu, kami akan menunjukkan kepada Anda bagaimana alat seperti Apidog dapat membantu menyederhanakan pengujian API selama penerapan.

💡
Unduh Apidog secara gratis hari ini untuk menguji API Anda dengan mudah dan memastikan integrasi tanpa hambatan dengan model yang Anda terapkan.
button

Mengapa Menerapkan Deepseek R1 di Cloud?

Menerapkan Deepseek R1 di cloud bukan hanya tentang skalabilitas; ini tentang memanfaatkan kekuatan GPU dan infrastruktur tanpa server untuk menangani beban kerja besar secara efisien. Dengan 671B parameternya, Deepseek R1 membutuhkan perangkat keras yang kuat dan konfigurasi yang dioptimalkan. Cloud menyediakan fleksibilitas, efektivitas biaya, dan sumber daya berkinerja tinggi yang membuat penerapan model semacam itu layak bahkan untuk tim yang lebih kecil.

Dalam panduan ini, kami akan memandu Anda dalam menerapkan Deepseek R1 di tiga platform populer: AWS, Azure, dan Digital Ocean. Kami juga akan berbagi tips untuk mengoptimalkan kinerja dan mengintegrasikan alat seperti Apidog untuk manajemen API.

Mempersiapkan Lingkungan Anda

Sebelum melompat ke penerapan, mari siapkan lingkungan kita. Ini melibatkan pengaturan token otentikasi, memastikan ketersediaan GPU, dan mengatur file Anda.

Token Otentikasi

Setiap penyedia cloud memerlukan beberapa bentuk otentikasi. Contohnya:

Token ini sangat penting karena memungkinkan komunikasi yang aman antara mesin lokal Anda dan platform cloud.

Organisasi File

Atur file Anda secara sistematis. Jika Anda menggunakan Docker (yang sangat direkomendasikan), buat Dockerfile yang berisi semua dependensi. Alat seperti Tensorfuse menyediakan templat bawaan untuk menerapkan Deepseek R1. Demikian pula, pengguna IBM Cloud harus mengunggah file model mereka ke Object Storage sebelum melanjutkan.

Opsi 1: Menerapkan Deepseek R1 di AWS Menggunakan Tensorfuse

Mari kita mulai dengan Amazon Web Services (AWS), salah satu platform cloud yang paling banyak digunakan. AWS seperti pisau Swiss Army—ia memiliki alat untuk setiap tugas, dari penyimpanan hingga daya komputasi. Di bagian ini, kita akan fokus pada penerapan Deepseek R1 menggunakan Tensorfuse, yang menyederhanakan proses secara signifikan.

Mengapa Membangun dengan Deepseek-R1?

Sebelum menyelami detail teknis, mari kita pahami mengapa Deepseek R1 menonjol:

Kekuatan ini menjadikan Deepseek R1 pilihan yang sangat baik untuk aplikasi siap produksi, dari chatbot hingga analitik data tingkat perusahaan.

Prasyarat

Sebelum Anda mulai, pastikan Anda telah mengonfigurasi Tensorfuse di akun AWS Anda. Jika Anda belum melakukannya, ikuti panduan Memulai. Pengaturan ini seperti menyiapkan ruang kerja Anda sebelum memulai proyek—ini memastikan semuanya ada di tempatnya untuk proses yang lancar.

Langkah 1: Atur Token Otentikasi API Anda

Hasilkan string acak yang akan digunakan sebagai token otentikasi API Anda. Simpan sebagai rahasia di Tensorfuse menggunakan perintah berikut:

tensorkube secret create vllm-token VLLM_API_KEY=vllm-key --env default

Pastikan bahwa dalam produksi, Anda menggunakan token yang dihasilkan secara acak. Anda dapat dengan cepat menghasilkan satu menggunakan openssl rand -base64 32 dan ingat untuk menjaganya tetap aman karena rahasia Tensorfuse bersifat buram.

Langkah 2: Siapkan Dockerfile

Kami akan menggunakan gambar OpenAI vLLM resmi sebagai gambar dasar kami. Gambar ini dilengkapi dengan semua dependensi yang diperlukan untuk menjalankan vLLM.

Berikut adalah konfigurasi Dockerfile:

# Dockerfile untuk Deepseek-R1-671B
FROM vllm/vllm-openai:latest
# Aktifkan Transfer HF Hub
ENV HF_HUB_ENABLE_HF_TRANSFER 1
# Ekspos port 80
EXPOSE 80
# Titik masuk dengan kunci API
ENTRYPOINT ["python3", "-m", "vllm.entrypoints.openai.api_server", \
            "--model", "deepseek-ai/DeepSeek-R1", \
            "--dtype", "bfloat16", \
            "--trust-remote-code", \
            "--tensor-parallel-size","8", \
            "--max-model-len", "4096", \
            "--port", "80", \
            "--cpu-offload-gb", "80", \
            "--gpu-memory-utilization", "0.95", \
            "--api-key", "${VLLM_API_KEY}"]

Konfigurasi ini memastikan bahwa server vLLM dioptimalkan untuk persyaratan khusus Deepseek R1, termasuk pemanfaatan memori GPU dan paralelisme tensor .

Langkah 3: Konfigurasi Penerapan

Buat file deployment.yaml untuk menentukan pengaturan penerapan Anda:

# deployment.yaml untuk Deepseek-R1-671B
gpus: 8
gpu_type: h100
secret:
  - vllm-token
min-scale: 1
readiness:
  httpGet:
    path: /health
    port: 80

Terapkan layanan Anda menggunakan perintah berikut:

tensorkube deploy --config-file ./deployment.yaml

Perintah ini menyiapkan layanan LLM produksi penskalaan otomatis yang siap untuk melayani permintaan yang diautentikasi.

Langkah 4: Mengakses Aplikasi yang Diterapkan

Setelah penerapan berhasil, Anda dapat menguji titik akhir Anda menggunakan curl atau pustaka klien OpenAI Python. Berikut adalah contoh menggunakan curl:

curl --request POST \
  --url YOUR_APP_URL/v1/completions \
  --header 'Content-Type: application/json' \
  --header 'Authorization: Bearer vllm-key' \
  --data '{
    "model": "deepseek-ai/DeepSeek-R1",
    "prompt": "Earth to Robotland. What's up?",
    "max_tokens": 200
}'

Untuk pengguna Python, berikut adalah cuplikan contoh:

import openai
# Ganti dengan URL dan token Anda yang sebenarnya
base_url = "YOUR_APP_URL/v1"
api_key = "vllm-key"
openai.api_base = base_url
openai.api_key = api_key
response = openai.Completion.create(
    model="deepseek-ai/DeepSeek-R1",
    prompt="Hello, Deepseek R1! How are you today?",
    max_tokens=200
)
print(response)

Opsi 2: Menerapkan Deepseek R1 di Azure

Menerapkan Deepseek R1 di Azure Machine Learning (Azure ML) adalah proses yang disederhanakan yang memanfaatkan infrastruktur platform yang kuat dan alat canggih untuk inferensi waktu nyata. Di bagian ini, kami akan memandu Anda dalam menerapkan Deepseek R1 menggunakan Managed Online Endpoints Azure ML. Pendekatan ini memastikan skalabilitas, efisiensi, dan kemudahan pengelolaan.

Langkah 1: Buat Lingkungan Kustom untuk vLLM di Azure ML

Untuk memulai, kita perlu membuat lingkungan kustom yang disesuaikan untuk vLLM, yang akan berfungsi sebagai tulang punggung untuk menerapkan Deepseek R1. Kerangka kerja vLLM dioptimalkan untuk inferensi throughput tinggi, menjadikannya ideal untuk menangani model bahasa besar seperti Deepseek R1.

1.1: Tentukan Dockerfile :Kita mulai dengan membuat Dockerfile yang menentukan lingkungan untuk model kita. Kontainer dasar vLLM mencakup semua dependensi dan driver yang diperlukan, memastikan pengaturan yang lancar:

FROM vllm/vllm-openai:latest
ENV MODEL_NAME deepseek-ai/DeepSeek-R1-Distill-Llama-8B
ENTRYPOINT python3 -m vllm.entrypoints.openai.api_server --model $MODEL_NAME $VLLM_ARGS

Dockerfile ini memungkinkan kita untuk meneruskan nama model melalui variabel lingkungan (MODEL_NAME), memungkinkan fleksibilitas dalam memilih model yang diinginkan selama penerapan . Misalnya, Anda dapat dengan mudah beralih di antara berbagai versi Deepseek R1 tanpa memodifikasi kode yang mendasarinya.

1.2: Masuk ke Ruang Kerja Azure ML: Selanjutnya, masuk ke ruang kerja Azure ML Anda menggunakan Azure CLI. Ganti <subscription ID>, <Azure Machine Learning workspace name>, dan <resource group> dengan detail spesifik Anda:

az account set --subscription <subscription ID>
az configure --defaults workspace=<Azure Machine Learning workspace name> group=<resource group>

Langkah ini memastikan bahwa semua perintah berikutnya dieksekusi dalam konteks ruang kerja Anda.

1.3: Buat File Konfigurasi Lingkungan: Sekarang, buat file environment.yml untuk menentukan pengaturan lingkungan. File ini mereferensikan Dockerfile yang kita buat sebelumnya:

$schema: https://azuremlschemas.azureedge.net/latest/environment.schema.json
name: r1
build:
  path: .
  dockerfile_path: Dockerfile

1.4: Bangun Lingkungan: Dengan file konfigurasi yang siap, bangun lingkungan menggunakan perintah berikut:

az ml environment create -f environment.yml

Langkah ini mengkompilasi lingkungan, membuatnya tersedia untuk digunakan dalam penerapan Anda.

Langkah 2: Terapkan Azure ML Managed Online Endpoint

Setelah lingkungan disiapkan, kita beralih ke penerapan model Deepseek R1 menggunakan Azure ML’s Managed Online Endpoints. Titik akhir ini menyediakan kemampuan inferensi waktu nyata yang dapat diskalakan, menjadikannya sempurna untuk aplikasi tingkat produksi.

2.1: Buat File Konfigurasi Titik Akhir: Mulailah dengan membuat file endpoint.yml untuk menentukan Managed Online Endpoint:

$schema: https://azuremlsdk2.blob.core.windows.net/latest/managedOnlineEndpoint.schema.json
name: r1-prod
auth_mode: key

Konfigurasi ini menentukan nama titik akhir (r1-prod) dan mode otentikasi (key). Anda dapat mengambil URI penilaian dan kunci API titik akhir nanti untuk tujuan pengujian.

2.2: Buat Titik Akhir: Gunakan perintah berikut untuk membuat titik akhir:

az ml online-endpoint create -f endpoint.yml

2.3: Ambil Alamat Gambar Docker: Sebelum melanjutkan, ambil alamat gambar Docker yang dibuat pada Langkah 1. Navigasikan ke Azure ML Studio > Environments > r1 untuk menemukan alamat gambar. Akan terlihat seperti ini:

xxxxxx.azurecr.io/azureml/azureml_xxxxxxxx

2.4: Buat File Konfigurasi Penerapan: Selanjutnya, buat file deployment.yml untuk mengonfigurasi pengaturan penerapan. File ini menentukan model, jenis instance, dan parameter lainnya:

$schema: https://azuremlschemas.azureedge.net/latest/managedOnlineDeployment.schema.json
name: current
endpoint_name: r1-prod
environment_variables:
  MODEL_NAME: deepseek-ai/DeepSeek-R1-Distill-Llama-8B
  VLLM_ARGS: "" # Argumen opsional untuk runtime vLLM
environment:
  image: xxxxxx.azurecr.io/azureml/azureml_xxxxxxxx # Tempel alamat gambar Docker di sini
  inference_config:
    liveness_route:
      port: 8000
      path: /ping
    readiness_route:
      port: 8000
      path: /health
    scoring_route:
      port: 8000
      path: /
instance_type: Standard_NC24ads_A100_v4
instance_count: 1
request_settings: # Opsional tetapi penting untuk mengoptimalkan throughput
    max_concurrent_requests_per_instance: 32
    request_timeout_ms: 60000
liveness_probe:
  initial_delay: 10
  period: 10
  timeout: 2
  success_threshold: 1
  failure_threshold: 30
readiness_probe:
  initial_delay: 120 # Tunggu selama 120 detik sebelum melakukan probing, memungkinkan model untuk memuat dengan tenang
  period: 10
  timeout: 2
  success_threshold: 1
  failure_threshold: 30

Parameter utama yang perlu dipertimbangkan:

2.5: Terapkan Model: Terakhir, terapkan model Deepseek R1 menggunakan perintah berikut:

az ml online-deployment create -f deployment.yml --all-traffic

Langkah ini menyelesaikan penerapan, membuat model dapat diakses melalui titik akhir yang ditentukan .

Langkah 3: Menguji Penerapan

Setelah penerapan selesai, saatnya untuk menguji titik akhir untuk memastikan semuanya berfungsi seperti yang diharapkan.

3.1: Ambil Detail Titik Akhir: Gunakan perintah berikut untuk mengambil URI penilaian dan kunci API titik akhir:

az ml online-endpoint show -n r1-prod
az ml online-endpoint get-credentials -n r1-prod

3.2: Alirkan Respons Menggunakan OpenAI SDK: Untuk mengalirkan respons, Anda dapat menggunakan OpenAI SDK:

from openai import OpenAI

url = "https://r1-prod.polandcentral.inference.ml.azure.com/v1"
client = OpenAI(base_url=url, api_key="xxxxxxxx")

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-R1-Distill-Llama-8B",
    messages=[
        {"role": "user", "content": "What is better, summer or winter?"},
    ],
    stream=True
)

for chunk in response:
    delta = chunk.choices[0].delta
    if hasattr(delta, "content"):
        print(delta.content, end="", flush=True)

Langkah 4: Pemantauan dan Penskalaan Otomatis

Azure Monitor memberikan wawasan komprehensif tentang pemanfaatan sumber daya, termasuk metrik GPU. Saat berada di bawah beban konstan, Anda akan melihat bahwa vLLM mengonsumsi sekitar 90% memori GPU, dengan pemanfaatan GPU mendekati 100%. Metrik ini membantu Anda menyempurnakan kinerja dan mengoptimalkan biaya.

Untuk mengaktifkan penskalaan otomatis, konfigurasikan kebijakan penskalaan berdasarkan pola lalu lintas. Misalnya, Anda dapat meningkatkan instance_count selama jam sibuk dan menguranginya selama jam tidak sibuk untuk menyeimbangkan kinerja dan biaya.

Opsi 3: Menerapkan Deepseek R1 di Digital Ocean

Terakhir, mari kita bahas penerapan Deepseek R1 di Digital Ocean , yang dikenal karena kesederhanaan dan keterjangkauannya.

Prasyarat

Sebelum menyelami proses penerapan, mari pastikan Anda memiliki semua yang Anda butuhkan:

Dengan prasyarat ini, Anda siap untuk bergerak maju.

Menyiapkan GPU Droplet

Langkah pertama adalah menyiapkan mesin Anda. Anggap ini sebagai persiapan kanvas sebelum melukis—Anda ingin semuanya siap sebelum menyelami detailnya.

Langkah 1: Buat GPU Droplet Baru

  1. Masuk ke akun DigitalOcean Anda dan navigasikan ke bagian Droplets.
  2. Klik Create Droplet dan pilih sistem operasi AI/ML Ready. OS ini sudah dikonfigurasi sebelumnya dengan driver CUDA dan dependensi lain yang diperlukan untuk akselerasi GPU.
  3. Pilih GPU NVIDIA H100 tunggal kecuali Anda berencana untuk menerapkan versi parameter 671B terbesar dari Deepseek R1, yang mungkin memerlukan beberapa GPU.
  4. Setelah droplet Anda dibuat, tunggu hingga berputar. Proses ini biasanya hanya membutuhkan beberapa menit.


Mengapa Memilih GPU H100?

GPU NVIDIA H100 adalah pembangkit tenaga listrik, menawarkan vRAM 80GB, RAM 240GB, dan penyimpanan 720GB. Dengan $6,47 per jam, ini adalah opsi hemat biaya untuk menerapkan model bahasa besar seperti Deepseek R1. Untuk model yang lebih kecil, seperti versi parameter 70B, GPU H100 tunggal lebih dari cukup.

Memasang Ollama & Deepseek R1

Sekarang setelah GPU droplet Anda aktif dan berjalan, saatnya untuk memasang alat yang diperlukan untuk menjalankan Deepseek R1. Kita akan menggunakan Ollama, kerangka kerja ringan yang dirancang untuk menyederhanakan penerapan model bahasa besar.

Langkah 1: Buka Konsol Web

Dari halaman detail droplet Anda, klik tombol Web Console yang terletak di sudut kanan atas. Ini membuka jendela terminal langsung di browser Anda, menghilangkan kebutuhan akan konfigurasi SSH.

Langkah 2: Pasang Ollama

Di terminal, tempel perintah berikut untuk memasang Ollama:

curl -fsSL https://ollama.com/install.sh | sh

Skrip ini mengotomatiskan proses pemasangan, mengunduh dan mengonfigurasi semua dependensi yang diperlukan. Pemasangan mungkin memakan waktu beberapa menit, tetapi setelah selesai, mesin Anda akan siap untuk menjalankan Deepseek R1.

Langkah 3: Jalankan Deepseek R1

Dengan Ollama terpasang, menjalankan Deepseek R1 semudah menjalankan satu perintah. Untuk demonstrasi ini, kita akan menggunakan versi parameter 70B, yang mencapai keseimbangan antara kinerja dan penggunaan sumber daya:

ollama run deepseek-r1:70b

Saat pertama kali Anda menjalankan perintah ini, ia akan mengunduh model (sekitar 40GB) dan memuatnya ke dalam memori. Proses ini dapat memakan waktu beberapa menit, tetapi menjalankan berikutnya akan jauh lebih cepat karena model di-cache secara lokal.

Setelah model dimuat, Anda akan melihat prompt interaktif tempat Anda dapat mulai berinteraksi dengan Deepseek R1. Ini seperti melakukan percakapan dengan asisten yang sangat cerdas!

Pengujian dan Pemantauan dengan Apidog

Setelah model Deepseek R1 Anda diterapkan, saatnya untuk menguji dan memantau kinerjanya. Di sinilah Apidog bersinar. Uji DeepSeek API di sini.

button

Apa Itu Apidog?

Apidog adalah alat pengujian API yang kuat yang dirancang untuk menyederhanakan debugging dan validasi. Dengan antarmuka intuitifnya, Anda dapat dengan cepat membuat kasus pengujian, respons tiruan, dan memantau kesehatan API.

Mengapa Menggunakan Apidog?

Dengan mengintegrasikan Apidog ke dalam alur kerja Anda, Anda dapat memastikan bahwa penerapan Deepseek R1 Anda tetap andal dan berkinerja optimal di bawah berbagai beban.

Kesimpulan

Menerapkan Deepseek R1 di cloud tidak harus menakutkan. Dengan mengikuti langkah-langkah yang diuraikan di atas, Anda dapat berhasil menyiapkan model mutakhir ini di AWS, Azure, atau Digital Ocean. Ingatlah untuk memanfaatkan alat seperti Apidog untuk menyederhanakan proses pengujian dan pemantauan.

💡
Siap untuk mengambil langkah selanjutnya? Unduh Apidog secara gratis hari ini dan tingkatkan kemampuan manajemen API Anda saat menerapkan Deepseek R1.
button

Explore more

Cara Menggunakan OpenAI Sora Secara Gratis: Panduan Lengkap untuk Microsoft Bing Video Creator

Cara Menggunakan OpenAI Sora Secara Gratis: Panduan Lengkap untuk Microsoft Bing Video Creator

💡Ingin alat Pengujian API hebat yang menghasilkan Dokumentasi API yang indah? Ingin platform Terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum? Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!tombol Model teks-ke-video mutakhir OpenAI, Sora, telah mengubah pembuatan konten yang dihasilkan AI dengan kemampuannya menciptakan video yang sangat realistis dari instruksi teks sederhana. Namun, biaya

3 June 2025

Apa itu Ollama? Cara Menginstal Ollama?

Apa itu Ollama? Cara Menginstal Ollama?

💡Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah? Ingin platform terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum? Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau! button Lanskap kecerdasan buatan (AI) terus berkembang dengan kecepatan tinggi, dan Model Bahasa Besar (LLM) menjadi semakin kuat dan mudah diakses. Meskipun banyak orang berinteraksi dengan model

28 April 2025

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?

Ingin Swagger UI dalam Bahasa Indonesia? Artikel ini menjelaskan mengapa tidak ada unduhan resmi gratis dan cara mengaktifkan terjemahan. Jelajahi fitur Swagger dan lihat mengapa Apidog adalah alternatif Swagger superior untuk desain, pengujian, dan dokumentasi API yang terintegrasi.

23 April 2025

Mengembangkan API dengan Apidog

Apidog adalah alat pengembangan API yang membantu Anda mengembangkan API dengan lebih mudah dan efisien.