Apidog

Platform Pengembangan API Kolaboratif All-in-one

Desain API

Dokumentasi API

Debug API

Mocking API

Pengujian Otomatis

Lembar Contekan Ollama - Cara Menjalankan LLM Secara Lokal dengan Ollama

Dengan nalar kuat, kode hebat, dan input multimodal, ini pilihan tepat bagi pengembang AI lokal.

Ardianto Nugroho

Ardianto Nugroho

Updated on April 15, 2025

Pengantar LLM Lokal dengan Ollama

Lanskap AI berkembang pesat, tetapi satu tren tampak jelas: pengembang semakin menginginkan kontrol, privasi, dan fleksibilitas atas implementasi AI mereka. Ollama memberikan hal itu, menawarkan cara yang efisien untuk menjalankan model bahasa besar yang kuat secara lokal di perangkat keras Anda tanpa batasan API berbasis cloud.

Mengapa menjalankan model secara lokal? Tiga alasan yang menarik: privasi lengkap untuk data sensitif, tidak ada masalah latensi dari panggilan API, dan kebebasan dari kuota penggunaan atau biaya tak terduga. Saat Anda membangun aplikasi yang membutuhkan kinerja AI yang konsisten tanpa mengirim data pengguna ke pihak ketiga, inferensi lokal tidak hanya menjadi menarik tetapi juga penting.

DeepSeek-R1 mewakili kemajuan signifikan dalam model AI sumber terbuka, menyaingi kemampuan banyak penawaran komersial. Dengan kemampuan penalaran yang kuat, kehebatan pembuatan kode, dan kemampuan untuk memproses input multimodal, ini adalah pilihan serbaguna yang sangat baik bagi pengembang yang ingin mendorong batasan dari apa yang mungkin dengan AI lokal.


LLM yang kuat layak mendapatkan pengujian API yang kuat.

Saat membangun aplikasi yang terintegrasi dengan LLM lokal seperti DeepSeek melalui Ollama, Anda pasti akan menghadapi tantangan dalam men-debug respons AI streaming. Di situlah Apidog benar-benar bersinar.

Tidak seperti alat API generik, debugging SSE khusus Apidog memvisualisasikan pembuatan token demi token secara real-time—memberi Anda visibilitas yang belum pernah terjadi sebelumnya tentang bagaimana model Anda berpikir. Baik Anda sedang membangun chatbot, generator konten, atau pencarian bertenaga AI, Apidog membuat bekerja dengan titik akhir API Ollama menjadi sangat mudah.

Saya pribadi menemukan kombinasi ini sangat mengubah permainan untuk pengembangan LLM lokal.

button

Memulai dengan Ollama

Instalasi

Menginstal Ollama sangat mudah di seluruh sistem operasi utama:

curl -fsSL https://ollama.com/install.sh | sh

Setelah instalasi, mulai server Ollama dengan:

ollama serve

Perintah ini meluncurkan Ollama sebagai layanan yang mendengarkan permintaan di localhost:11434. Biarkan jendela terminal ini tetap berjalan, atau siapkan Ollama sebagai layanan latar belakang jika Anda berencana untuk menggunakannya terus menerus.

Persyaratan Sistem

Untuk kinerja optimal dengan DeepSeek-R1:

  • Minimum: RAM 8GB, CPU modern dengan 4+ core
  • Direkomendasikan: RAM 16GB+, GPU NVIDIA dengan VRAM 8GB+
  • Penyimpanan: Setidaknya ruang kosong 10GB untuk model dasar

Perintah Dasar

Periksa versi yang terinstal:

ollama --version

Dapatkan bantuan tentang perintah yang tersedia:

ollama help

Mengelola Model

Menemukan dan Menarik Model

Sebelum menyelami manipulasi model, mari kita lihat apa yang tersedia:

ollama list

Perintah ini menunjukkan semua model yang terinstal secara lokal. Saat Anda siap mengunduh DeepSeek-R1:

ollama pull deepseek-r1

Ollama menyediakan ukuran model yang berbeda untuk menyesuaikan kemampuan perangkat keras Anda. Untuk mesin dengan sumber daya terbatas, coba:

ollama pull deepseek-r1:7b

Untuk pengaturan yang lebih kuat yang mencari kemampuan yang ditingkatkan:

ollama pull deepseek-r1:8b

Menemui batasan konten? Beberapa pengembang lebih menyukai model yang kurang difilter:

ollama pull open-r1

Menjalankan Model Secara Efektif

Kekuatan sejati Ollama menjadi jelas saat Anda mulai berinteraksi dengan model. Luncurkan sesi obrolan interaktif:

ollama run deepseek-r1

Ini membuka percakapan real-time di mana Anda dapat menjelajahi kemampuan DeepSeek-R1. Ketik pertanyaan Anda dan tekan Enter, atau gunakan /help untuk melihat perintah khusus yang tersedia selama sesi.

Untuk pertanyaan cepat dan sekali saja tanpa memasuki mode interaktif:

ollama run deepseek-r1 "Jelaskan komputasi kuantum dengan istilah sederhana"

Proses teks langsung dari file—sangat berguna untuk tugas peringkasan, analisis, atau transformasi:

ollama run deepseek-r1 "Ringkas konten file ini dalam 50 kata." < input.txt

Menyesuaikan Parameter Model

Perilaku DeepSeek-R1 dapat diubah secara dramatis melalui penyesuaian parameter. Untuk keluaran kreatif dan bervariasi:

ollama run deepseek-r1 --temperature 0.7 --top-p 0.9

Untuk respons faktual dan deterministik yang lebih cocok untuk pengkodean atau penjelasan teknis:

ollama run deepseek-r1 --temperature 0.1 --top-p 1.0

Panduan Parameter:

  • Suhu (0.0-1.0): Nilai yang lebih rendah membuat respons lebih fokus dan deterministik; nilai yang lebih tinggi memperkenalkan kreativitas dan variasi.
  • Top-p (0.0-1.0): Mengontrol keragaman dengan hanya mempertimbangkan token yang paling mungkin yang probabilitas kumulatifnya melebihi ambang batas ini.
  • Jendela konteks: Menentukan seberapa banyak percakapan sebelumnya yang diingat model.

Penggunaan Tingkat Lanjut dan Integrasi API

Modelfile Kustom untuk Aplikasi Khusus

Fleksibilitas sejati Ollama muncul saat Anda membuat Modelfile kustom untuk mengadaptasi DeepSeek-R1 untuk tugas-tugas tertentu:

FROM deepseek-r1:8b
PARAMETER temperature 0.3
PARAMETER top_p 0.95
SYSTEM Anda adalah pengembang perangkat lunak senior yang berspesialisasi dalam Python. Berikan kode yang bersih dan efisien dengan komentar yang bermanfaat.

Simpan ini sebagai Modelfile dan buat model khusus Anda:

ollama create python-expert -f Modelfile

Jalankan seperti model lainnya:

ollama run python-expert "Tulis fungsi untuk menemukan bilangan prima dalam rentang tertentu"

REST API untuk Integrasi Aplikasi

Meskipun penggunaan baris perintah nyaman untuk eksperimen, aplikasi dunia nyata membutuhkan akses API. Ollama menyediakan REST API sederhana di port 11434:

# Permintaan penyelesaian dasar
curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "Tulis fungsi rekursif untuk menghitung bilangan Fibonacci",
  "stream": false
}'

Untuk respons streaming (ideal untuk antarmuka obrolan):

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "Jelaskan bagaimana jaringan saraf belajar dengan istilah sederhana",
  "stream": true
}'

Menguji Titik Akhir API dengan Apidog

Saat membangun aplikasi yang terintegrasi dengan API Ollama, menguji dan memvisualisasikan respons streaming menjadi krusial. Apidog unggul dalam menangani Server-Sent Events (SSE) seperti yang dihasilkan oleh API streaming Ollama:

  1. Buat proyek HTTP baru di Apidog
  2. Tambahkan titik akhir dengan URL http://localhost:11434/api/generate
  3. Siapkan permintaan POST dengan badan JSON:
{
  "model": "deepseek-r1",
  "prompt": "Tulis cerita tentang seorang programmer yang menemukan AI",
  "stream": true
}

4. Kirim permintaan dan saksikan saat debugger SSE Apidog memvisualisasikan proses pembuatan token demi token secara real-time

Visualisasi ini membantu mengidentifikasi masalah dengan pemformatan respons, pembuatan token, atau perilaku model tak terduga yang mungkin sulit di-debug jika tidak.

Aplikasi Dunia Nyata dengan DeepSeek-R1

DeepSeek-R1 unggul dalam berbagai skenario praktis:

Pembuatan Konten

Buat posting blog berkualitas profesional:

ollama run deepseek-r1 "Tulis posting blog 500 kata tentang teknologi berkelanjutan"

Ekstraksi Informasi

Proses dan analisis dokumen untuk mengekstrak informasi penting:

ollama run deepseek-r1 "Ekstrak poin-poin penting dari makalah penelitian ini: " < paper.txt

Analisis Gambar

Proses gambar untuk deskripsi atau analisis konten:

ollama run deepseek-r1 "Analisis dan jelaskan konten gambar ini" < image.jpg

Pembuatan dan Penjelasan Kode

Hasilkan solusi kode untuk masalah tertentu:

ollama run deepseek-r1 "Tulis fungsi Python yang mengimplementasikan algoritma pencarian biner dengan komentar terperinci"

Atau jelaskan kode yang kompleks:

ollama run deepseek-r1 "Jelaskan apa yang dilakukan kode ini: " < complex_algorithm.py

Memecahkan Masalah Umum

Masalah Memori dan Kinerja

Jika Anda mengalami kesalahan kehabisan memori:

  • Coba varian model yang lebih kecil (7B alih-alih 8B)
  • Kurangi ukuran jendela konteks dengan --ctx N (misalnya, --ctx 2048)
  • Tutup aplikasi lain yang memakan banyak memori
  • Untuk pengguna CUDA, pastikan Anda telah menginstal driver NVIDIA terbaru

Masalah Koneksi API

Jika Anda tidak dapat terhubung ke API:

  • Pastikan Ollama berjalan dengan ollama serve
  • Periksa apakah port default diblokir atau sedang digunakan (lsof -i :11434)
  • Verifikasi pengaturan firewall jika terhubung dari mesin lain

Kesimpulan

Ollama dengan DeepSeek-R1 mewakili langkah signifikan menuju demokratisasi AI dengan menempatkan model bahasa yang kuat langsung di tangan pengembang. Kombinasi ini menawarkan privasi, kontrol, dan kemampuan yang mengesankan—semuanya tanpa bergantung pada layanan eksternal.

Saat Anda membangun aplikasi dengan LLM lokal ini, ingatlah bahwa pengujian yang tepat dari integrasi API Anda sangat penting untuk kinerja yang andal. Alat seperti Apidog dapat membantu memvisualisasikan dan men-debug respons streaming dari Ollama, terutama saat Anda membangun aplikasi kompleks yang perlu memproses keluaran model secara real-time.

Baik Anda membuat konten, membangun antarmuka percakapan, atau membuat asisten kode, duo yang kuat ini menyediakan fondasi yang Anda butuhkan untuk integrasi AI yang canggih—langsung di perangkat keras Anda sendiri.

Apa itu Ollama? Cara Menginstal Ollama?Sudut Pandang

Apa itu Ollama? Cara Menginstal Ollama?

💡Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah? Ingin platform terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum? Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau! button Lanskap kecerdasan buatan (AI) terus berkembang dengan kecepatan tinggi, dan Model Bahasa Besar (LLM) menjadi semakin kuat dan mudah diakses. Meskipun banyak orang berinteraksi dengan model

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?Sudut Pandang

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?

Ingin Swagger UI dalam Bahasa Indonesia? Artikel ini menjelaskan mengapa tidak ada unduhan resmi gratis dan cara mengaktifkan terjemahan. Jelajahi fitur Swagger dan lihat mengapa Apidog adalah alternatif Swagger superior untuk desain, pengujian, dan dokumentasi API yang terintegrasi.

Oliver Kingsley

April 23, 2025

Di Mana Mengunduh Postman Bahasa Indonesia Gratis?Sudut Pandang

Di Mana Mengunduh Postman Bahasa Indonesia Gratis?

Bisakah Anda mengunduh Postman Bahasa Indonesia gratis? Meskipun Postman tidak memiliki dukungan Bahasa Indonesia native, ada solusi lain. Jelajahi ini & temukan Apidog, alternatif Postman terpadu yang kuat untuk menyederhanakan alur kerja API Anda, apa pun bahasanya.

Oliver Kingsley

April 22, 2025