Cara Menjalankan Mistral Small 3.1 Secara Lokal Menggunakan Ollama: Panduan Langkah demi Langkah

Pelajari cara menjalankan Mistral Small 3.1, model AI open-source terbaik, secara lokal dengan Ollama. Panduan mudah ini mencakup pengaturan, penggunaan, dan tips.

Ardianto Nugroho

Ardianto Nugroho

15 April 2025

Cara Menjalankan Mistral Small 3.1 Secara Lokal Menggunakan Ollama: Panduan Langkah demi Langkah

Menjalankan model AI tingkat lanjut secara lokal menawarkan kontrol, privasi, dan opsi penyesuaian yang tak tertandingi bagi pengembang dan penggemar teknologi. Jika Anda ingin memanfaatkan kekuatan kecerdasan buatan mutakhir di mesin Anda sendiri, Mistral Small 3.1, yang dikombinasikan dengan Ollama, memberikan solusi yang sangat baik. Mistral Small 3.1 adalah model bahasa canggih yang dikembangkan oleh Mistral AI, yang memiliki 24 miliar parameter dan kinerja terbaik di kelas beratnya. Sementara itu, Ollama menyederhanakan proses penerapan model bahasa besar (LLM) secara lokal, membuatnya dapat diakses bahkan oleh mereka yang memiliki pengaturan teknis sederhana. Dalam panduan komprehensif ini, kami akan memandu Anda melalui setiap langkah untuk menjalankan Mistral Small 3.1 di sistem Anda menggunakan Ollama. Selain itu, kami akan menunjukkan cara meningkatkan pengalaman Anda dengan mengintegrasikan Apidog, alat yang ampuh untuk pengembangan dan pengujian API.

Mengapa harus lokal? Dengan menjalankan Mistral Small 3.1 di mesin Anda, Anda menjaga data Anda tetap pribadi, menghindari biaya cloud, dan mendapatkan fleksibilitas untuk mengubah model sesuai kebutuhan Anda, baik itu membangun chatbot, menghasilkan kode, atau memproses teks multibahasa.

💡
Untuk membuat interaksi dengan model lokal Anda menjadi lebih lancar, kami sarankan untuk menggunakan Apidog. Alat API gratis ini memungkinkan Anda menguji dan men-debug titik akhir model Anda dengan mudah. Unduh Apidog secara gratis hari ini dan sederhanakan alur kerja Anda saat Anda menjelajahi kemampuan Mistral Small 3.1!
button

Mengapa Memilih Mistral Small 3.1 dan Ollama?

Sebelum melompat ke pengaturan, mari kita jelajahi mengapa Mistral Small 3.1 dan Ollama menjadi pasangan yang menarik. Mistral Small 3.1, yang dirilis di bawah lisensi Apache 2.0 sumber terbuka, memberikan kinerja luar biasa untuk ukurannya. Dengan jendela konteks 128k-token, ia menangani percakapan atau dokumen panjang dengan mudah. Ia juga mendukung banyak bahasa dan input multimodal, membuatnya serbaguna untuk tugas-tugas seperti pembuatan teks, terjemahan, atau bahkan analisis keterangan gambar. Pengembang menyukai efisiensinya, karena ia menyaingi model yang lebih besar saat berjalan di perangkat keras yang relatif sederhana.

Ollama, di sisi lain, adalah alat ringan yang dirancang untuk menjalankan LLM secara lokal. Ia mengabstraksi sebagian besar kompleksitas seperti manajemen dependensi atau konfigurasi GPU sehingga Anda dapat fokus menggunakan model daripada bergulat dengan rintangan pengaturan. Bersama-sama, Mistral Small 3.1 dan Ollama memberdayakan Anda untuk menerapkan model AI berkinerja tinggi tanpa bergantung pada layanan cloud.

Memasang Ollama di Mesin Anda

Ollama menyederhanakan menjalankan LLM secara lokal, dan memasangnya sangat mudah. Ikuti langkah-langkah ini untuk membuatnya berfungsi:

Pasang Ollama: Unduh dari situs web resmi Ollama dan ikuti petunjuknya.

Verifikasi Pemasangan: Konfirmasikan bahwa Ollama terpasang dengan benar dengan memeriksa versinya:

ollama --version

Anda akan melihat nomor versi (mis., 0.1.x). Jika tidak, atasi masalah dengan memastikan PATH Anda menyertakan biner Ollama.

Setelah memasang Ollama, Anda selangkah lebih dekat untuk menjalankan Mistral Small 3.1. Selanjutnya, Anda perlu mengambil model itu sendiri.

Mengunduh Bobot Model Mistral Small 3.1

Buka terminal Anda dan ketik:

ollama pull cnjack/mistral-samll-3.1

Ini mengunduh bobot model ke penyimpanan lokal Anda (versi komunitas dari mistral small 3.1). Tautan: https://ollama.com/cnjack/mistral-samll-3.1

Tergantung pada kecepatan internet Anda, ini bisa memakan waktu 15-30 menit karena ukuran file 50GB+.

Verifikasi Unduhan: Jalankan ollama list lagi. Anda akan melihat mistral-small-3.1 terdaftar, yang menunjukkan bahwa ia siap digunakan.

Sekarang Anda memiliki modelnya, mari kita muat ke Ollama dan mulai menjelajahi kemampuannya.

Memuat Mistral Small 3.1 ke dalam Ollama

Memuat model mempersiapkannya untuk inferensi. Ollama menangani pekerjaan berat, jadi langkah ini cepat:

  1. Muat Model: Jalankan perintah ini untuk memuat Mistral Small 3.1 ke dalam memori:
ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_S

Pertama kali Anda menjalankan ini, Ollama menginisialisasi model, yang mungkin memakan waktu beberapa menit tergantung pada perangkat keras Anda. Jalankan berikutnya lebih cepat.

  1. Uji Coba: Setelah dimuat, Ollama membawa Anda ke prompt interaktif. Ketik kueri sederhana:
Halo, bagaimana cara kerja Mistral Small 3.1?

Model merespons langsung di terminal, menunjukkan kehebatan pembuatan teksnya.

Pada titik ini, Mistral Small 3.1 beroperasi. Namun, untuk membuka potensi penuhnya terutama untuk akses terprogram, mari kita jelajahi cara berinteraksi dengannya lebih lanjut.

Berinteraksi dengan Mistral Small 3.1 Secara Lokal

Anda dapat terlibat dengan Mistral Small 3.1 dalam dua cara utama: inferensi baris perintah langsung atau melalui server API. Kedua metode memanfaatkan fleksibilitas Ollama, dan kami akan mengikat Apidog untuk pendekatan API.

Metode 1: Inferensi Langsung melalui Baris Perintah

Untuk pengujian cepat atau generasi satu kali, gunakan perintah run Ollama dengan prompt:

ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_S "Tulis puisi pendek tentang AI."

Model memproses input dan menghasilkan respons, seperti:

Pikiran buatan dalam sirkuit yang dalam,
Mempelajari pola saat kita tidur,
Suara kode, mereka berbicara dengan lembut,
Masa depan cerah, pikiran mereka kita simpan.

Metode ini cocok untuk eksperimen tetapi kurang skalabilitas. Untuk aplikasi yang lebih kuat, siapkan server API.

Metode 2: Menjalankan Mistral Small 3.1 sebagai Server API

Untuk mengintegrasikan Mistral Small 3.1 ke dalam proyek atau mengujinya secara sistematis, jalankan sebagai server API lokal:

  1. Mulai Server: Luncurkan Ollama dalam mode server:
ollama serve

Ini memulai REST API di http://localhost:11434 (port default Ollama). Biarkan ini berjalan di satu terminal.

  1. Uji API: Di terminal baru, gunakan curl untuk mengirim permintaan:
curl http://localhost:11434/api/generate -d '{"model": "mistral-small-3.1", "prompt": "Jelaskan AI dalam satu kalimat."}'

Responsnya mungkin terlihat seperti:

{
  "response": "AI adalah simulasi kecerdasan manusia oleh mesin, memungkinkan mereka untuk belajar, bernalar, dan melakukan tugas secara mandiri."
}

Pengaturan API ini membuka pintu untuk interaksi tingkat lanjut, di sinilah Apidog bersinar.

Menggunakan Apidog untuk Berinteraksi dengan API Mistral Small 3.1

Apidog menyederhanakan pengujian dan pengembangan API, menjadikannya sempurna untuk menanyakan server Mistral Small 3.1 lokal Anda. Berikut cara mengaturnya:

Pasang Apidog:

button

Buat Proyek Baru:

Tambahkan Permintaan API:

Konfigurasikan Badan Permintaan:

{
  "model": "mistral-small-3.1",
  "prompt": "Hasilkan skrip Python untuk mencetak 'Halo, AI!'",
  "stream": false
}

Kirim dan Tinjau:

{
  "response": "print('Halo, AI!')"
}

Antarmuka intuitif Apidog memungkinkan Anda bereksperimen dengan prompt, memantau waktu respons, dan bahkan mengotomatiskan pengujian yang ideal untuk pengembang yang membangun di atas Mistral Small 3.1.

Memecahkan Masalah Umum

Menjalankan model 24B-parameter secara lokal dapat mengalami kendala. Berikut adalah solusi untuk masalah yang sering terjadi:

Dengan tips ini, Anda dapat menyelesaikan sebagian besar masalah dan menjaga Mistral Small 3.1 tetap berjalan dengan lancar.

Mengoptimalkan dan Memperluas Pengaturan Anda

Sekarang Mistral Small 3.1 berjalan secara lokal, pertimbangkan untuk meningkatkannya:

Langkah-langkah ini membuka potensi penuh Mistral Small 3.1, menyesuaikannya dengan proyek unik Anda.

Kesimpulan

Menjalankan Mistral Small 3.1 secara lokal menggunakan Ollama adalah pengubah permainan bagi pengembang dan penggemar AI. Panduan ini telah memandu Anda melalui proses dari mengumpulkan prasyarat hingga memasang Ollama, mengunduh model, dan berinteraksi dengannya melalui baris perintah atau API. Dengan menambahkan Apidog ke dalam campuran, Anda menyederhanakan pengujian API dan membuka kemungkinan baru untuk integrasi. Dengan 24 miliar parameter, konteks 128k-token, dan fleksibilitas sumber terbuka, Mistral Small 3.1 menawarkan kekuatan besar di ujung jari Anda. Mulai bereksperimen hari ini, dan lihat bagaimana duo ini dapat mengubah proyek Anda.

button

Explore more

Cara Menggunakan Lovable AI (Alternatif Cursor untuk Pengembang Web)

Cara Menggunakan Lovable AI (Alternatif Cursor untuk Pengembang Web)

Pelajari cara buat web apa pun dgn Lovable. Panduan lengkap, fitur inovatif, & integrasi Apidog (API gratis).

15 April 2025

Cara Menambahkan Kunci API Kustom ke Cursor: Panduan Komprehensif

Cara Menambahkan Kunci API Kustom ke Cursor: Panduan Komprehensif

Tutorial ini memandu Anda menyiapkan & mengelola API key khusus di Cursor: OpenAI, Anthropic, Google, & Azure.

11 April 2025

Cara Menggunakan NVIDIA Llama Nemotron API untuk Agen AI Tingkat Lanjut

Cara Menggunakan NVIDIA Llama Nemotron API untuk Agen AI Tingkat Lanjut

Pelajari API NVIDIA Llama Nemotron utk buat agen AI canggih.

11 April 2025

Mengembangkan API dengan Apidog

Apidog adalah alat pengembangan API yang membantu Anda mengembangkan API dengan lebih mudah dan efisien.