Dunia Model Bahasa Besar (LLM) lokal mewakili batas privasi, kontrol, dan kustomisasi. Selama bertahun-tahun, pengembang dan penggemar telah menjalankan model-model canggih pada perangkat keras mereka sendiri, bebas dari batasan dan biaya layanan berbasis cloud. Namun, kebebasan ini sering kali datang dengan batasan signifikan: isolasi. Model lokal dapat bernalar, tetapi tidak dapat bertindak. Dengan dirilisnya versi 0.3.17, LM Studio menghancurkan batasan ini dengan memperkenalkan dukungan untuk Model Context Protocol (MCP), sebuah fitur transformatif yang memungkinkan LLM lokal Anda terhubung dengan alat dan sumber daya eksternal.

Panduan ini menyediakan penyelaman mendalam yang komprehensif tentang cara mengkonfigurasi dan menggunakan fitur canggih ini. Kita akan beralih dari konsep dasar ke contoh praktis yang lebih maju, memberikan Anda gambaran lengkap tentang cara mengubah LLM lokal Anda menjadi agen yang interaktif dan efektif.
Ingin platform terintegrasi All-in-One agar Tim Pengembang Anda dapat bekerja sama dengan produktivitas maksimum?
Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
Apa itu Server MCP?
Sebelum Anda dapat mengkonfigurasi server, sangat penting untuk memahami arsitektur yang Anda gunakan. Model Context Protocol (MCP) adalah spesifikasi sumber terbuka, awalnya diperkenalkan oleh Anthropic, yang dirancang untuk menciptakan bahasa universal antara LLM dan alat eksternal. Anggap saja sebagai "API untuk API" yang terstandarisasi, khusus untuk konsumsi AI.
Sistem MCP melibatkan dua komponen utama:
- Host MCP: Ini adalah aplikasi tempat LLM berada. Host bertanggung jawab untuk mengelola penemuan alat, menyajikan alat yang tersedia kepada model selama proses inferensi, dan menangani seluruh siklus hidup panggilan alat. Dalam panduan ini, LM Studio adalah Host MCP.
- Server MCP: Ini adalah program yang mengekspos kumpulan alat (fungsi) melalui endpoint HTTP. Server bisa berupa skrip sederhana yang berjalan di mesin Anda atau layanan tingkat perusahaan yang kuat di web. Misalnya, perusahaan seperti Stripe dapat menawarkan server MCP untuk pemrosesan pembayaran, atau pengembang dapat menulis server pribadi untuk berinteraksi dengan perangkat rumah pintar mereka.
Keindahan protokol ini terletak pada kesederhanaan dan standarisasinya. Setiap pengembang dapat membangun server yang mengekspos alat, dan setiap aplikasi yang bertindak sebagai host dapat terhubung dengannya, menciptakan ekosistem yang agnostik terhadap vendor.
Panduan Langkah demi Langkah: Menambahkan Server MCP Jarak Jauh
Metode utama untuk menambahkan dan mengelola server MCP di LM Studio adalah dengan mengedit file konfigurasi pusat bernama mcp.json
.
Menemukan dan Mengedit mcp.json
Anda dapat mengakses file ini langsung dari antarmuka LM Studio, yang merupakan pendekatan yang direkomendasikan.
- Luncurkan LM Studio dan lihat bilah sisi kanan.
- Klik pada tab Program, yang diwakili oleh ikon prompt terminal (
>_
). - Di bawah bagian "Install", klik tombol Edit mcp.json.

Tindakan ini akan membuka file konfigurasi langsung di dalam editor teks dalam aplikasi LM Studio. Aplikasi secara otomatis memantau file ini untuk perubahan, sehingga server apa pun yang Anda tambahkan atau modifikasi akan dimuat ulang saat Anda menyimpannya.

Contoh Konfigurasi: Server Hugging Face
Untuk mengilustrasikan prosesnya, kita akan terhubung ke server MCP Hugging Face resmi. Alat ini memberikan kemampuan kepada LLM Anda untuk mencari model dan dataset di Hugging Face Hub—langkah pertama yang sempurna dalam penggunaan alat.
Pertama, Anda memerlukan token akses dari Hugging Face.
- Navigasikan ke pengaturan Token Akses akun Hugging Face Anda.
- Buat token baru. Beri nama yang deskriptif (misalnya,
lm-studio-mcp
) dan tetapkan peranread
padanya, yang cukup untuk pencarian. - Salin token yang dihasilkan (
hf_...
).
Selanjutnya, tambahkan struktur berikut ke file mcp.json
Anda.
{
"mcpServers": {
"hf-mcp-server": {
"url": "<https://huggingface.co/mcp>",
"headers": {
"Authorization": "Bearer <YOUR_HF_TOKEN>"
}
}
}
}
Sekarang, ganti placeholder <YOUR_HF_TOKEN>
dengan token sebenarnya yang Anda salin dari Hugging Face. Simpan file (Ctrl+S atau Cmd+S).
Itu saja. Instans LM Studio Anda kini terhubung.
Verifikasi dan Pengujian
Untuk mengonfirmasi bahwa koneksi aktif, Anda harus menggunakan model yang mahir dalam pemanggilan fungsi. Banyak model modern, seperti varian Llama 3, Mixtral, dan Qwen, memiliki kemampuan ini. Muat model yang sesuai dan mulai obrolan baru.
Berikan perintah yang memerlukan alat, misalnya:
"Bisakah Anda menemukan beberapa model LLM populer di Hugging Face yang berukuran di bawah 7 miliar parameter?"
Jika semuanya dikonfigurasi dengan benar, model akan mengenali kebutuhan akan sebuah alat. Alih-alih menjawab secara langsung, ia akan memicu panggilan alat, yang akan dicegat oleh LM Studio dan disajikan kepada Anda untuk konfirmasi.
Konfirmasi Panggilan Alat di LMStudio
Kekuatan untuk menghubungkan LLM Anda ke alat eksternal datang dengan tanggung jawab besar. Server MCP, berdasarkan desainnya, dapat mengakses file lokal Anda, membuat permintaan jaringan, dan mengeksekusi kode. LM Studio mengurangi risiko ini dengan fitur keamanan penting: konfirmasi panggilan alat.
Ketika sebuah model ingin menggunakan alat, sebuah kotak dialog akan muncul di antarmuka obrolan. Kotak ini memberi Anda gambaran lengkap yang mudah dibaca tentang tindakan yang tertunda:
- Nama alat yang dipanggil.
- Argumen spesifik yang ingin dikirim model kepadanya.
Anda memiliki kontrol penuh. Anda dapat memeriksa argumen untuk mencari sesuatu yang mencurigakan dan kemudian memilih untuk Izinkan panggilan sekali, Tolak, atau, untuk alat yang Anda percayai sepenuhnya, Selalu izinkan alat spesifik tersebut.
Peringatan: Jangan pernah menginstal atau memberikan izin kepada server MCP dari sumber yang tidak Anda percayai sepenuhnya. Selalu periksa dengan cermat panggilan alat pertama dari server baru mana pun. Anda dapat mengelola dan mencabut izin "Selalu izinkan" Anda kapan saja di Pengaturan Aplikasi > Alat & Integrasi.
Menghubungkan LMStudio ke Server MCP Lokal
Meskipun terhubung ke server jarak jauh berguna, kekuatan sejati MCP bagi banyak pengguna adalah kemampuan untuk menjalankan server di mesin lokal mereka. Ini memberikan akses LLM ke file, skrip, dan program lokal, semuanya sambil menjaga data sepenuhnya offline.
LM Studio mendukung server MCP lokal dan jarak jauh. Untuk mengkonfigurasi server lokal, Anda akan menambahkan entri ke file `mcp.json` Anda yang menunjuk ke URL lokal.
Misalnya, jika Anda menjalankan server di mesin Anda pada port 8000, konfigurasi Anda mungkin terlihat seperti ini:
{
"mcpServers": {
"my-local-server": {
"url": "http://localhost:8000"
}
}
}
Ingin platform terintegrasi All-in-One agar Tim Pengembang Anda dapat bekerja sama dengan produktivitas maksimum?
Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
Masa Depan adalah Lokal dan Terhubung
Integrasi MCP ke dalam LM Studio lebih dari sekadar pembaruan inkremental; ini adalah pergeseran mendasar. Ini menjembatani kesenjangan antara kecerdasan mentah LLM dan utilitas praktis aplikasi perangkat lunak. Ini menciptakan masa depan di mana AI Anda bukan hanya seorang teman bicara tetapi asisten pribadi yang beroperasi dengan aman di perangkat keras Anda sendiri.
Bayangkan seorang penulis dengan server MCP lokal yang menyediakan alat khusus untuk meringkas, memeriksa fakta terhadap perpustakaan dokumen pribadi, dan analisis gaya—semuanya tanpa mengirim satu kata pun ke cloud. Atau seorang pengembang yang LLM-nya dapat berinteraksi dengan server lokal untuk menjalankan tes, membaca output kompilator, dan mencari basis kode internal.
Untuk memfasilitasi visi ini, tim LM Studio juga telah memudahkan pengembang untuk berbagi kreasi mereka. Tombol "Add to LM Studio", yang menggunakan deeplink kustom lmstudio://
, memungkinkan instalasi server MCP baru dengan satu klik. Ini menurunkan hambatan masuk dan membuka jalan bagi ekosistem alat yang hidup dan digerakkan oleh komunitas.
Dengan merangkul standar terbuka dan memprioritaskan kontrol pengguna, LM Studio telah menyediakan kerangka kerja yang kuat untuk generasi AI pribadi berikutnya.