Siap melepaskan kekuatan Qwen 3 30B-A3B untuk tugas keagenan tingkat lanjut? Model dahsyat ini, ketika dijalankan secara lokal dengan Ollama, adalah pengubah permainan untuk mcp (Model Context Protocol) dan pemanggilan alat, memungkinkan Anda membangun agen cerdas yang bernalar seperti profesional. Saya terpikat menjelajahi kemampuannya di Reddit, di mana orang-orang memuji kecepatan dan kecerdasannya untuk tugas-tugas seperti operasi file atau kueri basis data. Dalam tutorial ini, saya akan menunjukkan cara menyiapkan Qwen 3 secara lokal, mengonfigurasi mcp untuk penggunaan alat, dan membuat agen yang menulis puisi ke file—semuanya dengan keajaiban penalaran Qwen 3. Baik Anda sedang coding atau mengotomatiskan, mari jadikan Qwen 3 sahabat baru Anda!
Apa Itu Qwen 3 dan Mengapa Hebat untuk MCP?
Qwen 3 adalah seri model bahasa besar open-weight terbaru Alibaba, dan varian 30B-A3B (Mixture-of-Experts) adalah unggulan untuk mcp dan tugas keagenan. Dengan total 30 miliar parameter tetapi hanya 3 miliar yang aktif per inferensi, model ini cepat dan efisien, berjalan dengan baik pada satu RTX 3090 atau 4090. Dukungan mcp-nya memungkinkan model ini memanggil alat (misalnya, sistem file, basis data) melalui antarmuka yang didefinisikan JSON, sementara mode berpikir hibridanya (... blocks) meningkatkan penalaran untuk tugas kompleks seperti pengkodean atau logika multi-langkah. Pengguna Reddit di r/LocalLLLaMA memuji presisi pemanggilan alatnya, dengan satu pengujian menunjukkan model ini berhasil menulis puisi ke file dengan mengueri direktori terlebih dahulu. Mari manfaatkan kekuatan ini secara lokal dengan Ollama!
Menyiapkan Lingkungan Qwen 3 Anda
Sebelum kita menyelami kesenangan mcp dan keagenan, mari siapkan sistem Anda untuk menjalankan Qwen 3 30B-A3B dengan Ollama. Ini ramah pemula, saya jamin!
1. Periksa Persyaratan Sistem:
- OS: macOS, Linux (Ubuntu 20.04+), atau Windows (dengan WSL2).
- Perangkat Keras: 16GB+ RAM, 24GB+ VRAM GPU (misalnya, RTX 3090/4090), 20GB+ penyimpanan. Model yang lebih kecil (0.6B, 1.7B, 8B) membutuhkan lebih sedikit: 4GB+ VRAM, 8GB+ RAM.
- Perangkat Lunak:
- Python 3.10+ (
python3 --version
). - Git (
git --version
). - Ollama
2. Instal Ollama:
Kunjungi situs web resmi dan unduh versi yang kompatibel dengan sistem operasi Anda.

Atau jalankan:
curl -fsSL https://ollama.com/install.sh | sh
Verifikasi versi:
ollama --version
Harapkan sesuatu seperti 0.3.12 (Mei 2025). Jika gagal, pastikan Ollama ada di PATH Anda.
3. Tarik Model Qwen 3:
Untuk Qwen Affiliate 30B (besar, hanya untuk PC kelas atas):
ollama pull qwen3:30b
Ini mengunduh sekitar 18GB—ambil camilan! Peringatan: Ini memakan banyak sumber daya dan membutuhkan GPU yang kuat.
Untuk pengujian pada perangkat keras sederhana, coba model Qwen Affiliate yang lebih kecil, yang masih sangat mampu untuk mcp dan alat:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

Verifikasi instalasi:
ollama list
Cari qwen3:30b (atau qwen3:0.6b, dll.).
4. Uji Model:
Jalankan:
ollama run qwen3:30b
Atau, untuk model yang lebih kecil: ollama run qwen3:0.6b, qwen3:1.7b, atau qwen3:8b.
- Pada prompt (>>>), ketik: “Ceritakan lelucon tentang komputer.” Harapkan sesuatu seperti: “Mengapa komputer pergi ke terapi? Mengalami krisis identitas setelah reboot!” Keluar dengan /bye.

- Saya menguji qwen3:8b di laptop, dan model ini melontarkan lelucon yang bagus dalam hitungan detik—model Qwen Affiliate bukan kaleng-kaleng!
Membuat Agen Qwen 3 dengan MCP dan Alat
Sekarang, mari manfaatkan kekuatan mcp dan alat Qwen 3 untuk membangun agen yang membaca PDF dan menjawab pertanyaan, menggunakan kode dari repositori GitHub Qwen-Agent. Kita juga akan menguji fungsi mcp untuk mengambil data waktu nyata seperti waktu atau cuaca. Anda bisa menggunakan PDF apa pun—makalah penelitian, resep, atau bahkan manual pengguna!
1. Siapkan Proyek Baru:
Buat dan navigasikan ke folder proyek:
mkdir qwen-agent-test
cd qwen-agent-test
2. Buat Lingkungan Virtual:
Siapkan dan aktifkan:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. Instal Qwen-Agent:
Instal dengan dependensi mcp dan alat:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. Buat Skrip Agen:
- Buat file
testagent.py
dan salin kode contoh Qwen-Agent dari repositori github, lalu modifikasillm_cfg
untuk Ollama:
# Langkah 2: Konfigurasi LLM yang Anda gunakan.
llm_cfg = {
# Gunakan layanan model yang disediakan oleh DashScope:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# Ini akan menggunakan variabel lingkungan `DASHSCOPE_API_KEY' jika 'api_key' tidak diatur di sini.
# Gunakan layanan model yang kompatibel dengan OpenAI API, seperti vLLM atau Ollama:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url, juga dikenal sebagai api_base
'api_key': 'ollama',
# (Opsional) Hyperparameter LLM untuk generasi:
'generate_cfg': {
'top_p': 0.8
}
}
- Unduh PDF (Saya mengujinya menggunakan makalah berjudul “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” dari situs penelitian) dan simpan sebagai
AI-paper.pdf
di folder proyek. Sebaiknya, Anda bisa menggunakan PDF apa pun—misalnya resep, panduan, apa pun yang menarik minat Anda!
5. Mulai API Ollama:
Di terminal terpisah, jalankan:
ollama serve
Ini menghosting API di http://localhost:11434.
Biarkan tetap berjalan.
6. Jalankan Agen:
Di folder proyek, eksekusi:
python testagent.py

- Qwen 3 akan membaca PDF dan meringkasnya. Untuk makalah visi AI saya, keluarannya adalah: “Makalah ini membahas pengenalan objek dalam robotika, berfokus pada sistem visi berbasis CNN untuk lokalisasi waktu nyata, mencapai akurasi 95%.” Respons Anda akan bervariasi berdasarkan PDF Anda—coba tanyakan tentang bahan-bahan resep atau langkah-langkah manual!

7. Uji Fungsi MCP:
- Untuk menguji kemampuan mcp Qwen 3 (di luar alat seperti membaca PDF), modifikasi
testagent.py
untuk menggunakan server mcp. Perbarui inisialisasibot
dengan:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter` adalah alat bawaan untuk mengeksekusi kode.
files = ['./AI-paper.pdf'] # Berikan bot file PDF untuk dibaca.
- Simpan dan jalankan kembali:
python testagent.py
- Ajukan pertanyaan seperti: “Jam berapa di New York?” atau “Bagaimana cuaca di Sydney?” Qwen 3 secara cerdas memilih server mcp yang sesuai (
time
ataufetch
) untuk mengambil data waktu nyata dari web atau sistem. Misalnya, saya mendapat: “Sekarang jam 3:47 PM di New York.” Detail lebih lanjut ada di repositori github mereka, silakan cek.
Menjelajahi Fitur MCP dan Pemanggilan Alat Qwen 3
Qwen 3 unggul dalam mcp dan tugas keagenan. Berikut cara mendorongnya lebih jauh:
- Tambahkan Lebih Banyak Alat: Perluas agen dengan alat untuk kueri basis data atau pencarian web melalui modul
tools
Qwen-Agent. Reddit menyarankan tugas browser berfungsi dengan baik dengan mcp. - Beralih Mode Berpikir: Gunakan /think dalam prompt untuk penalaran kompleks (misalnya,
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Rencanakan proyek /think"}]}'
atau/no_think
untuk balasan cepat. - Uji Model yang Lebih Kecil: Jika 30B terlalu berat,
qwen3:8b
masih hebat untuk tugas mcp—bagus untuk laptop. - Optimalkan Kinerja: Gunakan kuantisasi Q8_XL Unsloth untuk kecepatan, seperti yang dicatat di Reddit.
Saya menguji qwen3:8b
dengan PDF resep, dan model ini mencantumkan bahan-bahan dengan sempurna—pemanggilan alat Qwen 3 serbaguna!
Penutup: Kuasai Qwen 3 dan MCP
Sekarang, Anda telah melepaskan Qwen 3 30B dengan mcp dan alat untuk membangun agen pembaca PDF dan menguji fungsi mcp untuk kueri waktu nyata! Dari menginstal Ollama dan menguji model Qwen 3 hingga membuat Qwen-Agent yang meringkas makalah penelitian atau mengambil cuaca, Anda siap untuk kehebatan keagenan. Coba PDF baru, tambahkan alat, atau dokumentasikan API Anda dengan Apidog!
Ingin platform terintegrasi, All-in-One bagi Tim Pengembang Anda untuk bekerja sama dengan produktivitas maksimum?
Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!