Apidog

Platform Pengembangan API Kolaboratif All-in-one

Desain API

Dokumentasi API

Debug API

Mocking API

Pengujian Otomatis

Cara Menggunakan Qwen 3 30B untuk Tugas MCP dan Agentik

Ashley Goolam

Ashley Goolam

Updated on May 29, 2025

Siap melepaskan kekuatan Qwen 3 30B-A3B untuk tugas keagenan tingkat lanjut? Model dahsyat ini, ketika dijalankan secara lokal dengan Ollama, adalah pengubah permainan untuk mcp (Model Context Protocol) dan pemanggilan alat, memungkinkan Anda membangun agen cerdas yang bernalar seperti profesional. Saya terpikat menjelajahi kemampuannya di Reddit, di mana orang-orang memuji kecepatan dan kecerdasannya untuk tugas-tugas seperti operasi file atau kueri basis data. Dalam tutorial ini, saya akan menunjukkan cara menyiapkan Qwen 3 secara lokal, mengonfigurasi mcp untuk penggunaan alat, dan membuat agen yang menulis puisi ke file—semuanya dengan keajaiban penalaran Qwen 3. Baik Anda sedang coding atau mengotomatiskan, mari jadikan Qwen 3 sahabat baru Anda!

💡
Bekerja dengan API atau mendokumentasikan proyek? Dapatkan APIdog untuk cara apik merancang, menguji, dan berbagi dokumen API—sempurna untuk alur kerja Qwen 3 Anda!
button

Apa Itu Qwen 3 dan Mengapa Hebat untuk MCP?

Qwen 3 adalah seri model bahasa besar open-weight terbaru Alibaba, dan varian 30B-A3B (Mixture-of-Experts) adalah unggulan untuk mcp dan tugas keagenan. Dengan total 30 miliar parameter tetapi hanya 3 miliar yang aktif per inferensi, model ini cepat dan efisien, berjalan dengan baik pada satu RTX 3090 atau 4090. Dukungan mcp-nya memungkinkan model ini memanggil alat (misalnya, sistem file, basis data) melalui antarmuka yang didefinisikan JSON, sementara mode berpikir hibridanya (... blocks) meningkatkan penalaran untuk tugas kompleks seperti pengkodean atau logika multi-langkah. Pengguna Reddit di r/LocalLLLaMA memuji presisi pemanggilan alatnya, dengan satu pengujian menunjukkan model ini berhasil menulis puisi ke file dengan mengueri direktori terlebih dahulu. Mari manfaatkan kekuatan ini secara lokal dengan Ollama!

Menyiapkan Lingkungan Qwen 3 Anda

Sebelum kita menyelami kesenangan mcp dan keagenan, mari siapkan sistem Anda untuk menjalankan Qwen 3 30B-A3B dengan Ollama. Ini ramah pemula, saya jamin!

1. Periksa Persyaratan Sistem:

  • OS: macOS, Linux (Ubuntu 20.04+), atau Windows (dengan WSL2).
  • Perangkat Keras: 16GB+ RAM, 24GB+ VRAM GPU (misalnya, RTX 3090/4090), 20GB+ penyimpanan. Model yang lebih kecil (0.6B, 1.7B, 8B) membutuhkan lebih sedikit: 4GB+ VRAM, 8GB+ RAM.
  • Perangkat Lunak:
  • Python 3.10+ (python3 --version).
  • Git (git --version).
  • Ollama

2. Instal Ollama:

Kunjungi situs web resmi dan unduh versi yang kompatibel dengan sistem operasi Anda.

ollama

Atau jalankan:

curl -fsSL https://ollama.com/install.sh | sh

Verifikasi versi:

ollama --version

Harapkan sesuatu seperti 0.3.12 (Mei 2025). Jika gagal, pastikan Ollama ada di PATH Anda.

3. Tarik Model Qwen 3:

Untuk Qwen Affiliate 30B (besar, hanya untuk PC kelas atas):

ollama pull qwen3:30b

Ini mengunduh sekitar 18GB—ambil camilan! Peringatan: Ini memakan banyak sumber daya dan membutuhkan GPU yang kuat.

Untuk pengujian pada perangkat keras sederhana, coba model Qwen Affiliate yang lebih kecil, yang masih sangat mampu untuk mcp dan alat:

ollama pull qwen3:0.6b  # ~0.4GB
ollama pull qwen3:1.7b  # ~1GB
ollama pull qwen3:8b    # ~5GB
qwen 3 models

Verifikasi instalasi:

ollama list

Cari qwen3:30b (atau qwen3:0.6b, dll.).

4. Uji Model:

Jalankan:

ollama run qwen3:30b

Atau, untuk model yang lebih kecil: ollama run qwen3:0.6b, qwen3:1.7b, atau qwen3:8b.

  • Pada prompt (>>>), ketik: “Ceritakan lelucon tentang komputer.” Harapkan sesuatu seperti: “Mengapa komputer pergi ke terapi? Mengalami krisis identitas setelah reboot!” Keluar dengan /bye.
test qwen 3
  • Saya menguji qwen3:8b di laptop, dan model ini melontarkan lelucon yang bagus dalam hitungan detik—model Qwen Affiliate bukan kaleng-kaleng!
Baru mengenal Ollama? Lihat tutorial ini untuk membantu Anda memulai!

Membuat Agen Qwen 3 dengan MCP dan Alat

Sekarang, mari manfaatkan kekuatan mcp dan alat Qwen 3 untuk membangun agen yang membaca PDF dan menjawab pertanyaan, menggunakan kode dari repositori GitHub Qwen-Agent. Kita juga akan menguji fungsi mcp untuk mengambil data waktu nyata seperti waktu atau cuaca. Anda bisa menggunakan PDF apa pun—makalah penelitian, resep, atau bahkan manual pengguna!

1. Siapkan Proyek Baru:

Buat dan navigasikan ke folder proyek:

mkdir qwen-agent-test
cd qwen-agent-test

2. Buat Lingkungan Virtual:

Siapkan dan aktifkan:

python3 -m venv venv
source venv/bin/activate  # macOS/Linux
venv\Scripts\activate     # Windows

3. Instal Qwen-Agent:

Instal dengan dependensi mcp dan alat:

pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"

4. Buat Skrip Agen:

  • Buat file testagent.py dan salin kode contoh Qwen-Agent dari repositori github, lalu modifikasi llm_cfg untuk Ollama:
# Langkah 2: Konfigurasi LLM yang Anda gunakan.
llm_cfg = {
    # Gunakan layanan model yang disediakan oleh DashScope:
    #'model': 'qwen-max-latest',
    #'model_type': 'qwen_dashscope',
    # 'api_key': 'YOUR_DASHSCOPE_API_KEY',
    # Ini akan menggunakan variabel lingkungan `DASHSCOPE_API_KEY' jika 'api_key' tidak diatur di sini.

    # Gunakan layanan model yang kompatibel dengan OpenAI API, seperti vLLM atau Ollama:
    'model': 'qwen3:0.6b',
    'model_server': 'http://localhost:11434/v1',  # base_url, juga dikenal sebagai api_base
    'api_key': 'ollama',

    # (Opsional) Hyperparameter LLM untuk generasi:
    'generate_cfg': {
        'top_p': 0.8
    }
}
  • Unduh PDF (Saya mengujinya menggunakan makalah berjudul “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” dari situs penelitian) dan simpan sebagai AI-paper.pdf di folder proyek. Sebaiknya, Anda bisa menggunakan PDF apa pun—misalnya resep, panduan, apa pun yang menarik minat Anda!

5. Mulai API Ollama:

Di terminal terpisah, jalankan:

ollama serve

Ini menghosting API di http://localhost:11434. Biarkan tetap berjalan.

6. Jalankan Agen:

Di folder proyek, eksekusi:

python testagent.py
run testagent.py
  • Qwen 3 akan membaca PDF dan meringkasnya. Untuk makalah visi AI saya, keluarannya adalah: “Makalah ini membahas pengenalan objek dalam robotika, berfokus pada sistem visi berbasis CNN untuk lokalisasi waktu nyata, mencapai akurasi 95%.” Respons Anda akan bervariasi berdasarkan PDF Anda—coba tanyakan tentang bahan-bahan resep atau langkah-langkah manual!
testagent.py output

7. Uji Fungsi MCP:

  • Untuk menguji kemampuan mcp Qwen 3 (di luar alat seperti membaca PDF), modifikasi testagent.py untuk menggunakan server mcp. Perbarui inisialisasi bot dengan:
tools = [
    'my_image_gen', 
    'code_interpreter',
    {
        'mcpServers': {
            'time': {
                'type': 'python',
                'module': 'mcp.server.time',
                'port': 8080
            },
            'fetch': {
                'type': 'python',
                'module': 'mcp.server.fetch',
                'port': 8081
            }
        }
    }
    ]  # `code_interpreter` adalah alat bawaan untuk mengeksekusi kode.
files = ['./AI-paper.pdf']  # Berikan bot file PDF untuk dibaca. 
  • Simpan dan jalankan kembali:
python testagent.py
  • Ajukan pertanyaan seperti: “Jam berapa di New York?” atau “Bagaimana cuaca di Sydney?” Qwen 3 secara cerdas memilih server mcp yang sesuai (time atau fetch) untuk mengambil data waktu nyata dari web atau sistem. Misalnya, saya mendapat: “Sekarang jam 3:47 PM di New York.” Detail lebih lanjut ada di repositori github mereka, silakan cek.

Menjelajahi Fitur MCP dan Pemanggilan Alat Qwen 3

Qwen 3 unggul dalam mcp dan tugas keagenan. Berikut cara mendorongnya lebih jauh:

  • Tambahkan Lebih Banyak Alat: Perluas agen dengan alat untuk kueri basis data atau pencarian web melalui modul tools Qwen-Agent. Reddit menyarankan tugas browser berfungsi dengan baik dengan mcp.
  • Beralih Mode Berpikir: Gunakan /think dalam prompt untuk penalaran kompleks (misalnya, curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Rencanakan proyek /think"}]}' atau /no_think untuk balasan cepat.
  • Uji Model yang Lebih Kecil: Jika 30B terlalu berat, qwen3:8b masih hebat untuk tugas mcp—bagus untuk laptop.
  • Optimalkan Kinerja: Gunakan kuantisasi Q8_XL Unsloth untuk kecepatan, seperti yang dicatat di Reddit.

Saya menguji qwen3:8b dengan PDF resep, dan model ini mencantumkan bahan-bahan dengan sempurna—pemanggilan alat Qwen 3 serbaguna!

Penutup: Kuasai Qwen 3 dan MCP

Sekarang, Anda telah melepaskan Qwen 3 30B dengan mcp dan alat untuk membangun agen pembaca PDF dan menguji fungsi mcp untuk kueri waktu nyata! Dari menginstal Ollama dan menguji model Qwen 3 hingga membuat Qwen-Agent yang meringkas makalah penelitian atau mengambil cuaca, Anda siap untuk kehebatan keagenan. Coba PDF baru, tambahkan alat, atau dokumentasikan API Anda dengan Apidog!

💡
Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah?

Ingin platform terintegrasi, All-in-One bagi Tim Pengembang Anda untuk bekerja sama dengan produktivitas maksimum?

Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
button