Apidog

Platform Pengembangan API Kolaboratif All-in-one

Desain API

Dokumentasi API

Debug API

Mocking API

Pengujian Otomatis API

Cara Menghubungkan LLM Mana Pun ke Server MCP Mana Pun Menggunakan MCP-Use

Ardianto Nugroho

Ardianto Nugroho

Updated on April 18, 2025

Apakah Anda ingin menghubungkan model bahasa besar (LLM) favorit Anda ke kotak alat superpowers, seperti pengambilan data web atau operasi file, tanpa terjerat dalam kode? Di sinilah MCP-Use hadir—sebuah pustaka Python sumber terbuka yang ramping yang memungkinkan Anda menghubungkan LLM apa pun ke server MCP apa pun dengan mudah. Anggap saja sebagai adaptor universal untuk impian AI Anda yang didukung API! Dalam panduan pemula ini, saya akan memandu Anda tentang cara menggunakan MCP-Use untuk menghubungkan LLM dan Model Context Protocol (MCP) server. Apakah Anda seorang pengembang atau hanya penasaran, tutorial ini akan membantu Anda. Siap menjadikan LLM Anda bintang multitasking? Mari kita mulai!

💡
Sebelum kita mulai dengan MCP-Use, mari kita beri penghormatan cepat kepada Apidog—alat yang luar biasa untuk para pecinta API! Ini membuat merancang, menguji, dan mendokumentasikan API sangat mudah, sempurna untuk saat Anda membangun proyek dengan server MCP. Cek di apidog.com—ini adalah teman terbaik bagi pengembang! 
button

Sekarang, mari kita terjun ke dalam keajaiban MCP-Use

Apa itu MCP-Use? Penghubung AI ke Alat Anda

Jadi, apa itu MCP-Use? Ini adalah pustaka Python yang bertindak sebagai jembatan, memungkinkan LLM apa pun (pikirkan Claude, GPT-4o, atau DeepSeek) berbicara dengan server MCP—alat khusus yang memberikan akses AI ke hal-hal seperti peramban web, sistem file, atau bahkan pencarian Airbnb. Dibangun di atas adaptor LangChain, MCP-Use menyederhanakan penghubungan API LLM Anda ke server-server ini, sehingga Anda dapat membangun agen kustom yang melakukan lebih dari sekadar mengobrol. Pengguna menyebutnya “cara sumber terbuka untuk membangun klien MCP lokal,” dan mereka tidak salah—ini 100% gratis dan fleksibel.

gambar tampilan mcp-use

Kenapa repot? Server MCP seperti port USB untuk AI, memungkinkan LLM Anda memanggil fungsi, mengambil data, atau mengotomatiskan tugas melalui antarmuka yang mirip dengan API yang distandarisasi. Dengan MCP-Use, Anda tidak perlu berurusan dengan integrasi kustom—cukup colok dan main. Mari kita atur!

Menginstal MCP-Use: Cepat dan Tanpa Rasa Sakit

Menjalankan MCP-Use sangat mudah, terutama jika Anda nyaman dengan Python. Repo GitHub (github.com/pietrozullo/mcp-use) menjelaskan semuanya dengan jelas. Berikut cara memulainya.

Langkah 1: Prasyarat

Anda akan memerlukan:

  • Python: Versi 3.11 atau lebih tinggi. Periksa dengan python --version. Tidak ada Python? Ambil dari python.org.
unduh python
  • pip: Pengelola paket Python (biasanya disertakan dengan Python).
  • Git (opsional): Untuk mengkloning repo jika Anda ingin kode terbaru.
  • Kunci API: Untuk LLM premium seperti OpenAI atau Anthropic. Kita akan membahas ini nanti.

Langkah 2: Instal MCP-Use

Ayo gunakan pip dalam lingkungan virtual untuk menjaga semuanya rapi:

Buat Folder Proyek:

mkdir mcp-use-project
cd mcp-use-project

Atur Lingkungan Virtual:

python -m venv mcp-env

Aktifkan:

  • Mac/Linux: source mcp-env/bin/activate
  • Windows: mcp-env\Scripts\activate

Instal MCP-Use:

pip install mcp-use

Atau, jika Anda ingin versi terbaru, kloning repo:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .

Tambahkan Penyedia LangChain:
MCP-Use bergantung pada LangChain untuk koneksi LLM. Instal penyedia untuk LLM Anda:

model chat langchain

Verifikasi Instalasi:
Jalankan:

python -c "import mcp_use; print(mcp_use.__version__)"

Anda seharusnya melihat nomor versi (misalnya, 0.42.1 per April 2025). Jika tidak, periksa kembali versi Python Anda atau pip.

Itu saja! MCP-Use siap menghubungkan LLM Anda ke server MCP. Saya butuh waktu sekitar lima menit—bagaimana dengan pengaturan Anda?

Menghubungkan LLM ke Server MCP dengan MCP-Use

Sekarang, mari kita buat keajaiban: menghubungkan LLM ke server MCP menggunakan MCP-Use. Kita akan menggunakan contoh sederhana—menghubungkan GPT-4o dari OpenAI ke server MCP Playwright untuk penjelajahan web.

Langkah 1: Dapatkan Kunci API LLM Anda

Untuk GPT-4o, ambil kunci API dari platform.openai.com. Daftar, buat kunci, dan simpan dengan aman. LLM lainnya seperti Claude (via console.anthropic.com) atau DeepSeek (di platform deepseek) juga akan berfungsi.

platform pengembang openai

Langkah 2: Atur Variabel Lingkungan

MCP-Use menyukai file .env untuk penyimpanan kunci API yang aman. Buat file .env di folder proyek Anda:

touch .env

Tambahkan kunci Anda dan simpan:

OPENAI_API_KEY=sk-xxx

Penting: jaga agar kunci API Anda tidak masuk ke Git dengan menambahkan file .env ke .gitignore.

Langkah 3: Konfigurasikan Server MCP

Server MCP menyediakan alat yang dapat digunakan LLM Anda. Kita akan menggunakan server MCP Playwright untuk otomatisasi peramban. Buat file konfigurasi bernama browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    }
  }
}

Ini memberi tahu MCP-Use untuk menjalankan server MCP Playwright. Simpan di folder proyek Anda.

Langkah 4: Tulis Skrip MCP-Use Pertama Anda

Ayo buat skrip Python untuk menghubungkan GPT-4o ke server Playwright dan mencari restoran. Buat mcp_example.py:

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    # Muat variabel lingkungan
    load_dotenv()

    # Buat MCPClient dari file konfigurasi
    client = MCPClient.from_config_file("browser_mcp.json")

    # Buat LLM (pastikan model mendukung pemanggilan alat)
    llm = ChatOpenAI(model="gpt-4o")

    # Buat agen
    agent = MCPAgent(llm=llm, client=client, max_steps=30)

    # Jalankan kueri
    result = await agent.run("Temukan restoran terbaik di San Francisco")
    print(f"\nHasil: {result}")

if __name__ == "__main__":
    asyncio.run(main())

Skrip ini:

  • Muat kunci API Anda dari .env.
  • Menyiapkan klien MCP dengan server Playwright.
  • Menghubungkan GPT-4o melalui LangChain.
  • Menjalankan kueri untuk mencari restoran.

Langkah 5: Jalankan

Pastikan lingkungan virtual Anda aktif, lalu:

python mcp_example.py

MCP-Use akan menghidupkan server Playwright, membiarkan GPT-4o menjelajahi web, dan mencetak sesuatu seperti: “Hasil: Restoran terbaik di San Francisco adalah Gary Danko, dikenal karena menu mencicipi yang luar biasa.” (Hasil Anda mungkin bervariasi!) Saya menjalankannya dan mendapatkan rekomendasi yang solid dalam waktu kurang dari satu menit—cukup keren, kan?

Menghubungkan ke Beberapa Server MCP

MCP-Use bersinar saat Anda terhubung ke beberapa server untuk tugas kompleks. Mari kita tambahkan server MCP Airbnb ke konfigurasi kita untuk pencarian akomodasi. Perbarui browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    },
    "airbnb": {
      "command": "npx",
      "args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
    }
  }
}

Jalankan kembali mcp_example.py dengan kueri baru:

result = await agent.run("Temukan restoran dan Airbnb di San Francisco")

MCP-Use memungkinkan LLM menggunakan kedua server—Playwright untuk pencarian restoran, Airbnb untuk penginapan. Agen memutuskan server mana yang akan dipanggil, menjadikan AI Anda sangat serbaguna.

Mengapa MCP-Use Sangat Hebat untuk Pemula

MCP-Use adalah mimpi pemula karena:

  • Pengaturan Sederhana: Satu pip install dan skrip pendek membuat Anda bisa mulai.
  • Fleksibel: Bekerja dengan LLM dan server MCP mana pun, dari Claude hingga pelacak masalah GitHub.
  • Sumber Terbuka: Gratis dan dapat disesuaikan, dengan komunitas GitHub yang ramah.

Jika dibandingkan dengan integrasi API kustom, MCP-Use jauh lebih mudah, memungkinkan Anda fokus pada pembangunan hal-hal keren.

Tips Pro untuk Sukses Menggunakan MCP-Use

  • Periksa Kompatibilitas Model: Hanya LLM yang mendukung pemanggilan alat (seperti GPT-4o atau Claude 3.7 Sonnet) yang berfungsi.
  • Gunakan Scalar untuk Spesifikasi: Validasi spesifikasi API server untuk menghindari kejutan.
  • Jelajahi Server MCP: Telusuri mcp.so untuk server seperti Firecrawl (pengambilan data web) atau ElevenLabs (teks ke suara).
  • Bergabung dengan Komunitas: Laporkan bug atau sarankan fitur di GitHub MCP-Use.

Kesimpulan: Petualangan MCP-Use Anda Menanti

Selamat—Anda sekarang siap untuk mempercepat LLM mana pun dengan MCP-Use! Dari menghubungkan GPT-4o ke server Playwright, Anda memiliki alat untuk membangun agen AI yang menjelajah, mencari, dan banyak lagi. Cobalah menambahkan server MCP GitHub berikutnya atau minta agen Anda untuk merencanakan seluruh perjalanan. Repo MCP-Use memiliki lebih banyak contoh, dan komunitas MCP ramai di X. Dan untuk sentuhan ekstra API, jangan lupa untuk memeriksa apidog.com.

button
Gambar Ui Apidog