Apakah Anda ingin menghubungkan model bahasa besar (LLM) favorit Anda ke kotak alat superpowers, seperti pengambilan data web atau operasi file, tanpa terjerat dalam kode? Di sinilah MCP-Use hadir—sebuah pustaka Python sumber terbuka yang ramping yang memungkinkan Anda menghubungkan LLM apa pun ke server MCP apa pun dengan mudah. Anggap saja sebagai adaptor universal untuk impian AI Anda yang didukung API! Dalam panduan pemula ini, saya akan memandu Anda tentang cara menggunakan MCP-Use untuk menghubungkan LLM dan Model Context Protocol (MCP) server. Apakah Anda seorang pengembang atau hanya penasaran, tutorial ini akan membantu Anda. Siap menjadikan LLM Anda bintang multitasking? Mari kita mulai!

Sekarang, mari kita terjun ke dalam keajaiban MCP-Use…
Apa itu MCP-Use? Penghubung AI ke Alat Anda
Jadi, apa itu MCP-Use? Ini adalah pustaka Python yang bertindak sebagai jembatan, memungkinkan LLM apa pun (pikirkan Claude, GPT-4o, atau DeepSeek) berbicara dengan server MCP—alat khusus yang memberikan akses AI ke hal-hal seperti peramban web, sistem file, atau bahkan pencarian Airbnb. Dibangun di atas adaptor LangChain, MCP-Use menyederhanakan penghubungan API LLM Anda ke server-server ini, sehingga Anda dapat membangun agen kustom yang melakukan lebih dari sekadar mengobrol. Pengguna menyebutnya “cara sumber terbuka untuk membangun klien MCP lokal,” dan mereka tidak salah—ini 100% gratis dan fleksibel.

Kenapa repot? Server MCP seperti port USB untuk AI, memungkinkan LLM Anda memanggil fungsi, mengambil data, atau mengotomatiskan tugas melalui antarmuka yang mirip dengan API yang distandarisasi. Dengan MCP-Use, Anda tidak perlu berurusan dengan integrasi kustom—cukup colok dan main. Mari kita atur!
Menginstal MCP-Use: Cepat dan Tanpa Rasa Sakit
Menjalankan MCP-Use sangat mudah, terutama jika Anda nyaman dengan Python. Repo GitHub (github.com/pietrozullo/mcp-use) menjelaskan semuanya dengan jelas. Berikut cara memulainya.
Langkah 1: Prasyarat
Anda akan memerlukan:
- Python: Versi 3.11 atau lebih tinggi. Periksa dengan
python --version
. Tidak ada Python? Ambil dari python.org.

- pip: Pengelola paket Python (biasanya disertakan dengan Python).
- Git (opsional): Untuk mengkloning repo jika Anda ingin kode terbaru.
- Kunci API: Untuk LLM premium seperti OpenAI atau Anthropic. Kita akan membahas ini nanti.
Langkah 2: Instal MCP-Use
Ayo gunakan pip
dalam lingkungan virtual untuk menjaga semuanya rapi:
Buat Folder Proyek:
mkdir mcp-use-project
cd mcp-use-project
Atur Lingkungan Virtual:
python -m venv mcp-env
Aktifkan:
- Mac/Linux:
source mcp-env/bin/activate
- Windows:
mcp-env\Scripts\activate
Instal MCP-Use:
pip install mcp-use
Atau, jika Anda ingin versi terbaru, kloning repo:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .
Tambahkan Penyedia LangChain:
MCP-Use bergantung pada LangChain untuk koneksi LLM. Instal penyedia untuk LLM Anda:
- OpenAI:
pip install langchain-openai
- Anthropic:
pip install langchain-anthropic
- lainnya: Periksa dokumentasi model chat LangChain.

Verifikasi Instalasi:
Jalankan:
python -c "import mcp_use; print(mcp_use.__version__)"
Anda seharusnya melihat nomor versi (misalnya, 0.42.1 per April 2025). Jika tidak, periksa kembali versi Python Anda atau pip.
Itu saja! MCP-Use siap menghubungkan LLM Anda ke server MCP. Saya butuh waktu sekitar lima menit—bagaimana dengan pengaturan Anda?
Menghubungkan LLM ke Server MCP dengan MCP-Use
Sekarang, mari kita buat keajaiban: menghubungkan LLM ke server MCP menggunakan MCP-Use. Kita akan menggunakan contoh sederhana—menghubungkan GPT-4o dari OpenAI ke server MCP Playwright untuk penjelajahan web.
Langkah 1: Dapatkan Kunci API LLM Anda
Untuk GPT-4o, ambil kunci API dari platform.openai.com. Daftar, buat kunci, dan simpan dengan aman. LLM lainnya seperti Claude (via console.anthropic.com) atau DeepSeek (di platform deepseek) juga akan berfungsi.

Langkah 2: Atur Variabel Lingkungan
MCP-Use menyukai file .env
untuk penyimpanan kunci API yang aman. Buat file .env
di folder proyek Anda:
touch .env
Tambahkan kunci Anda dan simpan:
OPENAI_API_KEY=sk-xxx
Penting: jaga agar kunci API Anda tidak masuk ke Git dengan menambahkan file .env
ke .gitignore
.
Langkah 3: Konfigurasikan Server MCP
Server MCP menyediakan alat yang dapat digunakan LLM Anda. Kita akan menggunakan server MCP Playwright untuk otomatisasi peramban. Buat file konfigurasi bernama browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
Ini memberi tahu MCP-Use untuk menjalankan server MCP Playwright. Simpan di folder proyek Anda.
Langkah 4: Tulis Skrip MCP-Use Pertama Anda
Ayo buat skrip Python untuk menghubungkan GPT-4o ke server Playwright dan mencari restoran. Buat mcp_example.py
:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
# Muat variabel lingkungan
load_dotenv()
# Buat MCPClient dari file konfigurasi
client = MCPClient.from_config_file("browser_mcp.json")
# Buat LLM (pastikan model mendukung pemanggilan alat)
llm = ChatOpenAI(model="gpt-4o")
# Buat agen
agent = MCPAgent(llm=llm, client=client, max_steps=30)
# Jalankan kueri
result = await agent.run("Temukan restoran terbaik di San Francisco")
print(f"\nHasil: {result}")
if __name__ == "__main__":
asyncio.run(main())
Skrip ini:
- Muat kunci API Anda dari
.env
. - Menyiapkan klien MCP dengan server Playwright.
- Menghubungkan GPT-4o melalui LangChain.
- Menjalankan kueri untuk mencari restoran.
Langkah 5: Jalankan
Pastikan lingkungan virtual Anda aktif, lalu:
python mcp_example.py
MCP-Use akan menghidupkan server Playwright, membiarkan GPT-4o menjelajahi web, dan mencetak sesuatu seperti: “Hasil: Restoran terbaik di San Francisco adalah Gary Danko, dikenal karena menu mencicipi yang luar biasa.” (Hasil Anda mungkin bervariasi!) Saya menjalankannya dan mendapatkan rekomendasi yang solid dalam waktu kurang dari satu menit—cukup keren, kan?
Menghubungkan ke Beberapa Server MCP
MCP-Use bersinar saat Anda terhubung ke beberapa server untuk tugas kompleks. Mari kita tambahkan server MCP Airbnb ke konfigurasi kita untuk pencarian akomodasi. Perbarui browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
},
"airbnb": {
"command": "npx",
"args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
}
}
}
Jalankan kembali mcp_example.py
dengan kueri baru:
result = await agent.run("Temukan restoran dan Airbnb di San Francisco")
MCP-Use memungkinkan LLM menggunakan kedua server—Playwright untuk pencarian restoran, Airbnb untuk penginapan. Agen memutuskan server mana yang akan dipanggil, menjadikan AI Anda sangat serbaguna.
Mengapa MCP-Use Sangat Hebat untuk Pemula
MCP-Use adalah mimpi pemula karena:
- Pengaturan Sederhana: Satu
pip install
dan skrip pendek membuat Anda bisa mulai. - Fleksibel: Bekerja dengan LLM dan server MCP mana pun, dari Claude hingga pelacak masalah GitHub.
- Sumber Terbuka: Gratis dan dapat disesuaikan, dengan komunitas GitHub yang ramah.
Jika dibandingkan dengan integrasi API kustom, MCP-Use jauh lebih mudah, memungkinkan Anda fokus pada pembangunan hal-hal keren.
Tips Pro untuk Sukses Menggunakan MCP-Use
- Periksa Kompatibilitas Model: Hanya LLM yang mendukung pemanggilan alat (seperti GPT-4o atau Claude 3.7 Sonnet) yang berfungsi.
- Gunakan Scalar untuk Spesifikasi: Validasi spesifikasi API server untuk menghindari kejutan.
- Jelajahi Server MCP: Telusuri mcp.so untuk server seperti Firecrawl (pengambilan data web) atau ElevenLabs (teks ke suara).
- Bergabung dengan Komunitas: Laporkan bug atau sarankan fitur di GitHub MCP-Use.
Kesimpulan: Petualangan MCP-Use Anda Menanti
Selamat—Anda sekarang siap untuk mempercepat LLM mana pun dengan MCP-Use! Dari menghubungkan GPT-4o ke server Playwright, Anda memiliki alat untuk membangun agen AI yang menjelajah, mencari, dan banyak lagi. Cobalah menambahkan server MCP GitHub berikutnya atau minta agen Anda untuk merencanakan seluruh perjalanan. Repo MCP-Use memiliki lebih banyak contoh, dan komunitas MCP ramai di X. Dan untuk sentuhan ekstra API, jangan lupa untuk memeriksa apidog.com.
