هل ترغب في توصيل نموذج اللغة الكبير المفضل لديك (LLM) بأداة من القوى الخارقة، مثل استخراج البيانات من الويب أو عمليات الملفات، دون التعقيد في التعليمات البرمجية؟ هنا يأتي دور MCP-Use - مكتبة بايثون مفتوحة المصدر تسمح لك بربط أي LLM مع أي خادم MCP بسهولة. اعتبرها وكأنها محول عالمي لأحلامك في الذكاء الاصطناعي المدعوم بـ API! في دليل المبتدئين هذا، سأرشدك خلال كيفية استخدام MCP-Use لتوصيل LLMs وخوادم بروتوكول سياق النموذج (MCP). سواء كنت مبرمجًا أو فقط فضوليًا، فإن هذا البرنامج التعليمي يغطي لك كل شيء. هل أنت مستعد لجعل LLM الخاص بك نجم متعدد المهام؟ دعنا نبدأ!

الآن، دعنا نغوص في سحر MCP-Use...
ما هو MCP-Use؟ موصل الذكاء الاصطناعي الخاص بك للأداة
إذاً، ما هو MCP-Use؟ إنها مكتبة بايثون تعمل كحلقة وصل، مما يسمح لأي LLM (فكر في Claude، GPT-4o، أو DeepSeek) بالتواصل مع خوادم MCP - أدوات متخصصة تمنح الذكاء الاصطناعي إمكانية الوصول إلى أشياء مثل متصفحات الويب، أنظمة الملفات، أو حتى بحث Airbnb. تم بناء MCP-Use على محولات LangChain، مما يبسط ربط API الخاص بـ LLM بهذه الخوادم، حتى تتمكن من بناء وكلاء مخصصة تفعل أكثر من مجرد الدردشة. يسميها المستخدمون "الطريقة المفتوحة المصدر لبناء عملاء MCP محليين"، وهم محقون - إنها مجانية ومرنة 100%.

لماذا تزعج نفسك؟ تعتبر خوادم MCP كمنفذ USB للذكاء الاصطناعي، مما يسمح لـ LLM لديك باستدعاء الوظائف، واسترجاع البيانات، أو أتمتة المهام عبر واجهات قياسية مثل API. مع MCP-Use، لا تحتاج إلى قتال مع التكاملات المخصصة - فقط وصل وشغل. دعنا نساعدك في الإعداد!
تثبيت MCP-Use: سريع وسهل
تشغيل MCP-Use سهل للغاية، خاصة إذا كنت معتادًا على بايثون. تعرض مستودع GitHub (github.com/pietrozullo/mcp-use) ذلك بوضوح. إليك كيفية البدء.
الخطوة 1: المتطلبات الأساسية
ستحتاج إلى:
- بايثون: الإصدار 3.11 أو أعلى. تحقق بواسطة
python --version
. لا يوجد بايثون؟ احصل عليه من python.org.

- pip: مدير الحزم في بايثون (يأتي عادةً مع بايثون).
- Git (اختياري): لاستنساخ المستودع إذا كنت تريد أحدث الكود.
- مفاتيح API: لـ LLMs المميزة مثل OpenAI أو Anthropic. سنغطي هذا لاحقاً.
الخطوة 2: تثبيت MCP-Use
دعنا نستخدم pip
في بيئة افتراضية لإبقاء الأمور مرتبة:
إنشاء مجلد مشروع:
mkdir mcp-use-project
cd mcp-use-project
إعداد بيئة افتراضية:
python -m venv mcp-env
قم بتفعيلها:
- ماك/لينكس:
source mcp-env/bin/activate
- ويندوز:
mcp-env\Scripts\activate
تثبيت MCP-Use:
pip install mcp-use
أو، إذا كنت تريد الإصدار الأحدث، استنساخ المستودع:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .
إضافة موفري LangChain:
MCP-Use يعتمد على LangChain لربط LLMs. قم بتثبيت الموفر لـ LLM الخاص بك:
- OpenAI:
pip install langchain-openai
- Anthropic:
pip install langchain-anthropic
- أخرى: تحقق من وثائق نماذج الدردشة الخاصة بـ LangChain.

التحقق من التثبيت:
قم بتشغيل:
python -c "import mcp_use; print(mcp_use.__version__)"
يجب أن ترى رقم الإصدار (على سبيل المثال، 0.42.1 اعتبارًا من أبريل 2025). إذا لم يكن كذلك، تحقق مرة أخرى من إصدار بايثون أو pip.
هذا كل شيء! MCP-Use جاهز لربط LLM الخاص بك بخوادم MCP. استغرق مني حوالي خمس دقائق - كيف تسير إعدادك؟
توصيل LLM بخادم MCP باستخدام MCP-Use
الآن، دعنا نجعل السحر يحدث: توصيل LLM بخادم MCP باستخدام MCP-Use. سنستخدم مثالًا بسيطًا - ربط OpenAI’s GPT-4o بخادم Playwright MCP لتصفح الويب.
الخطوة 1: احصل على مفتاح API الخاص بـ LLM
لـ GPT-4o، احصل على مفتاح API من platform.openai.com. قم بالتسجيل، أنشئ مفتاحًا، واحتفظ به بأمان. ستعمل LLMs الأخرى مثل Claude (عبر console.anthropic.com) أو DeepSeek (على منصة DeepSeek) أيضًا.

الخطوة 2: إعداد متغيرات البيئة
MCP-Use يحب ملفات .env
لتخزين مفاتيح API بأمان. أنشئ ملف .env
في مجلد مشروعك:
touch .env
أضف مفتاحك واحفظه:
OPENAI_API_KEY=sk-xxx
مهم: احفظ مفاتيح API الخاصة بك بعيدًا عن Git من خلال إضافة ملف .env
إلى .gitignore
.
الخطوة 3: تكوين خادم MCP
توفر خوادم MCP الأدوات التي يمكن أن يستخدمها LLM الخاص بك. سنستخدم خادم Playwright MCP لأتمتة المتصفح. أنشئ ملف تكوين يسمى browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
هذا يخبر MCP-Use بتشغيل خادم MCP الخاص بـ Playwright. احفظه في مجلد مشروعك.
الخطوة 4: اكتب أول سيناريو MCP-Use الخاص بك
دعنا ننشئ سيناريو بايثون لربط GPT-4o بخادم Playwright والعثور على مطعم. أنشئ mcp_example.py
:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
# Load environment variables
load_dotenv()
# Create MCPClient from config file
client = MCPClient.from_config_file("browser_mcp.json")
# Create LLM (ensure model supports tool calling)
llm = ChatOpenAI(model="gpt-4o")
# Create agent
agent = MCPAgent(llm=llm, client=client, max_steps=30)
# Run a query
result = await agent.run("Find the best restaurant in San Francisco")
print(f"\nResult: {result}")
if __name__ == "__main__":
asyncio.run(main())
هذا السيناريو:
- يحمّل مفتاح API الخاص بك من
.env
. - يعد عميل MCP مع خادم Playwright.
- يربط GPT-4o عبر LangChain.
- يشغل استعلامًا للبحث عن المطاعم.
الخطوة 5: قم بتشغيله
تأكد من أن بيئتك الافتراضية نشطة، ثم:
python mcp_example.py
MCP-Use سيبدأ خادم Playwright، ويتيح لـ GPT-4o تصفح الويب، ويطبع شيئًا مثل: "النتيجة: أفضل مطعم في سان فرانسيسكو هو غاري دانكو، المعروف بقائمة تذوقه الرائعة." (قد تختلف نتائجك!) لقد قمت بتشغيل هذا وحصلت على توصية جيدة في أقل من دقيقة - رائع، أليس كذلك؟
الاتصال بعدة خوادم MCP
MCP-Use يتألق عندما تتصل بعدة خوادم لمهام معقدة. دعنا نضيف خادم Airbnb MCP إلى تكويننا للبحث عن الإقامة. قم بتحديث browser_mcp.json
:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
},
"airbnb": {
"command": "npx",
"args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
}
}
}
قم بإعادة تشغيل mcp_example.py
مع استعلام جديد:
result = await agent.run("Find a restaurant and an Airbnb in San Francisco")
MCP-Use يسمح لـ LLM باستخدام كلا الخادمين - Playwright لعمليات بحث عن المطاعم، وAirbnb للإقامة. يقرر الوكيل أي خادم لاستدعائه، مما يجعل ذكائك الاصطناعي متعدد الاستخدامات للغاية.
لماذا MCP-Use رائع للمبتدئين
MCP-Use هو حلم المبتدئين لأنه:
- إعداد بسيط: تثبيت واحد
pip install
وسيناريو قصير يمكنك الانطلاق. - مرن: يعمل مع أي LLM وخادم MCP، من Claude إلى نظام تتبع قضايا GitHub.
- مفتوح المصدر: مجاني وقابل للتخصيص، مع مجتمع مرحب به على GitHub.
مقارنة بالتكاملات المخصصة مع API، فإن MCP-Use هو أقل عناء بكثير، مما يتيح لك التركيز على بناء أشياء رائعة.
نصائح احترافية لنجاح MCP-Use
- تحقق من توافق النموذج: فقط النماذج التي تدعم استدعاء الأدوات (مثل GPT-4o أو Claude 3.7 Sonnet) تعمل.
- استخدم Scalar للمواصفات: تحقق من مواصفات خادم API لتجنب المفاجآت.
- استكشاف خوادم MCP: تصفح mcp.so للبحث عن خوادم مثل Firecrawl (استخراج البيانات من الويب) أو ElevenLabs (من النص إلى الكلام).
- انضم إلى المجتمع: أبلغ عن الأخطاء أو اقترح ميزات على MCP-Use GitHub.
الخاتمة: مغامرة MCP-Use الخاصة بك في انتظارك
تهانينا - أنت الآن جاهز لتسريع أي LLM باستخدام MCP-Use! من توصيل GPT-4o بخادم Playwright، لديك الأدوات لبناء وكلاء ذكاء اصطناعي تتصفح وتبحث والمزيد. جرب إضافة خادم MCP من GitHub بعد ذلك أو اطلب من وكيلك تخطيط رحلة كاملة. يحتوي مستودع MCP-Use على المزيد من الأمثلة، ومجتمع MCP يتواصل على X. ومن أجل لمسة إضافية من API، لا تنسَ التحقق من apidog.com.
