Apidog

منصة تطوير API تعاونية متكاملة

تصميم API

توثيق API

تصحيح أخطاء API

محاكاة API

اختبار API الآلي

كيفية ربط أي نموذج لغوي كبير بأي خادم MCP باستخدام MCP-Use

@apidog

@apidog

Updated on أبريل 18, 2025

هل ترغب في توصيل نموذج اللغة الكبير المفضل لديك (LLM) بأداة من القوى الخارقة، مثل استخراج البيانات من الويب أو عمليات الملفات، دون التعقيد في التعليمات البرمجية؟ هنا يأتي دور MCP-Use - مكتبة بايثون مفتوحة المصدر تسمح لك بربط أي LLM مع أي خادم MCP بسهولة. اعتبرها وكأنها محول عالمي لأحلامك في الذكاء الاصطناعي المدعوم بـ API! في دليل المبتدئين هذا، سأرشدك خلال كيفية استخدام MCP-Use لتوصيل LLMs وخوادم بروتوكول سياق النموذج (MCP). سواء كنت مبرمجًا أو فقط فضوليًا، فإن هذا البرنامج التعليمي يغطي لك كل شيء. هل أنت مستعد لجعل LLM الخاص بك نجم متعدد المهام؟ دعنا نبدأ!

💡
قبل أن نبدأ مع MCP-Use، دعنا نلقي تحية سريعة إلى Apidog - أداة رائعة لمحبي API! تجعل تصميم واختبار وتوثيق APIs أمراً سهلاً للغاية، مثالي عند بناء مشاريع مع خوادم MCP. تحقق منه على apidog.com - إنه أفضل صديق للمطورين! 
زر

الآن، دعنا نغوص في سحر MCP-Use...

ما هو MCP-Use؟ موصل الذكاء الاصطناعي الخاص بك للأداة

إذاً، ما هو MCP-Use؟ إنها مكتبة بايثون تعمل كحلقة وصل، مما يسمح لأي LLM (فكر في Claude، GPT-4o، أو DeepSeek) بالتواصل مع خوادم MCP - أدوات متخصصة تمنح الذكاء الاصطناعي إمكانية الوصول إلى أشياء مثل متصفحات الويب، أنظمة الملفات، أو حتى بحث Airbnb. تم بناء MCP-Use على محولات LangChain، مما يبسط ربط API الخاص بـ LLM بهذه الخوادم، حتى تتمكن من بناء وكلاء مخصصة تفعل أكثر من مجرد الدردشة. يسميها المستخدمون "الطريقة المفتوحة المصدر لبناء عملاء MCP محليين"، وهم محقون - إنها مجانية ومرنة 100%.

صورة عرض MCP-Use

لماذا تزعج نفسك؟ تعتبر خوادم MCP كمنفذ USB للذكاء الاصطناعي، مما يسمح لـ LLM لديك باستدعاء الوظائف، واسترجاع البيانات، أو أتمتة المهام عبر واجهات قياسية مثل API. مع MCP-Use، لا تحتاج إلى قتال مع التكاملات المخصصة - فقط وصل وشغل. دعنا نساعدك في الإعداد!

تثبيت MCP-Use: سريع وسهل

تشغيل MCP-Use سهل للغاية، خاصة إذا كنت معتادًا على بايثون. تعرض مستودع GitHub (github.com/pietrozullo/mcp-use) ذلك بوضوح. إليك كيفية البدء.

الخطوة 1: المتطلبات الأساسية

ستحتاج إلى:

  • بايثون: الإصدار 3.11 أو أعلى. تحقق بواسطة python --version. لا يوجد بايثون؟ احصل عليه من python.org.
تحميل بايثون
  • pip: مدير الحزم في بايثون (يأتي عادةً مع بايثون).
  • Git (اختياري): لاستنساخ المستودع إذا كنت تريد أحدث الكود.
  • مفاتيح API: لـ LLMs المميزة مثل OpenAI أو Anthropic. سنغطي هذا لاحقاً.

الخطوة 2: تثبيت MCP-Use

دعنا نستخدم pip في بيئة افتراضية لإبقاء الأمور مرتبة:

إنشاء مجلد مشروع:

mkdir mcp-use-project
cd mcp-use-project

إعداد بيئة افتراضية:

python -m venv mcp-env

قم بتفعيلها:

  • ماك/لينكس: source mcp-env/bin/activate
  • ويندوز: mcp-env\Scripts\activate

تثبيت MCP-Use:

pip install mcp-use

أو، إذا كنت تريد الإصدار الأحدث، استنساخ المستودع:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install .

إضافة موفري LangChain:
MCP-Use يعتمد على LangChain لربط LLMs. قم بتثبيت الموفر لـ LLM الخاص بك:

نماذج دردشة LangChain

التحقق من التثبيت:
قم بتشغيل:

python -c "import mcp_use; print(mcp_use.__version__)"

يجب أن ترى رقم الإصدار (على سبيل المثال، 0.42.1 اعتبارًا من أبريل 2025). إذا لم يكن كذلك، تحقق مرة أخرى من إصدار بايثون أو pip.

هذا كل شيء! MCP-Use جاهز لربط LLM الخاص بك بخوادم MCP. استغرق مني حوالي خمس دقائق - كيف تسير إعدادك؟

توصيل LLM بخادم MCP باستخدام MCP-Use

الآن، دعنا نجعل السحر يحدث: توصيل LLM بخادم MCP باستخدام MCP-Use. سنستخدم مثالًا بسيطًا - ربط OpenAI’s GPT-4o بخادم Playwright MCP لتصفح الويب.

الخطوة 1: احصل على مفتاح API الخاص بـ LLM

لـ GPT-4o، احصل على مفتاح API من platform.openai.com. قم بالتسجيل، أنشئ مفتاحًا، واحتفظ به بأمان. ستعمل LLMs الأخرى مثل Claude (عبر console.anthropic.com) أو DeepSeek (على منصة DeepSeek) أيضًا.

منصة تطوير openai

الخطوة 2: إعداد متغيرات البيئة

MCP-Use يحب ملفات .env لتخزين مفاتيح API بأمان. أنشئ ملف .env في مجلد مشروعك:

touch .env

أضف مفتاحك واحفظه:

OPENAI_API_KEY=sk-xxx

مهم: احفظ مفاتيح API الخاصة بك بعيدًا عن Git من خلال إضافة ملف .env إلى .gitignore.

الخطوة 3: تكوين خادم MCP

توفر خوادم MCP الأدوات التي يمكن أن يستخدمها LLM الخاص بك. سنستخدم خادم Playwright MCP لأتمتة المتصفح. أنشئ ملف تكوين يسمى browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    }
  }
}

هذا يخبر MCP-Use بتشغيل خادم MCP الخاص بـ Playwright. احفظه في مجلد مشروعك.

الخطوة 4: اكتب أول سيناريو MCP-Use الخاص بك

دعنا ننشئ سيناريو بايثون لربط GPT-4o بخادم Playwright والعثور على مطعم. أنشئ mcp_example.py:

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    # Load environment variables
    load_dotenv()

    # Create MCPClient from config file
    client = MCPClient.from_config_file("browser_mcp.json")

    # Create LLM (ensure model supports tool calling)
    llm = ChatOpenAI(model="gpt-4o")

    # Create agent
    agent = MCPAgent(llm=llm, client=client, max_steps=30)

    # Run a query
    result = await agent.run("Find the best restaurant in San Francisco")
    print(f"\nResult: {result}")

if __name__ == "__main__":
    asyncio.run(main())

هذا السيناريو:

  • يحمّل مفتاح API الخاص بك من .env.
  • يعد عميل MCP مع خادم Playwright.
  • يربط GPT-4o عبر LangChain.
  • يشغل استعلامًا للبحث عن المطاعم.

الخطوة 5: قم بتشغيله

تأكد من أن بيئتك الافتراضية نشطة، ثم:

python mcp_example.py

MCP-Use سيبدأ خادم Playwright، ويتيح لـ GPT-4o تصفح الويب، ويطبع شيئًا مثل: "النتيجة: أفضل مطعم في سان فرانسيسكو هو غاري دانكو، المعروف بقائمة تذوقه الرائعة." (قد تختلف نتائجك!) لقد قمت بتشغيل هذا وحصلت على توصية جيدة في أقل من دقيقة - رائع، أليس كذلك؟

الاتصال بعدة خوادم MCP

MCP-Use يتألق عندما تتصل بعدة خوادم لمهام معقدة. دعنا نضيف خادم Airbnb MCP إلى تكويننا للبحث عن الإقامة. قم بتحديث browser_mcp.json:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": ["@playwright/mcp@latest"],
      "env": {
        "DISPLAY": ":1"
      }
    },
    "airbnb": {
      "command": "npx",
      "args": ["-y", "@openbnb/mcp-server-airbnb", "--ignore-robots-txt"]
    }
  }
}

قم بإعادة تشغيل mcp_example.py مع استعلام جديد:

result = await agent.run("Find a restaurant and an Airbnb in San Francisco")

MCP-Use يسمح لـ LLM باستخدام كلا الخادمين - Playwright لعمليات بحث عن المطاعم، وAirbnb للإقامة. يقرر الوكيل أي خادم لاستدعائه، مما يجعل ذكائك الاصطناعي متعدد الاستخدامات للغاية.

لماذا MCP-Use رائع للمبتدئين

MCP-Use هو حلم المبتدئين لأنه:

  • إعداد بسيط: تثبيت واحد pip install وسيناريو قصير يمكنك الانطلاق.
  • مرن: يعمل مع أي LLM وخادم MCP، من Claude إلى نظام تتبع قضايا GitHub.
  • مفتوح المصدر: مجاني وقابل للتخصيص، مع مجتمع مرحب به على GitHub.

مقارنة بالتكاملات المخصصة مع API، فإن MCP-Use هو أقل عناء بكثير، مما يتيح لك التركيز على بناء أشياء رائعة.

نصائح احترافية لنجاح MCP-Use

  • تحقق من توافق النموذج: فقط النماذج التي تدعم استدعاء الأدوات (مثل GPT-4o أو Claude 3.7 Sonnet) تعمل.
  • استخدم Scalar للمواصفات: تحقق من مواصفات خادم API لتجنب المفاجآت.
  • استكشاف خوادم MCP: تصفح mcp.so للبحث عن خوادم مثل Firecrawl (استخراج البيانات من الويب) أو ElevenLabs (من النص إلى الكلام).
  • انضم إلى المجتمع: أبلغ عن الأخطاء أو اقترح ميزات على MCP-Use GitHub.

الخاتمة: مغامرة MCP-Use الخاصة بك في انتظارك

تهانينا - أنت الآن جاهز لتسريع أي LLM باستخدام MCP-Use! من توصيل GPT-4o بخادم Playwright، لديك الأدوات لبناء وكلاء ذكاء اصطناعي تتصفح وتبحث والمزيد. جرب إضافة خادم MCP من GitHub بعد ذلك أو اطلب من وكيلك تخطيط رحلة كاملة. يحتوي مستودع MCP-Use على المزيد من الأمثلة، ومجتمع MCP يتواصل على X. ومن أجل لمسة إضافية من API، لا تنسَ التحقق من apidog.com.

زر
صورة واجهة Apidog