هل أنت مستعد لإطلاق العنان لقوة Qwen 3 30B-A3B لبعض مهام الوكالة (agentic tasks) من المستوى التالي؟ هذا النموذج العملاق، عند تشغيله محليًا باستخدام Ollama، يغير قواعد اللعبة لـ mcp (بروتوكول سياق النموذج) واستدعاء الأدوات (tool-calling)، مما يتيح لك بناء وكلاء أذكياء يفكرون مثل المحترفين. لقد انجذبت لاستكشاف قدراته على Reddit، حيث يهتف الناس بسرعته وذكائه في مهام مثل عمليات الملفات أو استعلامات قواعد البيانات. في هذا البرنامج التعليمي، سأوضح لك كيفية إعداد Qwen 3 محليًا، وتكوين mcp لاستخدام الأدوات، وإنشاء وكيل يكتب قصيدة إلى ملف—كل ذلك بسحر تفكير Qwen 3. سواء كنت تقوم بالترميز أو الأتمتة، فلنجعل Qwen 3 صديقك المفضل الجديد!
ما هو Qwen 3 ولماذا هو رائع لـ MCP؟
Qwen 3 هي أحدث سلسلة نماذج لغة كبيرة مفتوحة الوزن من Alibaba، ومتغير 30B-A3B (Mixture-of-Experts) هو نموذج متميز لـ mcp ومهام الوكالة. مع إجمالي 30 مليار معلمة ولكن 3 مليارات فقط نشطة لكل استدلال، فهو سريع وفعال، ويعمل بشكل جيد على بطاقة RTX 3090 أو 4090 واحدة. يدعمه لـ mcp يتيح له استدعاء الأدوات (مثل أنظمة الملفات وقواعد البيانات) عبر واجهات معرفة بـ JSON، بينما يعزز وضع التفكير الهجين الخاص به (... blocks) الاستدلال للمهام المعقدة مثل الترميز أو المنطق متعدد الخطوات. يثني مستخدمو Reddit على r/LocalLLLaMA على دقة استدعاء الأدوات الخاصة به، حيث أظهر اختبار واحد أنه نجح في كتابة قصيدة إلى ملف عن طريق الاستعلام عن دليل أولاً. دعونا نستغل هذه القوة محليًا باستخدام Ollama!
إعداد بيئة Qwen 3 الخاصة بك
قبل أن نتعمق في متعة mcp ومهام الوكالة، دعنا نجهز نظامك لتشغيل Qwen 3 30B-A3B مع Ollama. هذا سهل للمبتدئين، أعدك بذلك!
1. تحقق من متطلبات النظام:
- نظام التشغيل (OS): macOS، Linux (Ubuntu 20.04+)، أو Windows (مع WSL2).
- الأجهزة (Hardware): ذاكرة وصول عشوائي (RAM) بسعة 16 جيجابايت+، وحدة معالجة رسومات (GPU) بذاكرة وصول عشوائي للفيديو (VRAM) بسعة 24 جيجابايت+ (مثل RTX 3090/4090)، مساحة تخزين 20 جيجابايت+. تتطلب النماذج الأصغر (0.6B، 1.7B، 8B) أقل: 4 جيجابايت+ VRAM، 8 جيجابايت+ RAM.
- البرمجيات (Software):
- Python 3.10+ (
python3 --version
). - Git (
git --version
). - Ollama
2. تثبيت Ollama:
قم بزيارة الموقع الرسمي وقم بتنزيل إصدار متوافق مع نظام التشغيل الخاص بك.

بدلاً من ذلك، قم بتشغيل:
curl -fsSL https://ollama.com/install.sh | sh
تحقق من الإصدار:
ollama --version
توقع شيئًا مثل 0.3.12 (مايو 2025). إذا فشل، تأكد من أن Ollama موجود في متغير PATH لديك.
3. سحب نموذج Qwen 3:
لنموذج Qwen Affiliate 30B (كبير، لأجهزة الكمبيوتر المتطورة فقط):
ollama pull qwen3:30b
يقوم هذا بتنزيل حوالي 18 جيجابايت—احضر وجبة خفيفة! تحذير: يتطلب موارد كبيرة ويحتاج إلى وحدة معالجة رسومات قوية.
للاختبار على أجهزة متواضعة، جرب نماذج Qwen Affiliate الأصغر، والتي لا تزال قادرة للغاية على مهام mcp والأدوات:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

تحقق من التثبيت:
ollama list
ابحث عن qwen3:30b (أو qwen3:0.6b، إلخ).
4. اختبار النموذج:
قم بالتشغيل:
ollama run qwen3:30b
أو، للنماذج الأصغر: ollama run qwen3:0.6b، qwen3:1.7b، أو qwen3:8b.
- عند المطالبة (>>>)، اكتب: "أخبرني نكتة عن أجهزة الكمبيوتر." توقع شيئًا مثل: "لماذا ذهب الكمبيوتر إلى العلاج؟ كان لديه أزمة هوية بعد إعادة التشغيل!" اخرج باستخدام /bye.

- لقد اختبرت qwen3:8b على جهاز كمبيوتر محمول، وألقى نكتة جيدة في ثوانٍ—نماذج Qwen Affiliate ليست بطيئة!
إنشاء وكيل Qwen 3 باستخدام MCP والأدوات
الآن، دعنا نستغل قوى Qwen 3 لـ mcp والأدوات لبناء وكيل يقرأ ملف PDF ويجيب على الأسئلة، باستخدام الكود من مستودع Qwen-Agent على GitHub. سنختبر أيضًا وظائف mcp لجلب بيانات في الوقت الفعلي مثل الوقت أو الطقس. يمكنك استخدام أي ملف PDF—ورقة بحثية، وصفة طعام، أو حتى دليل مستخدم!
1. إعداد مشروع جديد:
أنشئ مجلد مشروع وانتقل إليه:
mkdir qwen-agent-test
cd qwen-agent-test
2. إنشاء بيئة افتراضية (Virtual Environment):
قم بالإعداد والتنشيط:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. تثبيت Qwen-Agent:
قم بالتثبيت مع تبعيات mcp والأدوات:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. إنشاء سكريبت الوكيل:
- أنشئ ملفًا باسم
testagent.py
وانسخ الكود المثال لـ Qwen-Agent من مستودع github، ثم عدّلllm_cfg
لـ Ollama:
# الخطوة 2: قم بتكوين LLM الذي تستخدمه.
llm_cfg = {
# استخدم خدمة النموذج المقدمة من DashScope:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# سيستخدم متغير البيئة `DASHSCOPE_API_KEY` إذا لم يتم تعيين 'api_key' هنا.
# استخدم خدمة نموذج متوافقة مع OpenAI API، مثل vLLM أو Ollama:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url، المعروف أيضًا باسم api_base
'api_key': 'ollama',
# (اختياري) معلمات LLM الفائقة للتوليد:
'generate_cfg': {
'top_p': 0.8
}
}
- قم بتنزيل ملف PDF (لقد اختبرته باستخدام ورقة بعنوان "AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation" من موقع بحثي) واحفظه باسم
AI-paper.pdf
في مجلد المشروع. من الأفضل، يمكنك استخدام أي ملف PDF—على سبيل المثال، وصفة طعام، دليل، أي شيء يثير اهتمامك!
5. بدء تشغيل Ollama API:
في طرفية منفصلة، قم بالتشغيل:
ollama serve
هذا يستضيف API على العنوان http://localhost:11434.
أبقِها قيد التشغيل.
6. تشغيل الوكيل:
في مجلد المشروع، قم بالتنفيذ:
python testagent.py

- سيقرأ Qwen 3 ملف PDF ويلخصه. بالنسبة لورقتي البحثية عن رؤية الذكاء الاصطناعي، كان الإخراج: "تناقش الورقة التعرف على الكائنات في الروبوتات، مع التركيز على أنظمة الرؤية القائمة على CNN للتوطين في الوقت الفعلي، وتحقيق دقة 95%." ستختلف استجابتك بناءً على ملف PDF الخاص بك—حاول السؤال عن مكونات وصفة أو خطوات دليل!

7. اختبار وظائف MCP:
- لاختبار قدرات Qwen 3 في mcp (بالإضافة إلى الأدوات مثل قراءة PDF)، قم بتعديل
testagent.py
لاستخدام خوادم mcp. قم بتحديث تهيئةbot
بما يلي:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter` هي أداة مدمجة لتنفيذ الكود.
files = ['./AI-paper.pdf'] # أعطِ الروبوت ملف PDF ليقرأه.
- احفظ وأعد التشغيل:
python testagent.py
- اطرح أسئلة مثل: "ما هو الوقت في نيويورك؟" أو "ما هو الطقس في سيدني؟" يختار Qwen 3 بذكاء خادم mcp المناسب (
time
أوfetch
) لاسترداد البيانات في الوقت الفعلي من الويب أو النظام. على سبيل المثال، حصلت على: "إنها الساعة 3:47 مساءً في نيويورك." توجد تفاصيل أكثر في مستودع github الخاص بهم، تأكد من الاطلاع عليه.
استكشاف ميزات Qwen 3 لـ MCP واستدعاء الأدوات
يتفوق Qwen 3 في مهام mcp ومهام الوكالة. إليك كيفية دفعه أبعد:
- أضف المزيد من الأدوات: وسّع الوكيل بأدوات لاستعلامات قواعد البيانات أو عمليات البحث على الويب عبر وحدة
tools
في Qwen-Agent. تشير Reddit إلى أن مهام المتصفح تعمل بشكل جيد مع mcp. - تبديل وضع التفكير: استخدم /think في المطالبات للاستدلال المعقد (مثل
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}'
أو/no_think
للردود السريعة. - اختبر النماذج الأصغر: إذا كان 30B ثقيلاً جدًا، فإن
qwen3:8b
لا يزال رائعًا في مهام mcp—ممتاز لأجهزة الكمبيوتر المحمولة. - تحسين الأداء: استخدم تقنية التحويل الكمي Q8_XL من Unsloth للسرعة، كما هو ملاحظ على Reddit.
لقد اختبرت qwen3:8b
مع ملف PDF لوصفة طعام، وسرد المكونات بشكل مثالي—استدعاء الأدوات في Qwen 3 متعدد الاستخدامات!
خلاصة: أتقن Qwen 3 و MCP
الآن، لقد أطلقت العنان لـ Qwen 3 30B مع mcp والأدوات لبناء وكيل قارئ لملفات PDF واختبار وظائف mcp للاستعلامات في الوقت الفعلي! من تثبيت Ollama واختبار نماذج Qwen 3 إلى إنشاء Qwen-Agent يلخص الأوراق البحثية أو يجلب الطقس، أنت جاهز لروعة الوكالة. جرب ملفات PDF جديدة، أضف أدوات، أو وثق واجهات برمجة التطبيقات الخاصة بك باستخدام Apidog!
هل تريد منصة متكاملة وشاملة لفريق المطورين الخاص بك للعمل معًا بأقصى قدر من الإنتاجية؟
Apidog يلبي جميع مطالبك، ويحل محل Postman بسعر معقول أكثر بكثير!