ما هو GLM-5.1؟ شرح النموذج الرائد الجديد من Z.AI

Ashley Innocent

Ashley Innocent

8 أبريل 2026

ما هو GLM-5.1؟ شرح النموذج الرائد الجديد من Z.AI

الخلاصة

GLM-5.1 هو نموذج Z.AI الرائد من الجيل التالي، تم إصداره في أبريل 2026. تم بناؤه خصيصًا للهندسة الوكيلية: مهام البرمجة طويلة الأمد، وحلقات التحسين المستقلة، ومشاريع البرمجيات المعقدة التي تتطلب مئات التكرارات. يحتل المرتبة الأولى في SWE-Bench Pro (58.4)، ويتصدر Terminal-Bench 2.0 (69.0)، ويتفوق على GLM-5 في كل معيار برمجة رئيسي. الأوزان المفتوحة متاحة بموجب ترخيص MIT.

مقدمة

معظم نماذج الذكاء الاصطناعي تصل إلى سقف بعد بضع عشرات من استدعاءات الأدوات. إنها تحقق تقدمًا سريعًا في البداية في مشكلة برمجة، ثم تستقر، ثم تستمر في تحقيق عوائد متناقصة بغض النظر عن مقدار الوقت الذي تمنحه لها. ينتهي بك الأمر بالإشراف على العامل أو قبول نتيجة متوسطة.

صُمم GLM-5.1 لكسر هذا النمط. أصدرت Z.AI، الفريق الذي يقف وراء عائلة نماذج GLM في Zhipu AI، نموذج GLM-5.1 في أبريل 2026 كأكثر نماذجهم كفاءة للمهام الوكيلية. الادعاء الرئيسي ليس أداء المعيار الخام في تمريرة واحدة. إنه الفعالية طويلة الأمد: القدرة على مواصلة إحراز تقدم ذي معنى على مدار 600 تكرار، و8 ساعات، وآلاف استدعاءات الأدوات.

💡
إذا كنت تبني تطبيقات على واجهات برمجة تطبيقات الذكاء الاصطناعي (AI APIs) أو تختبر سير عمل عوامل ذكية متعددة الخطوات، فإن تتبع ما يمكن أن يفعله GLM-5.1 بالفعل أمر مهم لتقييم مكدسك الخاص. تتيح لك "سيناريوهات الاختبار" في Apidog تحديد سلاسل من استدعاءات API التي تعكس سير عمل العوامل الذكية الحقيقي، حتى تتمكن من التحقق من أن تكاملك يتعامل مع مخرجات GLM-5.1 غير المتزامنة، وتسلسلات استدعاء الأدوات، والاستجابات المتدفقة بشكل صحيح قبل الانتقال إلى مرحلة الإنتاج. قم بتنزيل Apidog مجانًا لمتابعة أقسام الاختبار في هذا الدليل.
زر

ما هو GLM-5.1؟

GLM-5.1 هو نموذج لغوي كبير من Zhipu AI، تم إصداره عبر منصة المطورين Z.AI الخاصة بهم في أبريل 2026. يشير "GLM" إلى "نموذج لغوي عام" (General Language Model)، وهي بنية نموذجية تعمل Zhipu على تطويرها منذ عام 2021.

GLM-5.1 هو خليفة GLM-5، الذي تم إطلاقه في أواخر عام 2025. يركز تحديث 5.1 بشكل شبه كامل على القدرات الوكيلية: القدرة على العمل بشكل مستقل في المهام طويلة الأمد دون الحاجة إلى تدخل بشري متكرر أو الاصطدام بحواجز الأداء.

إنه ليس نموذجًا للاستدلال في المقام الأول، ولا نموذجًا للكتابة الإبداعية، ولا روبوت محادثة عامًا. تضعه Z.AI صراحةً كنموذج للهندسة الوكيلية: بناء البرمجيات، وتشغيل حلقات التحسين، وكتابة وتنفيذ التعليمات البرمجية عبر العديد من التكرارات، وحل المشكلات التي تتطلب جهدًا مستمرًا على مدار جلسات طويلة.

أوزان النموذج متاحة للجمهور على Hugging Face بموجب ترخيص MIT. يمكنك تشغيله محليًا باستخدام vLLM أو SGLang، أو الوصول إليه عبر BigModel API أو منصة المطورين Z.AI.

أداء GLM-5.1 في معيار الأداء

نشرت Z.AI نتائج معيار الأداء مقارنةً بـ GLM-5.1 مع GLM-5 وGPT-5.4 وClaude Opus 4.6 وGemini 3.1 Pro. تغطي النتائج ثلاث فئات واسعة: هندسة البرمجيات، والاستدلال، والمهام الوكيلية.

هندسة البرمجيات

معيار الأداء GLM-5.1 GLM-5 GPT-5.4 Opus 4.6 Gemini 3.1 Pro
SWE-Bench Pro 58.4 55.1 57.7 57.3 54.2
NL2Repo 42.7 35.9 41.3 49.8 33.4
Terminal-Bench 2.0 69.0 56.2 75.1 65.4 68.5
CyberGym 68.7 48.3 66.6

يحتل GLM-5.1 المرتبة الأولى في SWE-Bench Pro، وهو المعيار القياسي لمهام هندسة البرمجيات المستقلة. في Terminal-Bench 2.0، يحقق GPT-5.4 نتيجة أعلى (75.1) ولكن GLM-5.1 يتفوق على GLM-5 بفارق كبير (69 مقابل 56.2).

تقيس نتيجة NL2Repo (42.7) إنشاء المستودعات طويلة الأمد. يتصدر Claude Opus 4.6 هنا بنتيجة 49.8، لكن GLM-5.1 يتفوق على GLM-5 بـ 6.8 نقاط ويتفوق على كل نموذج آخر في هذه المقارنة.

الاستدلال

معيار الأداء GLM-5.1 GLM-5 GPT-5.4 Opus 4.6 Gemini 3.1 Pro
HLE (مع الأدوات) 52.3 50.4 52.1* 53.1* 51.4*
AIME 2026 95.3 95.4 98.7 95.6 98.2
HMMT نوفمبر 2025 94.0 96.9 95.8 96.3 94.8
GPQA-Diamond 86.2 86.0 92.0 91.3 94.3

في معايير الاستدلال، GLM-5.1 تنافسي ولكنه ليس الرائد. يتصدر GPT-5.4 وGemini 3.1 Pro في AIME 2026 وGPQA-Diamond. قوة GLM-5.1 تكمن في البرمجة والمهام الوكيلية، وليس في الاستدلال البحت.

المهام الوكيلية

معيار الأداء GLM-5.1 GLM-5 GPT-5.4 Opus 4.6 Gemini 3.1 Pro
BrowseComp (مع السياق) 79.3 75.9 82.7 84.0 85.9
MCP-Atlas (عام) 71.8 69.2 67.2 73.8 69.2
Tool-Decathlon 40.7 38.0 54.6 47.2 48.8
وكيلية 68.0 62.0

في MCP-Atlas، يتصدر GLM-5.1 المجال بنتيجة 71.8. في BrowseComp وTool-Decathlon، يقع في الفئة المتوسطة. تظهر نتيجة معيار Agentic (الوكيلية) (68 مقابل 62 لـ GLM-5) أوضح تحسن عن الجيل السابق.

ما الذي يجعل GLM-5.1 مختلفًا: التحسين طويل الأمد

تخبر جداول معايير الأداء جزءًا من القصة. الجزء الأكثر إثارة للاهتمام هو ما أظهرته Z.AI بما يتجاوز معايير التمريرة الواحدة.

تتحسن معظم نماذج البرمجة بسرعة في مهمة ما، ثم تستقر. صُمم GLM-5.1 ليظل مفيدًا على مدار فترات أطول بكثير. اختبرت Z.AI ذلك عبر ثلاثة سيناريوهات مع ردود فعل أقل تنظيمًا تدريجيًا.

السيناريو الأول: تحسين قاعدة بيانات المتجهات على مدار 600 تكرار

شغلت Z.AI نموذج GLM-5.1 في تحدي تحسين البحث عن المتجهات باستخدام مجموعة بيانات SIFT-1M. أُعطي النموذج هيكل Rust وطلب منه زيادة الاستعلامات في الثانية (QPS) مع استدعاء أعلى من 95%. بدلاً من ميزانية قياسية تبلغ 50 دورة، أعدوا حلقة خارجية حيث يمكن لـ GLM-5.1 تشغيل أكبر عدد ممكن من التكرارات حسب الحاجة.

تظهر النتائج الفرق بوضوح. أفضل نتيجة في جلسة واحدة عبر جميع النماذج كانت 3,547 استعلام في الثانية (Claude Opus 4.6). وصل GLM-5.1 الذي يعمل على مدار 600+ تكرار مع 6,000+ استدعاء للأدوات إلى 21,500 استعلام في الثانية، أي حوالي 6 أضعاف تلك النتيجة.

لم يكن التحسن مستمرًا. أجرى النموذج انتقالات هيكلية في نقاط رئيسية: حوالي التكرار 90، تحول من مسح النص الكامل إلى استكشاف تجمعات IVF مع ضغط المتجهات f16، وقفز من حوالي 3,500 إلى 6,400 استعلام في الثانية. حوالي التكرار 240، قدم خط أنابيب من مرحلتين يجمع بين التسجيل المسبق u8 وإعادة الترتيب f16، ووصل إلى 13,400 استعلام في الثانية. حدث ستة تحولات هيكلية من هذا القبيل على مدار التشغيل الكامل، كل منها تم إطلاقه بعد أن قام النموذج بتحليل سجلات معاييره الخاصة وتحديد العائق الحالي.

السيناريو 2: تحسين نواة وحدة معالجة الرسوميات (GPU) على مدار أكثر من 1000 دورة

أجرت Z.AI معيارًا لنواة وحدة معالجة الرسوميات (GPU) يقارن GLM-5.1 بـ GLM-5 وClaude Opus 4.6. كانت المهمة هي أخذ كود PyTorch المرجعي وإنتاج أنوية CUDA أسرع.

وصل GLM-5.1 إلى تسريع 3.6x مقارنة بالخط الأساسي. تصدر Claude Opus 4.6 بنسبة 4.2x ولا يزال يظهر مجالًا للتحسن في نهاية التشغيل. استقر GLM-5 في وقت مبكر وانتهى بنتائج أقل. تؤكد النتيجة النمط: GLM-5.1 يحافظ على التحسن لفترة أطول من GLM-5 ولكنه لم يطابق بعد النموذج الأعلى في هذه المهمة المحددة.

نافذة السياق والمواصفات الفنية

يدعم GLM-5.1 نافذة سياق بحجم 200 ألف رمز (token). هذا مهم للمهام الوكيلية حيث يجمع النموذج سجل استدعاءات الأدوات، وملفات التعليمات البرمجية، ومخرجات الاختبار، وسجلات الأخطاء عبر العديد من التكرارات.

المواصفات القيمة
نافذة السياق 200,000 رمز (token)
الحد الأقصى للمخرجات 163,840 رمز (token)
البنية محول ذاتي الانحدار (عائلة GLM)
الترخيص MIT (أوزان مفتوحة)
أطر الاستدلال vLLM, SGLang
أوزان النموذج HuggingFace (zai-org)

التوفر والتسعير

يتوفر GLM-5.1 عبر ثلاث قنوات.

واجهة برمجة تطبيقات BigModel (bigmodel.cn): هي واجهة برمجة التطبيقات الأساسية للمطورين. تستخدم اسم النموذج glm-5.1 في طلباتك إلى واجهة برمجة التطبيقات. يستخدم التسعير نظام الحصص بدلاً من الفوترة لكل رمز. يستهلك GLM-5.1 حصة 3 أضعاف خلال ساعات الذروة و2 أضعاف خلال ساعات خارج الذروة. وكتعزيز لفترة محدودة حتى نهاية أبريل 2026، يتم احتساب الاستخدام خارج الذروة بحصة 1x. ساعات الذروة هي 14:00-18:00 بالتوقيت العالمي المنسق +8 يوميًا.

خطة برمجة GLM (Z.AI): خطة اشتراك للمطورين الذين يستخدمون مساعدي البرمجة بالذكاء الاصطناعي. يتوفر GLM-5.1 لجميع مشتركي خطة البرمجة. يمكنك تفعيله عن طريق تحديث اسم النموذج في إعدادات مساعد البرمجة الخاص بك. تعمل الخطة مع Claude Code وCline وKilo Code وRoo Code وOpenCode وDroid. تبدأ الأسعار من 10 دولارات شهريًا.

النشر المحلي: أوزان النموذج موجودة على HuggingFace في zai-org/GLM-5.1. يمكنك تشغيله باستخدام vLLM أو SGLang. توجد وثائق النشر في مستودع GitHub الرسمي.

GLM-5.1 مقابل GLM-5: ما الذي تغير بالفعل

كان GLM-5 بالفعل نموذجًا قويًا للبرمجة. يحسن GLM-5.1 عليه بطريقة محددة: يوسع نافذة العمل المفيد.

التغيير الأساسي ليس في أداء التمريرة الأولى. في معظم معايير الأداء، يتفوق GLM-5.1 على GLM-5 بـ 3-7 نقاط، وهو أمر ذو معنى ولكنه ليس دراميًا. يظهر الفرق الحقيقي عندما تمنح كلا النموذجين نفس المهمة بوقت غير محدود.

يتحسن GLM-5 بسرعة ثم يستقر. يستمر GLM-5.1 في إحراز التقدم بعد النقطة التي يتوقف عندها GLM-5. هذا مهم للتطبيقات الوكيلية حيث تريد أن يستمر النموذج في العمل بشكل مستقل بدلاً من أن يطلب منك التدخل وإعادة توجيهه.

بشكل ملموس: استقر GLM-5 في معيار البحث المتجهي عند حوالي 8,000-10,000 استعلام في الثانية مع وقت إضافي. وصل GLM-5.1 إلى 21,500 استعلام في الثانية. في معيار نواة GPU، انتهى GLM-5 بنتائج أقل وأسرع من GLM-5.1. في مهمة سطح مكتب Linux، أنتج GLM-5 هيكلاً وتوقف.

لا يزال النموذج يحتوي على فجوات ذات مغزى. يتصدر Claude Opus 4.6 في تحسين نواة GPU وBrowseComp.

GLM-5.1 مقابل المنافسين

GLM-5.1 مقابل Claude Opus 4.6

في معايير هندسة البرمجيات، يتصدر GLM-5.1 في SWE-Bench Pro (58.4 مقابل 57.3) وCyberGym (68.7 مقابل 66.6). يتصدر Claude Opus 4.6 في NL2Repo (49.8 مقابل 42.7)، وتحسين نواة GPU، وBrowseComp. للوصول إلى واجهة برمجة التطبيقات، يعد Claude أغلى بكثير. يتم تسعير GLM-5.1 من خلال واجهة برمجة تطبيقات BigModel أو خطة البرمجة للمطورين الذين يديرون حلقات وكيلية عالية الحجم.

GLM-5.1 مقابل GPT-5.4

يتصدر GPT-5.4 في Terminal-Bench 2.0 (75.1 مقابل 69.0) ومعظم معايير الاستدلال. يتصدر GLM-5.1 في SWE-Bench Pro (58.4 مقابل 57.7) وMCP-Atlas (71.8 مقابل 67.2). للمطورين في الصين أو أولئك الذين يبنون على البنية التحتية للذكاء الاصطناعي الصينية، يعتبر الوصول إلى واجهة برمجة تطبيقات BigModel لـ GLM-5.1 أسهل بشكل ملحوظ من الوصول إلى GPT-5.4.

GLM-5.1 مقابل Gemini 3.1 Pro

يتصدر Gemini 3.1 Pro في الاستدلال (AIME 2026, GPQA-Diamond) وBrowseComp. يتصدر GLM-5.1 في SWE-Bench Pro وTerminal-Bench 2.0 وCyberGym. لحالات الاستخدام التي تعتمد على الكود أولاً، GLM-5.1 هو الخيار الأقوى. للاستدلال العام وتحليل المستندات، يتمتع Gemini بميزة.

حالات الاستخدام الأنسب لـ GLM-5.1

وكلاء البرمجة المستقلون: المهام طويلة الأمد حيث تريد أن يتخذ النموذج قرارات بشأن ما يجب تجربته بعد ذلك، وتشغيل الاختبارات، وتحليل النتائج، والمتابعة دون نقاط تفتيش بشرية متكررة. للتعمق في كيفية إدارة الوكلاء للذاكرة عبر هذه التشغيلات، راجع كيف تعمل ذاكرة وكيل الذكاء الاصطناعي. نافذة السياق البالغة 200 ألف رمز وقدرة التحسين طويلة الأمد تجعلها مناسبة جدًا هنا.

مساعدي البرمجة بالذكاء الاصطناعي (Claude Code، Cline، تكاملات Cursor): يدعم GLM-5.1 بشكل صريح في خطة Z.AI للبرمجة للاستخدام مع Claude Code، Cline، Kilo Code، Roo Code، وأدوات البرمجة الأخرى بالذكاء الاصطناعي. يمكن للمطورين الذين يرغبون في نموذج برمجة قوي دون دفع تكلفة Claude أو GPT لكل رمز، التوجيه عبر BigModel.

أتمتة هندسة البرمجيات (مهام فئة SWE-Bench): حل مشاكل GitHub، وإنشاء طلبات السحب، وأتمتة إصلاح الأخطاء. تصنيف GLM-5.1 رقم 1 في SWE-Bench Pro يجعله خيارًا موثوقًا لهذه الأنابيب.

البرمجة التنافسية والتحسين: ضبط نواة وحدة معالجة الرسوميات (GPU)، ومعايرة الأداء، وتحسين الخوارزميات حيث يمكن للنموذج إجراء التجارب وتكييف استراتيجيته بناءً على النتائج.

ما ليس الأفضل له: روبوت الدردشة للأغراض العامة، الكتابة الإبداعية، الأسئلة والأجوبة للمستندات حيث تكون جودة الاستدلال أهم من مخرجات الكود. لهذه الحالات، تظهر معايير الاستدلال أن Gemini وGPT-5.4 يتمتعان بمزايا.

كيف تجرب GLM-5.1 اليوم

أسرع طريقة لتجربته هي من خلال واجهة الدردشة Z.AI على z.ai، والتي تشغل GLM-5.1 افتراضيًا. لا يلزم مفتاح API لواجهة الدردشة.

للوصول إلى واجهة برمجة التطبيقات (API)، قم بإنشاء حساب على bigmodel.cn وإنشاء مفتاح API. واجهة برمجة التطبيقات متوافقة مع OpenAI، لذا فإن أي عميل يعمل مع نماذج GPT يعمل أيضًا مع GLM-5.1. اسم النموذج الذي يجب استخدامه في الطلبات هو glm-5.1.

للنشر المحلي، توجد الأوزان على huggingface.co/zai-org. توجد تعليمات الإعداد الكاملة في مستودع GitHub الرسمي على github.com/zai-org/GLM-5.1.

للحصول على شرح تفصيلي لواجهة برمجة التطبيقات مع أمثلة الكود، والمصادقة، وإعداد الاختبار، راجع دليل واجهة برمجة تطبيقات GLM-5.1.

الخاتمة

يمثل GLM-5.1 خطوة كبيرة إلى الأمام من GLM-5، خاصة في مدى استمراره في أن يكون مفيدًا في المهام الوكيلية الصعبة. إن تصنيفه رقم 1 في SWE-Bench Pro وإظهار تحسين البحث المتجهي على مدار 600 تكرار يقدمان حجة مقنعة بأن هذا هو أقوى نموذج مفتوح الأوزان لتدفقات عمل البرمجة المستقلة المتاح حاليًا.

إنه لا يتصدر كل معيار. Claude Opus 4.6 وGPT-5.4 أقوى في الاستدلال، وتحسين وحدة معالجة الرسوميات (GPU)، وبعض المهام الوكيلية. ولكن بالنسبة للمطورين الذين يرغبون في تشغيل وكلاء برمجة مستدامة دون دفع تكلفة النماذج الحدودية المغلقة، فإن GLM-5.1 بموجب ترخيص MIT مع الوصول إلى واجهة برمجة تطبيقات BigModel هو خيار جاد.

تجدر الإشارة إلى الأوزان المفتوحة وترخيص MIT. يمكنك تشغيل GLM-5.1 محليًا، وضبطه بدقة، ونشره في بنيتك التحتية الخاصة دون أي قيود على الاستخدام.

زر

الأسئلة الشائعة

ماذا يعني GLM؟نموذج لغوي عام (General Language Model). إنها بنية النموذج التي تعمل Zhipu AI على تطويرها منذ عام 2021، وتعتمد على ملء الفراغات ذاتية الانحدار بدلاً من نهج المُفكك فقط المستخدم في نماذج عائلة GPT.

هل GLM-5.1 مفتوح المصدر؟نعم. تم إصدار أوزان النموذج بموجب ترخيص MIT على HuggingFace في zai-org/GLM-5.1. يعتبر MIT أحد أكثر تراخيص المصادر المفتوحة تساهلاً، مما يسمح بالاستخدام التجاري، والضبط الدقيق، وإعادة التوزيع.

ما هي نافذة السياق التي يدعمها GLM-5.1؟200,000 رمز (حوالي 150,000 كلمة)، مع حد أقصى للإخراج يبلغ 163,840 رمزًا.

كيف يقارن GLM-5.1 بـ DeepSeek-V3.2؟تظهر معايير Z.AI أن GLM-5.1 يتفوق على DeepSeek-V3.2 في مهام هندسة البرمجيات. في معايير الاستدلال، DeepSeek-V3.2 تنافسي. لوكلاء البرمجة على وجه التحديد، GLM-5.1 هو الخيار الأقوى بناءً على البيانات المنشورة.

هل يمكنني استخدام GLM-5.1 مع Claude Code أو Cursor؟نعم. تدعم خطة Z.AI للبرمجة Claude Code، Cline، Kilo Code، Roo Code، وOpenCode عبر واجهة برمجة تطبيقات BigModel. تقوم بتحديث اسم النموذج في ملف تكوين مساعد البرمجة الخاص بك. تبدأ الخطط من 10 دولارات شهريًا.

كيف يمكنني الوصول إلى GLM-5.1 عبر واجهة برمجة التطبيقات (API)؟قم بإنشاء حساب على bigmodel.cn، وقم بإنشاء مفتاح API، واستخدم اسم النموذج glm-5.1 في الطلبات إلى https://open.bigmodel.cn/api/paas/v4/chat/completions. يوجد الشرح الكامل لواجهة برمجة التطبيقات في دليل واجهة برمجة تطبيقات GLM-5.1.

هل GLM-5.1 متاح مجانًا؟واجهة الدردشة Z.AI على z.ai مجانية للاستخدام. يعتمد الوصول إلى واجهة برمجة التطبيقات (API) من خلال BigModel على نظام حصص مع خطط مدفوعة. يتم احتساب الاستخدام خارج أوقات الذروة بحصة 1x حتى نهاية أبريل 2026 كسعر ترويجي.

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات