ما الجديد في Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507؟ نماذج ذكاء اصطناعي أكثر ذكاءً مع سياق 256K

Ashley Innocent

Ashley Innocent

7 أغسطس 2025

ما الجديد في Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507؟ نماذج ذكاء اصطناعي أكثر ذكاءً مع سياق 256K

أصدر فريق Qwen في Alibaba Cloud إضافتين قويتين جديدتين إلى مجموعة نماذج اللغة الكبيرة (LLM) الخاصة بهم: Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507. تقدم هذه النماذج تطورات كبيرة في الاستدلال، واتباع التعليمات، وفهم السياقات الطويلة، مع دعم أصلي لطول سياق يصل إلى 256 ألف رمز. صُممت هذه النماذج للمطورين والباحثين وعشاق الذكاء الاصطناعي، وتقدم قدرات قوية للمهام التي تتراوح من البرمجة إلى حل المشكلات المعقدة. بالإضافة إلى ذلك، يمكن لأدوات مثل Apidog، وهي منصة مجانية لإدارة واجهات برمجة التطبيقات (API)، تبسيط اختبار هذه النماذج ودمجها في تطبيقاتك.

💡
قم بتنزيل Apidog مجانًا لتبسيط سير عمل واجهات برمجة التطبيقات الخاصة بك وتعزيز تجربتك مع أحدث نماذج Qwen. في هذه المقالة، نستكشف المواصفات التقنية والتحسينات الرئيسية والتطبيقات العملية لهذه النماذج، ونقدم دليلاً شاملاً للاستفادة من إمكاناتها.

زر

فهم نماذج Qwen3-4B

تمثل سلسلة Qwen3 أحدث تطور في عائلة نماذج اللغة الكبيرة من Alibaba Cloud، وهي خليفة لسلسلة Qwen2.5. على وجه التحديد، تم تصميم Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507 لحالات استخدام متميزة: الأول يتفوق في الحوارات العامة واتباع التعليمات، بينما تم تحسين الأخير لمهام الاستدلال المعقدة. يدعم كلا النموذجين طول سياق أصلي يبلغ 262,144 رمزًا، مما يمكنهما من معالجة مجموعات بيانات واسعة، أو مستندات طويلة، أو محادثات متعددة الأدوار بسهولة. علاوة على ذلك، فإن توافقهما مع أطر عمل مثل Hugging Face Transformers وأدوات النشر مثل Apidog يجعلهما متاحين للتطبيقات المحلية والقائمة على السحابة.

Qwen3-4B-Instruct-2507: مُحسّن للكفاءة

يعمل نموذج Qwen3-4B-Instruct-2507 في وضع "غير تفكيري" (non-thinking mode)، مع التركيز على الاستجابات الفعالة وعالية الجودة للمهام العامة. تم ضبط هذا النموذج بدقة لتعزيز اتباع التعليمات، والاستدلال المنطقي، وفهم النصوص، والقدرات متعددة اللغات. ومن الجدير بالذكر أنه لا يُنشئ كتل <think></think>، مما يجعله مثاليًا للسيناريوهات التي تُفضل فيها الإجابات السريعة والمباشرة على الاستدلال خطوة بخطوة.

تشمل التحسينات الرئيسية ما يلي:

بالنسبة للمطورين الذين يدمجون هذا النموذج في واجهات برمجة التطبيقات (APIs)، يوفر Apidog واجهة سهلة الاستخدام لاختبار وإدارة نقاط نهاية API، مما يضمن نشرًا سلسًا. هذه الكفاءة تجعل Qwen3-4B-Instruct-2507 خيارًا مفضلاً للتطبيقات التي تتطلب استجابات سريعة ودقيقة.

Qwen3-4B-Thinking-2507: مصمم للاستدلال العميق

على النقيض من ذلك، تم تصميم Qwen3-4B-Thinking-2507 للمهام التي تتطلب استدلالًا مكثفًا، مثل حل المشكلات المنطقية، والرياضيات، والمعايير الأكاديمية. يعمل هذا النموذج حصريًا في وضع "التفكير" (thinking mode)، حيث يدمج تلقائيًا عمليات "سلسلة الأفكار" (CoT) لتفكيك المشكلات المعقدة. قد يتضمن إخراجه علامة إغلاق </think> بدون علامة فتح <think>، حيث أن قالب الدردشة الافتراضي يدمج سلوك التفكير.

تشمل التحسينات الرئيسية ما يلي:

بالنسبة للمطورين الذين يعملون مع تطبيقات مكثفة الاستدلال، يمكن لـ Apidog تسهيل اختبار واجهة برمجة التطبيقات (API)، مما يضمن توافق مخرجات النموذج مع النتائج المتوقعة. هذا النموذج مناسب بشكل خاص لبيئات البحث وسيناريوهات حل المشكلات المعقدة.

المواصفات التقنية والهندسة المعمارية

يُعدّ كلا النموذجين Qwen3-4B جزءًا من عائلة Qwen3، التي تتضمن هياكل كثيفة وهياكل "مزيج الخبراء" (MoE). يشير التعيين "4B" إلى معالمه البالغة 4 مليارات، مما يحقق توازنًا بين الكفاءة الحسابية والأداء. وبالتالي، يمكن الوصول إلى هذه النماذج على الأجهزة الاستهلاكية، على عكس النماذج الأكبر مثل Qwen3-235B-A22B، التي تتطلب موارد كبيرة.

أبرز ملامح الهندسة المعمارية

متطلبات الأجهزة

لتشغيل هذه النماذج بكفاءة، ضع في اعتبارك ما يلي:

بالنسبة للمطورين الذين ينشرون هذه النماذج، يبسط Apidog العملية من خلال توفير أدوات لمراقبة واختبار أداء واجهة برمجة التطبيقات (API)، مما يضمن التكامل الفعال مع أطر عمل الاستدلال.

التكامل مع Hugging Face و ModelScope

تتوفر نماذج Qwen3-4B على كل من Hugging Face و ModelScope، مما يوفر مرونة للمطورين. فيما يلي، نقدم مقتطفًا برمجيًا لتوضيح كيفية استخدام Qwen3-4B-Instruct-2507 مع Hugging Face Transformers.

from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-4B-Instruct-2507"tokenizer = AutoTokenizer.from_pretrained(model_name)model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "Write a Python function to calculate Fibonacci numbers."messages = [{"role": "user", "content": prompt}]text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(**model_inputs, max_new_tokens=16384)output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()content = tokenizer.decode(output_ids, skip_special_tokens=True)print("Generated Code:\n", content)

بالنسبة لـ Qwen3-4B-Thinking-2507، يلزم تحليل إضافي للتعامل مع محتوى التفكير:

from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-4B-Thinking-2507"tokenizer = AutoTokenizer.from_pretrained(model_name)model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "Solve the equation 2x^2 + 3x - 5 = 0."messages = [{"role": "user", "content": prompt}]text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(**model_inputs, max_new_tokens=32768)output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
try:index = len(output_ids) - output_ids[::-1].index(151668)  #  tokenexcept ValueError:index = 0thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")print("Thinking Process:\n", thinking_content)print("Solution:\n", content)

توضح هذه المقتطفات سهولة دمج نماذج Qwen في سير عمل بايثون. بالنسبة لعمليات النشر القائمة على واجهة برمجة التطبيقات (API)، يمكن لـ Apidog المساعدة في اختبار نقاط النهاية هذه، مما يضمن أداءً موثوقًا به.

تحسين الأداء وأفضل الممارسات

لتحقيق أقصى قدر من أداء نماذج Qwen3-4B، ضع في اعتبارك التوصيات التالية:

مقارنة Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507

بينما يتشارك النموذجان نفس بنية المعلمات البالغة 4 مليارات، تختلف فلسفات تصميمهما:

يمكن للمطورين التبديل بين الأوضاع باستخدام أوامر /think و /no_think، مما يتيح المرونة بناءً على متطلبات المهمة. يمكن لـ Apidog المساعدة في اختبار تبديل الأوضاع هذه في التطبيقات القائمة على واجهة برمجة التطبيقات (API).

دعم المجتمع والنظام البيئي

تستفيد نماذج Qwen3-4B من نظام بيئي قوي، بدعم من Hugging Face و ModelScope، وأدوات مثل Ollama و LMStudio و llama.cpp. تشجع طبيعة هذه النماذج مفتوحة المصدر، المرخصة بموجب Apache 2.0، مساهمات المجتمع والضبط الدقيق. على سبيل المثال، يوفر Unsloth أدوات لضبط دقيق أسرع بمرتين مع ذاكرة وصول عشوائي للفيديو (VRAM) أقل بنسبة 70%، مما يجعل هذه النماذج متاحة لجمهور أوسع.

الخاتمة

تمثل نماذج Qwen3-4B-Instruct-2507 و Qwen3-4B-Thinking-2507 قفزة كبيرة في سلسلة Qwen من Alibaba Cloud، حيث تقدم قدرات لا مثيل لها في اتباع التعليمات، والاستدلال، ومعالجة السياقات الطويلة. مع طول سياق يبلغ 256 ألف رمز، ودعم متعدد اللغات، والتوافق مع أدوات مثل Apidog، تمكّن هذه النماذج المطورين من بناء تطبيقات ذكية وقابلة للتطوير. سواء كنت تقوم بإنشاء تعليمات برمجية، أو حل معادلات، أو إنشاء روبوتات دردشة متعددة اللغات، فإن هذه النماذج تقدم أداءً استثنائيًا. ابدأ في استكشاف إمكاناتها اليوم، واستخدم Apidog لتبسيط عمليات دمج واجهة برمجة التطبيقات (API) الخاصة بك لتجربة تطوير سلسة.

زر

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات