نظرة سريعة على NVIDIA OpenCodeReasoning-Nemotron-32B

Mark Ponomarev

Mark Ponomarev

8 مايو 2025

نظرة سريعة على NVIDIA OpenCodeReasoning-Nemotron-32B

أصدرت NVIDIA، عملاق الحوسبة المتسارعة، عائلة نماذج اللغات الكبيرة (LLMs) الخاصة بها OpenCodeReasoning-Nemotron، مما يفتح المصدر لمجموعة أدوات جديدة قوية للمطورين والباحثين. تتوفر هذه النماذج بأحجام معلمات 32B و 14B و 7B، وتتضمن إصدارًا متخصصًا IOI (التفاعل بين الإدخال والإخراج)، وهي مرخصة بموجب ترخيص أباتشي 2.0 المتساهل، مما يمهد الطريق للابتكار التجاري وغير التجاري واسع النطاق. تشير هذه الخطوة إلى التزام كبير من NVIDIA بإضفاء الطابع الديمقراطي على الوصول إلى الذكاء الاصطناعي المتطور لفهم الكود وتوليده والاستدلال فيه.

image-35

نماذج OpenCodeReasoning-Nemotron ليست مجرد إضافة أخرى إلى مجال نماذج اللغات الكبيرة المزدحم؛ فهي تأتي بمؤهلات مثيرة للإعجاب، لا سيما في مهام الاستدلال المعقدة التي تعتبر حاسمة لتوليد كود عالي الجودة. النموذج الرائد OpenCodeReasoning-Nemotron-32B، على سبيل المثال، يلفت الأنظار بالفعل بمعايير الأداء التي تضعه تقريبًا على قدم المساواة مع نماذج هائلة مثل DeepSeek-R1. والأكثر إثارة للإعجاب، أنه يتفوق بشكل واضح على O3 mini و O1 (low) في LiveCodeBench، وهو معيار تحدي يختبر قدرة النموذج على حل مسائل البرمجة التنافسية.

يُعزى هذا الأداء الاستثنائي إلى حد كبير إلى مجموعة البيانات OpenCodeReasoning (OCR) التي تم تنظيمها بدقة والتي تدعم تدريبها. هذه المجموعة من البيانات، الغنية بمسائل البرمجة التنافسية والاستجابات المولدة بواسطة الذكاء الاصطناعي، تمنح النماذج قدرات استدلال متطورة. ميزة بارزة هي كفاءتها الرمزية (التوكن) الملحوظة: يُقال إن نماذج OpenCodeReasoning أكثر كفاءة بنسبة 30% في استخدام الرموز من نماذج الاستدلال المكافئة الأخرى. من الناحية العملية، يترجم هذا إلى معالجة أسرع، وتقليل الحمل الحسابي، والقدرة على التعامل مع مشاكل أكثر تعقيدًا ضمن نافذة سياق معينة.

ومما يزيد من جاذبيتها توافقها الواسع. يمكن للمطورين دمج هذه النماذج في سير عملهم باستخدام أدوات ومكتبات شائعة مثل llama.cpp و vLLM و Hugging Face Transformers و Text Generation Inference (TGI)، مما يضمن منحنى تبني سلسًا.

ستتناول هذه المقالة تفاصيل نماذج OpenCodeReasoning-Nemotron، وتستكشف أداءها، وتناقش مجموعة البيانات المبتكرة OCR، وتقدم دليلًا عمليًا حول كيفية تشغيلها، مع تركيز خاص على الاستفادة من محرك الاستدلال عالي الأداء vLLM.

💡
هل تريد أداة رائعة لاختبار واجهات برمجة التطبيقات (API) تولد وثائق واجهات برمجة تطبيقات (API) جميلة؟

هل تريد منصة متكاملة وشاملة لفريق المطورين الخاص بك للعمل معًا بأقصى إنتاجية؟

Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر معقول أكثر بكثير!
button

OpenCodeReasoning-Nemotron-32B: أفضل من DeepSeek R1؟

المقياس الحقيقي لنموذج لغة كبيرة يكمن في أدائه على المعايير الموحدة وقدرته على معالجة المهام الواقعية. عرضت نماذج OpenCodeReasoning-Nemotron من NVIDIA، وخاصة إصدار 32B، نتائج مقنعة.

وفقًا للمعلومات الصادرة عن NVIDIA، يحقق نموذج OpenCodeReasoning-Nemotron-32B، وهو مشتق من Qwen2.5-32B-Instruct، درجات مثيرة للإعجاب عبر مختلف المعايير. تسلط النتائج، بمتوسط على 64 تقييمًا، الضوء على نقاط قوتها:

النموذج متوسط LiveCodeBench CodeContest الكل
DeepSeek-R1 65.6 26.2
QwQ-32B 61.3 20.2
OCR-Qwen-32B 61.8 24.6
OCR-Qwen-32B-Instruct 61.7 24.4

هذه الأرقام مهمة. يسجل OCR-Qwen-32B-Instruct (الذي يعتمد عليه OpenCodeReasoning-Nemotron-32B) درجات قريبة بشكل ملحوظ من DeepSeek-R1 في متوسط LiveCodeBench و CodeContest All. التأكيد على أنه "يتفوق على O3 mini و O1 (low) في LiveCodeBench" يؤكد قدراته المتقدمة في حل تحديات البرمجة المعقدة التي تتطلب استدلالًا عميقًا وفهمًا للمشكلات الخوارزمية.

يقدم إصدار 14B، OpenCodeReasoning-Nemotron-14B (المشتق من Qwen2.5-14B-Instruct [2])، أيضًا أداءً قويًا ضمن فئته:

النموذج متوسط LiveCodeBench CodeContest الكل
OCR-Qwen-14B 57.7 22.6
OCR-Qwen-14B-Instruct 59.4 23.6

(المصدر: بطاقة نموذج Hugging Face لـ nvidia/OpenCodeReasoning-Nemotron-14B [2])

تظهر هذه النتائج مستوى عاليًا ثابتًا من الأداء عبر عائلة النماذج، مما يجعلها مناسبة لمجموعة واسعة من التطبيقات، بدءًا من مساعدة المطورين الأفراد في مهام البرمجة اليومية وصولًا إلى تشغيل أدوات تطوير البرمجيات المتطورة المدعومة بالذكاء الاصطناعي. يزيد طول السياق المدعوم البالغ 32 ألف رمز (توكن) من فائدتها، مما يسمح لها بمعالجة وفهم قواعد أكواد أكبر وأكثر تعقيدًا أو أوصاف المشكلات.

المحرك وراء التميز: مجموعة البيانات OpenCodeReasoning (OCR)

النموذج جيد بقدر جودة البيانات التي تم تدريبه عليها. تنبع قدرات الاستدلال الملحوظة لنماذج OpenCodeReasoning-Nemotron من مجموعة البيانات المتخصصة OpenCodeReasoning [1, 2]. هذه المجموعة من البيانات ليست مجرد مجموعة عشوائية من الكود؛ إنها مجموعة بيانات مُنشأة بعناية تتألف من:

  1. مسائل البرمجة التنافسية: هذه مسائل تتطلب استدلالًا منطقيًا معقدًا، وتفكيرًا خوارزميًا، وتصميم الحل الأمثل - أبعد بكثير من مهام إكمال الكود البسيطة.
  2. استجابات مولدة بواسطة DeepSeek-R1: الاستفادة من نموذج قوي موجود لتوليد حلول أولية أو مسارات استدلال يوفر أساسًا عالي الجودة لمزيد من التدريب والتحسين.

تتألف مجموعة بيانات التدريب من حوالي 736,000 عينة من هذه المجموعة. توصف طرق جمع البيانات وتسميتها بأنها منهجية "هجينة: آلية، بشرية، اصطناعية"، مما يشير إلى مسار عمل متطور مصمم لضمان جودة البيانات وتنوعها وملاءمتها لتدريب نماذج متقدمة لاستدلال الكود.

التأثير الرئيسي لهذه المجموعة من البيانات هو كفاءة الرموز (التوكنات) الأكبر بنسبة 30% مقارنة بنماذج الاستدلال الأخرى ذات الحجم المماثل. هذه الكفاءة حاسمة:

هذه الكفاءة المحسنة، مجتمعة مع قدرات الاستدلال القوية، تجعل نماذج OpenCodeReasoning-Nemotron مناسبة بشكل خاص لمهام مثل إصلاح الأخطاء تلقائيًا، وتوليد كود معقد من مواصفات اللغة الطبيعية، وتحسين الخوارزميات، وتوليد شروحات مفصلة للكود.

الهندسة المعمارية التقنية: لمحة تحت الغطاء

نماذج OpenCodeReasoning-Nemotron مبنية على هندسة معمارية قوية ومثبتة:

هذا الأساس المعماري المتين، مجتمعًا مع بيانات التدريب المتخصصة، ينتج نماذج قوية ومحسّنة للمهام المتعلقة بالكود التي تتطلب استدلالًا مكثفًا.

تشغيل OpenCodeReasoning-Nemotron باستخدام vLLM: دليل عملي

أحد الجوانب الأكثر إثارة في إصدار OpenCodeReasoning-Nemotron هو توافقه مع vLLM. vLLM هو محرك خدمة نماذج لغات كبيرة عالي الإنتاجية وكفؤ في استخدام الذاكرة يمكنه تسريع الاستدلال بشكل كبير. آلية PagedAttention الخاصة به والتحسينات الأخرى تجعله خيارًا ممتازًا لنشر نماذج اللغات الكبيرة في بيئات الإنتاج أو لأعباء العمل البحثية المتطلبة.

بطاقة نموذج Hugging Face لـ OpenCodeReasoning-Nemotron-32B تذكر صراحة "المحرك: vLLM" تحت قسم الاستدلال، مما يشير إلى دعم قوي وتحسين محتمل لهذا المحرك.

إليك دليل مفاهيمي حول كيفية تشغيل نموذج OpenCodeReasoning-Nemotron (مثل إصدار 32B) باستخدام vLLM:

1. المتطلبات المسبقة:

بيئة Python: تأكد من أن لديك بيئة Python (مثل Python 3.8+).

برامج تشغيل NVIDIA و CUDA: ستحتاج إلى برامج تشغيل NVIDIA المناسبة وإصدار متوافق من CUDA toolkit مثبتة لتسريع GPU.

pip install vllm

تثبيت Transformers: مكتبة Hugging Face Transformers أساسية أيضًا.

pip install transformers torch

2. سكريبت Python للاستدلال باستخدام vLLM:

يتضمن تشغيل الاستدلال باستخدام vLLM إعداد بيئتك، وإعداد المطالبة (prompt) وفقًا للتنسيق المتوقع للنموذج، ثم استخدام محرك vLLM للتوليد. نماذج OpenCodeReasoning-Nemotron، كونها مشتقة من Qwen2.5-Instruct، تتطلب تنسيق مطالبة محددًا يتم التعامل معه بشكل أفضل باستخدام أداة الترميز (tokenizer) المرتبطة بها من Hugging Face.

أولاً، تأكد من تثبيت المكتبات الضرورية. ستحتاج إلى Python، برامج تشغيل NVIDIA المناسبة و CUDA إذا كنت تستخدم وحدات GPU، وحزم Python التالية:

pip install "vllm>=0.4.0" transformers torch accelerate bitsandbytes

السكريبت التالي يوضح كيفية تحميل نموذج nvidia/OpenCodeReasoning-Nemotron-32B وتوليد نص باستخدام vLLM. يستخدم بشكل حاسم أداة ترميز النموذج لتطبيق قالب الدردشة الصحيح، مما يضمن تنسيق المطالبة كما يتوقع النموذج.



تنسيق المطالبة هو المفتاح: الخطوة الأكثر أهمية لنماذج تم موالفتها للتعليمات هي تنسيق المطالبة الصحيح. استخدام tokenizer.apply_chat_template(..., add_generation_prompt=True) كما هو موضح أعلاه هو الطريقة الأكثر موثوقية. هذا يضمن وضع جميع الرموز الخاصة ومؤشرات الأدوار (مثل <|im_start|>user، <|im_start|>assistant، <|im_end|>) بشكل صحيح، وهو ما يتوقعه النموذج للحصول على إخراج متناسق.

الخلاصة: NVIDIA تمكّن حقبة جديدة من الذكاء الاصطناعي في البرمجة

تمثل نماذج OpenCodeReasoning-Nemotron من NVIDIA قفزة كبيرة إلى الأمام، حيث تقدم ذكاءً اصطناعيًا قويًا لتوليد الكود والاستدلال فيه. أداؤها القوي، المدعوم بمجموعة البيانات المتخصصة OpenCodeReasoning وكفاءة الرموز (التوكنات) المثيرة للإعجاب، يجهز المطورين والباحثين بأدوات متطورة.

ترخيص أباتشي 2.0 مفتوح المصدر هو مغير لقواعد اللعبة، حيث يضفي الطابع الديمقراطي على الوصول إلى هذه النماذج المتقدمة لكل من المساعي التجارية والأكاديمية. التكامل السهل مع أدوات مثل vLLM يضمن تبنيًا سريعًا.

في نهاية المطاف، من المتوقع أن تسرع OpenCodeReasoning-Nemotron تطوير البرمجيات، وتعزز الإنتاجية، وتغذي الابتكار في البرمجة بمساعدة الذكاء الاصطناعي، مما يمثل فصلاً جديدًا وأكثر تعاونًا في هذا المجال.

💡
هل تريد أداة رائعة لاختبار واجهات برمجة التطبيقات (API) تولد وثائق واجهات برمجة تطبيقات (API) جميلة؟

هل تريد منصة متكاملة وشاملة لفريق المطورين الخاص بك للعمل معًا بأقصى إنتاجية؟

Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر معقول أكثر بكثير!
button

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات