Apidog

منصة تطوير API تعاونية متكاملة

تصميم API

توثيق API

تصحيح أخطاء API

محاكاة API

اختبار API الآلي

أوراق الغش الخاصة بأولاما - كيفية تشغيل نماذج اللغة الكبيرة محليًا باستخدام أولاما

@apidog

@apidog

Updated on مارس 8, 2025

مقدمة إلى نماذج اللغة الكبيرة المحلية مع أولاما

يتطور مشهد الذكاء الاصطناعي بسرعة، ولكن هناك اتجاه واضح: يريد المطورون بشكل متزايد السيطرة والخصوصية والمرونة على تطبيقاتهم في الذكاء الاصطناعي. توفر أولاما بالضبط ذلك، حيث تقدم طريقة مبسطة لتشغيل نماذج اللغة الكبيرة القوية محليًا على أجهزتك دون قيود واجهات البرمجة المستندة إلى السحابة.

لماذا تشغيل النماذج محليًا؟ هناك ثلاثة أسباب مقنعة: خصوصية كاملة للبيانات الحساسة، عدم وجود مشاكل في وقت الاستجابة بسبب استدعاءات واجهة برمجة التطبيقات، والحرية من قيود الاستخدام أو التكاليف غير المتوقعة. عندما تقوم ببناء تطبيقات تتطلب أداءً ثابتًا للذكاء الاصطناعي دون إرسال بيانات المستخدم إلى أطراف ثالثة، يصبح الاستدلال المحلي ليس فقط جاذبًا ولكن ضروريًا.

يمثل DeepSeek-R1 تقدمًا كبيرًا في نماذج الذكاء الاصطناعي مفتوحة المصدر، حيث يتنافس مع قدرات العديد من العروض التجارية. مع قدرات قوية في الاستدلال، وبراعة في توليد الشيفرة، والقدرة على معالجة المدخلات متعددة الوسائط، يُعتبر خيارًا ممتازًا للمطورين الذين يتطلعون إلى دفع حدود ما هو ممكن مع الذكاء الاصطناعي المحلي.


تستحق نماذج اللغة الكبيرة اختبار واجهات برمجة التطبيقات القوي.

عند بناء تطبيقات تتكامل مع نماذج اللغة الكبيرة المحلية مثل DeepSeek من خلال أولاما، ستواجه حتمًا تحدي تصحيح الاستجابات المتدفقة للذكاء الاصطناعي. وهنا تتألق Apidog حقًا.



على عكس أدوات واجهات برمجة التطبيقات العامة، تقوم Apidog بتصحيح SSE المتخصص بتمثيل الجيل كلمة بكلمة في الوقت الحقيقي - مما يمنحك رؤية غير مسبوقة لما يفكر فيه النموذج الخاص بك. سواء كنت تقوم ببناء دردشة آلية، مولد محتوى، أو بحث مدعوم بالذكاء الاصطناعي، تجعل Apidog العمل مع نقاط النهاية لواجهة برمجة التطبيقات الخاصة بأولاما سلسًا بشكل ملحوظ.

لقد وجدت شخصيًا أن هذه المجموعة غيرت قواعد اللعبة لتطوير نماذج اللغة الكبيرة المحلية.

زر

البدء مع أولاما

التثبيت

يعد تثبيت أولاما مباشرًا للغاية عبر أنظمة التشغيل الرئيسية:

curl -fsSL https://ollama.com/install.sh | sh

بعد التثبيت، ابدأ خادم أولاما مع:

ollama serve

تشغل هذه الأمر أولاما كخدمة تستمع للطلبات على localhost:11434. احتفظ بنافذة الطرفية هذه مفتوحة، أو قم بإعداد أولاما كخدمة في الخلفية إذا كنت تخطط لاستخدامه باستمرار.

متطلبات النظام

للحصول على أداء مثالي مع DeepSeek-R1:

  • الحد الأدنى: 8 جيجابايت من الذاكرة العشوائية، وحدة معالجة مركزية حديثة بأكثر من 4 أنوية
  • موصى به: 16 جيجابايت أو أكثر من الذاكرة العشوائية، وحدة معالجة رسومات NVIDIA مع 8 جيجابايت أو أكثر من VRAM
  • التخزين: على الأقل 10 جيجابايت من المساحة الحرة لنموذج الأساس

الأوامر الأساسية

تحقق من الإصدار المثبت لديك:

ollama --version

احصل على مساعدة حول الأوامر المتاحة:

ollama help

إدارة النماذج

استكشاف وسحب النماذج

قبل التعمق في معالجة النماذج، دعنا نرى ما هو متاح:

ollama list

يعرض هذا الأمر جميع النماذج المثبتة محليًا. عندما تكون جاهزًا لتنزيل DeepSeek-R1:

ollama pull deepseek-r1

تقدم أولاما أحجام نماذج مختلفة لتتناسب مع قدرات الأجهزة لديك. بالنسبة للأجهزة ذات الموارد المحدودة، جرب:

ollama pull deepseek-r1:7b

لإعدادات أكثر قوة تسعى للحصول على قدرات محسنة:

ollama pull deepseek-r1:8b

تواجه قيود محتوى؟ يفضل بعض المطورين نماذج ذات تصفية أقل:

ollama pull open-r1

تشغيل النماذج بفعالية

تظهر القوة الحقيقية لأوراما عندما تبدأ بالتفاعل مع النماذج. أطلق جلسة دردشة تفاعلية:

ollama run deepseek-r1

يفتح ذلك محادثة في الوقت الحقيقي حيث يمكنك استكشاف قدرات DeepSeek-R1. اكتب استفساراتك واضغط على Enter، أو استخدم /help لرؤية الأوامر الخاصة المتاحة خلال الجلسة.

لإجراء استفسارات سريعة لمرة واحدة دون الدخول في الوضع التفاعلي:

ollama run deepseek-r1 "اشرح الحوسبة الكمومية بمصطلحات بسيطة"

قم بمعالجة النصوص مباشرة من الملفات - وهو مفيد للغاية لأغراض التلخيص والتحليل أو المهام التحويلية:

ollama run deepseek-r1 "تلخيص محتوى هذا الملف في 50 كلمة." < input.txt

ضبط معلمات النموذج

يمكن تعديل سلوك DeepSeek-R1 بصورة دراماتيكية من خلال تعديلات المعلمات. للحصول على مخرجات إبداعية ومتنوعة:

ollama run deepseek-r1 --temperature 0.7 --top-p 0.9

للحصول على استجابات واقعية وحتمية تناسب البرمجة أو الشرح التقني بشكل أفضل:

ollama run deepseek-r1 --temperature 0.1 --top-p 1.0

دليل المعلمات:

  • درجة الحرارة (0.0-1.0): القيم الأدنى تجعل الاستجابات أكثر تركيزًا وحتمية؛ القيم الأعلى تضيف الإبداع والتنوع.
  • Top-p (0.0-1.0): يتحكم في التنوع من خلال مراعاة الرموز الأكثر احتمالًا فقط، والتي تتجاوز احتمالية تجميعها هذا العتبة.
  • نافذة السياق: تحدد مقدار المحادثة السابقة التي يتذكرها النموذج.

استخدامات متقدمة وتكامل واجهة برمجة التطبيقات

ملفات نموذج مخصصة للتطبيقات المتخصصة

FROM deepseek-r1:8b
PARAMETER temperature 0.3
PARAMETER top_p 0.95
SYSTEM أنت مطور برمجيات أولي متخصص في بايثون. قدم كودًا نظيفًا وفعالًا مع تعليقات مفيدة.

احفظ ذلك كـ Modelfile وأنشئ نموذجك المخصص:

ollama create python-expert -f Modelfile

قم بتشغيله مثل أي نموذج آخر:

ollama run python-expert "اكتب دالة للعثور على الأعداد الأولية في نطاق محدد"

واجهة برمجة التطبيقات REST لتكامل التطبيق

بينما يعد استخدام سطر الأوامر مريحًا للتجريب، فإن التطبيقات الحقيقية تحتاج إلى وصول API. توفر أولاما واجهة برمجة تطبيقات REST بسيطة على المنفذ 11434:

# طلب إكمال أساسي
curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "اكتب دالة تكرارية لحساب أعداد فيبوناتشي",
  "stream": false
}'

للحصول على استجابات متدفقة (مثالية لواجهات الدردشة):

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "اشرح كيف تتعلم الشبكات العصبية بمصطلحات بسيطة",
  "stream": true
}'

اختبار نقاط النهاية لواجهة برمجة التطبيقات مع Apidog

عند بناء تطبيقات تتكامل مع واجهة برمجة التطبيقات لأوراما، يصبح اختبار وتصوير الاستجابات المتدفقة أمرًا حاسمًا. تتفوق Apidog في التعامل مع أحداث خادم الإرسال (SSE) مثل تلك الناتجة عن واجهة برمجة التطبيقات المتدفقة لأوراما:

  1. أنشئ مشروع HTTP جديد في Apidog
  2. أضف نقطة نهاية مع عنوان URL http://localhost:11434/api/generate
  3. قم بإعداد طلب POST مع الجسم JSON:
{
  "model": "deepseek-r1",
  "prompt": "اكتب قصة عن مبرمج يكتشف الذكاء الاصطناعي",
  "stream": true
}
  1. أرسل الطلب وراقب كيف تقوم أدوات تصحيح SSE في Apidog برؤية عملية إنشاء الرموز كلمة بكلمة في الوقت الحقيقي

يساعد هذا التصوير في تحديد المشكلات المتعلقة بتنسيق الاستجابة، أو توليد الرموز، أو سلوك النموذج غير المتوقع الذي قد يكون من الصعب تصحيحه بخلاف ذلك.

تطبيقات العالم الحقيقي مع DeepSeek-R1

يتفوق DeepSeek-R1 في سيناريوهات عملية مختلفة:

توليد المحتوى

أنشئ منشورات مدونة ذات جودة احترافية:

ollama run deepseek-r1 "اكتب منشور مدونة من 500 كلمة حول التكنولوجيا المستدامة"

استخراج المعلومات

قم بمعالجة وتحليل الوثائق لاستخراج المعلومات الرئيسية:

ollama run deepseek-r1 "استخرج النقاط الرئيسية من هذه الورقة البحثية: " < paper.txt

تحليل الصور

قم بمعالجة الصور لوصف المحتوى أو التحليل:

ollama run deepseek-r1 "قم بتحليل ووصف محتوى هذه الصورة" < image.jpg

توليد الشيفرة والشرح

قم بتوليد حلول الشيفرة لمشكلات معينة:

ollama run deepseek-r1 "اكتب دالة بايثون التي تنفذ خوارزمية البحث الثنائي مع تعليقات مفصلة"

أو اشرح الشيفرة المعقدة:

ollama run deepseek-r1 "اشرح ما تفعله هذه الشيفرة: " < complex_algorithm.py

استكشاف المشاكل الشائعة

مشاكل الذاكرة والأداء

إذا واجهت أخطاء نقص الذاكرة:

  • جرب نموذجًا أصغر (7B بدلاً من 8B)
  • قلل من حجم نافذة السياق باستخدام --ctx N (على سبيل المثال، --ctx 2048)
  • اغلق التطبيقات الأخرى التي تتطلب ذاكرة كبيرة
  • بالنسبة لمستخدمي CUDA، تأكد أنك قد قمت بتثبيت أحدث برامج التشغيل من NVIDIA

مشكلات اتصال واجهة برمجة التطبيقات

إذا لم تتمكن من الاتصال بواجهة برمجة التطبيقات:

  • تأكد من تشغيل أولاما باستخدام ollama serve
  • تحقق مما إذا كان المنفذ الافتراضي محجوزًا أو قيد الاستخدام (lsof -i :11434)
  • تحقق من إعدادات الجدار الناري إذا كنت تتصل من جهاز آخر

الخاتمة

تمثل أولاما مع DeepSeek-R1 خطوة كبيرة نحو ديمقراطية الذكاء الاصطناعي عن طريق وضع نماذج اللغة القوية مباشرة بين يدي المطورين. تقدم هذه المجموعة خصوصية، وسيطرة، وقدرات مثيرة للإعجاب - وكل ذلك دون الاعتماد على خدمات خارجية.

بينما تبني تطبيقات باستخدام هذه النماذج المحلية، تذكر أن الاختبار الصحيح لتكاملات واجهة برمجة التطبيقات الخاصة بك أمر حاسم لأداء موثوق. يمكن أن تساعدك أدوات مثل Apidog في تصور وتصحيح الاستجابات المتدفقة من أولاما، خاصة عند بناء تطبيقات معقدة تحتاج إلى معالجة مخرجات النموذج في الوقت الحقيقي.

سواء كنت تولد محتوى، أو تبني واجهات محادثة، أو تنشئ مساعدات برمجية، توفر هذه الثنائيات القوية الأساس الذي تحتاجه لتكامل الذكاء الاصطناعي المعقد - مباشرة على أجهزتك الخاصة.