تشغيل GPT-OSS مجانًا باستخدام Ollama

Ashley Innocent

Ashley Innocent

5 أغسطس 2025

تشغيل GPT-OSS مجانًا باستخدام Ollama

إن تشغيل نماذج اللغة الكبيرة (LLMs) محليًا يمكّن المطورين من تحقيق الخصوصية والتحكم وتوفير التكاليف. تقدم نماذج OpenAI مفتوحة الوزن، والمعروفة إجمالاً باسم GPT-OSS (gpt-oss-120b و gpt-oss-20b)، قدرات استدلال قوية لمهام مثل البرمجة وسير العمل الوكيل وتحليل البيانات. باستخدام Ollama، وهي منصة مفتوحة المصدر، يمكنك نشر هذه النماذج على أجهزتك الخاصة دون الاعتماد على السحابة. يرشدك هذا الدليل الفني خلال تثبيت Ollama، وتكوين نماذج GPT-OSS، وتصحيح الأخطاء باستخدام Apidog، وهي أداة تبسط اختبار واجهة برمجة التطبيقات (API) لـ LLMs المحلية.

💡
لتصحيح أخطاء واجهة برمجة التطبيقات (API) بسلاسة، قم بتنزيل Apidog مجانًا لتصور وتحسين تفاعلاتك مع GPT-OSS.

زر

لماذا تشغل GPT-OSS محليًا باستخدام Ollama؟

يوفر تشغيل GPT-OSS محليًا باستخدام Ollama مزايا واضحة للمطورين والباحثين. أولاً، يضمن خصوصية البيانات، حيث تبقى مدخلاتك ومخرجاتك على جهازك. ثانيًا، يلغي تكاليف واجهة برمجة التطبيقات السحابية المتكررة، مما يجعله مثاليًا لحالات الاستخدام عالية الحجم أو التجريبية. ثالثًا، يسمح توافق Ollama مع بنية واجهة برمجة تطبيقات OpenAI بالتكامل السلس مع الأدوات الموجودة، بينما يضمن دعمها للنماذج الكمية مثل gpt-oss-20b (التي تتطلب ذاكرة 16 جيجابايت فقط) إمكانية الوصول على الأجهزة المتواضعة.

علاوة على ذلك، تبسط Ollama تعقيدات نشر نماذج اللغة الكبيرة (LLM). تتعامل مع أوزان النموذج والتبعيات والتكوينات من خلال ملف Modelfile واحد، يشبه حاوية Docker للذكاء الاصطناعي. بالاقتران مع Apidog، الذي يوفر تصورًا في الوقت الفعلي لاستجابات الذكاء الاصطناعي المتدفقة، تحصل على نظام بيئي قوي لتطوير الذكاء الاصطناعي المحلي. بعد ذلك، دعنا نستكشف المتطلبات الأساسية لإعداد هذه البيئة.

المتطلبات الأساسية لتشغيل GPT-OSS محليًا

قبل المتابعة، تأكد من أن نظامك يلبي المتطلبات التالية:

مع توفر هذه المتطلبات، أنت جاهز لتثبيت Ollama ونشر GPT-OSS. دعنا ننتقل إلى عملية التثبيت.

الخطوة 1: تثبيت Ollama على نظامك

تثبيت Ollama مباشر وسهل، ويدعم macOS و Linux و Windows. اتبع هذه الخطوات لإعداده:

تنزيل Ollama:

curl -fsSL https://ollama.com/install.sh | sh

يقوم هذا السكريبت بأتمتة عملية التنزيل والإعداد.

التحقق من التثبيت:

بدء تشغيل خادم Ollama:

بمجرد التثبيت، يصبح Ollama جاهزًا لتنزيل وتشغيل نماذج GPT-OSS. دعنا ننتقل إلى تنزيل النماذج.

الخطوة 2: تنزيل نماذج GPT-OSS

نماذج GPT-OSS من OpenAI (gpt-oss-120b و gpt-oss-20b) متاحة على Hugging Face ومحسّنة لـ Ollama بتقنية MXFP4 quantization، مما يقلل من متطلبات الذاكرة. اتبع هذه الخطوات لتنزيلها:

اختر النموذج:

التنزيل عبر Ollama:

ollama pull gpt-oss-20b

أو

ollama pull gpt-oss-120b

اعتمادًا على جهازك، قد يستغرق التنزيل (20-50 جيجابايت) بعض الوقت. تأكد من وجود اتصال إنترنت مستقر.

التحقق من التنزيل:

ollama list

ابحث عن gpt-oss-20b:latest أو gpt-oss-120b:latest.

بعد تنزيل النموذج، يمكنك الآن تشغيله محليًا. دعنا نستكشف كيفية التفاعل مع GPT-OSS.

الخطوة 3: تشغيل نماذج GPT-OSS باستخدام Ollama

توفر Ollama طرقًا متعددة للتفاعل مع نماذج GPT-OSS: واجهة سطر الأوامر (CLI)، أو واجهة برمجة التطبيقات (API)، أو الواجهات الرسومية مثل Open WebUI. دعنا نبدأ بواجهة سطر الأوامر للتبسيط.

بدء جلسة تفاعلية:

ollama run gpt-oss-20b

يفتح هذا جلسة دردشة في الوقت الفعلي. اكتب استعلامك (على سبيل المثال، "اكتب دالة بايثون للبحث الثنائي") واضغط على Enter. استخدم /help للأوامر الخاصة.

استعلامات لمرة واحدة:

ollama run gpt-oss-20b "Explain quantum computing in simple terms"

تعديل المعلمات:

ollama run gpt-oss-20b --temperature 0.1 --top-p 1.0 "Write a factual summary of blockchain technology"

تضمن درجة الحرارة المنخفضة (على سبيل المثال، 0.1) مخرجات حتمية وواقعية، مثالية للمهام الفنية.

بعد ذلك، دعنا نخصص سلوك النموذج باستخدام Modelfiles لحالات استخدام محددة.

الخطوة 4: تخصيص GPT-OSS باستخدام ملفات Ollama Modelfiles

تسمح لك ملفات Modelfiles الخاصة بـ Ollama بتكييف سلوك GPT-OSS دون إعادة التدريب. يمكنك تعيين مطالبات النظام، أو ضبط حجم السياق، أو ضبط المعلمات بدقة. إليك كيفية إنشاء نموذج مخصص:

إنشاء ملف Modelfile:

FROM gpt-oss-20b
SYSTEM "You are a technical assistant specializing in Python programming. Provide concise, accurate code with comments."
PARAMETER temperature 0.5
PARAMETER num_ctx 4096

يقوم هذا بتكوين النموذج كمساعد يركز على بايثون مع إبداع معتدل ونافذة سياق بحجم 4 آلاف رمز.

بناء النموذج المخصص:

ollama create python-gpt-oss -f Modelfile

تشغيل النموذج المخصص:

ollama run python-gpt-oss

الآن، يعطي النموذج الأولوية للاستجابات المتعلقة بلغة بايثون بالسلوك المحدد.

يعزز هذا التخصيص GPT-OSS لمجالات محددة، مثل البرمجة أو التوثيق الفني. الآن، دعنا ندمج النموذج في التطبيقات باستخدام واجهة برمجة تطبيقات Ollama.

الخطوة 5: دمج GPT-OSS مع واجهة برمجة تطبيقات Ollama

تتيح واجهة برمجة تطبيقات Ollama، التي تعمل على http://localhost:11434، الوصول البرمجي إلى GPT-OSS. وهذا مثالي للمطورين الذين يبنون تطبيقات مدعومة بالذكاء الاصطناعي. إليك كيفية استخدامها:

نقاط نهاية واجهة برمجة التطبيقات (API Endpoints):

curl http://localhost:11434/api/generate -H "Content-Type: application/json" -d '{"model": "gpt-oss-20b", "prompt": "Write a Python script for a REST API"}'
curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "gpt-oss-20b", "messages": [{"role": "user", "content": "Explain neural networks"}]}'

توافق OpenAI:

from openai import OpenAI
client = OpenAI(base_url="http://localhost:11434/v1", api_key="ollama")
response = client.chat.completions.create(
    model="gpt-oss-20b",
    messages=[{"role": "user", "content": "What is machine learning?"}]
)
print(response.choices[0].message.content)

يتيح دمج واجهة برمجة التطبيقات هذا لـ GPT-OSS تشغيل روبوتات الدردشة، أو مولدات الأكواد، أو أدوات تحليل البيانات. ومع ذلك، قد يكون تصحيح أخطاء الاستجابات المتدفقة أمرًا صعبًا. دعنا نرى كيف يبسط Apidog هذا الأمر.

الخطوة 6: تصحيح أخطاء GPT-OSS باستخدام Apidog

Apidog هي أداة قوية لاختبار واجهة برمجة التطبيقات (API) تقوم بتصور الاستجابات المتدفقة من نقاط نهاية Ollama، مما يسهل تصحيح أخطاء مخرجات GPT-OSS. إليك كيفية استخدامها:

تثبيت Apidog:

تكوين واجهة برمجة تطبيقات Ollama في Apidog:

{
  "model": "gpt-oss-20b",
  "prompt": "Generate a Python function for sorting",
  "stream": true
}

تصور الاستجابات:

الاختبار المقارن:

يحول تصور Apidog تصحيح الأخطاء من مهمة شاقة إلى عملية واضحة وقابلة للتنفيذ، مما يعزز سير عمل التطوير الخاص بك. الآن، دعنا نتناول المشكلات الشائعة التي قد تواجهها.

الخطوة 7: استكشاف المشكلات الشائعة وإصلاحها

قد يواجه تشغيل GPT-OSS محليًا تحديات. إليك حلول للمشكلات المتكررة:

خطأ ذاكرة وحدة معالجة الرسوميات (GPU):

النموذج لا يبدأ التشغيل:

واجهة برمجة التطبيقات لا تستجيب:

أداء بطيء:

للمشكلات المستمرة، استشر Ollama GitHub أو مجتمع Hugging Face للحصول على دعم GPT-OSS.

الخطوة 8: تحسين GPT-OSS باستخدام Open WebUI

للحصول على واجهة سهلة الاستخدام، قم بإقران Ollama مع Open WebUI، وهي لوحة تحكم قائمة على المتصفح لـ GPT-OSS:

تثبيت Open WebUI:

docker run -d -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:main

الوصول إلى الواجهة:

تحميل المستندات:

تبسط Open WebUI التفاعل للمستخدمين غير التقنيين، وتكمل قدرات تصحيح الأخطاء التقنية لـ Apidog.

الخاتمة: إطلاق العنان لـ GPT-OSS باستخدام Ollama و Apidog

إن تشغيل GPT-OSS محليًا باستخدام Ollama يمكّنك من الاستفادة من نماذج OpenAI مفتوحة الوزن مجانًا، مع تحكم كامل في الخصوصية والتخصيص. باتباع هذا الدليل، تعلمت كيفية تثبيت Ollama، وتنزيل نماذج GPT-OSS، وتخصيص السلوك، والدمج عبر واجهة برمجة التطبيقات (API)، وتصحيح الأخطاء باستخدام Apidog. سواء كنت تبني تطبيقات مدعومة بالذكاء الاصطناعي أو تجرب مهام الاستدلال، فإن هذا الإعداد يوفر مرونة لا مثيل لها. يمكن للتعديلات الصغيرة، مثل ضبط المعلمات أو استخدام تصور Apidog، أن تعزز سير عملك بشكل كبير. ابدأ في استكشاف الذكاء الاصطناعي المحلي اليوم واطلق العنان لإمكانيات GPT-OSS!

زر

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات