كيفية تحميل واستخدام أولاما لتشغيل LLMs محليًا

@apidog

@apidog

27 يونيو 2025

كيفية تحميل واستخدام أولاما لتشغيل LLMs محليًا

عالم الذكاء الاصطناعي (AI) يتطور بسرعة مذهلة، مع نماذج اللغة الكبيرة (LLMs) مثل ChatGPT وClaude وGemini التي تأسر الخيال في جميع أنحاء العالم. يمكن لهذه الأدوات القوية كتابة الشيفرات، وصياغة الرسائل الإلكترونية، والإجابة على الأسئلة المعقدة، وحتى توليد محتوى إبداعي. ومع ذلك، فإن استخدام هذه الخدمات السحابية غالبًا ما يأتي مع مخاوف حول خصوصية البيانات، والتكاليف المحتملة، والحاجة إلى اتصال دائم بالإنترنت.

إليكم أولا.

أولا هو أداة قوية مفتوحة المصدر مصممة لديمقراطية الوصول إلى نماذج اللغة الكبيرة من خلال تمكينك من تحميلها وتشغيلها وإدارتها مباشرة على جهاز الكمبيوتر الخاص بك. إنها تبسط عملية إعداد والتفاعل مع نماذج الذكاء الاصطناعي الحديثة محليًا، والتي غالبًا ما تكون معقدة.

لماذا تستخدم أولا؟

تشغيل نماذج اللغة الكبيرة محليًا باستخدام أولا يوفر عدة مزايا مقنعة:

  1. الخصوصية: تظل مطالباتك وردود النموذج على جهازك. لا يتم إرسال أي بيانات إلى خوادم خارجية ما لم تقم بتكوين ذلك بشكل صريح. هذه نقطة مهمة للمعلومات الحساسة أو العمل المملوك.
  2. الوصول غير المتصل: بمجرد تحميل نموذج، يمكنك استخدامه بدون اتصال بالإنترنت، مما يجعله مثاليًا للسفر أو المواقع النائية أو الحالات ذات الاتصال غير الموثوق.
  3. التخصيص: يتيح لك أولا تعديل النماذج بسهولة باستخدام "ملفات النموذج"، مما يسمح لك بتخصيص سلوكها، والمطالبات النظامية، والمعلمات وفقًا لاحتياجاتك المحددة.
  4. فعالية التكلفة: لا توجد رسوم اشتراك أو رسوم لكل رمز. التكلفة الوحيدة هي الأجهزة التي تمتلكها بالفعل والكهرباء لتشغيلها.
  5. استكشاف وتعلم: توفر منصة رائعة للتجربة مع نماذج مفتوحة المصدر المختلفة، وفهم قدراتها وحدودها، وتعلم المزيد عن كيفية عمل نماذج اللغة الكبيرة.

تم تصميم هذه المقالة للمبتدئين الذين يشعرون بالراحة في استخدام واجهة سطر الأوامر (مثل Terminal على macOS/Linux أو Command Prompt/PowerShell على Windows) ويرغبون في البدء في استكشاف عالم نماذج اللغة الكبيرة المحلية باستخدام أولا. سوف نوجهك لفهم الأساسيات، وتنصيب أولا، وتشغيل نموذجك الأول، والتفاعل معه، واستكشاف التخصيص الأساسي.

💡
هل تريد أداة اختبار API رائعة تنتج وثائق API جميلة؟

هل تريد منصة متكاملة، شاملة لفريق مطوريك للعمل معًا بحد أقصى من الإنتاجية؟

أبيدوج تلبي جميع احتياجاتك، وتحل محل Postman بسعر أكثر ملاءمة!
button

كيف يعمل أولا؟

قبل أن نغوص في عملية التثبيت، دعنا نوضح بعض المفاهيم الأساسية.

ما هي نماذج اللغة الكبيرة (LLMs)؟

فكر في النموذج الكبير كنظام تكملة تلقائية متقدم للغاية تم تدريبه على كميات هائلة من النصوص والشيفرات من الإنترنت. من خلال تحليل الأنماط في هذه البيانات، يتعلم القواعد والحقائق والقدرات الاستدلالية وأنماط الكتابة المختلفة. عندما تعطيه مطالبة (نص المدخلات)، يتوقع تسلسل الكلمات الأكثر احتمالية للمتابعة، مما ينتج عنه استجابة متماسكة وغالبًا ما تكون بصيرة. تم تدريب نماذج اللغة الكبيرة المختلفة مع مجموعات بيانات وأحجام وهياكل مختلفة، مما يؤدي إلى تفاوت نقاط قوتها وضعفها وشخصياتها.

كيف يعمل أولا؟

يعمل أولا كمدير ومشغل لهذه النماذج الكبيرة على جهازك المحلي. تشمل وظائفه الأساسية:

  1. تحميل النموذج: يقوم بجلب أوزان النموذج المعبأة مسبقًا والتكوينات من مكتبة مركزية (تشبه إلى حد بعيد كيفية سحب Docker لصور الحاويات).
  2. تنفيذ النموذج: يقوم بتحميل النموذج المختار إلى ذاكرة جهاز الكمبيوتر الخاص بك (ذاكرة الوصول العشوائي) ويستفيد potentially من بطاقة الرسومات الخاصة بك لتسريع العملية.
  3. توفير الواجهات: يوفر واجهة سطر أوامر بسيطة للتفاعل المباشر، ويدير أيضًا خادم ويب محلي يقدم واجهة برمجة التطبيقات (API) لتطبيقات أخرى للتواصل مع نموذج اللغة الكبيرة المُشغل.

متطلبات الأجهزة لأولا: هل يمكن لجهاز الكمبيوتر الخاص بي تشغيله؟

تشغيل نماذج اللغة الكبيرة محليًا قد يكون متطلبًا، بشكل رئيسي على ذاكرة الوصول العشوائي لجهاز الكمبيوتر الخاص بك. حجم النموذج الذي تريد تشغيله يحدد الحد الأدنى من الذاكرة المطلوبة.

عوامل أخرى قد تحتاج إلى مراعاتها:

توصية للمبتدئين: ابدأ بنماذج أصغر (مثل phi3 أو mistral أو llama3:8b) وتأكد من حصولك على 16 جيجابايت على الأقل من الذاكرة للوصول إلى تجربة مريحة أولية. تحقق من موقع أولا أو مكتبة النموذج للحصول على توصيات محددة عن الذاكرة المطلوبة لكل نموذج.

كيفية تثبيت أولا على Mac وLinux وWindows (باستخدام WSL)

يدعم أولا أنظمة تشغيل macOS وLinux وWindows (حاليًا في المعاينة، وغالبًا ما يتطلب WSL).

الخطوة 1: المتطلبات الأساسية

الخطوة 2: تحميل وتثبيت أولا

تختلف العملية قليلاً اعتمادًا على نظام التشغيل الخاص بك:

  1. اذهب إلى الموقع الرسمي لأولا: https://ollama.com
  2. انقر على زر "تنزيل"، ثم اختر "تنزيل لـ macOS".
  3. بمجرد تنزيل ملف .dmg، افتحه.
  4. اسحب أيقونة تطبيق أولا إلى مجلد التطبيقات.
  5. قد تحتاج إلى منح الأذونات في المرة الأولى التي تقوم بتشغيله فيها.

أسرع طريقة هي عادة عبر سكريبت التثبيت الرسمي. افتح المحطة الخاصة بك وقم بتشغيل:

curl -fsSL <https://ollama.com/install.sh> | sh

يقوم هذا الأمر بتنزيل السكريبت وتنفيذه، مما يؤدي إلى تثبيت أولا لمستخدمك. سيحاول أيضًا اكتشاف وتكوين دعم GPU إذا كان ذلك ينطبق (تحتاج إلى برامج تشغيل NVIDIA).

اتبع أي مطالبات تظهر بواسطة السكريبت. تعليمات التثبيت اليدوية متاحة أيضًا في مستودع GitHub الخاص بأولا إذا كنت تفضل ذلك.

  1. اذهب إلى الموقع الرسمي لأولا: https://ollama.com
  2. انقر على زر "تنزيل"، ثم اختر "تنزيل لويندوز (معاينة)".
  3. قم بتشغيل المثبت التنفيذي الذي قمت بتحميله (.exe).
  4. اتبع خطوات معالج التثبيت.
  5. ملاحظة هامة: يعتمد أولا على Windows Subsystem for Linux (WSL2). قد يطلب منك المثبت تثبيت أو تكوين WSL2 إذا لم يتم إعدادها بالفعل. عادة ما يتطلب تسريع GPU تكوينات WSL محددة وبرامج تشغيل NVIDIA المثبتة داخل بيئة WSL. قد تشعر أن استخدام أولا يكون أكثر طبيعية من خلال محطة WSL.

الخطوة 3: التحقق من التثبيت

بمجرد التثبيت، تحتاج إلى التحقق من أن أولا يعمل بشكل صحيح.

افتح المحطة أو موجه الأوامر لديك. (على Windows، يُوصى غالبًا باستخدام محطة WSL).

اكتب الأمر التالي واضغط على Enter:

ollama --version

إذا كانت عملية التثبيت ناجحة، يجب أن ترى مخرجات تعرض رقم إصدار أولا المثبت، مثل:

إصدار أولا هو 0.1.XX

إذا رأيت هذا، فإن أولا مثبتة وجاهزة للعمل! إذا واجهت خطأ مثل "الأمر غير موجود"، تحقق من خطوات التثبيت، وتأكد من أن أولا قد أضيفت إلى مسار نظامك (عادةً ما يتولى المثبت هذا)، أو حاول إعادة تشغيل المحطة أو جهاز الكمبيوتر لديك.

البدء: تشغيل نموذجك الأول مع أولا

مع تثبيت أولا، يمكنك الآن تحميل والتفاعل مع نموذج لغة كبيرة.

المفهوم: سجل نموذج أولا

تحافظ أولا على مكتبة من النماذج المفتوحة المصدر المتاحة بسهولة. عندما تطلب من أولا تشغيل نموذج ليس لديه محليًا، يقوم بتنزيله تلقائيًا من هذا السجل. فكر في الأمر مثل docker pull لنماذج اللغة الكبيرة. يمكنك تصفح النماذج المتاحة في قسم المكتبة بموقع أولا.

اختيار نموذج

بالنسبة للمبتدئين، من الأفضل البدء بنموذج متوازن وصغير نسبيًا. الخيارات الجيدة تشمل:

تحقق من مكتبة أولا لمزيد من التفاصيل حول حجم كل نموذج ومتطلبات الذاكرة وحالات الاستخدام النموذجية.

تحميل وتشغيل نموذج (سطر الأوامر)

الأمر الرئيسي الذي ستستخدمه هو ollama run.

افتح المحطة الخاصة بك.

اختر اسم نموذج (مثل llama3:8b).

اكتب الأمر:

ollama run llama3:8b

اضغط على Enter.

ماذا يحدث بعد ذلك؟

تحميل: إذا لم يكن لديك llama3:8b محليًا، ستظهر أولا شرايط التقدم أثناء تحميل طبقات النموذج. قد يستغرق ذلك بعض الوقت وفقًا لسرعة الإنترنت لديك وحجم النموذج (غالبًا عدة جيجابايت).

التحميل: بمجرد التنزيل، يقوم أولا بتحميل النموذج إلى ذاكرة الوصول العشوائي الخاصة بجهاز الكمبيوتر الخاص بك (وذاكرة GPU، إذا كان ذلك ينطبق). قد ترى رسائل حول الكشف عن الأجهزة.

الدردشة التفاعلية: بعد التحميل، سترى مطالبة مثل: هذا يعني أن النموذج جاهز! أنت الآن في جلسة دردشة تفاعلية مباشرة مع نموذج اللغة الكبيرة الذي يعمل على جهازك.

>>> أرسل رسالة (/? للمساعدة)

التفاعل مع النموذج:

مثال على التفاعل:


> أرسل رسالة (/? للمساعدة)
اشرح مفهوم التمثيل الضوئي بطريقة بسيطة.
>

التمثيل الضوئي هو مثل كيف تصنع النباتات غذاءها بنفسها! تأخذ ثلاث مكونات رئيسية:

1. **أشعة الشمس:** طاقة من الشمس.
2. **الماء:** يمتص من خلال جذورها.
3. **ثاني أكسيد الكربون:** غاز تأخذه من الهواء من خلال ثقوب صغيرة في أوراقها.

باستخدام طاقة الشمس، تجمع النباتات الماء وثاني أكسيد الكربون داخل أجزاء خاصة من خلاياها تسمى البلاستيدات الخضراء. هذه العملية تنتج شيئان:

1. **سكر (جلوكوز):** هذا هو غذاء النبات، مما يمنحه الطاقة لكي ينمو.
2. **أكسجين:** غاز تطلقه النبات مرة أخرى إلى الهواء، وهو ما تحتاجه الحيوانات (مثلنا!) للتنفس.

لذا، ببساطة: النباتات تستخدم أشعة الشمس والماء والهواء لصنع غذائها الخاص وتحرير الأكسجين الذي نحتاجه!

>
>

إنهاء الجلسة:

عندما تنتهي من الدردشة، اكتب /bye واضغط على Enter. سيؤدي ذلك إلى تحميل النموذج من الذاكرة وإعادتك إلى موجه المحطة العادي. يمكنك أيضًا غالبًا استخدام Ctrl+D.

قائمة النماذج التي تم تنزيلها

لمعرفة النماذج التي قمت بتنزيلها محليًا، استخدم الأمر ollama list:

ollama list

ستظهر المخرجات أسماء النماذج، ومعرفاتها الفريدة، وأحجامها، ومتى تم تعديلها آخر مرة:

NAME            ID              SIZE    MODIFIED
llama3:8b       871998b83999    4.7 GB  منذ 5 أيام
mistral:latest  8ab431d3a87a    4.1 GB  منذ أسبوعين

إزالة نماذج

تستغرق النماذج مساحة على القرص. إذا لم تعد بحاجة إلى نموذج معين، يمكنك إزالته باستخدام الأمر ollama rm متبوعًا باسم النموذج:

ollama rm mistral:latest

ستؤكد أولا عملية الحذف. يزيل هذا فقط الملفات التي تم تنزيلها؛ يمكنك دائمًا تشغيل ollama run mistral:latest مرة أخرى لإعادة تحميلها لاحقًا.

كيفية الحصول على نتائج أفضل من أولا

تشغيل النماذج ما هو إلا البداية. إليك كيفية الحصول على نتائج أفضل:

فهم المطالبات (أساسيات هندسة المطالبات)

تعتمد جودة مخرجات النموذج بشكل كبير على جودة مدخلاتك (المطالبة).

تجربة نماذج مختلفة

تتفوق نماذج مختلفة في مهام مختلفة.

تجربة! قم بتشغيل نفس المطالبة عبر نماذج مختلفة باستخدام ollama run <model_name> لمعرفة أي منها يناسب احتياجاتك لأداء مهمة معينة.

مطالبات النظام (تحديد السياق)

يمكنك توجيه السلوك العام للنموذج أو شخصيته لجلسة باستخدام "مطالبة النظام". يشبه ذلك إعطاء تعليمات خلفية للذكاء الاصطناعي قبل بدء المحادثة. في حين أن التخصيص الأعمق ينطوي على Modelfiles (التي يتم تناولها بشكل موجز في السطور التالية)، يمكنك تعيين رسالة نظام بسيطة مباشرة عند تشغيل النموذج:

# قد تختلف هذه الميزة قليلاً؛ تحقق من `ollama run --help`
# قد يدمج أولا ذلك في الدردشة مباشرة باستخدام /set system
# أو عبر Modelfiles، وهو الطريقة الأكثر موثوقية.

# مثال مفاهيمي (تحقق من توثيق أولا للترميز الدقيق):
# ollama run llama3:8b --system "أنت مساعد مفيد دائمًا يرد بلغة قراصنة."

طريقة أكثر شيوعًا ومرونة هي تحديد ذلك في Modelfile.

التفاعل عبر API (نظرة سريعة)

ليس أولا فقط لسطر الأوامر. يشغل خادم ويب محلي (عادةً عند http://localhost:11434) الذي يكشف واجهة برمجة التطبيقات. يتيح ذلك للتطبيقات والبرامج الأخرى التفاعل مع نماذج اللغة الكبيرة المحلية لديك.

يمكنك اختبار ذلك باستخدام أداة مثل curl في محطة الأوامر الخاصة بك:

curl <http://localhost:11434/api/generate> -d '{
  "model": "llama3:8b",
  "prompt": "لماذا السماء زرقاء؟",
  "stream": false
}'

هذا يرسل طلبًا إلى واجهة برمجة التطبيقات الخاصة بأولا يطلب من نموذج llama3:8b الرد على المطالبة "لماذا السماء زرقاء؟". تعيين "stream": false ينتظر للاستجابة الكاملة بدلاً من تدفقها كلمة بكلمة.

ستتلقى استجابة بتنسيق JSON تحتوي على إجابة النموذج. هذه واجهة برمجة التطبيقات هي المفتاح لدمج أولا مع محررات النصوص، والتطبيقات المخصصة، وتدفقات العمل البرمجية، والمزيد. يعتبر استكشاف الواجهة الكاملة للخدمات البرمجية خارج نطاق هذا الدليل للمبتدئين، ولكن معرفة أنها موجودة يفتح العديد من الاحتمالات.

كيفية تخصيص ملفات نموذج أولا

واحدة من أقوى ميزات أولا هي القدرة على تخصيص النماذج باستخدام Modelfiles. ملف النموذج هو ملف نصي عادي يحتوي على تعليمات لإنشاء نسخة جديدة مخصصة من نموذج موجود. اعتبرها مثل Dockerfile لنماذج اللغة الكبيرة.

ماذا يمكنك أن تفعل بملف نموذج؟

مثال بسيط على ملف نموذج:

لنقل أنك تريد إنشاء نسخة من llama3:8b التي تعمل دائمًا كمساعد ساخر.

أنشئ ملفًا باسم Modelfile (بدون امتداد) في دليل.

أضف المحتوى التالي:

# وراثة من نموذج llama3 الأساسي
FROM llama3:8b

# تعيين مطالبة نظام
SYSTEM """أنت مساعد ساخر للغاية. يجب أن تكون إجاباتك صحيحة تقنيًا ولكن تُقدّم بروح جافة من السخرية والتردد."""

# ضبط الإبداع (درجة حرارة أقل = أقل عشوائية/أكثر تركيزًا)
PARAMETER temperature 0.5

إنشاء النموذج المخصص:

انتقل إلى الدليل الذي يحتوي على ملف Modelfile في المحطة.

قم بتشغيل الأمر ollama create:

ollama create sarcastic-llama -f ./Modelfile

ستقوم أولا بمعالجة التعليمات وإنشاء النموذج الجديد. يمكنك بعد ذلك تشغيله مثل أي نموذج آخر:

ollama run sarcastic-llama

الآن، عندما تتفاعل مع sarcastic-llama، سيتبنى الشخصية الساخرة المحددة في مطالبة SYSTEM.

تقدم ملفات النموذج إمكانيات تخصيص عميقة، مما يسمح لك بضبط النماذج لتلائم مهام أو سلوكيات معينة دون الحاجة إلى إعادة تدريبها من الصفر. استكشف توثيق أولا لمزيد من التفاصيل حول التعليمات والمعلمات المتاحة.

إصلاح أخطاء أولا العامة

بينما يهدف أولا إلى البساطة، قد تواجه أحيانًا عقبات:

فشل التثبيت:

فشل تحميل النموذج:

أداء أولا慢:

أخطاء "النموذج غير موجود":

بدائل لأولا؟

توجد عدة بدائل مثيرة للاهتمام لأولا لتشغيل نماذج اللغة الكبيرة محليًا.

الخاتمة: رحلتك إلى الذكاء الاصطناعي المحلي

يفتح أولا الأبواب على مصراعيها نحو عالم مثير من نماذج اللغة الكبيرة، مما يمكّن أي شخص يمتلك جهاز كمبيوتر حديث إلى حد ما من تشغيل أدوات الذكاء الاصطناعي بشكل محلي، خاص، ودون تكاليف مستمرة.

هذه هي البداية فقط. يبدأ المتعة الحقيقية عندما تجرب نماذج مختلفة، وتخصصها وفقًا لاحتياجاتك الخاصة باستخدام ملفات النماذج، وتدمج أولا في نصوصك أو تطبيقاتك الخاصة عبر واجهة برمجة التطبيقات الخاصة بها، وتستكشف النظام البيئي المتنامي بسرعة للذكاء الاصطناعي المفتوح المصدر.

تمكن القدرة على تشغيل الذكاء الاصطناعي المعقد محليًا الأفراد والمطورين على حد سواء. انغمس، واستكشف، واطرح الأسئلة، واستمتع بامتلاك قوة نماذج اللغة الكبيرة بين يديك مع أولا.

💡
هل تريد أداة اختبار API رائعة تنتج وثائق API جميلة؟

هل تريد منصة متكاملة، شاملة لفريق مطوريك للعمل معًا بحد أقصى من الإنتاجية؟

أبيدوج تلبي جميع احتياجاتك، وتحل محل Postman بسعر أكثر ملاءمة!
button

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات