تشغيل نموذج أوزموسيس-ستركتشر-0.6B محليًا باستخدام أولاما

Mark Ponomarev

Mark Ponomarev

30 مايو 2025

تشغيل نموذج أوزموسيس-ستركتشر-0.6B محليًا باستخدام أولاما

حسنًا، كيف يحصل osmosis-structure-0.6b على اسمه؟

النموذج الذي تهتم به، osmosis/osmosis-structure-0.6b، متاح عبر منصة Ollama. الاسم نفسه يقدم بعض الدلائل القيمة:

في حين أن المواصفات الدقيقة، بيانات التدريب، المعايير المحددة، وحالات الاستخدام الأساسية المقصودة يمكن العثور عليها بشكل أفضل في صفحة النموذج الرسمية على موقع Ollama (الرابط الذي لديك)، يمكننا استنتاج توقعات عامة لنموذج بحجم 0.6 مليار معلمة يركز على "البنية":

حجمه الصغير يسمح بأوقات تحميل سريعة واستهلاك أقل للموارد (وحدة المعالجة المركزية، ذاكرة الوصول العشوائي) مقارنة بالنماذج التي تحتوي على مليارات المعلمات.

تصنيفه كـ "Structure" (بنية) يشير إلى أنه سيؤدي بشكل أفضل في مهام مثل:

الأداء: بالنسبة لنموذج بهذا الحجم، فإنه يهدف إلى تحقيق أداء قوي في مهامه المتخصصة، بدلاً من محاولة أن يكون قوة معرفية عامة مثل النماذج الأكبر بكثير. من المرجح أن تعكس معاييره (التي يجب عليك التحقق منها في صفحة النموذج الخاصة به) قدراته في هذه المجالات المنظمة.

دعنا نشغل osmosis-structure-0.6b باستخدام Ollama

Ollama هو أداة تبسط بشكل جذري تشغيل نماذج اللغة الكبيرة مفتوحة المصدر على جهازك المحلي. يقوم بتجميع أوزان النموذج، التكوينات، وآلية خدمة، مما يسمح بإعداد وتفاعل سهل.

يمكّنك Ollama من تسخير قوة نماذج LLMs مثل osmosis/osmosis-structure-0.6b دون الاعتماد على واجهات برمجة التطبيقات السحابية. هذا يضمن الخصوصية، يسمح بالاستخدام دون اتصال بالإنترنت، ويوفر طريقة فعالة من حيث التكلفة للتجربة وبناء التطبيقات. إنه متاح لأنظمة macOS، Windows، و Linux.

أولاً، تحتاج إلى تثبيت Ollama

تختلف عملية التثبيت قليلاً حسب نظام التشغيل الخاص بك.

لنظام macOS: عادةً، ستقوم بتنزيل تطبيق Ollama من موقعه الرسمي. التنزيل يكون عادةً ملف .zip يحتوي على Ollama.app. قم بفك ضغطه ونقل Ollama.app إلى مجلد /Applications. تشغيل التطبيق يبدأ خدمة Ollama في الخلفية، وغالبًا ما يتم الإشارة إليها بأيقونة في شريط القائمة.

لنظام Windows: يتوفر ملف تثبيت قابل للتنفيذ من موقع Ollama. قم بتنزيله وتشغيله، واتبع التعليمات التي تظهر على الشاشة. غالبًا ما يتكامل Ollama على Windows مع نظام Windows الفرعي لنظام Linux (WSL 2)، والذي يمكن لمثبت Ollama المساعدة في إعداده إذا لم يكن قد تم تكوينه بالفعل. بمجرد التثبيت، يعمل Ollama كخدمة في الخلفية.

لنظام Linux: الطريقة الشائعة لتثبيت Ollama على Linux هي عبر أمر curl المقدم على موقعهم، والذي يقوم بجلب وتنفيذ سكريبت التثبيت:

curl -fsSL [<https://ollama.com/install.sh>](<https://ollama.com/install.sh>) | sh

يقوم هذا الأمر بإعداد Ollama، وعادةً ما يعمل كخدمة systemd.

بعد التثبيت، افتح الطرفية (أو PowerShell/Command Prompt على Windows) وأصدر الأمر التالي:

ollama --version

يجب أن يعرض هذا إصدار Ollama المثبت، مما يؤكد أن واجهة سطر الأوامر (CLI) تعمل بشكل صحيح.

تشغيل osmosis/osmosis-structure-0.6b محليًا باستخدام Ollama

مع تثبيت Ollama وتشغيله، يمكنك الآن سحب النموذج osmosis/osmosis-structure-0.6b والتفاعل معه.

اعتبارات الأجهزة:

الخطوة 1. جلب النموذج

لتنزيل النموذج إلى نظامك المحلي، استخدم الأمر ollama pull مع المعرف الكامل للنموذج:

ollama pull osmosis/osmosis-structure-0.6b

بعد ذلك، سيقوم Ollama بما يلي:

في حين أن ollama pull يجلب لك التكوين الافتراضي، يمكنك تخصيص سلوك النموذج عن طريق إنشاء Modelfile مخصص إذا كنت ترغب في تغيير معلمات مثل temperature (العشوائية)، num_ctx (حجم نافذة السياق)، أو موجه النظام. يمكنك بعد ذلك استخدام ollama create your-custom-osmosis -f ./YourModelfile (باستخدام النموذج الأصلي كأساس FROM osmosis/osmosis-structure-0.6b). تحقق من وثائق Ollama الرسمية للحصول على بناء جملة Modelfile. من المرجح أن تكون الإعدادات الافتراضية لـ osmosis/osmosis-structure-0.6b محسنة بالفعل من قبل ناشرها.

الخطوة 2. الدردشة التفاعلية عبر سطر الأوامر

أبسط طريقة للتفاعل مع النموذج الذي قمت بتنزيله حديثًا هي عبر الأمر ollama run:

ollama run osmosis/osmosis-structure-0.6b

يقوم هذا بتحميل النموذج في الذاكرة ويوفر لك موجهًا تفاعليًا (مثل >>>). يمكنك كتابة أسئلتك أو تعليماتك، ثم الضغط على Enter، وسيقوم النموذج بتوليد استجابة.

على سبيل المثال، إذا كنت ترغب في اختبار قدراته في SQL (بافتراض أن هذه إحدى نقاط قوته بناءً على تركيزه على "البنية"):

>>> Given a table 'users' with columns 'id', 'name', 'email', and 'signup_date', write a SQL query to find all users who signed up in the year 2024.

بعد ذلك، سيقدم النموذج استعلام SQL الذي ولده.

للخروج من هذه الجلسة التفاعلية، يمكنك عادةً كتابة /bye، /exit، أو الضغط على Ctrl+D.

الخطوة 3. التفاعل عبر واجهة برمجة تطبيقات Ollama (API)

يقدم Ollama النماذج عبر واجهة برمجة تطبيقات REST محلية، متاحة عادةً على العنوان http://localhost:11434. هذا يسمح لك بدمج osmosis/osmosis-structure-0.6b في تطبيقاتك وسكريبتاتك الخاصة.

إليك مثال بلغة Python يستخدم مكتبة requests للتفاعل مع واجهة برمجة التطبيقات. أولاً، تأكد من تثبيت requests:

pip install requests

الآن، سكريبت Python:

import requests
import json

OLLAMA_ENDPOINT = "<http://localhost:11434/api/generate>"
MODEL_NAME = "osmosis/osmosis-structure-0.6b" # Correct model name

def generate_response(prompt_text, stream_output=False):
    """
    Sends a prompt to the Ollama API for the specified model.
    Returns the consolidated response text.
    Set stream_output=True to print parts of the response as they arrive.
    """
    payload = {
        "model": MODEL_NAME,
        "prompt": prompt_text,
        "stream": stream_output
    }

    full_response_text = ""
    try:
        response = requests.post(OLLAMA_ENDPOINT, json=payload, stream=stream_output)
        response.raise_for_status()

        if stream_output:
            for line in response.iter_lines():
                if line:
                    decoded_line = line.decode('utf-8')
                    json_object = json.loads(decoded_line)
                    chunk = json_object.get('response', '')
                    print(chunk, end='', flush=True)
                    full_response_text += chunk
                    if json_object.get('done'):
                        print("\\\\n--- Stream Complete ---")
                        break
        else:
            response_data = response.json()
            full_response_text = response_data.get('response', '')
            print(full_response_text)

        return full_response_text

    except requests.exceptions.RequestException as e:
        print(f"\\\\nError connecting to Ollama API: {e}")
        if "connection refused" in str(e).lower():
            print("Ensure the Ollama application or service is running.")
        return None
    except json.JSONDecodeError as e:
        print(f"\\\\nError decoding JSON response: {e}")
        print(f"Problematic content: {response.text if 'response' in locals() else 'No response object'}")
        return None

if __name__ == "__main__":
    # Ensure Ollama is running and the model is loaded or available.
    # Ollama typically loads the model on the first API request if not already loaded.

    prompt1 = "Write a Python function to serialize a dictionary to a JSON string."
    print(f"--- Sending Prompt 1: {prompt1} ---")
    response1 = generate_response(prompt1)
    if response1:
        print("\\\\n--- Model Response 1 Received ---")

    print("\\\\n" + "="*50 + "\\\\n") # Separator

    prompt2 = "Explain how a LEFT JOIN in SQL differs from an INNER JOIN, in simple terms."
    print(f"--- Sending Prompt 2 (Streaming): {prompt2} ---")
    response2 = generate_response(prompt2, stream_output=True)
    if response2:
        # The full response is already printed by the streaming logic
        pass
    else:
        print("\\\\nFailed to get response for prompt 2.")

يعرف هذا السكريبت دالة لإرسال الموجهات إلى النموذج osmosis/osmosis-structure-0.6b. يمكنه التعامل مع الاستجابات المتدفقة وغير المتدفقة. تذكر أن خدمة Ollama يجب أن تكون قيد التشغيل ليعمل هذا السكريبت.

الخطوة 4. جرب بعض الموجهات

أفضل طريقة لفهم نقاط القوة المحددة لـ osmosis/osmosis-structure-0.6b هي مراجعة صفحة النموذج الخاصة به على موقع Ollama. ومع ذلك، بالنسبة لنموذج بحجم 0.6B يركز على "البنية"، قد تجرب موجهات مثل هذه:

تحويل النص إلى SQL:

معالجة/توليد JSON:

توليد أكواد بسيطة (مثل Python):

اتباع التعليمات للإخراج المنسق:

التجربة هي المفتاح! جرب أنواعًا مختلفة من الموجهات المتعلقة بالبيانات المنظمة لاكتشاف نقاط قوة النموذج وضعفه. ارجع إلى صفحة النموذج الخاصة به على Ollama للحصول على إرشادات حول وظائف تصميمه الأساسية.

اختبار واجهة برمجة تطبيقات Ollama المحلية باستخدام Apidog

Apidog هو أداة لاختبار واجهات برمجة التطبيقات تتناسب جيدًا مع وضع API الخاص بـ Ollama. تتيح لك إرسال الطلبات، عرض الاستجابات، وتصحيح إعداد Qwen 3 الخاص بك بكفاءة.

إليك كيفية استخدام Apidog مع Ollama:

استجابات متدفقة (Streaming Responses):

curl http://localhost:11434/api/generate -d '{"model": "gemma3:4b-it-qat", "prompt": "Write a poem about AI.", "stream": true}'

تضمن هذه العملية أن نموذجك يعمل كما هو متوقع، مما يجعل Apidog إضافة قيمة.

💡
هل تريد أداة رائعة لاختبار واجهات برمجة التطبيقات (API) تولد توثيق API جميل؟

هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى إنتاجية؟

Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر معقول أكثر بكثير!
button

الخلاصة

يقدم النموذج osmosis/osmosis-structure-0.6b فرصة مثيرة لتشغيل نموذج لغوي صغير الحجم يركز على البنية محليًا. بفضل Ollama، أصبحت عملية تنزيله والتفاعل معه متاحة لجمهور واسع. من خلال الاستفادة من قدراته، يمكنك استكشاف تطبيقات في معالجة البيانات، مساعدة الأكواد، ومجالات أخرى تتطلب إخراجًا منظمًا، كل ذلك مع خصوصية وتحكم التنفيذ المحلي.

ارجع دائمًا إلى الصفحة الرسمية للنموذج على Ollama (ollama.com/osmosis/osmosis-structure-0.6b:latest) للحصول على المعلومات الأكثر موثوقية من مطوريه. استمتع بتجربة الذكاء الاصطناعي المحلي!

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات