في عصر ينتقل فيه الذكاء الاصطناعي بشكل متزايد من السحابة إلى الأجهزة الطرفية، حققت Apple قفزة كبيرة إلى الأمام مع تقديم نماذج Foundation Models التي تعمل على الجهاز، وهي مكون أساسي في Apple Intelligence الذي تم الكشف عنه حديثًا. تعمل هذه النماذج القوية التي تحافظ على الخصوصية مباشرة على أجهزة المستخدمين، مما يوفر سرعة وأمان بيانات غير مسبوقين. ومع ذلك، بالنسبة للمجتمع الواسع من المطورين ومنظومة التطبيقات المبنية حول واجهة برمجة تطبيقات OpenAI القياسية في الصناعة، يظهر سؤال حاسم: كيف يمكننا الاستفادة من هذه القوة الجديدة التي تعمل على الجهاز دون إعادة هندسة أدواتنا الحالية بالكامل؟
تأتي الإجابة من مجتمع المطورين في شكل حل أنيق وقوي: مشروع "Apple On-Device OpenAI API". تعمل هذه الأداة مفتوحة المصدر كجسر رائع بين قدرات Apple الجديدة في مجال الذكاء الاصطناعي وعالم واجهة برمجة تطبيقات OpenAI المألوف. تقوم بإنشاء خادم محلي خفيف الوزن على جهاز Mac الخاص بك يعرض نماذج Foundation Models من Apple عبر نقاط نهاية متوافقة مع OpenAI. في جوهرها، تسمح لأي تطبيق يعرف كيفية التحدث إلى OpenAI بالتحدث الآن، بأقل قدر من التغييرات، مباشرة إلى الذكاء الاصطناعي الذي يعمل على جهاز Apple الخاص بك.

يقدم هذا المقال دليلاً شاملاً لفهم وتثبيت واستخدام هذا المستودع الرائد. سنتعمق في سبب ضرورة مثل هذه الأداة، وسنستعرض عملية الإعداد خطوة بخطوة، وسنستكشف الاستخدام العملي مع أمثلة التعليمات البرمجية، وسننظر إلى ما يحمله المستقبل. في النهاية، ستكون مجهزًا لتحويل جهاز Apple الخاص بك إلى قوة محلية للذكاء الاصطناعي، متوافقة تمامًا مع الأدوات وسير العمل التي تعرفها وتحبها بالفعل.
هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى قدر من الإنتاجية؟
Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر أقل بكثير!
"لماذا": قوة الجهاز تلتقي بمعيار عالمي
لتقدير أهمية مشروع apple-on-device-openai
بشكل كامل، يجب فهم القوتين القويتين اللتين يجمعهما: فوائد الذكاء الاصطناعي على الجهاز وانتشار واجهة برمجة تطبيقات OpenAI.
ثورة الجهاز: لسنوات، كان الذكاء الاصطناعي القوي مرادفًا لمراكز البيانات الضخمة والمعالجة المستندة إلى السحابة. على الرغم من فعاليتها، يأتي هذا النموذج مع مقايضات متأصلة في الخصوصية، زمن الاستجابة، والتكلفة. من خلال تشغيل النماذج محليًا، تقدم Apple Intelligence بديلاً مقنعًا:
- الخصوصية: بياناتك، مطالباتك، ومحادثاتك لا تغادر جهازك أبدًا. لا يتم إرسالها إلى خادم بعيد للمعالجة، مما يوفر مستوى من السرية ببساطة غير ممكن مع الخدمات المستندة إلى السحابة.
- زمن الاستجابة: بدون الحاجة إلى رحلة ذهاب وإياب عبر الشبكة، تكون الاستجابات فورية تقريبًا. هذا أمر حاسم لإنشاء تجارب مستخدم سلسة وسريعة الاستجابة، من توليد النصوص في الوقت الفعلي إلى الملخصات السريعة.
- فعالية التكلفة: نظرًا لأن المعالجة تحدث على الأجهزة التي تمتلكها بالفعل، فلا توجد رسوم واجهة برمجة تطبيقات، تكاليف رموز، أو رسوم اشتراك مرتبطة باستخدام النماذج الأساسية.
معضلة المطور: بينما توفر Apple واجهات برمجة تطبيقات أصلية للمطورين للتفاعل مع نماذج Foundation Models هذه، فإن الواقع هو أن جزءًا كبيرًا من مشهد تطوير الذكاء الاصطناعي قد توحد حول واجهة برمجة تطبيقات OpenAI. لا حصر لها من التطبيقات، أدوات المطورين، المكتبات، والأطر - من النصوص البسيطة إلى الأنظمة المعقدة على مستوى المؤسسات - مبنية للتواصل باستخدام هيكل طلب واستجابة OpenAI المحدد. بالنسبة للمطور، اعتماد واجهة برمجة تطبيقات جديدة خاصة بمنصة معينة سيعني إعادة كتابة كميات كبيرة من التعليمات البرمجية، تعلم نماذج جديدة، وتجزئة عملهم عبر معايير مختلفة.
هنا يقدم مستودع apple-on-device-openai
قيمته الهائلة. يعمل كطبقة توافق، مترجم يجلس بين العالم الذي يتحدث بلغة OpenAI والذكاء الاصطناعي الأصلي لـ Apple. يسمح للمطورين بتوجيه تطبيقاتهم الحالية إلى عنوان خادم محلي بدلاً من خوادم OpenAI. ثم يتلقى الخادم المحلي طلب OpenAI القياسي، يترجمه إلى استدعاء يمكن لنماذج Foundation Models من Apple فهمه، يعالجه على الجهاز، ثم ينسق الاستجابة مرة أخرى إلى هيكل OpenAI المألوف. إنه "بديل مباشر"، حل سلس يفتح عالمًا من الإمكانيات دون احتكاك إعادة التطوير.
البدء: المتطلبات الأساسية والتثبيت
قبل أن تتمكن من تحويل جهاز Mac الخاص بك إلى خادم ذكاء اصطناعي محلي، تحتاج إلى التأكد من أن نظامك جاهز. يعتمد المشروع على برنامج بيتا من Apple، وهو المكان الذي تم فيه تقديم هذه النماذج الجديدة التي تعمل على الجهاز.
المتطلبات الأساسية:
- macOS 26 beta (أو أحدث): هذا هو إصدار نظام التشغيل الذي يتضمن الأطر اللازمة والوصول إلى Apple Intelligence.
- تمكين Apple Intelligence: يجب أن يكون Apple Intelligence ممكّنًا في إعدادات نظامك. يوجد هذا عادةً ضمن
الإعدادات > Apple Intelligence و Siri
. - Xcode 26 beta (أو أحدث): مطلوب إذا كنت تخطط لبناء المشروع من شفرة المصدر الخاصة به.
بمجرد تلبية المتطلبات الأساسية، لديك مساران للتثبيت: النهج البسيط والموصى به لمعظم المستخدمين، ونهج بناء المصدر للمطورين الذين يرغبون في فحص أو تعديل الشفرة.
الخيار الأول: تنزيل التطبيق المبني مسبقًا (موصى به)
هذه هي الطريقة الأسرع والأسهل للبدء والتشغيل.
- انتقل إلى صفحة الإصدارات: ابحث عن المستودع الرسمي للمشروع على GitHub. على الجانب الأيمن من الصفحة، انقر على قسم "الإصدارات" (Releases).
- تنزيل أحدث إصدار: ابحث عن أحدث إصدار وقم بتنزيل ملف الأصول
.zip
. - استخراج وتشغيل: بمجرد التنزيل، قم بفك ضغط الملف وستجد التطبيق. انقله إلى مجلد التطبيقات الخاص بك وقم بتشغيله. الأمر بهذه البساطة.
الخيار الثاني: البناء من المصدر
إذا كنت مطورًا وترغب في رؤية كيف تحدث العملية، أو ربما تساهم في المشروع، يمكنك بناءه بنفسك.
- استنساخ المستودع: افتح Terminal الخاص بك وقم بتشغيل الأمر التالي لتنزيل شفرة المصدر: Bash
git clone https://github.com/gety-ai/apple-on-device-openai.git
- الانتقال إلى الدليل: انتقل إلى مجلد المشروع الذي تم إنشاؤه حديثًا: Bash
cd apple-on-device-openai
- الفتح في Xcode: افتح ملف المشروع في Xcode باستخدام هذا الأمر: Bash
open AppleOnDeviceOpenAI.xcodeproj
- البناء والتشغيل: داخل Xcode، ما عليك سوى النقر على زر "Build and Run" (أيقونة التشغيل) لتجميع وتشغيل التطبيق.
ملاحظة حاسمة: لماذا تطبيق واجهة رسومية؟
قد تتساءل لماذا هذه الأداة هي تطبيق واجهة مستخدم رسومية (GUI) بدلاً من أداة سطر أوامر بسيطة. اتخذ مؤلف المشروع خيار تصميم ذكي للغاية بناءً على سياسات Apple. وفقًا لمهندس DTS في Apple، لا توجد قيود على معدل الطلبات للتطبيقات التي تعمل في المقدمة ولها واجهة مستخدم عند استخدام نماذج Foundation Models. ومع ذلك، فإن أدوات سطر الأوامر لديها قيود. من خلال حزم الخادم في تطبيق واجهة رسومية، يضمن المشروع أنه يمكنك إجراء العديد من الطلبات التي تحتاجها دون أن يتم تقييدها، مما يوفر تجربة تطوير سلسة وغير مقيدة. إنه مثال مثالي للهندسة المدروسة التي تتجاوز قيود المنصة لتقديم منتج أفضل.
الاستخدام العملي: تشغيل الخادم وإجراء استدعاءات واجهة برمجة التطبيقات
مع تثبيت التطبيق، أنت الآن جاهز لإطلاق العنان لقوة الذكاء الاصطناعي على الجهاز.
1. تشغيل الخادم:
- افتح تطبيق
AppleOnDeviceOpenAI
. - سترى واجهة بسيطة مع إعدادات الخادم. العنوان الافتراضي،
127.0.0.1:11535
، مثالي للاختبار المحلي. - انقر على زر "Start Server".
هذا كل شيء. يعمل خادم الآن بصمت في الخلفية على جهازك، جاهز لقبول طلبات واجهة برمجة التطبيقات المتوافقة مع OpenAI. يوفر التطبيق أيضًا فحص حالة للتأكيد على أن نماذج Apple Intelligence متاحة وجاهزة على نظامك.
2. فهم نقاط النهاية:
يعرض الخادم عدة نقاط نهاية للإدارة والتفاعل:
GET /health
: فحص بسيط للحالة لمعرفة ما إذا كان الخادم يعمل.GET /status
: يوفر توافر وحالة النماذج التي تعمل على الجهاز.GET /v1/models
: يسرد النماذج المتاحة. في هذه الحالة، سيعيد معرف النموذج الأساسي،"apple-on-device"
.POST /v1/chat/completions
: هذا هو الحدث الرئيسي. إنها نقطة النهاية التي تعكس واجهة برمجة تطبيقات إكمال الدردشة الخاصة بـ OpenAI لتوليد النصوص.
3. أمثلة عملية:
دعنا نرى كيفية التفاعل مع الخادم. تفترض الأمثلة التالية أن الخادم الخاص بك يعمل على العنوان الافتراضي.
استخدام curl
(سطر الأوامر)
لإجراء اختبار سريع من Terminal الخاص بك، يمكنك استخدام أمر curl
. هذا يرسل طلب HTTP مباشرًا إلى الخادم.Bash
curl -X POST http://127.0.0.1:11535/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "apple-on-device",
"messages": [
{"role": "user", "content": "Explain the importance of on-device AI in 3 points."}
],
"temperature": 0.7,
"stream": false
}'
دعنا نفصل هذا:
- يشير URL إلى نقطة نهاية إكمال الدردشة المحلية.
- تحدد العلامة
-H
الرأس (header)، لإخبار الخادم أننا نرسل بيانات JSON. - تحتوي العلامة
-d
على حمولة JSON مع تفاصيل الطلب: "model": "apple-on-device"
: هذا أمر حاسم. يجب استخدام معرف النموذج هذا."messages"
: سجل المحادثة."temperature"
: يتحكم في إبداع الاستجابة."stream": false
: يخبر الخادم بإرسال الاستجابة الكاملة مرة واحدة.
استخدام عميل OpenAI Python (للمطورين)
هنا تظهر القوة الحقيقية للتوافق. إذا كان لديك أي شفرة Python تستخدم مكتبة openai
، يمكنك إعادة توجيهها إلى خادمك المحلي بسطرين فقط من الشفرة.Python
from openai import OpenAI
# Point to your local server instead of the standard OpenAI API address
client = OpenAI(
base_url="http://127.0.0.1:11535/v1",
api_key="not-needed" # API key is not required for the local server
)
print("Sending request to local Apple AI model...")
# Now, use the client exactly as you would with the OpenAI API
response = client.chat.completions.create(
model="apple-on-device",
messages=[
{"role": "user", "content": "Write a short poem about a computer dreaming."}
],
temperature=0.8,
stream=True # Enable streaming for real-time output
)
print("Response:")
# Iterate through the streaming response chunks
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
print() # for a newline at the end
في هذا المثال، التغيير الرئيسي هو في إنشاء عميل OpenAI()
. من خلال تعيين base_url
إلى خادمنا المحلي وتقديم api_key
وهمي، يتم توجيه جميع الاستدعاءات اللاحقة إلى client.chat.completions.create
إلى النموذج الذي يعمل على الجهاز. يوضح المعامل stream=True
قدرة الخادم على بث الرموز (tokens) مرة أخرى أثناء توليدها، مما يسمح بتأثير في الوقت الفعلي يشبه الآلة الكاتبة في تطبيقاتك.
الاختبار والتوافق مع واجهة برمجة التطبيقات
للتأكد من أن كل شيء يعمل كما هو متوقع، يتضمن المستودع نصًا برمجيًا مفيدًا للاختبار. بعد بدء تشغيل الخادم، يمكنك فتح Terminal الخاص بك، الانتقال إلى دليل المشروع، وتشغيل:Bash
python3 test_server.py
سيقوم هذا النص البرمجي بتشغيل مجموعة شاملة من الاختبارات، للتحقق من صحة الخادم، توفر النماذج، منطق المحادثة متعددة الأدوار، والاستجابات المتدفقة وغير المتدفقة. إنها طريقة ممتازة للتأكد من أن إعدادك صحيح ولرؤية المزيد من أنماط الاستخدام الأمثلة.
يدعم الخادم المعلمات الأكثر أهمية لواجهة برمجة تطبيقات إكمال الدردشة الخاصة بـ OpenAI:
model
: يجب أن يكون"apple-on-device"
.messages
: مصفوفة رسائل المحادثة.temperature
: يتحكم في العشوائية (من 0.0 إلى 2.0).max_tokens
: الحد الأقصى لعدد الرموز المراد توليدها.stream
: قيمة منطقية لتمكين أو تعطيل التدفق.
الخلاصة والتوقعات المستقبلية
مشروع apple-on-device-openai
هو أكثر من مجرد جزء ذكي من الشفرة؛ إنه محفز حيوي للابتكار. إنه يضفي طابعًا ديمقراطيًا على الوصول إلى الذكاء الاصطناعي القوي، الخاص، والسريع الذي يعمل على أجهزة Apple، مما يجعله متاحًا لمنظومة واسعة من المطورين والتطبيقات دون منحنى تعلم حاد أو إعادة تطوير مكلفة. من خلال تبني المعيار الفعلي لواجهة برمجة تطبيقات OpenAI، فإنه يضمن أن الأدوات، النصوص البرمجية، والخدمات التي نستخدمها اليوم يمكن أن تستفيد بسلاسة من الذكاء الاصطناعي على الجهاز في المستقبل.
لا يزال المشروع يتطور، مع تلميحات مغرية لقدرات مستقبلية. يشير ملف README إلى "استخدام الأدوات (قيد التنفيذ)"، مما يشير إلى أن استدعاء الدوال - قدرة نموذج الذكاء الاصطناعي على استدعاء أدوات وواجهات برمجة تطبيقات خارجية - في الأفق. هذا سيزيد من فائدة النموذج بشكل كبير، مما يسمح له ليس فقط بتوليد النصوص ولكن أيضًا باتخاذ إجراءات، جلب بيانات حية، والتفاعل مع تطبيقات أخرى، كل ذلك مع الحفاظ على جوهره الخاص بالخصوصية على الجهاز.
في عالم يتوق إلى ذكاء اصطناعي أكثر قوة، شخصية، وخاصة، فإن القدرة على تشغيل نماذج متطورة محليًا هي تغيير جذري. مستودع apple-on-device-openai
يقف كشهادة على قوة التطوير مفتوح المصدر في سد الفجوات التكنولوجية، مقدمًا حلاً بسيطًا ولكنه عميق يمكّن المطورين من بناء الجيل القادم من التطبيقات الذكية.
هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى قدر من الإنتاجية؟
Apidog يلبي جميع متطلباتك، ويحل محل Postman بسعر أقل بكثير!