في عصر لم تعد فيه أدوات المطور المدعومة بالذكاء الاصطناعي مجرد حداثة بل ضرورة، رسّخ Copilot الخاص بـ Visual Studio Code نفسه بقوة كقائد. ومع ذلك، تكمن القوة الحقيقية للذكاء الاصطناعي في تنوعه وقدراته المتخصصة لمختلف النماذج. ماذا لو كان بإمكانك استبدال المحرك الافتراضي لـ Copilot الخاص بك بشيء أقوى، أو أكثر تخصصًا، أو حتى شيء تديره بنفسك؟ سترشدك هذه المقالة خلال عملية دمج نموذج اللغة الهائل Kimi K2 من Moonshot AI في Copilot الخاص بـ VSCode، وسنقوم بذلك باستخدام أداة ذكية تسمى Fake Ollama.
سيرشدك هذا الدليل الشامل خلال العملية بأكملها، بدءًا من الحصول على مفاتيح API الخاصة بك وحتى تهيئة بيئتك المحلية، وأخيرًا، مشاهدة قوة نموذج يحتوي على تريليون معلمة مباشرة داخل محرر الكود المفضل لديك.
هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى إنتاجية؟
يلبي Apidog جميع متطلباتك، ويحل محل Postman بسعر أكثر اقتصادية بكثير!
قبل أن نتعمق في التفاصيل التقنية، دعنا نتعرف على المكونات الرئيسية لهذا الإعداد.
ما هو Kimi K2؟

Kimi K2 هو نموذج لغة كبير متطور تم تطويره بواسطة Moonshot AI. إنه نموذج مزيج من الخبراء (MoE) يضم تريليون معلمة إجمالية مذهلة، مع 32 مليار معلمة نشطة خلال أي استنتاج معين.

تسمح هذه الهندسة لـ Kimi K2 بالتفوق في مجموعة واسعة من المهام، لا سيما في:
- الترميز: بفضل نتائجه الرائعة في معايير مثل LiveCodeBench و SWE-bench، يعد Kimi K2 قوة في الترميز.
- الاستدلال: يظهر النموذج قدرات منطقية واستدلالية قوية، مما يجعله شريكًا ممتازًا لحل المشكلات المعقدة.
- فهم السياق الطويل: يمكن لـ Kimi K2 التعامل مع نافذة سياق ضخمة تصل إلى 128,000 رمز، مما يمكنه من فهم والعمل مع قواعد أكواد كبيرة، ووثائق شاملة، ومحادثات طويلة.
يتوفر Kimi K2 في نوعين رئيسيين:
- Kimi-K2-Base: النموذج الأساسي، مثالي للباحثين والمطورين الذين يرغبون في ضبط الحلول المخصصة وبنائها.
- Kimi-K2-Instruct: نسخة مضبوطة ومحسّنة للمحادثة والمهام الوكيلية، مما يجعلها بديلاً مثاليًا مباشرًا لنماذج أخرى تتبع التعليمات.
لأغراضنا، سنستخدم نموذج Instruct عبر واجهة برمجة التطبيقات (API).
ما هو VSCode Copilot؟
إذا كنت تقرأ هذه المقالة، فمن المحتمل أنك على دراية بالفعل بـ VSCode Copilot. إنها أداة إكمال ومساعدة للتعليمات البرمجية مدعومة بالذكاء الاصطناعي تم تطويرها بواسطة GitHub و OpenAI. توفر اقتراحات ذكية للتعليمات البرمجية، وتجيب على أسئلة الترميز، ويمكنها حتى مساعدتك في إعادة هيكلة التعليمات البرمجية وتصحيح الأخطاء. على الرغم من أنها قوية بشكل لا يصدق خارج الصندوق، فقد فتحت التحديثات الأخيرة الباب لاستخدام نماذج مخصصة، وهي الميزة التي سنستفيد منها.
ما هو Fake Ollama؟

هذا هو السر الذي يجعل دمجنا ممكنًا. Fake Ollama، كما يوحي الاسم، هو أداة تنشئ خادمًا يحاكي واجهة برمجة تطبيقات (API) Ollama، وهي منصة شائعة لتشغيل وإدارة نماذج اللغة المحلية.
العديد من التطبيقات، بما في ذلك أحدث إصدارات VSCode Copilot، لديها دعم مدمج لواجهة برمجة تطبيقات Ollama. من خلال تشغيل Fake Ollama، يمكننا خداع VSCode Copilot ليعتقد أنه يتواصل مع مثيل Ollama قياسي، بينما في الواقع، يقوم خادم Fake Ollama الخاص بنا بإعادة توجيه الطلبات إلى واجهة برمجة تطبيقات Kimi K2. هذا يجعله جسرًا متعدد الاستخدامات، مما يسمح لنا بتوصيل أي واجهة برمجة تطبيقات نموذجية تقريبًا بأي أداة تدعم Ollama.
المتطلبات الأساسية
قبل أن نبدأ، تأكد من تثبيت وتجهيز ما يلي:
- Visual Studio Code: يوصى بأحدث إصدار لضمان التوافق مع ميزات Copilot التي سنستخدمها.
- VSCode Copilot Extension: ستحتاج إلى اشتراك Copilot نشط والملحق مثبتًا في VSCode.
- Python: مطلوب إصدار حديث من Python (3.8 أو أعلى) لتشغيل خادم Fake Ollama.
- Git: ستحتاج إلى Git لاستنساخ مستودع Fake Ollama من GitHub.
- مفتاح API لـ Kimi K2: سنتناول كيفية الحصول عليه في الخطوة الأولى.
الدمج: دليل خطوة بخطوة
الآن، دعنا نبدأ العمل وندمج Kimi K2 في VSCode Copilot.
الخطوة 1: الحصول على مفتاح API لـ Kimi K2 الخاص بك
لديك خياران أساسيان للحصول على مفتاح API لـ Kimi K2:
- منصة Moonshot AI: يمكنك التسجيل مباشرة على منصة Moonshot AI. سيعطيك هذا وصولاً مباشرًا إلى واجهة برمجة تطبيقات Kimi K2.
- OpenRouter: هذا هو النهج الموصى به لمرونته. OpenRouter هي خدمة توفر واجهة برمجة تطبيقات موحدة لمجموعة واسعة من نماذج الذكاء الاصطناعي، بما في ذلك Kimi K2. باستخدام OpenRouter، يمكنك التبديل بسهولة بين النماذج المختلفة دون تغيير التعليمات البرمجية أو مفاتيح API الخاصة بك.
لهذا الدليل، سنفترض أنك تستخدم OpenRouter. بمجرد إنشاء حساب والحصول على مفتاح API الخاص بك، يمكنك التفاعل مع نموذج Kimi K2 باستخدام مكتبة OpenAI Python، كما يلي:Python
from openai import OpenAI
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="YOUR_OPENROUTER_API_KEY",
)
response = client.chat.completions.create(
model="moonshotai/kimi-k2",
messages=[
{"role": "user", "content": "Write a simple Python function to calculate the factorial of a number."},
],
)
print(response.choices[0].message.content)
احتفظ بمفتاح API الخاص بـ OpenRouter في متناول يدك؛ ستحتاجه لتكوين Fake Ollama.
الخطوة 2: إعداد Fake Ollama
أولاً، ستحتاج إلى استنساخ مستودع Fake Ollama من GitHub. افتح طرفيتك وقم بتشغيل الأمر التالي:Bash
git clone https://github.com/spoonnotfound/fake-ollama.git
بعد ذلك، انتقل إلى الدليل المستنسخ وقم بتثبيت تبعيات Python المطلوبة:Bash
cd fake-ollama
pip install -r requirements.txt
الخطوة 3: تهيئة Fake Ollama لـ Kimi K2
هذه هي الخطوة الأكثر أهمية. نحتاج إلى تهيئة Fake Ollama لاستخدام مفتاح API الخاص بـ OpenRouter والإشارة إلى نموذج Kimi K2. من المرجح أن يكون التكوين في ملف .env
أو مباشرة في نص Python الرئيسي. لهذا الدليل، سنفترض وجود ملف .env
لأفضل الممارسات.
أنشئ ملفًا باسم .env
في دليل fake-ollama
وأضف الأسطر التالية:
OPENAI_API_BASE=https://openrouter.ai/api/v1
OPENAI_API_KEY=YOUR_OPENROUTER_API_KEY
MODEL_NAME=moonshotai/kimi-k2
من خلال تعيين متغيرات البيئة هذه، سيعرف خادم Fake Ollama إعادة توجيه الطلبات إلى نقطة نهاية OpenRouter، واستخدام مفتاح API الخاص بك للمصادقة، وتحديد moonshotai/kimi-k2
كنموذج مرغوب فيه.
الخطوة 4: تشغيل خادم Fake Ollama
الآن، حان الوقت لبدء تشغيل خادم Fake Ollama. في طرفيتك، من داخل دليل fake-ollama
، قم بتشغيل:Bash
python main.py
إذا تم تكوين كل شيء بشكل صحيح، يجب أن ترى رسالة تشير إلى أن الخادم قيد التشغيل، عادةً على http://localhost:11434
. هذه هي نقطة النهاية المحلية التي سنستخدمها في VSCode.
الخطوة 5: تهيئة VSCode Copilot
الخطوة الأخيرة هي إخبار VSCode Copilot باستخدام خادم Fake Ollama المحلي الخاص بنا بدلاً من نماذج GitHub Copilot الافتراضية.
- افتح VSCode وانتقل إلى عرض Copilot Chat.
- في حقل إدخال الدردشة، اكتب
/
واختر "Select a Model" (تحديد نموذج). - انقر على "Manage Models..." (إدارة النماذج...).
- في مربع الحوار الذي يظهر، حدد "Ollama" كموفر للذكاء الاصطناعي.
- سيُطلب منك إدخال عنوان URL لخادم Ollama. أدخل عنوان خادم Fake Ollama المحلي الخاص بك:
http://localhost:11434
. - بعد ذلك، سيُطلب منك تحديد نموذج. يجب أن ترى النموذج الذي حددته في تكوين Fake Ollama الخاص بك (
moonshotai/kimi-k2
) في القائمة. حدده.
وهذا كل شيء! أصبح VSCode Copilot الخاص بك الآن مدعومًا بنموذج Kimi K2. يمكنك بدء جلسة دردشة جديدة وتجربة قدرات الترميز والاستدلال المحسّنة لهذا النموذج القوي.
ما وراء واجهة برمجة التطبيقات (API): استخدام النماذج المحلية مع vLLM و llama.cpp و ktransformers
جمال إعداد Fake Ollama هو أنه لا يقتصر على النماذج المستندة إلى واجهة برمجة التطبيقات. يمكنك أيضًا استخدامه كواجهة أمامية للنماذج التي تعمل محليًا على أجهزتك الخاصة باستخدام محركات استنتاج قوية مثل:
- vLLM: مكتبة مفتوحة المصدر تسرع بشكل كبير من استنتاج LLM وتقديم الخدمة.
- llama.cpp: تطبيق C++ لنماذج LLaMA، محسّن للتشغيل على وحدات المعالجة المركزية (CPUs) ومجموعة واسعة من الأجهزة.
- ktranformers: إطار عمل مرن لتجربة تحسينات استنتاج LLM المتطورة. والجدير بالذكر أن ktranformers قد أعلن عن دعم Kimi K2، مما يعني أنه يمكنك تشغيل نسخة مكممة من النموذج محليًا.
العملية مشابهة: ستقوم أولاً بإعداد وتشغيل النموذج المطلوب باستخدام أحد محركات الاستنتاج هذه، والذي سيكشف عن نقطة نهاية API محلية. بعد ذلك، ستقوم بتهيئة Fake Ollama للإشارة إلى نقطة نهاية النموذج المحلي هذه بدلاً من واجهة برمجة تطبيقات OpenRouter. يمنحك هذا تحكمًا كاملاً في نماذجك وبياناتك، مع المقايضة التي تتطلب أجهزة أكثر قوة.
الخاتمة
من خلال الاستفادة من مرونة دعم النموذج المخصص لـ VSCode Copilot وذكاء أداة Fake Ollama، يمكنك فتح مستوى جديد من التطوير المدعوم بالذكاء الاصطناعي. يوفر دمج Kimi K2 دفعة كبيرة في الترميز والاستدلال وفهم السياق الطويل، مما يجعل Copilot الخاص بك شريكًا ذا قيمة أكبر.
عالم نماذج اللغة الكبيرة يتطور باستمرار، والقدرة على تبديل وتجربة نماذج مختلفة بسهولة هي تغيير جذري. سواء كنت تستخدم واجهة برمجة تطبيقات متطورة مثل Kimi K2 أو تدير نماذجك الخاصة محليًا، فإن القدرة على تخصيص أدواتك بين يديك. ترميز سعيد!
هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى إنتاجية؟
يلبي Apidog جميع متطلباتك، ويحل محل Postman بسعر أكثر اقتصادية بكثير!