كيفية استخدام Kimi K2 في مساعد VSCode الذكي

Lynn Mikami

Lynn Mikami

13 يوليو 2025

كيفية استخدام Kimi K2 في مساعد VSCode الذكي

في عصر لم تعد فيه أدوات المطور المدعومة بالذكاء الاصطناعي مجرد حداثة بل ضرورة، رسّخ Copilot الخاص بـ Visual Studio Code نفسه بقوة كقائد. ومع ذلك، تكمن القوة الحقيقية للذكاء الاصطناعي في تنوعه وقدراته المتخصصة لمختلف النماذج. ماذا لو كان بإمكانك استبدال المحرك الافتراضي لـ Copilot الخاص بك بشيء أقوى، أو أكثر تخصصًا، أو حتى شيء تديره بنفسك؟ سترشدك هذه المقالة خلال عملية دمج نموذج اللغة الهائل Kimi K2 من Moonshot AI في Copilot الخاص بـ VSCode، وسنقوم بذلك باستخدام أداة ذكية تسمى Fake Ollama.

سيرشدك هذا الدليل الشامل خلال العملية بأكملها، بدءًا من الحصول على مفاتيح API الخاصة بك وحتى تهيئة بيئتك المحلية، وأخيرًا، مشاهدة قوة نموذج يحتوي على تريليون معلمة مباشرة داخل محرر الكود المفضل لديك.

💡
هل تريد أداة رائعة لاختبار API تولد وثائق API جميلة؟

هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى إنتاجية؟

يلبي Apidog جميع متطلباتك، ويحل محل Postman بسعر أكثر اقتصادية بكثير!
زر

قبل أن نتعمق في التفاصيل التقنية، دعنا نتعرف على المكونات الرئيسية لهذا الإعداد.

ما هو Kimi K2؟

معايير Kimi K2

Kimi K2 هو نموذج لغة كبير متطور تم تطويره بواسطة Moonshot AI. إنه نموذج مزيج من الخبراء (MoE) يضم تريليون معلمة إجمالية مذهلة، مع 32 مليار معلمة نشطة خلال أي استنتاج معين.

هندسة Kimi K2

تسمح هذه الهندسة لـ Kimi K2 بالتفوق في مجموعة واسعة من المهام، لا سيما في:

يتوفر Kimi K2 في نوعين رئيسيين:

لأغراضنا، سنستخدم نموذج Instruct عبر واجهة برمجة التطبيقات (API).

ما هو VSCode Copilot؟

إذا كنت تقرأ هذه المقالة، فمن المحتمل أنك على دراية بالفعل بـ VSCode Copilot. إنها أداة إكمال ومساعدة للتعليمات البرمجية مدعومة بالذكاء الاصطناعي تم تطويرها بواسطة GitHub و OpenAI. توفر اقتراحات ذكية للتعليمات البرمجية، وتجيب على أسئلة الترميز، ويمكنها حتى مساعدتك في إعادة هيكلة التعليمات البرمجية وتصحيح الأخطاء. على الرغم من أنها قوية بشكل لا يصدق خارج الصندوق، فقد فتحت التحديثات الأخيرة الباب لاستخدام نماذج مخصصة، وهي الميزة التي سنستفيد منها.

ما هو Fake Ollama؟

هذا هو السر الذي يجعل دمجنا ممكنًا. Fake Ollama، كما يوحي الاسم، هو أداة تنشئ خادمًا يحاكي واجهة برمجة تطبيقات (API) Ollama، وهي منصة شائعة لتشغيل وإدارة نماذج اللغة المحلية.

العديد من التطبيقات، بما في ذلك أحدث إصدارات VSCode Copilot، لديها دعم مدمج لواجهة برمجة تطبيقات Ollama. من خلال تشغيل Fake Ollama، يمكننا خداع VSCode Copilot ليعتقد أنه يتواصل مع مثيل Ollama قياسي، بينما في الواقع، يقوم خادم Fake Ollama الخاص بنا بإعادة توجيه الطلبات إلى واجهة برمجة تطبيقات Kimi K2. هذا يجعله جسرًا متعدد الاستخدامات، مما يسمح لنا بتوصيل أي واجهة برمجة تطبيقات نموذجية تقريبًا بأي أداة تدعم Ollama.


المتطلبات الأساسية

قبل أن نبدأ، تأكد من تثبيت وتجهيز ما يلي:


الدمج: دليل خطوة بخطوة

الآن، دعنا نبدأ العمل وندمج Kimi K2 في VSCode Copilot.

الخطوة 1: الحصول على مفتاح API لـ Kimi K2 الخاص بك

لديك خياران أساسيان للحصول على مفتاح API لـ Kimi K2:

  1. منصة Moonshot AI: يمكنك التسجيل مباشرة على منصة Moonshot AI. سيعطيك هذا وصولاً مباشرًا إلى واجهة برمجة تطبيقات Kimi K2.
  2. OpenRouter: هذا هو النهج الموصى به لمرونته. OpenRouter هي خدمة توفر واجهة برمجة تطبيقات موحدة لمجموعة واسعة من نماذج الذكاء الاصطناعي، بما في ذلك Kimi K2. باستخدام OpenRouter، يمكنك التبديل بسهولة بين النماذج المختلفة دون تغيير التعليمات البرمجية أو مفاتيح API الخاصة بك.

لهذا الدليل، سنفترض أنك تستخدم OpenRouter. بمجرد إنشاء حساب والحصول على مفتاح API الخاص بك، يمكنك التفاعل مع نموذج Kimi K2 باستخدام مكتبة OpenAI Python، كما يلي:Python

from openai import OpenAI

client = OpenAI(
  base_url="https://openrouter.ai/api/v1",
  api_key="YOUR_OPENROUTER_API_KEY",
)

response = client.chat.completions.create(
  model="moonshotai/kimi-k2",
  messages=[
    {"role": "user", "content": "Write a simple Python function to calculate the factorial of a number."},
  ],
)
print(response.choices[0].message.content)

احتفظ بمفتاح API الخاص بـ OpenRouter في متناول يدك؛ ستحتاجه لتكوين Fake Ollama.

الخطوة 2: إعداد Fake Ollama

أولاً، ستحتاج إلى استنساخ مستودع Fake Ollama من GitHub. افتح طرفيتك وقم بتشغيل الأمر التالي:Bash

git clone https://github.com/spoonnotfound/fake-ollama.git

بعد ذلك، انتقل إلى الدليل المستنسخ وقم بتثبيت تبعيات Python المطلوبة:Bash

cd fake-ollama
pip install -r requirements.txt

الخطوة 3: تهيئة Fake Ollama لـ Kimi K2

هذه هي الخطوة الأكثر أهمية. نحتاج إلى تهيئة Fake Ollama لاستخدام مفتاح API الخاص بـ OpenRouter والإشارة إلى نموذج Kimi K2. من المرجح أن يكون التكوين في ملف .env أو مباشرة في نص Python الرئيسي. لهذا الدليل، سنفترض وجود ملف .env لأفضل الممارسات.

أنشئ ملفًا باسم .env في دليل fake-ollama وأضف الأسطر التالية:

OPENAI_API_BASE=https://openrouter.ai/api/v1
OPENAI_API_KEY=YOUR_OPENROUTER_API_KEY
MODEL_NAME=moonshotai/kimi-k2

من خلال تعيين متغيرات البيئة هذه، سيعرف خادم Fake Ollama إعادة توجيه الطلبات إلى نقطة نهاية OpenRouter، واستخدام مفتاح API الخاص بك للمصادقة، وتحديد moonshotai/kimi-k2 كنموذج مرغوب فيه.

الخطوة 4: تشغيل خادم Fake Ollama

الآن، حان الوقت لبدء تشغيل خادم Fake Ollama. في طرفيتك، من داخل دليل fake-ollama، قم بتشغيل:Bash

python main.py

إذا تم تكوين كل شيء بشكل صحيح، يجب أن ترى رسالة تشير إلى أن الخادم قيد التشغيل، عادةً على http://localhost:11434. هذه هي نقطة النهاية المحلية التي سنستخدمها في VSCode.

الخطوة 5: تهيئة VSCode Copilot

الخطوة الأخيرة هي إخبار VSCode Copilot باستخدام خادم Fake Ollama المحلي الخاص بنا بدلاً من نماذج GitHub Copilot الافتراضية.

  1. افتح VSCode وانتقل إلى عرض Copilot Chat.
  2. في حقل إدخال الدردشة، اكتب / واختر "Select a Model" (تحديد نموذج).
  3. انقر على "Manage Models..." (إدارة النماذج...).
  4. في مربع الحوار الذي يظهر، حدد "Ollama" كموفر للذكاء الاصطناعي.
  5. سيُطلب منك إدخال عنوان URL لخادم Ollama. أدخل عنوان خادم Fake Ollama المحلي الخاص بك: http://localhost:11434.
  6. بعد ذلك، سيُطلب منك تحديد نموذج. يجب أن ترى النموذج الذي حددته في تكوين Fake Ollama الخاص بك (moonshotai/kimi-k2) في القائمة. حدده.

وهذا كل شيء! أصبح VSCode Copilot الخاص بك الآن مدعومًا بنموذج Kimi K2. يمكنك بدء جلسة دردشة جديدة وتجربة قدرات الترميز والاستدلال المحسّنة لهذا النموذج القوي.


ما وراء واجهة برمجة التطبيقات (API): استخدام النماذج المحلية مع vLLM و llama.cpp و ktransformers

جمال إعداد Fake Ollama هو أنه لا يقتصر على النماذج المستندة إلى واجهة برمجة التطبيقات. يمكنك أيضًا استخدامه كواجهة أمامية للنماذج التي تعمل محليًا على أجهزتك الخاصة باستخدام محركات استنتاج قوية مثل:

العملية مشابهة: ستقوم أولاً بإعداد وتشغيل النموذج المطلوب باستخدام أحد محركات الاستنتاج هذه، والذي سيكشف عن نقطة نهاية API محلية. بعد ذلك، ستقوم بتهيئة Fake Ollama للإشارة إلى نقطة نهاية النموذج المحلي هذه بدلاً من واجهة برمجة تطبيقات OpenRouter. يمنحك هذا تحكمًا كاملاً في نماذجك وبياناتك، مع المقايضة التي تتطلب أجهزة أكثر قوة.


الخاتمة

من خلال الاستفادة من مرونة دعم النموذج المخصص لـ VSCode Copilot وذكاء أداة Fake Ollama، يمكنك فتح مستوى جديد من التطوير المدعوم بالذكاء الاصطناعي. يوفر دمج Kimi K2 دفعة كبيرة في الترميز والاستدلال وفهم السياق الطويل، مما يجعل Copilot الخاص بك شريكًا ذا قيمة أكبر.

عالم نماذج اللغة الكبيرة يتطور باستمرار، والقدرة على تبديل وتجربة نماذج مختلفة بسهولة هي تغيير جذري. سواء كنت تستخدم واجهة برمجة تطبيقات متطورة مثل Kimi K2 أو تدير نماذجك الخاصة محليًا، فإن القدرة على تخصيص أدواتك بين يديك. ترميز سعيد!

💡
هل تريد أداة رائعة لاختبار API تولد وثائق API جميلة؟

هل تريد منصة متكاملة وشاملة لفريق المطورين لديك للعمل معًا بأقصى إنتاجية؟

يلبي Apidog جميع متطلباتك، ويحل محل Postman بسعر أكثر اقتصادية بكثير!
زر

ممارسة تصميم API في Apidog

اكتشف طريقة أسهل لبناء واستخدام واجهات برمجة التطبيقات