VSCode Copilot で Kimi K2 を使う方法

Lynn Mikami

Lynn Mikami

13 7月 2025

VSCode Copilot で Kimi K2 を使う方法

AIを活用した開発者ツールがもはや目新しいものではなく、必要不可欠なものとなった時代において、Visual Studio CodeのCopilotはリーダーとしての地位を確固たるものにしています。しかし、AIの真の力は、その多様性と、異なるモデルが持つ専門的な能力にあります。もし、Copilotのデフォルトエンジンを、より強力で、より専門的で、あるいは自分で実行できるものに交換できたらどうでしょうか?この記事では、Moonshot AIの強力な言語モデルであるKimi K2をVSCode Copilotに統合するプロセスを、Fake Ollamaという賢いツールを使ってご紹介します。

この包括的なガイドでは、APIキーの取得からローカル環境の設定、そして最終的に、お気に入りのエディタ内で1兆パラメータモデルの力を目の当たりにするまでの全プロセスをご案内します。

💡
美しいAPIドキュメントを生成する優れたAPIテストツールが欲しいですか?

最大限の生産性で開発チームが協力できる、統合されたオールインワンプラットフォームが欲しいですか?

Apidogはあなたのすべての要求に応え、Postmanをはるかに手頃な価格で置き換えます
ボタン

技術的な詳細に入る前に、このセットアップの主要なコンポーネントについて理解を深めましょう。

Kimi K2とは?

Kimi K2ベンチマーク
Kimi K2ベンチマーク

Kimi K2は、Moonshot AIが開発した最先端の大規模言語モデルです。これは、合計1兆のパラメータを持つMixture-of-Experts(MoE)モデルであり、任意の推論時に320億のパラメータがアクティブになります。

Kimi K2アーキテクチャ
Kimi K2アーキテクチャ

このアーキテクチャにより、Kimi K2は特に以下の幅広いタスクで優れた性能を発揮します。

Kimi K2には主に2つのバリアントがあります。

今回の目的では、APIを介してInstructモデルを使用します。

VSCode Copilotとは?

この記事を読んでいるあなたは、おそらくすでにVSCode Copilotをご存知でしょう。これはGitHubとOpenAIによって開発された、AIを活用したコード補完および支援ツールです。インテリジェントなコード提案を提供し、コーディングの質問に答え、コードのリファクタリングやデバッグにも役立ちます。箱から出してすぐに信じられないほど強力ですが、最近のアップデートにより、カスタムモデルの使用が可能になり、この機能を活用します。

Fake Ollamaとは?

これが、今回の統合を可能にする秘訣です。Fake Ollamaは、名前が示す通り、ローカル言語モデルを実行・管理するための人気プラットフォームであるOllamaのAPIを模倣したサーバーを作成するツールです。

VSCode Copilotの最新バージョンを含む多くのアプリケーションは、Ollama APIを内蔵でサポートしています。Fake Ollamaを実行することで、VSCode Copilotに標準のOllamaインスタンスと通信していると錯覚させることができますが、実際には、Fake OllamaサーバーがKimi K2 APIにリクエストを転送しています。これにより、事実上あらゆるモデルAPIをOllamaをサポートするあらゆるツールに接続できる、多用途なブリッジとなります。


前提条件

開始する前に、以下のものがインストールされ、準備ができていることを確認してください。


統合:ステップバイステップガイド

さあ、実際に手を動かしてKimi K2をVSCode Copilotに統合しましょう。

ステップ1:Kimi K2 APIキーの取得

Kimi K2 APIキーを取得するには、主に2つの方法があります。

  1. Moonshot AIプラットフォーム: Moonshot AIプラットフォームに直接サインアップできます。これにより、Kimi K2 APIに直接アクセスできます。
  2. OpenRouter: 柔軟性があるため、こちらを推奨します。OpenRouterは、Kimi K2を含む膨大なAIモデルの統一APIを提供するサービスです。OpenRouterを使用することで、コードやAPIキーを変更することなく、異なるモデル間を簡単に切り替えることができます。

このガイドでは、OpenRouterを使用していることを前提とします。アカウントを作成し、APIキーを取得したら、OpenAI Pythonライブラリを使用してKimi K2モデルと対話できます。Python

from openai import OpenAI

client = OpenAI(
  base_url="https://openrouter.ai/api/v1",
  api_key="YOUR_OPENROUTER_API_KEY",
)

response = client.chat.completions.create(
  model="moonshotai/kimi-k2",
  messages=[
    {"role": "user", "content": "Write a simple Python function to calculate the factorial of a number."},
  ],
)
print(response.choices[0].message.content)

OpenRouter APIキーは手元に置いておいてください。Fake Ollamaの設定で必要になります。

ステップ2:Fake Ollamaのセットアップ

まず、GitHubからFake Ollamaリポジトリをクローンする必要があります。ターミナルを開き、次のコマンドを実行してください。Bash

git clone https://github.com/spoonnotfound/fake-ollama.git

次に、クローンしたディレクトリに移動し、必要なPython依存関係をインストールします。Bash

cd fake-ollama
pip install -r requirements.txt

ステップ3:Kimi K2用にFake Ollamaを設定する

これは最も重要なステップです。Fake OllamaがOpenRouter APIキーを使用し、Kimi K2モデルを指すように設定する必要があります。設定は、おそらく.envファイルまたはメインのPythonスクリプト内に直接記述されます。このガイドでは、ベストプラクティスとして.envファイルを想定します。

fake-ollamaディレクトリに.envという名前のファイルを作成し、以下の行を追加します。

OPENAI_API_BASE=https://openrouter.ai/api/v1
OPENAI_API_KEY=YOUR_OPENROUTER_API_KEY
MODEL_NAME=moonshotai/kimi-k2

これらの環境変数を設定することで、Fake OllamaサーバーはOpenRouterエンドポイントにリクエストを転送し、認証にAPIキーを使用し、目的のモデルとしてmoonshotai/kimi-k2を指定することを認識します。

ステップ4:Fake Ollamaサーバーの実行

さて、Fake Ollamaサーバーを起動しましょう。ターミナルで、fake-ollamaディレクトリ内から次のコマンドを実行します。Bash

python main.py

すべてが正しく設定されていれば、サーバーが実行中であることを示すメッセージが表示されるはずです(通常はhttp://localhost:11434)。これがVSCodeで使用するローカルエンドポイントです。

ステップ5:VSCode Copilotの設定

最後のステップは、VSCode CopilotにデフォルトのGitHub Copilotモデルではなく、ローカルのFake Ollamaサーバーを使用するように指示することです。

  1. VSCodeを開き、**Copilotチャット**ビューに移動します。
  2. チャット入力で/と入力し、**「モデルを選択」**を選択します。
  3. **「モデルを管理...」**をクリックします。
  4. 表示されるダイアログボックスで、AIプロバイダーとして**「Ollama」**を選択します。
  5. **OllamaサーバーURL**の入力を求められます。ローカルのFake Ollamaサーバーのアドレスhttp://localhost:11434を入力します。
  6. 次に、モデルを選択するよう求められます。Fake Ollamaの設定で指定したモデル(moonshotai/kimi-k2)がリストに表示されるはずです。それを選択します。

これで完了です!あなたのVSCode CopilotはKimi K2モデルによって動くようになりました。新しいチャットセッションを開始して、この強力なモデルの強化されたコーディングおよび推論能力を体験できます。


APIを超えて:vLLM、llama.cpp、ktransformersでローカルモデルを使用する

Fake Ollamaのセットアップの魅力は、APIベースのモデルに限定されないことです。vLLM、llama.cpp、ktranformersのような強力な推論エンジンを使用して、自分のハードウェアでローカルに実行されているモデルのフロントエンドとしても使用できます。

プロセスは似ています。まず、これらの推論エンジンのいずれかを使用して目的のモデルをセットアップして実行し、ローカルAPIエンドポイントを公開します。次に、Fake OllamaをOpenRouter APIではなく、そのローカルモデルのエンドポイントを指すように設定します。これにより、モデルとデータを完全に制御できますが、より強力なハードウェアが必要になるというトレードオフがあります。


結論

VSCode Copilotのカスタムモデルサポートの柔軟性とFake Ollamaツールの賢さを活用することで、AI支援開発の新たなレベルを解き放つことができます。Kimi K2を統合することで、コーディング、推論、長文コンテキスト理解が大幅に向上し、Copilotがさらに価値のあるパートナーとなります。

大規模言語モデルの世界は常に進化しており、異なるモデルを簡単に切り替えて試せる能力は、状況を一変させるものです。Kimi K2のような最先端のAPIを使用している場合でも、独自のモデルをローカルで実行している場合でも、ツールをカスタマイズする力はあなたの手にあります。ハッピーコーディング!

💡
美しいAPIドキュメントを生成する優れたAPIテストツールが欲しいですか?

最大限の生産性で開発チームが協力できる、統合されたオールインワンプラットフォームが欲しいですか?

Apidogはあなたのすべての要求に応え、Postmanをはるかに手頃な価格で置き換えます
ボタン

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる