OpenClawとDeepSeekで無料ローカルAIアシスタントを構築する方法

本記事では OpenClaw と DeepSeek を組み合わせ、ローカル環境で AI アシスタントを構築する手順を解説します。Ollama のインストール、DeepSeek-R1 と DeepSeek-V3 モデルのセットアップ、OpenClaw との統合、Python によるテスト、プラットフォーム経由のチャット連携までを整理します。あわせてモデル設定、コンテキスト長、GPU アクセラレーション、トラブルシューティングについても触れます。

Ashley Innocent

Ashley Innocent

12 3月 2026

OpenClawとDeepSeekで無料ローカルAIアシスタントを構築する方法

要約

DeepSeekは、推論能力に優れた強力なオープンソースAIモデルファミリー(1.5Bから671Bパラメータ)です。OpenClawは、完全にローカルで動作する、話題のオープンソースAIアシスタント(GitHubスター17万以上)です。DeepSeekとOpenClawをOllama経由で組み合わせることで、有料の代替品に匹敵する、無料かつプライバシー重視のAIアシスタントを、API費用やサブスクリプションなしで、完全に制御して手に入れることができます。

はじめに

個人のAIアシスタントを構築することが、これまでになく身近になりました。API費用、サブスクリプションプラン、プライバシーの懸念といった問題がある中で、開発者にはローカルAI機能を始めるための明確な道筋が必要です。

APIコールに費用をかけずに強力な言語モデルをローカルで実行する方法を探しているなら、まさにここが正しい場所です。このガイドでは、DeepSeek AIによる印象的なオープンソースモデルDeepSeekと、ハードウェア上で完全に動作するパーソナルAIエージェントを提供する話題のオープンソースAIアシスタントOpenClawのセットアップについて説明します。

最も良い点は?DeepSeekもOpenClawも無料で利用できることです。クレジットカード不要。サブスクリプション不要。データがあなたのマシンを離れることもありません。

タスクの自動化を求める開発者、ローカルAIを探求する愛好家、あるいはプライバシー第一のAIソリューションを求めるビジネスのいずれであっても、このセットアップはエンタープライズグレードの機能をゼロコストで提供します。

DeepSeek + OpenClawを選ぶ理由

DeepSeekの力

DeepSeekは、2026年に最も有能なオープンソースAIモデルファミリーの一つとして登場しました。その際立った特徴は以下の通りです。

DeepSeekロゴ

優れた推論能力
DeepSeek-R1は、推論タスクにおいてOpenAI O3やGemini 2.5 Proといった主要モデルに匹敵する性能を達成しています。特に数学、コーディング、複雑な問題解決に強いです。

多様なモデル
DeepSeekは、あらゆるユースケースに対応するモデルを提供します。

モデルパラメータ最適な用途
DeepSeek-R11.5B - 671B推論および問題解決
DeepSeek-V3671B汎用タスク
DeepSeek-V3.1671Bハイブリッド思考/非思考
DeepSeek-Coder1.3B - 236Bコーディングタスク

ハイブリッド推論
Qwen3と同様に、DeepSeek-V3.1は思考モード(Chain-of-Thought推論)と非思考モード(直接回答)の両方をサポートしており、タスクに基づいて選択できます。

コスト効率
DeepSeekモデルはオープンソースであり、ローカルで無料で実行できます。費用はハードウェアのみです。

OpenClawの柔軟性

OpenClaw(旧Clawdbot/Moltbot)は、GitHubで17万以上のスターを獲得しているオープンソースのAIエージェントです。

OpenClawロゴ

以下を提供します。

この組み合わせが機能する理由

DeepSeekの強力な推論能力とOpenClawのエージェント機能の組み合わせは、有料の代替品に匹敵する、無料かつプライベートなAIアシスタントを生み出します。

前提条件

開始する前に、以下があることを確認してください。

  1. 十分なRAMを搭載したコンピューター(以下の要件を参照)
  2. ソフトウェアをインストールするための管理者/rootアクセス
  3. 初回ダウンロードのためのインターネット接続
  4. コマンドラインの基本的な知識(各ステップを説明します)

モデルごとのRAM要件

モデル最小RAM推奨RAM
DeepSeek-R1 1.5B8GB8GB
DeepSeek-R1 7B16GB16GB
DeepSeek-R1 14B32GB32GB
DeepSeek-R1 32B64GB64GB
DeepSeek-R1 70B128GB128GB+
DeepSeek-V3 671B256GB256GB+

プロのヒント: 16GBのRAMがある場合は、まず7Bモデルから始めることをお勧めします。後でいつでもスケールアップできます。

Ollamaのインストール

Ollamaは、DeepSeekをローカルで実行するための橋渡し役です。モデルのダウンロード、メモリ管理、推論サービングを処理します。

macOSへのインストール

# Homebrewを使用(推奨)
brew install ollama

# またはインストールスクリプトを使用
curl -fsSL https://ollama.ai/install.sh | sh

Linuxへのインストール

# インストールスクリプトを使用
curl -fsSL https://ollama.ai/install.sh | sh

# またはバイナリを直接ダウンロード
sudo curl -L https://ollama.ai/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama

Windowsへのインストール

ollamaからインストーラーをダウンロードして実行します。

インストールの確認

インストール後、Ollamaが動作しているか確認します。

ollama --version

ollama version 0.5.0のような出力が表示されるはずです。

Ollamaサービスの開始

Ollamaはバックグラウンドサービスとして実行されます。自動的に起動するはずですが、確認できます。

# Ollamaが実行中か確認
ollama list

# 実行中でない場合、起動
ollama serve

DeepSeekモデルのセットアップ

次に、DeepSeekをあなたのマシンで実行してみましょう。

DeepSeek-R1のプル(推奨)

DeepSeek-R1は、推論モデルの主力です。ほとんどのユーザーには、7Bまたは8Bモデルから始めることをお勧めします。

# 7Bモデルをプル(ほとんどのユーザーに推奨)
ollama pull deepseek-r1:7b

# またはわずかに優れたパフォーマンスのために8Bモデルをプル
ollama pull deepseek-r1:8b

# より強力なハードウェアの場合は、14Bモデルを試す
ollama pull deepseek-r1:14b

DeepSeek-V3のプル(汎用)

推論に特化したモデルではなく、汎用モデルが必要な場合:

# DeepSeek-V3をプル(かなりのRAMが必要)
ollama pull deepseek-v3:671b

蒸留モデルのプル(低リソース向け)

RAMが限られたシステムでは、蒸留モデルが小規模ながらも優れた推論を提供します。

# Qwenアーキテクチャに基づいた蒸留モデルをプル
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:14b

モデルの実行

モデルが動作するかテストします。

# 対話型チャットモード
ollama run deepseek-r1:7b

メッセージを入力してEnterを押します。終了するには/exitと入力します。

Pythonでのテスト

DeepSeekをプログラムで利用する方法は以下の通りです。

import requests

url = "http://localhost:11434/api/generate"
payload = {
    "model": "deepseek-r1:7b",
    "prompt": "Explain what DeepSeek R1 is in one sentence",
    "stream": False,
}
response = requests.post(url, json=payload).json()
print(response["response"])

ApidogでOllama APIをテストする

OpenClawと統合する前に、Apidogを使用してDeepSeekのセットアップをテストできます。これは、APIエンドポイントが正しく機能しているかデバッグおよび検証するのに特に役立ちます。

  1. Apidogで新しいリクエストを作成
  2. メソッドをPOSTに設定
  3. URLを入力: http://localhost:11434/api/generate
  4. ヘッダーを追加:
Apidogで新しいリクエストを作成

ボディを追加 (JSON):

{
  "model": "deepseek-r1:7b",
  "prompt": "Hello, world!",
  "stream": false
}

Apidogのビジュアルインターフェースを使用すると、OpenClawに接続する前にOllama APIの応答を簡単にテストし、問題をデバッグできます。このリクエストを保存して、異なるプロンプトや構成をテストすることもできます。

Apidogでリクエストを送信するためのボディを追加

Ollama Pythonライブラリの使用

from ollama import Client

client = Client()
output = client.chat(
    model="deepseek-r1:7b",
    messages=[{"role": "user", "content": "Write a hello world in Python"}]
)
print(output["message"]["content"])

OpenClawのインストール

次に、AIアシスタントを作成するためにOpenClawをインストールしましょう。

クイックインストール

# npxを使用(インストール不要)
npx openclaw

# またはインストールスクリプトを使用
curl -fsSL https://openclaw.ai/install.sh | bash

初期セットアップ

OpenClawを初めて実行します。

npx openclaw
OpenClawをインストール

これにより、初期設定がガイドされます。

  1. 最初のプラットフォーム接続(Telegram、Discordなど)を設定
  2. 基本設定を構成
  3. アシスタントを起動

OpenClawが実行中であることの確認

# OpenClawのステータスを確認
openclaw status

DeepSeekとOpenClawの統合

さあ、魔法が起こります。DeepSeekをOpenClawアシスタントの頭脳として接続しましょう。

方法1:Ollamaをバックエンドとして使用する

OpenClawはOllamaをネイティブでサポートしています。DeepSeekを使用するように設定します。

# DeepSeek-R1でOllamaを使用するようにOpenClawを設定
ollama launch openclaw --model deepseek-r1

# または別のモデルサイズを指定
ollama launch openclaw --model deepseek-v3.1

方法2:環境設定

より細かく制御するために環境変数を設定します。

# Ollamaエンドポイントを設定
export OLLAMA_HOST=http://localhost:11434

# モデルを設定
export OLLAMA_MODEL=deepseek-r1

方法3:設定ファイル

~/.openclaw/config.yamlを作成または編集します。

models:
  default: ollama/deepseek-r1:7b

ollama:
  host: http://localhost:11434
  model: deepseek-r1:7b
  temperature: 0.7
  top_p: 0.9

統合のテスト

# OpenClawがDeepSeekを使用していることをテスト
openclaw models status

DeepSeek-R1がアクティブであることを確認する出力が表示されるはずです。

プラットフォーム経由でのチャット

これで、接続されている任意のプラットフォームからDeepSeekとチャットできます。

Telegram:
TelegramでOpenClawボットにメッセージを送信します。

Discord:
DiscordでOpenClawボットにメンションします。

WhatsApp:
設定済みのOpenClaw WhatsApp番号にメッセージを送信します。

応答はローカルで実行されているDeepSeekから届きます!

設定と最適化

これらのオプションでDeepSeek + OpenClawのセットアップを微調整します。

TemperatureとTop-P

応答の創造性を制御します。

# config.yaml 内
ollama:
  temperature: 0.7    # 0.0 = 集中的, 1.0 = 創造的
  top_p: 0.9         # 核サンプリング
  top_k: 40          # トークン選択

コンテキスト長

より長い会話のために調整します。

ollama:
  context_size: 4096  # より長いコンテキストのために増やす

システムプロンプト

DeepSeekの動作をカスタマイズします。

ollama:
  system_prompt: |
    あなたは役立つコーディングアシスタントです。
    明確で簡潔なコード例を提供します。
    概念を簡単な言葉で説明します。

モデルの切り替え

必要に応じて、異なるDeepSeekモデル間を簡単に切り替えることができます。

# より高性能な14Bモデルに切り替える
openclaw models set ollama/deepseek-r1:14b

# 汎用タスクのためにV3に切り替える
openclaw models set ollama/deepseek-v3:671b

# 速度のために7Bに戻す
openclaw models set ollama/deepseek-r1:7b

AIアシスタントのテスト

Ollama経由で直接テスト

# DeepSeekの推論能力をテスト
ollama run deepseek-r1:7b "Solve this problem: If a train travels 120km in 2 hours, what is its speed?"

OpenClaw経由でテスト

# OpenClaw経由でテストメッセージを送信
openclaw chat "Hello, what's 2 + 2?"

プラットフォーム統合のテスト

プラットフォームが設定されたら:

Telegram:
OpenClawボットに/startを送信します。

Discord:
@your-bot helloでボットにメンションします。

WhatsApp:
設定済みのWhatsApp番号にメッセージを送信します。

ログの監視

OpenClawのログをチェックして、何が起こっているかを確認します。

# 最新のログを表示
openclaw logs --recent

# リアルタイムログを表示
openclaw logs --follow

高度なセットアップのヒント

GPUアクセラレーション

NVIDIA GPUを搭載している場合は、CUDAアクセラレーションを有効にします。

# GPUが検出されているか確認
ollama list

# GPUアクセラレーションで実行(GPUが利用可能であれば自動)
ollama run deepseek-r1:7b --gpu

カスタムモデルの作成

システムプロンプトを使用して、特殊なバージョンを作成します。

# Modelfileを作成
echo 'FROM deepseek-r1:7b
SYSTEM """あなたはPythonの専門家です。
クリーンでPEP 8準拠のコードを提供します。
"""' > /tmp/python-expert

# カスタムモデルを作成
ollama create python-expert -f /tmp/python-expert

# OpenClawで使用
openclaw models set ollama/python-expert

マルチモデルセットアップ

異なるタスクに対して異なるモデルを実行します。

# config.yaml内 - 複数のモデルプリセットを設定
models:
  default: ollama/deepseek-r1:7b
  coding: ollama/deepseek-coder:7b
  reasoning: ollama/deepseek-r1:14b

その後、それらを切り替えます。

# コーディングモデルを使用
openclaw models set coding

# 複雑なタスクには推論モデルを使用
openclaw models set reasoning

パフォーマンスの最適化

パフォーマンスを向上させるには:

  1. RAMを解放するために不要なアプリケーションを閉じる
  2. 必要を満たす最小のモデルを使用する
  3. 頻繁に制限に達する場合はRAMのアップグレードを検討する
  4. モデルのロードを高速化するためにSSDストレージを使用する

リソース使用状況の監視

# 現在のモデルとリソースを確認
openclaw status --verbose

# Ollamaを直接監視
ollama list

一般的な問題のトラブルシューティング

モデルがロードされない(メモリ不足)

問題: RAM不足のため、Ollamaがモデルをロードできません。

解決策:

応答が遅い

問題: 応答に時間がかかりすぎる。

解決策:

OpenClawがOllamaに接続できない

問題: OpenClawがOllamaへの接続エラーを報告する。

解決策:

プラットフォーム接続の問題

問題: Telegram/Discord/WhatsAppに接続できない。

解決策:

よくある質問

DeepSeekは本当に無料で使用できますか?

はい、DeepSeekはオープンソースであり、ローカルで無料で実行できます。ハードウェア(RAMを搭載したコンピューター)を提供するだけで済みます。API費用やサブスクリプションはかかりません。

DeepSeekをOpenClawと共に商用利用できますか?

はい、DeepSeekとOpenClawはどちらも商用利用を許可する寛容なライセンスを持っています。常に最新のライセンス条項を確認してください。

GPUを持っていない場合はどうなりますか?

DeepSeekはCPUのみのシステムでも動作します。推論速度は遅くなります(ミリ秒ではなく応答に数秒かかる)。小規模モデル(1.5B〜7B)はCPUでも十分に機能します。

DeepSeek-R1とDeepSeek-V3のどちらを選べばよいですか?

複数のDeepSeekモデルを同時に実行できますか?

はい、可能ですが、各モデルには追加のRAMが必要です。一般的なセットアップでは、7Bモデルを特定のタスク用のより小さな専門モデルと並行して実行することができます。

DeepSeekを最新バージョンに更新するにはどうすればよいですか?

ollama pull deepseek-r1:7b

より新しいバージョンが利用可能な場合、Ollamaは自動的に更新します。

OpenClawを自分のアプリケーションに接続できますか?

はい、OpenClawはカスタム統合のためのAPIエンドポイントとWebhookを提供しています。詳細はOpenClawのドキュメントを確認してください。


まとめ

これで、強力で無料のAIアシスタントがあなたのマシン上でローカルに動作するようになりました。DeepSeekが知能を提供し、OpenClawがエージェント機能を提供し、Ollamaがこれらすべてをシームレスに機能させます。

これでできること:

DeepSeekとOpenClawの組み合わせは、クラウドの代替サービスであれば月額数百ドルかかるような機能を、あなたが所有するハードウェア上で全て実行することで提供します。

次のステップ:

  1. 異なるDeepSeekモデルサイズを試す
  2. OpenClawのスキルマーケットプレイス(ClawHub)を探求する
  3. アシスタントに追加のプラットフォームを接続する
  4. 特定のユースケースに合わせたカスタムプロンプトを作成する

唯一の限界はあなたの想像力です。

プロフェッショナルなAIアプリケーションを構築する準備はできましたか? Apidogを無料でダウンロードし、開発者向けに設計されたビジュアルインターフェースでAIサービス統合をテストしましょう。ApidogのAPIテストスイートを試して、AIワークフローが堅牢で信頼できるものであることを確認してください。

button

Explore more

OllamaでOpenClawを実行する方法

OllamaでOpenClawを実行する方法

本記事では Ollama 上で OpenClaw を実行するための基本手順を解説します。Ollama のインストール、モデルの選択とダウンロード、モデル実行方法、Python ライブラリの利用、OpenClaw との統合手順を整理します。さらに Temperature、Top-P、Context Length、System Prompt などの設定項目や、実行時の一般的なトラブルについても触れます。

26 2月 2026

GPT-5.3 Codex API の使い方ガイド

GPT-5.3 Codex API の使い方ガイド

本記事では GPT-5.3 Codex API の基本的な利用方法を解説します。OpenAI 開発者プラットフォームと OpenRouter の2つのアクセス方法を取り上げ、APIキーの取得、最初のリクエスト作成、Python および Node.js での基本的な統合方法を整理しています。さらに、主要パラメータ、料金構成、コンテキストウィンドウ、トラブルシューティングの要点についても概観します。

25 2月 2026

GLM-5をローカルで無料実行する手順

GLM-5をローカルで無料実行する手順

本記事では、GLM-5 をローカル環境で無料実行する構成を中心に、クラウド API との違いや利点、必要なハードウェア要件を整理します。Unsloth GGUF と llama.cpp を用いた実行手順では、ビルド、量子化モデルの取得、推論開始、OpenAI API としての提供方法までを解説します。あわせて Ollama による簡易実行や、vLLM を利用した高性能デプロイにも触れます。さらにパフォーマンス最適化、一般的な問題への対処、ローカル GLM-5 と各種システム構成の方向性についても整理します。

13 2月 2026

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる