Apidog

Nền tảng phát triển API hợp tác tất cả trong một

Thiết kế API

Tài liệu API

Gỡ lỗi API

Giả lập API

Kiểm thử API tự động

Cách Chạy DeepCoder Cục Bộ Với Ollama

中村 拓也

中村 拓也

Updated on tháng 4 9, 2025

Chạy các mô hình mã hóa tiên tiến tại chỗ cho phép các nhà phát triển tận dụng AI tiên tiến mà không phụ thuộc vào dịch vụ đám mây. DeepCoder, một mô hình mã hóa mã nguồn mở với 14B tham số, cung cấp hiệu suất xuất sắc tương đương với O3-mini. Khi kết hợp với Ollama, một khung nhẹ để chạy các mô hình ngôn ngữ lớn (LLMs), bạn có thể triển khai DeepCoder trên máy tính của mình một cách hiệu quả. Hướng dẫn kỹ thuật này hướng dẫn bạn qua quá trình, từ cài đặt đến thực thi, đồng thời tích hợp các công cụ như Apidog để kiểm tra API.

💡
Trước khi bắt đầu, hãy nâng cao quy trình làm việc của bạn bằng cách tải xuống Apidog miễn phí. Công cụ kiểm tra API mạnh mẽ này bổ trợ cho DeepCoder bằng cách cho phép bạn xác thực và gỡ lỗi mã liên quan đến API do mô hình tạo ra. Tải xuống Apidog ngay bây giờ và tinh giản quy trình phát triển của bạn cùng với hướng dẫn này.
button

DeepCoder là gì?

DeepCoder là một mô hình mã hóa mã nguồn mở với 14B tham số được phát triển thông qua sự hợp tác giữa Agentica và Together AI. Được xây dựng bằng cách tinh chỉnh Deepseek-R1-Distilled-Qwen-14B với học tăng cường phân phối (RL), nó xuất sắc trong các tác vụ lý luận và sinh mã. Thêm vào đó, còn có một phiên bản nhỏ hơn 1.5B dành cho các môi trường hạn chế tài nguyên. Khác với các mô hình độc quyền, bản chất mã nguồn mở của DeepCoder cho phép hoàn toàn minh bạch và tùy chỉnh, làm cho nó trở thành lựa chọn yêu thích của các nhà phát triển.

Ollama, mặt khác, đơn giản hóa việc triển khai các LLM như DeepCoder. Nó cung cấp một runtime nhẹ và một API để tích hợp liền mạch vào quy trình phát triển. Bằng cách kết hợp những công cụ này, bạn mở khóa một trợ lý mã hóa mạnh mẽ, chạy tại chỗ.

Các yêu cầu trước khi chạy DeepCoder tại chỗ

Trước khi tiếp tục, hãy đảm bảo hệ thống của bạn đáp ứng các yêu cầu. Đây là những gì bạn cần:

Phần cứng:

  • Một máy với ít nhất 32GB RAM (64GB được khuyến nghị cho mô hình 14B).
  • Một GPU hiện đại (ví dụ: NVIDIA RTX 3090 hoặc tốt hơn) với 24GB+ VRAM để có hiệu suất tối ưu.
  • Hoặc, một CPU với đủ lõi (ví dụ: Intel i9 hoặc AMD Ryzen 9) sẽ hoạt động cho mô hình 1.5B.

Phần mềm:

  • Hệ điều hành: Linux (Ubuntu 20.04+), macOS hoặc Windows (qua WSL2).
  • Git: Để sao chép các kho lưu trữ.
  • Docker (tùy chọn): Để triển khai trong container.
  • Python 3.9+: Để lập trình kịch bản và tương tác với API.

Các phụ thuộc:

  • Ollama: Đã được cài đặt và cấu hình.
  • Tập tin mô hình DeepCoder: Đã tải xuống từ thư viện Ollama chính thức.

Với những điều này, bạn đã sẵn sàng để cài đặt và cấu hình môi trường.

Bước 1: Cài đặt Ollama trên máy của bạn

Ollama đóng vai trò là xương sống cho việc chạy DeepCoder tại chỗ. Thực hiện các bước sau để cài đặt nó:

Tải xuống Ollama:
Truy cập trang web chính thức của Ollama hoặc sử dụng trình quản lý gói. Đối với Linux, thực hiện:

curl -fsSL https://ollama.com/install.sh | sh

Trên macOS, sử dụng Homebrew:

brew install ollama

Xác minh cài đặt:
Kiểm tra phiên bản để xác nhận Ollama đã được cài đặt đúng cách:

ollama --version

Bắt đầu dịch vụ Ollama:
Khởi chạy Ollama ở chế độ nền:

ollama serve &

Điều này chạy máy chủ trên localhost:11434, mở một API cho các tương tác mô hình.

Ollama giờ đã hoạt động. Tiếp theo, bạn sẽ lấy mô hình DeepCoder.

Bước 2: Tải xuống DeepCoder từ thư viện Ollama

DeepCoder có sẵn trong thư viện mô hình Ollama. Đây là cách để kéo nó:

Kéo DeepCoder:
Tải xuống mô hình 14B (hoặc 1.5B cho các thiết lập nhẹ hơn):

ollama pull deepcoder

Lệnh này kéo phiên bản đã đánh dấu mới nhất. Để sử dụng một nhãn cụ thể, hãy dùng:

ollama pull deepcoder:14b-preview

Theo dõi tiến độ tải xuống:
Quá trình sẽ phát trực tiếp các bản cập nhật, hiển thị tình trạng tệp và trạng thái hoàn thành. Kỳ vọng một tải xuống nhiều gigabyte cho mô hình 14B, vì vậy hãy đảm bảo kết nối internet ổn định.

Xác minh cài đặt:
Kiểm tra xem DeepCoder đã có sẵn chưa:

ollama list

Bạn sẽ thấy deepcoder được liệt kê trong số các mô hình đã cài đặt.

Với DeepCoder đã được tải xuống, bạn đã sẵn sàng để chạy nó.

Bước 3: Chạy DeepCoder tại chỗ với Ollama

Bây giờ, hãy thực thi DeepCoder và kiểm tra khả năng của nó:

Bắt đầu DeepCoder:
Khởi chạy mô hình trong một phiên tương tác:

ollama run deepcoder

Điều này mở ra một dấu nhắc nơi bạn có thể nhập các truy vấn mã hóa.

Điều chỉnh tham số (Tùy chọn):
Đối với việc sử dụng nâng cao, điều chỉnh các cài đặt như nhiệt độ thông qua tệp cấu hình hoặc gọi API (sẽ được đề cập sau).

DeepCoder bây giờ đang chạy tại chỗ. Tuy nhiên, để tích hợp nó vào quy trình làm việc, bạn sẽ sử dụng API của nó.

Bước 4: Tương tác với DeepCoder qua API của Ollama

Ollama cung cấp một API RESTful cho quyền truy cập lập trình. Đây là cách để tận dụng nó:

Kiểm tra tính khả dụng của API:
Đảm bảo máy chủ Ollama đang chạy:

curl http://localhost:11434

Một phản hồi xác nhận máy chủ đang hoạt động.

Gửi một yêu cầu:
Sử dụng curl để truy vấn DeepCoder:

curl http://localhost:11434/api/generate -d '{
  "model": "deepcoder",
  "prompt": "Tạo một endpoint API REST trong Flask",
  "stream": false
}'

Phản hồi bao gồm mã được tạo, chẳng hạn như:

from flask import Flask, jsonify

app = Flask(__name__)

@app.route('/api/data', methods=['GET'])
def get_data():
    return jsonify({"message": "Xin chào, Thế giới!"})

if __name__ == "__main__":
    app.run(debug=True)

Tích hợp với Python:
Sử dụng thư viện requests của Python để tương tác sạch sẽ hơn:

import requests

url = "http://localhost:11434/api/generate"
payload = {
    "model": "deepcoder",
    "prompt": "Viết một API Express Node.js",
    "stream": False
}
response = requests.post(url, json=payload)
print(response.json()["response"])

API mở ra tiềm năng của DeepCoder cho tự động hóa và tích hợp.

Bước 5: Nâng cao kiểm tra API với Apidog

DeepCoder xuất sắc trong việc tạo mã API, nhưng việc kiểm tra các API đó là điều quan trọng. Apidog đơn giản hóa quy trình này:

Cài đặt Apidog:
Tải xuống và cài đặt Apidog từ trang chính thức của nó.

button

Kiểm tra API được tạo ra:
Prend tiếp endpoint Flask từ trước. Trong Apidog:

  • Tạo một yêu cầu mới.
  • Đặt URL thành http://localhost:5000/api/data và Gửi một yêu cầu GET.
  • Xác minh phản hồi: {"message": "Xin chào, Thế giới!"}.

Tự động hóa kiểm tra:
Sử dụng kịch bản của Apidog để tự động hóa xác thực, đảm bảo đầu ra của DeepCoder đáp ứng mong đợi.

Apidog kết nối khoảng cách giữa việc tạo mã và triển khai, nâng cao năng suất.

Bước 6: Tối ưu hóa hiệu suất của DeepCoder

Để tối đa hóa hiệu quả, hãy tinh chỉnh cài đặt của DeepCoder:

Tăng tốc GPU:
Đảm bảo Ollama chuyển tải tính toán cho GPU của bạn. Kiểm tra với:

nvidia-smi

Việc sử dụng GPU cho thấy tăng tốc thành công.

Quản lý bộ nhớ:
Đối với mô hình 14B, phân bổ đủ VRAM. Điều chỉnh không gian hoán đổi trên Linux nếu cần:

sudo fallocate -l 32G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

Định lượng mô hình:
Sử dụng định lượng nhỏ hơn (ví dụ: 4-bit) cho mô hình 1.5B:

ollama pull deepcoder:1.5b-q4

Các điều chỉnh này đảm bảo DeepCoder chạy mượt mà trên phần cứng của bạn.

Tại sao nên chọn DeepCoder với Ollama?

Chạy DeepCoder tại chỗ mang lại những lợi thế rõ ràng:

  • Bảo mật: Giữ mã nhạy cảm ra khỏi máy chủ đám mây.
  • Chi phí: Tránh các khoản phí đăng ký.
  • Tùy chỉnh: Tùy chỉnh mô hình theo nhu cầu của bạn.

Kết hợp nó với khung nhẹ của Ollama và khả năng kiểm tra của Apidog tạo ra một hệ sinh thái phát triển mạnh mẽ, độc lập.

Kết luận

Cài đặt DeepCoder tại chỗ với Ollama thật đơn giản nhưng mang tính chuyển đổi. Bạn cài đặt Ollama, kéo DeepCoder, chạy nó, và tích hợp nó qua API—tất cả chỉ trong vài bước. Các công cụ như Apidog còn nâng cao trải nghiệm bằng cách đảm bảo các API được tạo ra hoạt động hoàn hảo. Cho dù bạn là một nhà phát triển độc lập hay một phần của một nhóm, thiết lập này mang lại một trợ lý mã hóa mã nguồn mở mạnh mẽ.

button