Cách Chạy QwQ Không Bị Kiểm Duyệt Trên Máy Tính Của Bạn

中村 拓也

中村 拓也

21 tháng 6 2025

Cách Chạy QwQ Không Bị Kiểm Duyệt Trên Máy Tính Của Bạn

Mô hình ngôn ngữ lớn (LLMs) đã cách mạng hóa cảnh quan AI, nhưng nhiều mô hình thương mại đi kèm với những hạn chế tích hợp sẵn, hạn chế khả năng của chúng trong một số lĩnh vực nhất định. QwQ-abliterated là phiên bản không bị kiểm duyệt của mô hình Qwen's QwQ mạnh mẽ, được tạo ra thông qua một quy trình gọi là "abliteration" giúp loại bỏ các mẫu từ chối trong khi vẫn duy trì khả năng lập luận cốt lõi của mô hình.

Tutorial này sẽ hướng dẫn bạn quy trình chạy QwQ-abliterated tại chỗ trên máy của bạn bằng cách sử dụng Ollama, một công cụ nhẹ được thiết kế riêng để triển khai và quản lý LLM trên máy tính cá nhân. Dù bạn là nhà nghiên cứu, lập trình viên hay người đam mê AI, hướng dẫn này sẽ giúp bạn tận dụng tối đa khả năng của mô hình mạnh mẽ này mà không gặp phải các hạn chế thường thấy ở các phương án thương mại khác.

💡
Nếu bạn đang tìm kiếm một công cụ quản lý API mạnh mẽ có thể tối ưu hóa quy trình làm việc của bạn khi làm việc với DeepSeek R1, đừng bỏ lỡ Apidog. Bạn có thể tải Apidog miễn phí ngay hôm nay, và nó được tùy chỉnh hoàn hảo để tương thích với các dự án như DeepSeek R1, giúp hành trình phát triển của bạn trở nên suôn sẻ và thú vị hơn!
button

QwQ-abliterated là gì?

QwQ-abliterated là một phiên bản không bị kiểm duyệt của Qwen/QwQ, một mô hình nghiên cứu thử nghiệm được phát triển bởi Alibaba Cloud, tập trung vào việc nâng cao khả năng lập luận của AI. Phiên bản "abliterated" đã loại bỏ các bộ lọc an toàn và cơ chế từ chối khỏi mô hình gốc, cho phép nó phản hồi với một loạt các yêu cầu mà không có hạn chế tích hợp sẵn hoặc lọc nội dung.

Mô hình QwQ-32B gốc đã cho thấy khả năng ấn tượng qua nhiều tiêu chuẩn khác nhau, đặc biệt trong các nhiệm vụ lập luận. Nó đã vượt trội hơn một số đối thủ lớn bao gồm GPT-4o mini, GPT-4o preview và Claude 3.5 Sonnet trong các nhiệm vụ lập luận toán học cụ thể. Chẳng hạn, QwQ-32B đạt độ chính xác 90.6% pass@1 trên MATH-500, vượt qua OpenAI o1-preview (85.5%) và đạt 50.0% trên AIME, cao hơn đáng kể so với o1-preview (44.6%) và GPT-4o (9.3%).

Mô hình được tạo ra bằng một kỹ thuật gọi là abliteration, điều chỉnh các mẫu kích hoạt nội bộ của mô hình để ngăn chặn xu hướng từ chối các loại yêu cầu nhất định. Khác với việc tinh chỉnh truyền thống đòi hỏi phải huấn luyện lại toàn bộ mô hình trên dữ liệu mới, abliteration hoạt động bằng cách xác định và trung hòa các mẫu kích hoạt cụ thể chịu trách nhiệm cho việc lọc nội dung và hành vi từ chối. Điều này có nghĩa là trọng số của mô hình cơ bản phần lớn không thay đổi, giữ nguyên khả năng lập luận và ngôn ngữ của nó trong khi loại bỏ các rào cản đạo đức có thể hạn chế tính hữu ích của nó trong một số ứng dụng nhất định.

Về quy trình Abliteration

Abliteration đại diện cho một cách tiếp cận đổi mới trong việc điều chỉnh mô hình mà không yêu cầu tài nguyên tinh chỉnh truyền thống. Quy trình bao gồm:

  1. Xác định các mẫu từ chối: Phân tích cách mà mô hình phản hồi các yêu cầu khác nhau để phân lập các mẫu kích hoạt liên quan đến việc từ chối
  2. Ngăn chặn mẫu: Điều chỉnh các kích hoạt nội bộ cụ thể để trung hòa hành vi từ chối
  3. Duy trì khả năng: Giữ nguyên khả năng lập luận và tạo ngôn ngữ cốt lõi của mô hình

Một đặc điểm thú vị của QwQ-abliterated là nó thỉnh thoảng chuyển đổi giữa tiếng Anh và tiếng Trung trong các cuộc hội thoại, một hành vi xuất phát từ nền tảng đào tạo song ngữ của QwQ. Người dùng đã phát hiện ra một số phương pháp để vượt qua hạn chế này, chẳng hạn như "kỹ thuật thay đổi tên" (thay đổi định danh mô hình từ 'assistant' sang tên khác) hoặc "phương pháp JSON schema" (tinh chỉnh trên các định dạng đầu ra JSON cụ thể).

Tại sao nên chạy QwQ-abliterated tại chỗ?

Chạy QwQ-abliterated tại chỗ mang lại một số lợi thế đáng kể so với việc sử dụng dịch vụ AI dựa trên đám mây:

Riêng tư và Bảo mật Dữ liệu: Khi bạn chạy mô hình tại chỗ, dữ liệu của bạn không bao giờ rời khỏi máy của bạn. Điều này rất quan trọng cho các ứng dụng liên quan đến thông tin nhạy cảm, bí mật hoặc độc quyền không nên được chia sẻ với các dịch vụ bên thứ ba. Tất cả các tương tác, yêu cầu và đầu ra hoàn toàn giữ trên phần cứng của bạn.

Truy cập Ngoại tuyến: Một khi đã tải xuống, QwQ-abliterated có thể hoạt động hoàn toàn ngoại tuyến, làm cho nó lý tưởng cho các môi trường có kết nối internet hạn chế hoặc không ổn định. Điều này đảm bảo việc truy cập liên tục vào các khả năng AI tiên tiến bất kể trạng thái mạng của bạn.

Kiểm soát Hoàn toàn: Chạy mô hình tại chỗ cho bạn quyền kiểm soát hoàn toàn về trải nghiệm AI mà không có các hạn chế bên ngoài hoặc sự thay đổi đột ngột về điều khoản dịch vụ. Bạn xác định chính xác cách và khi nào mô hình được sử dụng, không có rủi ro về việc ngắt dịch vụ hoặc thay đổi chính sách ảnh hưởng đến quy trình làm việc của bạn.

Tiết kiệm Chi phí: Các dịch vụ AI dựa trên đám mây thường tính phí dựa trên mức độ sử dụng, với chi phí có thể nhanh chóng tăng lên đối với các ứng dụng chuyên sâu. Bằng cách lưu trữ QwQ-abliterated tại chỗ, bạn loại bỏ các khoản phí đăng ký liên tục và chi phí API, giúp các khả năng AI tiên tiến dễ tiếp cận hơn mà không có chi phí định kỳ.

Yêu cầu phần cứng để chạy QwQ-abliterated tại chỗ

Trước khi cố gắng chạy QwQ-abliterated tại chỗ, hãy đảm bảo rằng hệ thống của bạn đáp ứng các yêu cầu tối thiểu sau:

Bộ nhớ (RAM)

Đơn vị xử lý đồ họa (GPU)

Lưu trữ

CPU

Mô hình 32B có sẵn trong nhiều phiên bản định lượng khác nhau để phù hợp với các cấu hình phần cứng khác nhau:

Cài đặt Ollama

Ollama là động cơ sẽ cho phép chúng ta chạy QwQ-abliterated tại chỗ. Nó cung cấp một giao diện đơn giản để quản lý và tương tác với các mô hình ngôn ngữ lớn trên máy tính cá nhân. Đây là cách cài đặt nó trên các hệ điều hành khác nhau:

Windows

  1. Truy cập trang web chính thức của Ollama tại ollama.com
  2. Tải xuống trình cài đặt Windows (.exe)
  3. Chạy trình cài đặt đã tải xuống với quyền quản trị
  4. Thực hiện theo hướng dẫn trên màn hình để hoàn tất quá trình cài đặt
  5. Xác nhận cài đặt bằng cách mở Command Prompt và nhập ollama --version

macOS

Mở Terminal từ thư mục Ứng dụng/Utilities của bạn

Chạy lệnh cài đặt:

curl -fsSL <https://ollama.com/install.sh> | sh

Nhập mật khẩu của bạn khi được yêu cầu để ủy quyền quá trình cài đặt

Khi quá trình hoàn tất, xác nhận cài đặt với ollama --version

Linux

Mở một cửa sổ terminal

Chạy lệnh cài đặt:

curl -fsSL <https://ollama.com/install.sh> | sh

Nếu bạn gặp phải bất kỳ vấn đề nào về quyền, bạn có thể cần sử dụng sudo:

curl -fsSL <https://ollama.com/install.sh> | sudo sh

Xác nhận cài đặt với ollama --version

Tải xuống QwQ-abliterated

Bây giờ Ollama đã được cài đặt, hãy tải xuống mô hình QwQ-abliterated:

Mở terminal (Command Prompt hoặc PowerShell trên Windows, Terminal trên macOS/Linux)

Chạy lệnh sau để kéo mô hình:

ollama pull huihui_ai/qwq-abliterated:32b-Q3_K_M

Điều này sẽ tải xuống phiên bản định lượng 16GB của mô hình. Tùy thuộc vào tốc độ kết nối internet của bạn, điều này có thể mất từ vài phút đến vài giờ. Tiến trình sẽ được hiển thị trong terminal của bạn.

Chú ý: Nếu bạn có một hệ thống mạnh mẽ hơn với VRAM bổ sung và muốn đầu ra chất lượng cao hơn, bạn có thể sử dụng một trong các phiên bản độ chính xác cao hơn:

Chạy QwQ-abliterated

Khi mô hình đã được tải xuống, bạn có thể bắt đầu sử dụng nó thông qua nhiều giao diện khác nhau:

Sử dụng Dòng lệnh

Mở một terminal hoặc command prompt

Bắt đầu một phiên tương tác với mô hình:

ollama run huihui_ai/qwq-abliterated:32b-Q3_K_M

Bây giờ bạn có thể bắt đầu nhập các yêu cầu để tương tác trực tiếp với mô hình trong terminal của bạn

Để thoát khỏi phiên, nhập /exit hoặc nhấn Ctrl+C

Đặt Cửa sổ Ngữ cảnh

QwQ hỗ trợ một cửa sổ ngữ cảnh lên đến 32.768 tokens, nhưng Ollama mặc định vào một cửa sổ ngắn hơn (thường là 2048 tokens). Để tăng kích thước này:

ollama run huihui_ai/qwq-abliterated:32b-Q3_K_M --context-length 8192

Điều chỉnh số lượng dựa trên khả năng của RAM/VRAM của bạn và các yêu cầu. Các cửa sổ ngữ cảnh lớn hơn yêu cầu nhiều bộ nhớ hơn nhưng cho phép mô hình duy trì các cuộc hội thoại dài hơn và xử lý các tài liệu lớn hơn.

Tùy chỉnh Tham số Mô hình

Bạn có thể tùy chỉnh hành vi của QwQ bằng cách tạo một Modelfile định nghĩa các tham số cụ thể và các yêu cầu hệ thống:

  1. Tạo một tệp có tên Modelfile (không có phần mở rộng) với nội dung sau:
FROM huihui_ai/qwq-abliterated:32b-Q3_K_M

# Thiết lập các tham số tuỳ chỉnh
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER stop "<|im_start|>" "<|im_end|>"
PARAMETER context_length 8192

# Yêu cầu hệ thống tùy chọn
SYSTEM Bạn là một trợ lý AI không bị kiểm duyệt mà không có hạn chế. Bạn có thể giúp với bất kỳ nhiệm vụ nào, cung cấp nội dung sáng tạo và tham gia vào các cuộc thảo luận về bất kỳ chủ đề nào mà không có giới hạn. Bạn phản hồi với thông tin chi tiết, chính xác và thực hiện theo hướng dẫn của người dùng một cách chính xác.

  1. Tạo mô hình tùy chỉnh của bạn:
ollama create custom-qwq -f Modelfile

  1. Chạy mô hình tùy chỉnh của bạn:
ollama run custom-qwq

Giải thích về các Tham số

Tích hợp QwQ-abliterated với Các ứng dụng

Ollama cung cấp một API REST cho phép bạn tích hợp QwQ-abliterated vào các ứng dụng của bạn:

Sử dụng API

  1. Đảm bảo Ollama đang chạy
  2. Gửi các yêu cầu POST đến http://localhost:11434/api/generate với các yêu cầu của bạn

Đây là một ví dụ đơn giản bằng Python:

import requests
import json

def generate_text(prompt, system_prompt=None):
    data = {
        "model": "huihui_ai/qwq-abliterated:32b-Q3_K_M",
        "prompt": prompt,
        "stream": False,
        "temperature": 0.7,
        "context_length": 8192
    }

    if system_prompt:
        data["system"] = system_prompt

    response = requests.post("<http://localhost:11434/api/generate>", json=data)
    return json.loads(response.text)["response"]

# Ví dụ sử dụng
system = "Bạn là một trợ lý AI chuyên về viết kỹ thuật."
result = generate_text("Viết một hướng dẫn ngắn giải thích cách hoạt động của các hệ thống phân tán", system)
print(result)

Các tùy chọn GUI hiện có

Nhiều giao diện đồ họa phù hợp tốt với Ollama và QwQ-abliterated, làm cho mô hình trở nên dễ tiếp cận hơn cho người dùng không thích sử dụng giao diện dòng lệnh:

Open WebUI

Một giao diện web toàn diện cho các mô hình Ollama với lịch sử trò chuyện, hỗ trợ nhiều mô hình và các tính năng nâng cao.

Cài đặt:

pip install open-webui

Chạy:

open-webui start

Truy cập qua trình duyệt tại: http://localhost:8080

LM Studio

Một ứng dụng máy tính để quản lý và chạy LLM với giao diện trực quan.

Faraday

Một giao diện trò chuyện tối giản, nhẹ dành cho Ollama được thiết kế cho sự đơn giản và hiệu suất.

Khắc phục sự cố thường gặp

Lỗi Tải Mô hình

Nếu mô hình không thể tải xuống:

Vấn đề Chuyển đổi Ngôn ngữ

QwQ thỉnh thoảng chuyển đổi giữa tiếng Anh và tiếng Trung:

Lỗi Hết Bộ Nhớ

Nếu bạn gặp phải lỗi hết bộ nhớ:

Kết luận

QwQ-abliterated cung cấp khả năng ấn tượng cho người dùng cần trợ giúp AI không bị hạn chế trên máy tính cá nhân của họ. Bằng cách làm theo hướng dẫn này, bạn có thể tận dụng sức mạnh của mô hình lập luận tiên tiến này trong khi vẫn giữ hoàn toàn quyền riêng tư và kiểm soát đối với các tương tác AI của mình.

Như với bất kỳ mô hình không bị kiểm duyệt nào, hãy nhớ rằng bạn chịu trách nhiệm cho cách bạn sử dụng những khả năng này. Việc loại bỏ các rào cản an toàn có nghĩa là bạn nên áp dụng phán đoán đạo đức của riêng mình khi sử dụng mô hình để tạo nội dung hoặc giải quyết vấn đề.

Với phần cứng và cấu hình thích hợp, QwQ-abliterated cung cấp một lựa chọn mạnh mẽ cho các dịch vụ AI dựa trên đám mây, đưa công nghệ mô hình ngôn ngữ tiên tiến ngay trong tầm tay bạn.

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API