Cách Sử Dụng API Claude Opus 4.6

Ashley Innocent

Ashley Innocent

6 tháng 2 2026

Cách Sử Dụng API Claude Opus 4.6

Anthropic đã phát hành Claude Opus 4.6, đánh dấu một bước nhảy vọt trong khả năng AI dành cho các nhà phát triển. Không giống như các bản cập nhật tăng dần, Opus 4.6 giới thiệu các tính năng thay đổi mô hình: các đội tác tử (agent teams) phối hợp nhiều tác vụ AI song song, tư duy thích ứng (adaptive thinking) phân bổ sức mạnh suy luận một cách linh hoạt, và cửa sổ ngữ cảnh khổng lồ 1 triệu token có thể chứa toàn bộ cơ sở mã.

Đối với các nhà phát triển xây dựng ứng dụng AI sản xuất, điều này có nghĩa là giờ đây bạn có thể giải quyết các vấn đề trước đây là không thể. Cần tái cấu trúc một kiến trúc microservices phức tạp? Các đội tác tử có thể chia công việc cho nhiều chuyên gia. Xử lý tài liệu đặc tả API dài 200 trang? Cửa sổ ngữ cảnh mở rộng sẽ xử lý trong một yêu cầu duy nhất. Muốn phân bổ tài nguyên thông minh? Tư duy thích ứng sẽ quyết định khi nào nên sử dụng suy luận sâu sắc so với phản hồi nhanh chóng.

API duy trì khả năng tương thích ngược với các phiên bản Claude trước đó, đồng thời bổ sung các tham số mới mạnh mẽ để kiểm soát hành vi tác tử và độ sâu tư duy.

💡
Để tối ưu hóa tương tác của bạn với API này, hãy cân nhắc Apidog, một nền tảng tất cả trong một để thiết kế, kiểm thử và gỡ lỗi API. Tải xuống Apidog miễn phí ngay hôm nay và đơn giản hóa quy trình làm việc của bạn khi thử nghiệm với các endpoint của Claude Opus 4.6 – nó tạo yêu cầu từ các đặc tả, tự động hóa kiểm thử và đảm bảo cộng tác liền mạch.
nút

Claude Opus 4.6 là gì?

Claude Opus 4.6 là mô hình AI mạnh mẽ nhất của Anthropic, được thiết kế đặc biệt cho các tác vụ suy luận phức tạp, quy trình làm việc tác tử (agentic workflows) và các ứng dụng quy mô doanh nghiệp. Được phát hành như một phần của dòng mô hình Claude 4.6, Opus đại diện cho cấp độ "hàng đầu" được tối ưu hóa cho độ chính xác và tinh vi hơn tốc độ.

Tải xuống Apidog để kiểm thử các lệnh gọi API Claude Opus 4.6 với giao diện trực quan xử lý xác thực, quản lý môi trường và tạo mã sản xuất từ các yêu cầu đang hoạt động của bạn.

Các Tính năng và Khả năng Chính

Đội Tác tử (Agent Teams) (Xem trước Nghiên cứu)

Đội tác tử cho phép Claude điều phối nhiều tác vụ AI trong một yêu cầu API duy nhất. Khi bạn kích hoạt đội tác tử, Claude có thể:

Các trường hợp sử dụng:

Đội tác tử hiện đang trong giai đoạn xem trước nghiên cứu dành cho những người đăng ký API. Quyền truy cập được kiểm soát thông qua cài đặt tài khoản trong Anthropic Console.

Tư duy Thích ứng (Adaptive Thinking)

Tư duy thích ứng thay thế lựa chọn nhị phân giữa phản hồi nhanh và suy luận mở rộng. Claude giờ đây đưa ra các quyết định theo thời gian thực về độ sâu suy luận dựa trên:

Cách thức hoạt động:

# High effort (default) - Claude thinks when useful
response = client.messages.create(
    model="claude-opus-4-6",
    messages=[{"role": "user", "content": "Design a rate limiter"}],
    thinking={"type": "adaptive", "effort": "high"}
)

# Max effort - Claude always engages deep reasoning
response = client.messages.create(
    model="claude-opus-4-6",
    messages=[{"role": "user", "content": "Find bugs in this code"}],
    thinking={"type": "adaptive", "effort": "max"}
)

Cửa sổ Ngữ cảnh 1M Token (Beta)

Cửa sổ ngữ cảnh mở rộng mở khóa các mô hình ứng dụng mới:

Quy trình làm việc của nhà phát triển:

Ứng dụng doanh nghiệp:

Để kích hoạt tính năng beta ngữ cảnh 1M, hãy liên hệ với quản lý tài khoản Anthropic của bạn hoặc kiểm tra Console để tìm các nút bật/tắt truy cập beta.

Nén Ngữ cảnh (Context Compaction) (Beta)

Các cuộc hội thoại dài cuối cùng sẽ đạt đến giới hạn ngữ cảnh. Nén ngữ cảnh giải quyết vấn đề này bằng cách tự động tóm tắt các tin nhắn cũ hơn khi bạn tiếp cận ngưỡng. Quy trình này minh bạch:

  1. Bạn cấu hình giới hạn token mục tiêu (ví dụ: 180K trong số 200K)
  2. Khi cuộc hội thoại tăng lên, Claude theo dõi việc sử dụng token
  3. Khi gần đạt đến giới hạn, Claude sẽ tóm tắt các tin nhắn cũ
  4. Cuộc hội thoại tiếp tục liền mạch với ngữ cảnh được bảo toàn

Điều này cho phép độ dài cuộc hội thoại không giới hạn cho các tác vụ tác tử, bot hỗ trợ khách hàng và các phiên lập trình dài hạn.

128K Token Đầu ra Tối đa

Dung lượng đầu ra tăng gấp đôi từ 64K lên 128K token. Điều này cho phép:

Giá của Claude Opus 4.6

Bắt đầu với API Claude Opus 4.6

Điều kiện Tiên quyết

Trước khi bắt đầu, hãy đảm bảo bạn có:

Bước 1: Tạo Tài khoản Anthropic của Bạn

Truy cập dashboard.anthropic.com để tạo tài khoản của bạn:

  1. Nhấp vào "Đăng ký" (Sign Up) và cung cấp email của bạn
  2. Xác minh địa chỉ email của bạn
  3. Hoàn tất thiết lập thanh toán (gói miễn phí bao gồm 5 đô la tín dụng)
  4. Điều hướng đến phần Khóa API (API Keys)
Bảng điều khiển Anthropic Console

Bước 2: Tạo Khóa API của Bạn

Trong Anthropic Console:

  1. Đi tới Cài đặt > Khóa API
  2. Nhấp vào "Tạo Khóa" (Create Key)
  3. Đặt tên cho khóa của bạn (ví dụ: "production-app" hoặc "development")
  4. Sao chép khóa ngay lập tức—bạn sẽ không thấy nó nữa
  5. Lưu trữ nó an toàn (trình quản lý mật khẩu hoặc kho bí mật)
Bảng điều khiển Anthropic Console

Các thực hành tốt nhất về bảo mật:

Bước 3: Cài đặt SDK

Đối với Python:

pip install anthropic

Đối với Node.js:

npm install @anthropic-ai/sdk

Đối với các ngôn ngữ khác:
Bạn có thể sử dụng bất kỳ client HTTP nào. API chấp nhận các yêu cầu REST tiêu chuẩn. Xem Tài liệu tham khảo API để biết các ví dụ về curl.

Bước 4: Cấu hình Môi trường của Bạn

Đặt khóa API của bạn làm biến môi trường:

macOS/Linux:

export ANTHROPIC_API_KEY="sk-ant-api03-..."

Thêm vào ~/.bashrc hoặc ~/.zshrc để duy trì:

echo 'export ANTHROPIC_API_KEY="sk-ant-api03-..."' >> ~/.zshrc
source ~/.zshrc

Windows (PowerShell):

$env:ANTHROPIC_API_KEY="sk-ant-api03-..."

Để duy trì:

[System.Environment]::SetEnvironmentVariable('ANTHROPIC_API_KEY', 'sk-ant-api03-...', 'User')

Windows (Command Prompt):

setx ANTHROPIC_API_KEY "sk-ant-api03-..."

Ví dụ Mã Python

Hoàn thành Trò chuyện Cơ bản

Đây là lệnh gọi API Claude Opus 4.6 đầu tiên của bạn:

import os
from anthropic import Anthropic

# Initialize the client
client = Anthropic(
    api_key=os.environ.get("ANTHROPIC_API_KEY")
)

# Create a message
message = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=2048,
    messages=[
        {
            "role": "user",
            "content": "Explain the difference between REST and GraphQL APIs in simple terms."
        }
    ]
)

print(message.content[0].text)

Đầu ra:

REST and GraphQL are two approaches to building APIs...
[Phản hồi của Claude tiếp tục]

Phản hồi Dạng Streaming

Đối với các ứng dụng thời gian thực, hãy truyền phát các phản hồi khi chúng được tạo:

import os
from anthropic import Anthropic

client = Anthropic(api_key=os.environ.get("ANTHROPIC_API_KEY"))

# Stream the response
with client.messages.stream(
    model="claude-opus-4-6",
    max_tokens=2048,
    messages=[
        {
            "role": "user",
            "content": "Write a Python function to implement a binary search tree."
        }
    ]
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)

Điều này in ra các token khi chúng đến, tạo hiệu ứng gõ phím giống như ChatGPT.

Hội thoại Đa lượt

Duy trì ngữ cảnh qua nhiều lần trao đổi:

import os
from anthropic import Anthropic

client = Anthropic(api_key=os.environ.get("ANTHROPIC_API_KEY"))

# Lịch sử hội thoại
conversation = []

def chat(user_message):
    """Send a message and get a response."""
    # Thêm tin nhắn người dùng
    conversation.append({
        "role": "user",
        "content": user_message
    })

    # Lấy phản hồi của Claude
    response = client.messages.create(
        model="claude-opus-4-6",
        max_tokens=2048,
        messages=conversation
    )

    # Thêm phản hồi của trợ lý vào lịch sử
    assistant_message = response.content[0].text
    conversation.append({
        "role": "assistant",
        "content": assistant_message
    })

    return assistant_message

# Ví dụ hội thoại
print(chat("How do I create a REST API in Python?"))
print("\n---\n")
print(chat("Can you show me how to add JWT authentication to that?"))
print("\n---\n")
print(chat("What about rate limiting?"))

Sử dụng Tư duy Thích ứng

Kiểm soát độ sâu suy luận với các mức độ nỗ lực:

import os
from anthropic import Anthropic

client = Anthropic(api_key=os.environ.get("ANTHROPIC_API_KEY"))

# Nỗ lực cao (mặc định) - Claude quyết định khi nào nên suy nghĩ
response = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=4096,
    messages=[
        {
            "role": "user",
            "content": "Review this code for security vulnerabilities:\n\n[your code here]"
        }
    ],
    thinking={
        "type": "adaptive",
        "effort": "high"
    }
)

print(response.content[0].text)

# Nỗ lực tối đa - Buộc suy luận sâu trong mọi yêu cầu
response = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=4096,
    messages=[
        {
            "role": "user",
            "content": "Design a distributed rate limiter for 1M requests/second"
        }
    ],
    thinking={
        "type": "adaptive",
        "effort": "max"
    }
)

print(response.content[0].text)

Hướng dẫn mức độ nỗ lực:

Triển khai Bất đồng bộ để Đạt Hiệu suất Cao

Đối với các ứng dụng thực hiện nhiều lệnh gọi API, hãy sử dụng async/await:

import os
import asyncio
from anthropic import AsyncAnthropic

async def main():
    client = AsyncAnthropic(api_key=os.environ.get("ANTHROPIC_API_KEY"))

    # Chạy nhiều yêu cầu đồng thời
    tasks = [
        client.messages.create(
            model="claude-opus-4-6",
            max_tokens=1024,
            messages=[{"role": "user", "content": f"Explain {{topic}}"}]]
        )
        for topic in ["REST APIs", "GraphQL", "WebSockets", "gRPC"]
    ]

    responses = await asyncio.gather(*tasks)

    for i, response in enumerate(responses):
        print(f"=== Phản hồi {i+1} ===")
        print(response.content[0].text[:200])
        print()

asyncio.run(main())

Điều này thực hiện 4 lệnh gọi API song song, giảm đáng kể tổng thời gian thực thi.

Ví dụ JavaScript/Node.js

Hoàn thành Trò chuyện Cơ bản

import Anthropic from '@anthropic-ai/sdk';

const client = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

async function chat(userMessage) {
  const message = await client.messages.create({
    model: 'claude-opus-4-6',
    max_tokens: 2048,
    messages: [
      {
        role: 'user',
        content: userMessage,
      },
    ],
  });

  return message.content[0].text;
}

// Cách sử dụng
const response = await chat('Explain async/await in JavaScript');
console.log(response);

Phản hồi Dạng Streaming

import Anthropic from '@anthropic-ai/sdk';

const client = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

async function streamChat(userMessage) {
  const stream = await client.messages.create({
    model: 'claude-opus-4-6',
    max_tokens: 2048,
    messages: [{ role: 'user', content: userMessage }],
    stream: true,
  });

  for await (const event of stream) {
    if (event.type === 'content_block_delta' &&
        event.delta.type === 'text_delta') {
      process.stdout.write(event.delta.text);
    }
  }
  console.log(); // Dòng mới sau khi truyền phát hoàn tất
}

// Cách sử dụng
await streamChat('Write a TypeScript interface for a user profile');

Quản lý Hội thoại

import Anthropic from '@anthropic-ai/sdk';

const client = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

class ConversationManager {
  constructor() {
    this.messages = [];
  }

  async send(userMessage) {
    // Thêm tin nhắn người dùng
    this.messages.push({
      role: 'user',
      content: userMessage,
    });

    // Lấy phản hồi
    const response = await client.messages.create({
      model: 'claude-opus-4-6',
      max_tokens: 2048,
      messages: this.messages,
    });

    // Thêm tin nhắn của trợ lý
    const assistantMessage = response.content[0].text;
    this.messages.push({
      role: 'assistant',
      content: assistantMessage,
    });

    return assistantMessage;
  }

  clear() {
    this.messages = [];
  }
}

// Cách sử dụng
const conversation = new ConversationManager();

console.log(await conversation.send('How do I set up a Node.js API?'));
console.log(await conversation.send('Add Express.js middleware to that'));
console.log(await conversation.send('How do I handle errors?'));

Sử dụng Tư duy Thích ứng

import Anthropic from '@anthropic-ai/sdk';

const client = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

// Nỗ lực cao cho các tác vụ phức tạp
const response = await client.messages.create({
  model: 'claude-opus-4-6',
  max_tokens: 4096,
  messages: [
    {
      role: 'user',
      content: 'Architect a microservices system for an e-commerce platform',
    },
  ],
  thinking: {
    type: 'adaptive',
    effort: 'high',
  },
});

console.log(response.content[0].text);

Kiểm thử API Claude với Apidog

Kiểm thử API AI hiệu quả đòi hỏi phải hiểu cấu trúc yêu cầu/phản hồi, quản lý xác thực, gỡ lỗi và lặp lại nhanh chóng. Apidog cung cấp một nền tảng phát triển API toàn diện giúp làm việc với Claude Opus 4.6 trở nên đơn giản.

Tại sao nên sử dụng Apidog để phát triển API Claude?

1. Trình xây dựng Yêu cầu Trực quan
Thay vì viết mã mẫu (boilerplate code) để kiểm thử các lệnh gọi API, hãy sử dụng giao diện trực quan của Apidog để:

2. Quản lý Môi trường
Lưu trữ khóa API an toàn trên các môi trường phát triển, thử nghiệm và sản xuất. Chuyển đổi giữa các môi trường chỉ bằng một cú nhấp chuột—không yêu cầu thay đổi mã.

3. Gỡ lỗi Phản hồi
Kiểm tra phản hồi streaming, xem mức sử dụng token, đo độ trễ và gỡ lỗi các lỗi xác thực với các thông báo lỗi chi tiết.

4. Cộng tác Nhóm
Chia sẻ cấu hình API Claude với nhóm của bạn, duy trì lịch sử phiên bản và tài liệu hóa các mẫu sử dụng để triển khai nhất quán.

Khắc phục Sự cố Thường gặp

Lỗi Xác thực

Vấn đề: 401 Lỗi Xác thực

Giải pháp:

  1. Xác minh khóa API của bạn là chính xác (kiểm tra khoảng trắng đầu/cuối)
  2. Đảm bảo khóa chưa bị thu hồi trong Console
  3. Xác nhận bạn đang sử dụng header x-api-key (không phải Authorization)
  4. Kiểm tra xem khóa có quyền phù hợp không

Kiểm thử khóa của bạn:

curl https://api.anthropic.com/v1/messages \
  -H "x-api-key: $ANTHROPIC_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "content-type: application/json" \
  -d '{"model":"claude-opus-4-6","max_tokens":1024,"messages":[{"role":"user","content":"test"}]}'

Giới hạn Tốc độ (Rate Limiting)

Vấn đề: 429 Quá nhiều yêu cầu

Giải pháp:

  1. Triển khai dừng lũy thừa (exponential backoff) (xem ví dụ mã ở trên)
  2. Kiểm tra giới hạn tốc độ trong Console (thay đổi tùy theo gói)
  3. Ghép nối các yêu cầu khi có thể
  4. Theo dõi header retry-after để biết thời gian chờ
  5. Nâng cấp gói của bạn để có giới hạn cao hơn

Các header giới hạn tốc độ:

response = client.messages.create(...)

# Kiểm tra các yêu cầu còn lại (từ các header phản hồi)
print(f"Requests remaining: {response.headers.get('anthropic-ratelimit-requests-remaining')}")
print(f"Tokens remaining: {response.headers.get('anthropic-ratelimit-tokens-remaining')}")
print(f"Reset time: {response.headers.get('anthropic-ratelimit-requests-reset')}")

Vượt quá Độ dài Ngữ cảnh

Vấn đề: 400 Yêu cầu không hợp lệ - Độ dài ngữ cảnh bị vượt quá

Giải pháp:

  1. Giảm lịch sử hội thoại (chỉ giữ các tin nhắn gần đây)
  2. Tóm tắt các tin nhắn cũ hơn trước khi gửi
  3. Kích hoạt tính năng nén ngữ cảnh (tính năng beta)
  4. Chia nhỏ các tài liệu lớn thành các đoạn
  5. Yêu cầu truy cập beta ngữ cảnh 1M nếu cần

Cắt bớt lịch sử hội thoại:

def trim_conversation(messages, max_tokens=150000):
    """Keep only the most recent messages that fit within max_tokens."""
    # Ước tính sơ bộ: 1 token ≈ 4 ký tự
    estimated_tokens = 0
    trimmed = []

    for message in reversed(messages):
        msg_tokens = len(message['content']) / 4
        if estimated_tokens + msg_tokens > max_tokens:
            break
        trimmed.insert(0, message)
        estimated_tokens += msg_tokens

    return trimmed

# Sử dụng trước khi gửi
conversation = trim_conversation(conversation)
response = client.messages.create(
    model="claude-opus-4-6",
    max_tokens=2048,
    messages=conversation
)

Sự cố Hết thời gian chờ (Timeout)

Vấn đề: Các yêu cầu bị hết thời gian chờ

Giải pháp:

  1. Tăng cài đặt thời gian chờ của client
  2. Sử dụng tính năng truyền phát (streaming) cho các phản hồi dài
  3. Giảm max_tokens nếu có thể
  4. Giảm mức độ nỗ lực để có phản hồi nhanh hơn
  5. Kiểm tra kết nối mạng

Đặt thời gian chờ tùy chỉnh:

from anthropic import Anthropic
import httpx

# Create client with custom timeout
client = Anthropic(
    api_key=os.environ.get("ANTHROPIC_API_KEY"),
    timeout=httpx.Timeout(60.0, connect=10.0)  # Tổng 60 giây, kết nối 10 giây
)

Không tìm thấy Mô hình

Vấn đề: 404 Không tìm thấy mô hình: claude-opus-4-6

Giải pháp:

  1. Xác minh chính tả tên mô hình (phân biệt chữ hoa/chữ thường)
  2. Kiểm tra xem Opus 4.6 có khả dụng ở khu vực của bạn không
  3. Xác nhận tài khoản của bạn có quyền truy cập (có thể yêu cầu danh sách chờ)
  4. Thử sử dụng header phiên bản API: anthropic-version: 2023-06-01

Kiểm tra các mô hình có sẵn:

# Liệt kê các mô hình có sẵn cho tài khoản của bạn
# (Lưu ý: Tính đến tháng 2 năm 2026, không có endpoint danh sách chính thức nào)
# Liên hệ hỗ trợ nếu bạn không thể truy cập claude-opus-4-6

Kết luận

Giờ đây bạn đã có kiến thức để sử dụng API Claude Opus 4.6 một cách hiệu quả. Từ các yêu cầu cơ bản đến các tính năng tác tử nâng cao, hướng dẫn này sẽ trang bị cho bạn.

Sẵn sàng xây dựng với Claude Opus 4.6? Hãy bắt đầu kiểm thử tích hợp API của bạn với Apidog—nền tảng tất cả trong một để phát triển API giúp đơn giản hóa xác thực, quản lý môi trường và tạo mã sản xuất từ các yêu cầu đang hoạt động của bạn.

nút

Thực hành thiết kế API trong Apidog

Khám phá cách dễ dàng hơn để xây dựng và sử dụng API