Qwen3.5 APIの使い方

Ashley Innocent

Ashley Innocent

16 2月 2026

Qwen3.5 APIの使い方

Alibaba Cloudは2026年2月15日にQwen 3.5をリリースし、開発者コミュニティはすぐに注目しました。このモデルは、ネイティブなマルチモーダル理解、100万トークンのコンテキストウィンドウ、およびGPT-4.5、Claude 4、Gemini 2.5を推論、コーディング、ツール利用のベンチマークで一貫して上回るエージェント能力を提供します。

Qwen 3.5 APIは、このすべての機能をクリーンでOpenAI互換のエンドポイントを通じて提供します。一度認証すれば、標準的なチャット補完リクエストを送信するだけで、以前は複雑なオーケストレーションレイヤーが必要だった機能を利用できます。

このガイドでは、最初のトークンを生成する段階から、本番環境レベルのマルチモーダルエージェントを構築するまでのあらゆる技術的な詳細を説明します。実際のワークロードで機能する正確なペイロード、高度なパラメーター、エラー処理パターン、およびコスト最適化戦略を学ぶことができます。

💡
一行のコードを書く前に、Apidogを無料でダウンロードしてください。この投稿の例、特にツール呼び出し、ストリーミング推論トレース、マルチモーダル入力のセクションを追う際に、Apidogはプロトタイプ作成、スキーマ検証、テストシナリオの連鎖、クライアントコード生成を最速で行う手段となります。このプラットフォームは、Postmanでの何時間もの混乱を、数分間の集中的な開発へと変えます。Qwen 3.5を使用している多くのチームは、今やApidogを不可欠なインフラとして扱っています。
button

準備はいいですか?環境をセットアップし、Qwen 3.5への最初のリクエストを本番環境で送信してみましょう。

Qwen 3.5の際立った特徴

Qwen 3.5は、Qwenシリーズにおける大きな飛躍を意味します。AlibabaはオープンウェイトのQwen3.5-397B-A17Bをリリースしました。これは、合計3970億のパラメーターを持ちながら、推論ごとに170億のみがアクティブとなるハイブリッドMoEモデルです。このアーキテクチャは、線形アテンションのためのGated Delta Networksとスパースエキスパートを組み合わせ、卓越した効率性を提供します。

Benchmark Qwen 3.5

APIでホストされているQwen 3.5-Plusモデルは、デフォルトで1Mトークンのコンテキストウィンドウを提供します。201の言語と方言をサポートし、画像と動画をネイティブに処理し、ベンチマークで優れた性能を発揮します。

これらの結果は、エージェント、コードアシスタント、またはマルチモーダルアプリケーションを構築する開発者にとって、Qwen 3.5が強力な選択肢であることを示しています。このAPIにより、大規模なハードウェアを管理することなく、これらの機能にすぐにアクセスできます。

Qwen3.5

さらに、Qwen 3.5はウェブ検索やコード解釈のような組み込みツールを導入しています。これらはシンプルなパラメーターで有効化できるため、カスタムのオーケストレーションレイヤーを構築する必要がありません。その結果、チームはより迅速にインテリジェントなワークフローを展開できます。

Qwen 3.5 API統合の前提条件

最初のリクエストを送信する前に、環境を準備します。Qwen 3.5 APIはAlibaba CloudのModel Studio(旧DashScope)で動作するため、そこでアカウントを作成します。

  1. Alibaba Cloud Model Studioコンソールにアクセスします。
  2. Alibaba Cloudの認証情報を使用してサインアップまたはログインします。
  3. APIキーセクションに移動し、新しいDASHSCOPE_API_KEYを生成します。これを安全に保管してください — あらゆる本番環境の秘密情報と同様に扱います。

さらに、OpenAI Python SDKをインストールします。Qwen 3.5は完全な互換性を維持しているため、他のプロバイダーから慣れ親しんだパターンを再利用できます。

pip install openai

この段階ではApidogも役立ちます。公式サイトから無料でダウンロードした後、OpenAPI仕様をインポートするか、Qwen 3.5エンドポイントを手動で追加します。Apidogはリクエストスキーマを自動生成し、レスポンスを検証するため、後でカスタムパラメーターを探求する際に非常に貴重なツールとなります。

Qwen 3. 5 logo

クライアントの認証と設定

接続するには、ベースURLとAPIキーを設定します。国際的なユーザーは通常、低レイテンシーのためにシンガポールまたは米国のエンドポイントを選択します。

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
)

このクライアントオブジェクトは、以降のすべての呼び出しを処理します。ベースURLを変更することでリージョンを切り替えることができます(中国ベースのワークロードには北京、米国トラフィックにはバージニアなど)。SDKが認証を抽象化するため、ペイロードの設計に集中できます。

ただし、本番環境のアプリケーションでは、通常、環境変数やシークレットマネージャーを使用します。一時的なネットワーク問題を処理するために、定期的にキーをローテーションし、指数関数的バックオフを用いたリトライロジックを実装します。

最初のチャット補完リクエストの送信

次に、基本的なリクエストを実行します。Qwen 3.5は標準的なOpenAIメッセージ形式を受け入れ、構造化されたレスポンスを返します。

messages = [
    {"role": "system", "content": "You are a helpful technical assistant."},
    {"role": "user", "content": "Explain the architecture of Qwen 3.5 in simple terms."}
]

completion = client.chat.completions.create(
    model="qwen3.5-plus",
    messages=messages,
    temperature=0.7,
    max_tokens=1024
)

print(completion.choices[0].message.content)

このコードはクエリを送信し、その応答を出力します。他のモデルと同様に、temperaturetop_pを調整して創造性を制御できます。

これを素早くテストするには、Apidogを開き、新しいリクエストを作成し、エンドポイントhttps://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completionsを貼り付け、ヘッダーとボディを追加して、「送信」をクリックします。Apidogは、完全な応答タイムライン、ヘッダーを表示し、cURLまたはPythonのコードスニペットも生成します。

追加パラメーターで高度な機能を解除する

Qwen 3.5-Plusは、ネイティブ機能を有効にするとその真価を発揮します。これらの機能はextra_bodyフィールドを通じて渡します。

completion = client.chat.completions.create(
    model="qwen3.5-plus",
    messages=messages,
    extra_body={
        "enable_thinking": True,      # Activates chain-of-thought reasoning
        "enable_search": True,        # Enables web search + code interpreter
    },
    stream=True
)

for chunk in completion:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
    if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content:
        print("\n[Thinking]:", chunk.choices[0].delta.reasoning_content)

したがって、モデルは回答する前に段階的に思考し、必要に応じてリアルタイム情報を取得します。ストリーミング応答はトークンごとに届き、チャットインターフェースにおける体感レイテンシーを改善します。

さらに、Qwen 3.5はマルチモーダル入力をサポートしています。メッセージに画像や動画を直接含めることができます。

messages = [
    {
        "role": "user",
        "content": [
            {"type": "text", "text": "What is happening in this image?"},
            {"type": "image_url", "image_url": {"url": "https://example.com/chart.png"}}
        ]
    }
]

このAPIは視覚データをネイティブに処理し、論理的な説明や回答を返します。文書分析ツールやビジュアルエージェントを構築する開発者にとって、この機能は革新的です。

ツール呼び出しとエージェントワークフローの実装

Qwen 3.5は関数呼び出しに優れています。リクエスト内でツールを定義し、モデルがいつそれらを呼び出すかを決定します。

tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "Get current weather for a location",
            "parameters": {
                "type": "object",
                "properties": {
                    "location": {"type": "string"}
                },
                "required": ["location"]
            }
        }
    }
]

completion = client.chat.completions.create(
    model="qwen3.5-plus",
    messages=messages,
    tools=tools,
    tool_choice="auto"
)

モデルがツール呼び出しを返した場合、あなたは自身の側で関数を実行し、その結果を会話に戻します。このループにより、外部システムと対話する堅牢なエージェントが作成されます。

Apidogは、これらのフローのテストを簡素化します。複数のリクエストを連鎖させたり、ツール呼び出し形式をアサートしたり、さらには外部APIをモックしたりするテストシナリオを作成できます。その結果、本番環境にデプロイする前に、複雑なエージェントの動作を検証できます。

現実世界のアプリケーション例

開発者はQwen 3.5 APIを多くの分野で統合しています。今日再現できる実践的なパターンを以下に示します。

インテリジェントコーディングアシスタント

ワークスペースからのコンテキストとともにコードスニペットをQwen 3.5に送信するVS Code拡張機能を構築します。モデルはリファクタリングされたコード、ユニットテスト、および説明を返します。強力なSWE-bench性能により、実際のリポジトリ規模のタスクを効果的に処理できます。

マルチモーダルリサーチエージェント

PDFのアップロードやスクリーンショットを受け入れ、データを抽出し、検証のためにウェブを検索し、レポートを生成するエージェントを作成します。1Mのコンテキストウィンドウは、単一の会話で研究論文全体を保持できます。

カスタマーサポートチャットボット

Qwen 3.5をナレッジベースおよびCRMと組み合わせます。モデルは会話履歴に基づいて推論し、ツールを介してリアルタイムの注文データを取得し、201言語サポートの中からユーザーが選択した言語で応答します。

どの場合でも、Alibaba Cloudコンソールを通じてトークン使用量とコストを監視します。Qwen 3.5-Plusは、その機能に対して、特に大規模な利用において競争力のある価格設定を提供します。

本番環境デプロイメントのベストプラクティス

信頼性とパフォーマンスを確保するために、以下のガイドラインに従ってください。

さらに、プロンプトをバージョン管理し、変更を昇格させる前にApidogでテストします。プラットフォームの環境変数を使用すると、開発、ステージング、および本番キー間をシームレスに切り替えることができます。

Qwen 3.5 APIの一般的な問題のトラブルシューティング

時折、以下の問題に遭遇する可能性があります。

ここでもApidogが役立ちます。その詳細なログ、レスポンス検証、モックサーバーにより、問題を迅速に特定できます。

オープンウェイトモデルのローカルデプロイ

APIはほとんどのユースケースに適していますが、機密データやオフラインのニーズのためにQwen3.5-397B-A17Bモデルをローカルで実行することもできます。このモデルはHugging Faceで入手可能です。

pip install transformers

高スループットのために、vLLMまたはSGLangを使用して提供します。

python -m vllm.entrypoints.openai.api_server \
  --model Qwen/Qwen3.5-397B-A17B \
  --tensor-parallel-size 8

ローカルサーバーは同じ/v1/chat/completionsエンドポイントを公開します。Apidogワークスペースをhttp://localhost:8000/v1に向け、クラウドAPIと全く同じようにテストできます。

なお、397Bモデルには、通常8基のH100またはそれに相当するかなりのGPUリソースが必要です。より小さな量子化バージョンが間もなくコミュニティに登場する可能性があります。

Qwen 3.5 APIと他のプロバイダーとの比較

Qwen 3.5はGPT-4.5、Claude 4、Gemini 2.5と直接競合します。コーディングおよびエージェントのベンチマークで優位に立ち、より低い価格でネイティブなマルチモダリティを提供します。OpenAI互換のインターフェースにより、最小限のコード変更で移行できます。

ただし、Alibaba Cloudのグローバルリージョンは、アジア太平洋地域のワークロードに利点をもたらします。特定の市場では、より低いレイテンシーとより優れたコンプライアンスを実現できます。

結論:今すぐQwen 3.5で構築を開始しましょう

これで、Qwen 3.5 APIに関する完全な技術ロードマップを手に入れました。基本的なチャット補完から洗練されたマルチモーダルエージェントまで、このプラットフォームは開発者フレンドリーなツールで最先端のパフォーマンスを提供します。

今すぐApidogを無料でダウンロードし、Qwen 3.5エンドポイントをインポートしてください。数時間ではなく数分で、統合のプロトタイプ作成、テスト、ドキュメント化ができます。APIワークフローで行う小さな決定—適切なテストプラットフォームの選択、プロンプトの構造化、ツール呼び出しの処理—が、開発速度とアプリケーション品質に大きな違いをもたらします。

Qwen 3.5チームは限界を押し広げ続けています。最新情報については、公式のQwenブログGitHubリポジトリ、およびHugging Faceコレクションを確認してください。

最初に何を構築しますか?自律的な研究エージェント、視覚駆動型分析ツール、多言語カスタマーエクスペリエンスプラットフォームのいずれであっても、Qwen 3.5 APIがその基盤を提供します。コーディングを開始し、Apidogで迅速に反復し、あなたのアイデアを実現しましょう。

button

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる