ミストラルAI APIの使い方(ステップバイステップガイド)

中村 拓也

中村 拓也

16 4月 2025

ミストラルAI APIの使い方(ステップバイステップガイド)

Mistral AIはその高性能な言語モデルで迅速に名を馳せました。チャットボットを構築したり、創造的なテキストを生成したり、データを分析したり、コードを書いたり、意味検索のためにテキストを埋め込んだりする場合、Mistral APIは必要なツールを提供します。しかし、どの強力なツールにもゲートウェイがあります。それはAPIキーです。

APIキーを秘密のパスワードや一意の識別子として考えてください。それはMistralに対して「こんにちは、私です!あなたのサービスを使用する許可があります」と伝えます。これがなければ、APIサーバーは誰がリクエストを行っているか、また彼らが許可されているかどうかわからなくなります。

このガイドは、初期設定をナビゲートし、Mistralモデルの状況を理解し、初めてのAPI呼び出しを行い、さらにはAPidogのようなツールを使ってAPIと対話するためのステップバイステップのコンパニオンです。すべてを対話形式で分解し、あなたがゼロから成功したAPI呼び出しを行えるように目指します。

推定時間: 読み進めるのに30〜45分かかるかもしれません。
前提条件: APIが何であるかの基本的な理解が助けになりますが、厳密に必要ありません。進むにつれて概念を説明します。また、インターネット接続とウェブブラウザが必要です。

準備はいいですか?APIキーを手に入れましょう!

💡
美しいAPIドキュメントを生成する素晴らしいAPIテストツールが欲しいですか?

開発チームが最大限の生産性で協力して作業できる統合されたオールインワンプラットフォームが欲しいですか?

APidogはすべての要求を満たし、はるかに手頃な価格でPostmanを置き換えます
button

ステップ1: Mistral AIアカウントの設定

まず最初に、Mistralのプラットフォーム「La Plateforme」にアカウントを作成する必要があります。

  1. コンソールに移動: ウェブブラウザを開き、console.mistral.aiに移動します。
  2. サインアップまたはサインイン:

3. 請求情報 (重要!): これは多くの人がつまずく重要なステップです。実際にAPIを使用するためには(最初に無料のティアモデルを使う場合でも、プラットフォームは通常、キーをアクティブ化するために請求情報を要求します)、請求を設定する必要があります。

これでMistral AIアカウントが設定されました!次のステップは、その重要なキーを生成することです。


ステップ2: あなたの秘密のAPIキーを生成する

アカウントを設定し、請求がアクティブになったので、実際にキーを作成しましょう。

  1. APIキーに移動: Mistralコンソールにログインしたまま(console.mistral.ai)、サイドバーやナビゲーションメニューで「APIキー」という名前のセクションを探してクリックします。
  2. 新しいキーを作成: 「新しいキーを作成」または「+ 新しいキー」のようなボタンが表示されるはずです。それをクリックします。
  3. キーに名前を付ける (オプションですが推奨): キーに名前を付けるよう求められる場合があります。これは組織のために非常に役立ちます、特に後で複数のキーを作成する予定がある場合(たとえば、「私のチャットボットプロジェクト」用に1つ、「データ分析スクリプト」用に別の)。わかりやすい名前を選択してください。
  4. キーを生成し、コピーします: 最終確認ボタン(例:「作成」、「生成」)をクリックします。Mistralはあなたのために一意のAPIキーを生成します。それは長いランダムな文字列のように見え、sk-aBcDeFgHiJkLmNoPqRsTuVwXyZ1234567890......のようになります。
  5. !!! 重要なステップ: キーを安全に保存してください !!!

やりました!あなたは今、Mistral AI APIキーを持っています。それを安全に保管し、それを使用する方法を考えてみましょう。


ステップ3: Mistralモデルの状況を理解する

API呼び出しを行う前に、Mistralにどのモデルを使用したいかを伝える必要があります。Mistralは、パフォーマンス、コスト、および能力のバランスを取り、さまざまなタスクに合わせた多様なモデルを提供しています。正しいものを選ぶことが鍵です。

ここでモデルの詳細な概要を見つけることができます: Mistralモデルの概要

遭遇するモデルの種類の簡単な内訳は次のとおりです:

プレミアモデル: これはMistralの最高性能モデルで、通常は支払いが必要です。

無料モデル(オープンウェイトのことが多い): これらのモデルは、許可されたライセンスの下にウェイトが利用可能である場合があります(例: Apache 2.0)。これはAIコミュニティがそれらを調査し、構築するのに役立ちます。APIを介しても利用可能なことが多く、より寛大な無料ティアや低コストのものもあります。

モデルのバージョン管理とlatestタグ:

モデルは通常、mistral-large-latestmistral-large-2411のような名前を持っています。

推奨: 開発と探索のために、latestで問題ありません。本番アプリケーションに対しては、柔軟性のために日付付きのバージョンの使用を強く検討してください

モデルの非推奨:

AIは急速に進化しています!Mistralは常に新しい、より良いモデルをリリースします。このサイクルの一部として、古いモデルは最終的に非推奨とされ、引退させられます。モデルの概要ページには、レガシーモデルの非推奨および引退日が含まれています。古いモデルを依存している場合は必ずこれを確認し、新しい代替手段への移行についての計画を事前に立ててください。

モデルの選択:

小型の安価なモデル(mistral-small-latestのような)から始めて、要件を満たしているか確認してください。満たさない場合は、より大きなモデルや特殊なモデルにスケールアップしてください。


ステップ4: Pythonを使用した最初のAPI呼び出し(チャット補完)

何かを作りましょう!最も一般的なユースケースはチャット補完です – モデルにプロンプトまたは会話の履歴を提供し、応答を取得します。Mistralの主要なエンドポイントは/v1/chat/completionsです。

この例ではmistral-large-latestモデルを使用しますが、適切なチャットモデル名を代入できます。

重要なセキュリティノート: 以下の例では、私たちはよくos.environ["MISTRAL_API_KEY"](Python)やprocess.env.MISTRAL_API_KEY(TypeScript)を使用します。これは、あなたがAPIキーをという名前の環境変数として設定していると仮定します。これはコードにキーを直接貼り付けるよりもはるかに推奨されます。

ライブラリをインストール:

pip install mistralai

Pythonファイル(例: mistral_test.py)を作成:

import os
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

# 環境変数からAPIキーをロード
api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("MISTRAL_API_KEY環境変数が設定されていません!")

# 使用したいモデルを定義
model_name = "mistral-large-latest" # または別のモデルを選択

# Mistralクライアントを初期化
client = MistralClient(api_key=api_key)

print(f"モデルにリクエストを送信中: {model_name}")

# 会話メッセージを定義
# 'messages'リストにはチャット履歴または単一のユーザープロンプトが含まれます
messages = [
    ChatMessage(role="user", content="最高のフランスのチーズは何ですか?")
    # 会話履歴のために他のメッセージを追加できます:
    # ChatMessage(role="assistant", content="素晴らしいフランスのチーズがたくさんあります!あなたの好みによります。柔らかいチーズ、固いチーズ、青チーズのどれが好きですか?"),
    # ChatMessage(role="user", content="柔らかいチーズが好きです。")
]

try:
    # チャット補完エンドポイントにAPI呼び出しを行う
    chat_response = client.chat(
        model=model_name,
        messages=messages,
        # オプションのパラメータ:
        # temperature=0.7, # ランダム性を制御(0.0 = 決定論的、1.0 = よりランダム)
        # max_tokens=150   # 応答の長さを制限
    )

    # モデルからの応答を表示
    if chat_response.choices:
        print("モデルの応答:")
        print(chat_response.choices[0].message.content)
    else:
        print("応答が受信されませんでした。")

    # 使用状況の詳細を確認するためにフル応答オブジェクトを表示することもできます。
    # print("\nフル応答オブジェクト:")
    # print(chat_response)

except Exception as e:
    print(f"エラーが発生しました: {e}")

スクリプトを実行:

python mistral_test.py

モデルの回答がターミナルに表示されるはずです!


ステップ5: Mistral AI埋め込みをAPIでテストする

Mistralはチャットだけではありません!もう一つの重要な機能である埋め込みを見てみましょう。埋め込みは、テキストをその意味を捉えた数値ベクトルに変換します。類似の意味を持つテキストは、ベクトル空間で近くにあるベクトルを持ちます。これはRAG(Retrieval-Augmented Generation)、意味検索、推薦システムなどにおいて基本的です。

Mistralの埋め込みモデルには、通常/v1/embeddingsエンドポイントを介してアクセスし、mistral-embedモデル識別子を使用します。

Pythonを使用していくつかの文の埋め込みを取得する方法を見てみましょう:

import os
from mistralai.client import MistralClient

api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("MISTRAL_API_KEY環境変数が設定されていません!")

model_name = "mistral-embed"
client = MistralClient(api_key=api_key)

print(f"モデルを使用して埋め込みを要求しています: {model_name}")

texts_to_embed = [
    "Mistral AIは強力な言語モデルを提供します。",
    "埋め込みはテキストの数値表現です。",
    "今日はどんな天気ですか?"
]

try:
    embeddings_response = client.embeddings(
        model=model_name,
        input=texts_to_embed
    )

    # 応答には埋め込みオブジェクトのリストが含まれ、それぞれにベクトルがあります
    print(f"{len(embeddings_response.data)}の埋め込みを受信しました。")

    # 最初の埋め込みの最初の数次元を例として表示
    if embeddings_response.data:
        first_embedding_vector = embeddings_response.data[0].embedding
        print(f"各埋め込みの次元数: {len(first_embedding_vector)}")
        print(f"最初の埋め込みの最初の5次元: {first_embedding_vector[:5]}")

    # これらのベクトルを後で使用するために保存します。
    # print("\nフル埋め込み応答:")
    # print(embeddings_response)

except Exception as e:
    print(f"エラーが発生しました: {e}")

このPythonスクリプトを実行すると、埋め込みの次元と最初の埋め込みのスニペットが表示されます。

他の機能:

Mistralはさらに多くの機能を提供しています!ここではコードの詳細を提供しませんが、公式ドキュメントで以下を必ず探索してください:

常にMistral AIの公式ドキュメントを参照して、最新のエンドポイント、パラメータ、および機能についての情報を得るようにしてください。


ステップ6: 価格設定と使用状況の監視を理解する

強力なAIモデルの使用は、しばしばコストがかかります。MistralがそのAPI使用についてどのように価格を設定しているかを理解することが重要です。

特に多くの呼び出しを行うアプリケーションを開発する際には、使用状況に注意を払い、プロンプトを最適化し、ニーズを満たす最もコスト効率の高いモデルを選ぶようにしてください。


ステップ7: APidogを使用してAPI呼び出しを行う

コーディングは一般的ですが、時にはAPIエンドポイントを迅速にテストするためのグラフィカルインターフェースが欲しい時もあります。Postman、Insomnia、またはAPidogのようなツールはこれに非常に優れています。それではAPidogを使用して、前と同じチャット補完呼び出しを行う手順を見てみましょう。

APidogをダウンロードしてインストール: まだの場合は、公式ウェブサイトからAPidogをダウンロードし、コンピュータにインストールしてください。

APidogを起動: アプリケーションを開きます。

新しいリクエストを作成: 「+」ボタンや「新しいリクエストを作成」オプションが表示されるはずです。それをクリックします。

HTTPメソッドとURLを設定:

認証を設定:

リクエストヘッダーを設定:

リクエストボディを提供:

{
    "model": "mistral-large-latest",
    "messages": [{"role": "user", "content": "最も有名なフランスの画家は誰ですか?"}]
}

リクエストを送信: 「送信」ボタンを見つけてクリックします(通常、URLバーの近くに目立って表示されます)。

応答を表示: APidogはMistral APIに呼び出しを行います。サーバーからの応答は通常、「応答」または「ボディ」タブの下にAPidogウィンドウの下部に表示されます。JSON応答が表示されるはずで、モデルの答えはchoices[0].message.content内に含まれます。応答ヘッダやステータスコード(希望的には200 OK!)も確認できます。

APidogのようなツールを使用すると、コードを書かずにさまざまなモデル、プロンプト、パラメータを試してみるのにとても便利です。


ステップ8: ベストプラクティス & セキュリティ(まとめ)

APIキーを扱う際には責任が求められます。重要な点を再度強調しましょう:


結論: 前進して構築しましょう!

あなたはMistral AI APIキーを入手し使用するプロセスを成功裏にナビゲートしました!私たちは以下をカバーしました:

  1. Mistralアカウントの設定と請求のアクティブ化。
  2. ユニークなAPIキーの生成と安全な保存。
  3. Mistralのさまざまなモデルの理解と選択方法。
  4. Python、TypeScript、curlを使用してチャット補完と埋め込みのためのAPI呼び出しを行う。
  5. 価格設定を確認し、使用状況を監視する。
  6. APidogのようなGUIツールを使用して簡単にAPIテストを行う。
  7. 重要なセキュリティベストプラクティスを強化する。

Mistral APIは非常に強力なAI機能へのゲートウェイです。あなたのAPIキーはその潜在能力を解放するための文字通りの鍵です。ここで説明した手順とベストプラクティスに従うことで、最新のAIを自分のプロジェクトに統合する道をしっかりと歩んでいます。

公式Mistralドキュメントをさらに探索してください – すべての利用可能なパラメータ、モデル、および高度な機能の最終的な真実のソースです。

楽しいビルドを!

💡
美しいAPIドキュメントを生成する素晴らしいAPIテストツールが欲しいですか?

開発チームが最大限の生産性で協力して作業できる統合されたオールインワンプラットフォームが欲しいですか?

APidogはすべての要求を満たし、はるかに手頃な価格でPostmanを置き換えます
button

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる