Comment utiliser l'API Mistral AI (Guide étape par étape)

Mistral AI : modèles performants. Chatbots, texte créatif, analyse, code, recherche sémantique. Clé API = sésame.

Louis Dupont

Louis Dupont

5 June 2025

Comment utiliser l'API Mistral AI (Guide étape par étape)

Mistral AI s'est rapidement fait un nom grâce à ses modèles de langage performants. Que vous cherchiez à créer un chatbot, à générer du texte créatif, à analyser des données, à écrire du code ou à intégrer du texte pour une recherche sémantique, l'API Mistral fournit les outils dont vous avez besoin. Mais comme tout outil puissant, il y a une porte d'entrée : la clé API.

Considérez une clé API comme votre mot de passe secret ou votre identifiant unique. Elle dit à Mistral : "Hé, c'est moi ! J'ai la permission d'utiliser vos services." Sans elle, les serveurs de l'API ne sauraient pas qui fait la requête ni s'il est autorisé.

Ce guide est votre compagnon étape par étape pour naviguer dans la configuration initiale, comprendre le paysage des modèles Mistral, effectuer vos premiers appels d'API et même utiliser des outils comme APidog pour interagir avec l'API. Nous allons tout décomposer de manière conversationnelle, dans le but de vous amener de zéro à effectuer des appels d'API réussis.

Temps estimé : La lecture et le suivi peuvent prendre 30 à 45 minutes.
Prérequis : Une compréhension de base de ce qu'est une API est utile, mais pas strictement nécessaire. Nous expliquerons les concepts au fur et à mesure. Vous aurez également besoin d'une connexion Internet et d'un navigateur Web.

Prêt ? Obtenons cette clé API !

💡
Vous voulez un excellent outil de test d'API qui génère une belle documentation API ?

Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !
button

Étape 1 : Configuration de votre compte Mistral AI

Tout d'abord, vous avez besoin d'un compte sur la plateforme de Mistral, connue sous le nom de "La Plateforme".

  1. Accédez à la console : Ouvrez votre navigateur Web et rendez-vous sur console.mistral.ai.
  2. Inscrivez-vous ou connectez-vous :

3. Informations de facturation (Important !) : Il s'agit d'une étape cruciale qui fait souvent trébucher les gens. Pour réellement utiliser l'API (même si vous prévoyez d'utiliser initialement des modèles gratuits, la plateforme exige souvent des informations de facturation pour activer les clés), vous devez configurer la facturation.

Vous avez maintenant un compte Mistral AI prêt à l'emploi ! L'étape suivante consiste à générer cette clé très importante.


Étape 2 : Génération de votre clé API secrète

Avec votre compte configuré et la facturation activée, créons la clé elle-même.

  1. Accédez aux clés API : Une fois connecté à la console Mistral (console.mistral.ai), recherchez une section nommée "Clés API" dans la barre latérale ou le menu de navigation. Cliquez dessus.
  2. Créez une nouvelle clé : Vous devriez voir un bouton comme "Créer une nouvelle clé" ou "+ Nouvelle clé". Cliquez dessus.
  3. Nommez votre clé (facultatif mais recommandé) : Vous pouvez être invité à donner un nom à votre clé. C'est très utile pour l'organisation, surtout si vous prévoyez de créer plusieurs clés plus tard (par exemple, une pour "Mon projet de chatbot", une autre pour "Script d'analyse de données"). Choisissez un nom descriptif.
  4. Générez et COPIEZ votre clé : Cliquez sur le bouton de confirmation final (par exemple, "Créer", "Générer"). Mistral générera maintenant une clé API unique pour vous. Elle ressemblera à une longue chaîne de caractères aléatoires, quelque chose comme sk-aBcDeFgHiJkLmNoPqRsTuVwXyZ1234567890.......
  5. !!! ÉTAPE CRITIQUE : CONSERVEZ VOTRE CLÉ EN TOUTE SÉCURITÉ !!!

Vous l'avez fait ! Vous possédez maintenant une clé API Mistral AI. Conservez-la en sécurité et voyons comment l'utiliser.


Étape 3 : Comprendre le paysage des modèles Mistral

Avant de faire un appel d'API, vous devez dire à Mistral quel modèle vous souhaitez utiliser. Mistral propose une variété de modèles adaptés à différentes tâches, équilibrant performances, coûts et capacités. Choisir le bon est essentiel.

Vous pouvez trouver un aperçu détaillé des modèles ici : Mistral Models Overview

Voici une ventilation rapide des types de modèles que vous rencontrerez :

Modèles Premier : Ce sont les modèles les plus performants de Mistral, nécessitant souvent un paiement.

Modèles gratuits (souvent avec des poids ouverts) : Ces modèles peuvent avoir des poids disponibles sous des licences permissives (comme Apache 2.0), ce qui signifie que la communauté de l'IA peut les étudier et s'appuyer sur eux. Ils sont souvent disponibles via l'API également, parfois avec des niveaux gratuits plus généreux ou des coûts inférieurs.

Versioning des modèles et balises latest :

Vous remarquerez que les modèles ont souvent des noms comme mistral-large-latest ou mistral-large-2411.

Recommandation : Pour le développement et l'exploration, latest est correct. Pour les applications de production, envisagez fortement d'utiliser une version datée pour la stabilité.

Obsolescence du modèle :

L'IA évolue rapidement ! Mistral publie continuellement des modèles plus récents et meilleurs. Dans le cadre de ce cycle, les anciens modèles sont finalement obsolètes et retirés. La page Models Overview comprend une section sur les modèles hérités, montrant leurs dates d'obsolescence et de retrait. Vérifiez toujours cela si vous vous appuyez sur un ancien modèle et planifiez votre migration vers de nouvelles alternatives bien à l'avance.

Choisir un modèle :

Commencez par un modèle plus petit et moins cher (comme mistral-small-latest) et voyez s'il répond à vos besoins. Sinon, passez à des modèles plus volumineux ou plus spécialisés.


Étape 4 : Effectuer votre premier appel d'API (achèvement de chat) avec Python

Faisons en sorte que quelque chose se produise ! Le cas d'utilisation le plus courant est l'achèvement de chat - donner au modèle une invite ou un historique de conversation et obtenir une réponse. Le point de terminaison principal de Mistral pour cela est /v1/chat/completions.

Nous utiliserons le modèle mistral-large-latest pour cet exemple, mais vous pouvez remplacer n'importe quel nom de modèle de chat approprié.

Remarque de sécurité importante : Dans les exemples ci-dessous, nous utilisons souvent os.environ["MISTRAL_API_KEY"] (Python) ou process.env.MISTRAL_API_KEY (TypeScript). Cela suppose que vous avez défini votre clé API comme une variable d'environnement nommée MISTRAL_API_KEY. Ceci est fortement recommandé plutôt que de coller la clé directement dans votre code.

Installez la bibliothèque :

pip install mistralai

Créez un fichier Python (par exemple, mistral_test.py) :

import os
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

# Chargez la clé API à partir des variables d'environnement
api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("MISTRAL_API_KEY environment variable not set!")

# Définissez le modèle que vous souhaitez utiliser
model_name = "mistral-large-latest" # Ou choisissez un autre modèle

# Initialisez le client Mistral
client = MistralClient(api_key=api_key)

print(f"Envoi de la requête au modèle : {model_name}")

# Définissez les messages de conversation
# La liste 'messages' contient l'historique du chat ou une seule invite utilisateur
messages = [
    ChatMessage(role="user", content="Quel est le meilleur fromage français ?")
    # Vous pouvez ajouter d'autres messages pour l'historique de la conversation :
    # ChatMessage(role="assistant", content="Il existe de merveilleux fromages français ! Cela dépend de vos goûts. Préférez-vous le fromage à pâte molle, à pâte dure ou bleu ?"),
    # ChatMessage(role="user", content="Je préfère le fromage à pâte molle.")
]

try:
    # Effectuez l'appel d'API au point de terminaison d'achèvement du chat
    chat_response = client.chat(
        model=model_name,
        messages=messages,
        # Paramètres facultatifs :
        # temperature=0.7, # Contrôle le caractère aléatoire (0.0 = déterministe, 1.0 = plus aléatoire)
        # max_tokens=150   # Limite la longueur de la réponse
    )

    # Imprimez la réponse du modèle
    if chat_response.choices:
        print("Réponse du modèle :")
        print(chat_response.choices[0].message.content)
    else:
        print("Aucune réponse reçue.")

    # Vous pouvez également imprimer l'objet de réponse complet pour voir les détails d'utilisation, etc.
    # print("\nObjet de réponse complet :")
    # print(chat_response)

except Exception as e:
    print(f"Une erreur s'est produite : {e}")

Exécutez le script :

python mistral_test.py

Vous devriez voir la réponse du modèle imprimée dans votre terminal !


Étape 5 : Tester les embeddings Mistral AI avec l'API

Mistral ne se limite pas au chat ! Examinons une autre capacité clé : les embeddings. Les embeddings transforment le texte en vecteurs numériques qui capturent la signification sémantique. Les textes ayant des significations similaires auront des vecteurs proches les uns des autres dans l'espace vectoriel. Ceci est fondamental pour RAG (Retrieval-Augmented Generation), la recherche sémantique, les systèmes de recommandation, etc.

Le modèle d'embedding de Mistral est accessible via le point de terminaison /v1/embeddings, généralement en utilisant l'identifiant de modèle mistral-embed.

Voyons comment obtenir des embeddings pour quelques phrases avec Python :

import os
from mistralai.client import MistralClient

api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("MISTRAL_API_KEY environment variable not set!")

model_name = "mistral-embed"
client = MistralClient(api_key=api_key)

print(f"Demande d'embeddings en utilisant le modèle : {model_name}")

texts_to_embed = [
    "Mistral AI fournit des modèles de langage puissants.",
    "Les embeddings sont des représentations numériques du texte.",
    "Quel temps fait-il aujourd'hui ?"
]

try:
    embeddings_response = client.embeddings(
        model=model_name,
        input=texts_to_embed
    )

    # La réponse contient une liste d'objets d'embedding, chacun avec le vecteur
    print(f"Reçu {len(embeddings_response.data)} embeddings.")

    # Imprimez les quelques premières dimensions du premier embedding à titre d'exemple
    if embeddings_response.data:
        first_embedding_vector = embeddings_response.data[0].embedding
        print(f"Dimensions de chaque embedding : {len(first_embedding_vector)}")
        print(f"5 premières dimensions du premier embedding : {first_embedding_vector[:5]}")

    # Vous stockeriez généralement ces vecteurs pour une utilisation ultérieure
    # print("\nRéponse complète des embeddings :")
    # print(embeddings_response)

except Exception as e:
    print(f"Une erreur s'est produite : {e}")

Exécutez ce script Python, et vous verrez les dimensions des embeddings et un extrait du premier.

Autres capacités :

Mistral offre encore plus ! Bien que nous ne détaillions pas le code ici, assurez-vous d'explorer la documentation officielle pour :

Reportez-vous toujours à la documentation officielle de Mistral AI pour obtenir les informations les plus récentes sur les points de terminaison, les paramètres et les capacités.


Étape 6 : Comprendre la tarification et surveiller l'utilisation

L'utilisation de modèles d'IA puissants a souvent un coût. Il est crucial de comprendre comment Mistral facture l'utilisation de son API.

Soyez attentif à votre utilisation, en particulier lors du développement d'applications susceptibles de faire de nombreux appels. Optimisez vos invites et choisissez le modèle le plus rentable qui répond à vos besoins.


Étape 7 : Effectuer des appels d'API avec APidog

Bien que le codage soit courant, vous souhaitez parfois une interface graphique pour tester rapidement les points de terminaison de l'API. Des outils comme Postman, Insomnia ou APidog sont excellents pour cela. Examinons l'utilisation d'APidog pour effectuer le même appel d'achèvement de chat qu'auparavant.

Téléchargez et installez APidog : Si vous ne l'avez pas déjà fait, téléchargez APidog à partir de leur site Web officiel et installez-le sur votre ordinateur.

Lancez APidog : Ouvrez l'application.

Créez une nouvelle requête : Vous verrez probablement un bouton "+" ou une option pour créer une "Nouvelle requête". Cliquez dessus.

Définir la méthode HTTP et l'URL :

Configurer l'autorisation :

Définir les en-têtes de requête :

Fournir le corps de la requête :

{
    "model": "mistral-large-latest",
    "messages": [{"role": "user", "content": "Qui est le peintre français le plus renommé ?"}]
}

Envoyez la requête : Recherchez le bouton "Envoyer" (généralement affiché en évidence près de la barre d'URL) et cliquez dessus.

Afficher la réponse : APidog effectuera l'appel à l'API Mistral. La réponse du serveur apparaîtra dans la section inférieure de la fenêtre APidog, généralement sous un onglet "Response" ou "Body". Vous devriez voir la réponse JSON, y compris la réponse du modèle dans choices[0].message.content. Vous pouvez également inspecter les en-têtes de réponse et les codes d'état (espérons 200 OK !).

L'utilisation d'un outil comme APidog est fantastique pour expérimenter différents modèles, invites et paramètres sans écrire de code.


Étape 8 : Meilleures pratiques et sécurité (un bref récapitulatif)

Travailler avec des clés API exige de la responsabilité. Réitérons quelques points cruciaux :


Conclusion : Allez-y et construisez !

Vous avez réussi à naviguer dans le processus d'obtention et d'utilisation d'une clé API Mistral AI ! Nous avons couvert :

  1. La configuration de votre compte Mistral et l'activation de la facturation.
  2. La génération et le stockage sécurisé de votre clé API unique.
  3. La compréhension des différents modèles Mistral et comment en choisir un.
  4. L'exécution d'appels d'API à l'aide de Python, TypeScript et cURL pour les achèvements de chat et les embeddings.
  5. La vérification des prix et la surveillance de votre utilisation.
  6. L'utilisation d'un outil GUI comme APidog pour faciliter les tests d'API.
  7. Le renforcement des meilleures pratiques de sécurité essentielles.

L'API Mistral est une passerelle vers des capacités d'IA incroyablement puissantes. Votre clé API est la clé littérale pour déverrouiller ce potentiel. En suivant les étapes et les meilleures pratiques décrites ici, vous êtes en bonne voie pour intégrer une IA de pointe dans vos propres projets.

N'hésitez pas à explorer davantage la documentation officielle de Mistral - c'est la source ultime de vérité pour tous les paramètres, modèles et fonctionnalités avancées disponibles.

Bonne construction !

💡
Vous voulez un excellent outil de test d'API qui génère une belle documentation API ?

Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !
button

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API