Como Usar a API do Mistral AI (Guia Passo a Passo)

@apidog

@apidog

16 abril 2025

Como Usar a API do Mistral AI (Guia Passo a Passo)

A Mistral AI rapidamente se destacou com seus modelos de linguagem de alto desempenho. Se você está procurando construir um chatbot, gerar texto criativo, analisar dados, escrever código ou embutir texto para busca semântica, a API da Mistral fornece as ferramentas necessárias. Mas, como qualquer ferramenta poderosa, há uma porta de entrada: a chave da API.

Pense na chave da API como sua senha secreta ou identificador único. Ela diz à Mistral, "Ei, sou eu! Tenho permissão para usar seus serviços." Sem ela, os servidores da API não saberiam quem está fazendo a solicitação ou se estão autorizados.

Este guia é seu companheiro passo a passo para navegar pela configuração inicial, entender o cenário dos modelos da Mistral, fazer suas primeiras chamadas à API e até mesmo usar ferramentas como o APidog para interagir com a API. Vamos explicar tudo de maneira conversacional, com o objetivo de levar você de zero a fazer chamadas bem-sucedidas à API.

Tempo Estimado: A leitura e o acompanhamento podem levar de 30 a 45 minutos.
Pré-requisitos: Um entendimento básico do que é uma API é útil, mas não obrigatório. Vamos explicar os conceitos à medida que avançamos. Você também precisará de uma conexão à internet e um navegador web.

Pronto? Vamos obter essa chave da API!

💡
Quer uma ótima ferramenta de Teste de API que gera documentação de API bonita?

Quer uma plataforma integrada e tudo-em-um para sua equipe de desenvolvedores trabalhar junta com máxima produtividade?

O APidog atende todas suas demandas e substitui o Postman a um preço muito mais acessível!
button

Passo 1: Configurando Sua Conta Mistral AI

Primeiramente, você precisa de uma conta na plataforma da Mistral, conhecida como "La Plateforme".

  1. Navegue até o Console: Abra seu navegador e vá para console.mistral.ai.
  2. Inscreva-se ou Entre:

3. Informações de Faturamento (Importante!): Este é um passo crucial que frequentemente dificulta as pessoas. Para realmente usar a API (mesmo que você planeje usar modelos da versão gratuita inicialmente, a plataforma frequentemente exige detalhes de faturamento para ativar as chaves), você precisa configurar o faturamento.

Agora você tem uma conta Mistral AI pronta para uso! O próximo passo é gerar aquela chave tão importante.


Passo 2: Gerando Sua Chave Secreta da API

Com sua conta configurada e o faturamento ativado, vamos criar a chave em si.

  1. Navegue até Chaves da API: Enquanto estiver logado no console da Mistral (console.mistral.ai), procure uma seção chamada "Chaves da API" na barra lateral ou no menu de navegação. Clique nela.
  2. Criar uma Nova Chave: Você deve ver um botão como "Criar nova chave" ou "+ Nova Chave". Clique nele.
  3. Dê um Nome à Sua Chave (Opcional, mas Recomendado): Você pode ser solicitado a dar um nome à sua chave. Isso é super útil para organização, especialmente se você planeja criar várias chaves mais tarde (por exemplo, uma para "Meu Projeto de Chatbot", outra para "Script de Análise de Dados"). Escolha um nome descritivo.
  4. Gere e COPIE Sua Chave: Clique no botão final de confirmação (por exemplo, "Criar", "Gerar"). A Mistral agora gerará uma chave API única para você. Ela parecerá uma longa sequência de caracteres aleatórios, algo como sk-aBcDeFgHiJkLmNoPqRsTuVwXyZ1234567890.......
  5. !!! PASSO CRÍTICO: SALVE SUA CHAVE SEGURO !!!

Você conseguiu! Agora você possui uma chave API da Mistral AI. Mantenha-a segura e vamos descobrir como usá-la.


Passo 3: Entendendo o Cenário dos Modelos Mistral

Antes de fazer uma chamada à API, você precisa dizer à Mistral qual modelo você deseja usar. A Mistral oferece uma variedade de modelos adaptados para diferentes tarefas, equilibrando desempenho, custo e capacidades. Escolher o correto é fundamental.

Você pode encontrar uma visão geral detalhada dos modelos aqui: Visão Geral dos Modelos Mistral

Aqui está uma rápida descrição dos tipos de modelos que você encontrará:

Modelos Premier: Estes são os modelos de maior desempenho da Mistral, geralmente exigindo pagamento.

Modelos Gratuitos (Frequentemente com Pesos Abertos): Esses modelos podem ter pesos disponíveis sob licenças permissivas (como Apache 2.0), o que significa que a comunidade de IA pode estudá-los e construir sobre eles. Eles costumam estar disponíveis via API também, às vezes com camadas gratuitas mais generosas ou custos mais baixos.

Versionamento de Modelo e Tags latest:

Você notará que os modelos frequentemente têm nomes como mistral-large-latest ou mistral-large-2411.

Recomendação: Para desenvolvimento e exploração, latest é aceitável. Para aplicações em produção, considere fortemente usar uma versão datada para estabilidade.

Descontinuação de Modelos:

A IA se move rápido! A Mistral lança continuamente modelos novos e melhores. Como parte desse ciclo, modelos mais antigos são eventualmente descontinuados e aposentados. A página de Visão Geral dos Modelos inclui uma seção sobre modelos legados, mostrando suas datas de descontinuação e aposentadoria. Sempre verifique isso se você depende de um modelo mais antigo e planeje sua migração para alternativas mais novas com antecedência.

Escolhendo um Modelo:

Comece com um modelo menor e mais barato (como mistral-small-latest) e veja se atende às suas necessidades. Se não, escale para modelos maiores ou mais especializados.


Passo 4: Fazendo Sua Primeira Chamada à API (Conclusão de Chat) com Python

Vamos fazer algo acontecer! O caso de uso mais comum é a conclusão de chat – dando ao modelo um prompt ou um histórico de conversa e obtendo uma resposta. O endpoint principal da Mistral para isso é /v1/chat/completions.

Usaremos o modelo mistral-large-latest para este exemplo, mas você pode substituir pelo nome de qualquer modelo de chat apropriado.

Aviso de Segurança Importante: Nos exemplos abaixo, frequentemente usamos os.environ["MISTRAL_API_KEY"] (Python) ou process.env.MISTRAL_API_KEY (TypeScript). Isso assume que você definiu sua chave da API como uma variável de ambiente chamada MISTRAL_API_KEY. Isso é altamente recomendado em vez de colar a chave diretamente em seu código.

Instale a biblioteca:

pip install mistralai

Crie um arquivo Python (por exemplo, mistral_test.py):

import os
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

# Carrega a chave da API das variáveis de ambiente
api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("Variável de ambiente MISTRAL_API_KEY não configurada!")

# Defina o modelo que deseja usar
model_name = "mistral-large-latest" # Ou escolha outro modelo

# Inicialize o cliente Mistral
client = MistralClient(api_key=api_key)

print(f"Enviando solicitação ao modelo: {model_name}")

# Defina as mensagens da conversa
# A lista 'messages' contém o histórico do chat ou um único prompt do usuário
messages = [
    ChatMessage(role="user", content="Qual é o melhor queijo francês?")
    # Você pode adicionar mais mensagens para o histórico da conversa:
    # ChatMessage(role="assistant", content="Existem muitos queijos franceses maravilhosos! Depende do seu gosto. Você prefere queijo macio, duro ou azul?"),
    # ChatMessage(role="user", content="Eu prefiro queijo macio.")
]

try:
    # Faça a chamada à API para o endpoint de conclusões de chat
    chat_response = client.chat(
        model=model_name,
        messages=messages,
        # Parâmetros opcionais:
        # temperature=0.7, # Controla a aleatoriedade (0.0 = determinístico, 1.0 = mais aleatório)
        # max_tokens=150   # Limita o comprimento da resposta
    )

    # Imprima a resposta do modelo
    if chat_response.choices:
        print("Resposta do Modelo:")
        print(chat_response.choices[0].message.content)
    else:
        print("Nenhuma resposta recebida.")

    # Você também pode imprimir o objeto de resposta completo para ver detalhes de uso, etc.
    # print("\nObjeto de Resposta Completo:")
    # print(chat_response)

except Exception as e:
    print(f"Ocorreu um erro: {e}")

Execute o script:

python mistral_test.py

Você deve ver a resposta do modelo impressa em seu terminal!


Passo 5: Testando Embeddings da Mistral AI com a API

A Mistral não é apenas sobre chat! Vamos olhar outra capacidade chave: Embeddings. Embeddings transformam texto em vetores numéricos que capturam o significado semântico. Textos com significados semelhantes terão vetores próximos no espaço vetorial. Isso é fundamental para RAG (Geração Aumentada por Recuperação), busca semântica, sistemas de recomendação, etc.

O modelo de embeddings da Mistral é acessado via o endpoint /v1/embeddings, geralmente usando o identificador de modelo mistral-embed.

Vamos ver como obter embeddings para algumas frases com Python:

import os
from mistralai.client import MistralClient

api_key = os.environ.get("MISTRAL_API_KEY")
if not api_key:
    raise ValueError("Variável de ambiente MISTRAL_API_KEY não configurada!")

model_name = "mistral-embed"
client = MistralClient(api_key=api_key)

print(f"Solicitando embeddings usando o modelo: {model_name}")

texts_to_embed = [
    "A Mistral AI fornece modelos de linguagem poderosos.",
    "Embeddings são representações numéricas de texto.",
    "Como está o tempo hoje?"
]

try:
    embeddings_response = client.embeddings(
        model=model_name,
        input=texts_to_embed
    )

    # A resposta contém uma lista de objetos de embedding, cada um com o vetor
    print(f"Recebidos {len(embeddings_response.data)} embeddings.")

    # Imprima as primeiras dimensões do primeiro embedding como exemplo
    if embeddings_response.data:
        first_embedding_vector = embeddings_response.data[0].embedding
        print(f"Dimensões de cada embedding: {len(first_embedding_vector)}")
        print(f"Primeiras 5 dimensões do primeiro embedding: {first_embedding_vector[:5]}")

    # Normalmente, você armazenaria esses vetores para uso posterior
    # print("\nResposta Completa dos Embeddings:")
    # print(embeddings_response)

except Exception as e:
    print(f"Ocorreu um erro: {e}")

Execute este script Python, e você verá as dimensões dos embeddings e uma amostra do primeiro.

Outras Capacidades:

A Mistral oferece ainda mais! Embora não detalharemos o código aqui, não deixe de explorar a documentação oficial para:

Consulte sempre a documentação oficial da Mistral AI para obter as informações mais atualizadas sobre endpoints, parâmetros e capacidades.


Passo 6: Compreendendo Preços e Monitorando o Uso

Usar modelos poderosos de IA geralmente tem um custo. É crucial entender como a Mistral precifica o uso de sua API.

Esteja ciente de seu uso, especialmente ao desenvolver aplicativos que possam fazer muitas chamadas. Otimize seus prompts e escolha o modelo mais econômico que atenda às suas necessidades.


Passo 7: Fazendo Chamadas à API com APidog

Embora codificar seja comum, às vezes você quer uma interface gráfica para testar rapidamente os endpoints da API. Ferramentas como Postman, Insomnia, ou APidog são excelentes para isso. Vamos passar pela utilização do APidog para fazer a mesma chamada de conclusão de chat que antes.

Baixe e Instale o APidog: Se você ainda não fez isso, baixe o APidog de seu site oficial e instale-o em seu computador.

Inicie o APidog: Abra o aplicativo.

Crie uma Nova Solicitação: Você provavelmente verá um botão "+" ou uma opção para criar uma "Nova Solicitação". Clique nele.

Defina o Método HTTP e a URL:

Configure a Autorização:

Defina os Cabeçalhos da Solicitação:

Forneça o Corpo da Solicitação:

{
    "model": "mistral-large-latest",
    "messages": [{"role": "user", "content": "Quem é o pintor francês mais renomado?"}]
}

Envie a Solicitação: Encontre o botão "Enviar" (geralmente exibido em destaque perto da barra de URL) e clique nele.

Veja a Resposta: O APidog fará a chamada para a API da Mistral. A resposta do servidor aparecerá na seção inferior da janela do APidog, geralmente sob uma aba "Response" ou "Body". Você deve ver a resposta JSON, incluindo a resposta do modelo dentro de choices[0].message.content. Você também pode inspecionar os cabeçalhos de resposta e códigos de status (esperançosamente 200 OK!).

Usar uma ferramenta como o APidog é fantástico para experimentar diferentes modelos, prompts e parâmetros sem escrever código.


Passo 8: Melhores Práticas & Segurança (Um Rápido Resumo)

Trabalhar com chaves da API requer responsabilidade. Vamos reiterar alguns pontos cruciais:


Conclusão: Vá em Frente e Construa!

Você navegou com sucesso pelo processo de obtenção e uso de uma chave da API da Mistral AI! Nós cobrimos:

  1. Configurando sua conta Mistral e ativando o faturamento.
  2. Gerando e armazenando com segurança sua chave API exclusiva.
  3. Entendendo os diferentes modelos da Mistral e como escolher um.
  4. Fazendo chamadas à API usando Python, TypeScript e cURL para conclusões de chat e embeddings.
  5. Verificando preços e monitorando seu uso.
  6. Usando uma ferramenta GUI como o APidog para fácil teste de API.
  7. Reforçando as melhores práticas essenciais de segurança.

A API da Mistral é uma porta de entrada para capacidades de IA incrivelmente poderosas. Sua chave da API é a chave literal para desbloquear esse potencial. Seguindo os passos e as melhores práticas descritas aqui, você está no caminho certo para integrar IA de ponta em seus próprios projetos.

Não hesite em explorar a documentação oficial da Mistral ainda mais – é a fonte definitiva de verdade para todos os parâmetros, modelos e recursos avançados disponíveis.

Feliz construção!

💡
Quer uma ótima ferramenta de Teste de API que gera documentação de API bonita?

Quer uma plataforma integrada e tudo-em-um para sua equipe de desenvolvedores trabalhar junta com máxima produtividade?

O APidog atende todas suas demandas e substitui o Postman a um preço muito mais acessível!
button

Pratique o design de API no Apidog

Descubra uma forma mais fácil de construir e usar APIs