Comment utiliser l'API Google Gemini 3: Votre guide du débutant pour la magie de l'IA

INEZA Felin-Michel

INEZA Felin-Michel

19 November 2025

Comment utiliser l'API Google Gemini 3: Votre guide du débutant pour la magie de l'IA

Si vous avez suivi les développements de l'IA en 2025, vous avez probablement beaucoup entendu parler de Google Gemini 3, le modèle d'IA multimodal de nouvelle génération conçu pour rivaliser avec (et parfois surpasser) GPT-5. Que vous soyez un ingénieur logiciel, un fondateur de startup, un passionné d'IA, ou simplement quelqu'un de curieux de savoir ce que Gemini 3 peut faire, apprendre à travailler avec l'API Google Gemini 3 ouvre la porte à la création d'applications beaucoup plus intelligentes et dynamiques.

Mais soyons honnêtes ; la documentation de Google peut être un peu dense si vous débutez. Alors, dans ce guide, nous allons tout décortiquer de manière claire, conviviale et adaptée aux débutants.

💡
Si vous souhaitez un moyen simple, visuel et sans code de tester les points de terminaison REST API de Gemini 3, utilisez Apidog. Vous pouvez télécharger Apidog gratuitement, et il vous permet de concevoir, déboguer et tester des appels API sans écrire de script complet. Puisque ce guide inclut des exemples d'API REST, vous trouverez Apidog extrêmement pratique pour vos expérimentations.
télécharger l'application

Maintenant, débloquons la puissance du modèle d'IA le plus avancé de Google !

Qu'est-ce que Google Gemini 3 ?

Google Gemini 3 est le dernier modèle de la famille d'IA multimodale de Google. Contrairement aux modèles précédents, Gemini 3 est optimisé pour :

Mais le point fort est le suivant :

Gemini 3 introduit deux "modes de pensée" majeurs :

Le paramètre thinking_level contrôle la profondeur maximale du processus de raisonnement interne du modèle avant qu'il ne produise une réponse. Gemini 3 traite ces niveaux comme des allocations relatives pour la réflexion plutôt que des garanties strictes de jetons. Si thinking_level n'est pas spécifié, Gemini 3 Pro utilisera par défaut high.

  1. Pensée Élevée/Dynamique : Maximise la profondeur du raisonnement. Le modèle peut prendre beaucoup plus de temps pour atteindre un premier jeton, mais la sortie sera plus soigneusement raisonnée.
  2. Pensée Faible : Minimise la latence et le coût. Idéal pour suivre des instructions simples, le chat ou les applications à haut débit.

Beaucoup de débutants ne le savent pas encore, mais choisir le bon mode améliore considérablement la qualité des résultats et vous aide à contrôler vos coûts.

Nous verrons bientôt comment choisir un mode à l'aide de l'API.

Pourquoi utiliser l'API Gemini 3 plutôt qu'un outil d'interface utilisateur ?

Bien sûr, vous pourriez utiliser Gemini dans Google AI Studio. Mais si vous voulez :

vous aurez besoin de l'API Gemini 3.

Ce guide se concentre sur l'API REST car :

Comment fonctionne l'API Gemini 3 (aperçu simple)

Même si Gemini possède des capacités avancées, l'API elle-même est assez simple.

Vous envoyez une requête POST à…

<https://generativelanguage.googleapis.com/v1beta/models/{MODEL_ID}:generateContent?key=VOTRE_CLÉ_API>

Vous incluez du JSON comme :

Vous recevez…

Une fois que vous comprenez cette structure, tout le reste devient plus facile.

Premiers pas : Vos premiers pas avec l'API Gemini

Étape 1 : Obtenez votre clé API

Pensez à votre clé API comme un mot de passe spécial qui dit à Google : "Oui, j'ai l'autorisation d'utiliser Gemini." Voici comment en obtenir une :

  1. Allez sur Google AI Studio
  2. Connectez-vous avec votre compte Google
  3. Cliquez sur "Créer une clé API" dans la barre latérale gauche
  4. Donnez un nom à votre clé et créez-la
  5. Copiez et enregistrez cette clé en lieu sûr ! Vous ne pourrez plus la revoir.

Important : Ne partagez jamais votre clé API et ne la commettez jamais dans des dépôts de code publics. Traitez-la comme votre mot de passe.

Étape 2 : Choisissez votre approche

Vous pouvez interagir avec Gemini de deux manières principales :

Puisque nous nous concentrons sur les fondamentaux, nous utiliserons l'approche API REST, elle fonctionne partout et vous aide à comprendre ce qui se passe sous le capot.

Comprendre les modes de pensée de Gemini

L'une des fonctionnalités les plus puissantes de Gemini est sa capacité à fonctionner dans différents "modes de pensée". Ce n'est pas seulement du marketing, cela change fondamentalement la façon dont le modèle traite vos requêtes.

Pensée Faible (Le Démon de la Vitesse)

Quand l'utiliser : Pour les tâches simples, les réponses rapides, et lorsque vous optimisez la vitesse et le coût.

Par exemple :

gemini-3-flash
gemini-3-mini

Pensez au mode Pensée Faible comme à une conversation rapide avec un ami compétent qui vous donne des réponses immédiates.

Pensée Élevée/Dynamique (L'Analyste Réfléchi)

Quand l'utiliser : Pour un raisonnement complexe, des problèmes en plusieurs étapes et des tâches nécessitant une analyse approfondie.

La Pensée Élevée/Dynamique, c'est comme consulter un expert qui prend son temps pour considérer tous les angles avant de vous donner une réponse bien raisonnée.

Par exemple :

gemini-3-pro
gemini-3-pro-thinking

Ces modèles offrent un raisonnement plus approfondi, des fenêtres d'attention plus longues et de meilleures capacités de planification.

La beauté est que vous pouvez choisir les deux modèles : Pensée Élevée/Dynamique et Pensée Faible en fonction de vos besoins spécifiques. Pour la plupart des applications simples, la Pensée Faible est parfaite. Lorsque vous avez besoin d'un raisonnement plus approfondi, passez à la Pensée Élevée.

En règle générale :

Type de tâche Mode du modèle
Recherche Pensée Élevée/Dynamique
Maths/Logique Pensée Élevée/Dynamique
Génération de code Pensée Élevée/Dynamique
Chat client Pensée Faible
Génération de texte basique Pensée Faible
Assistants d'interface utilisateur Pensée Faible
Applications en temps réel Pensée Faible

Nous vous montrerons comment sélectionner chaque modèle dans l'API REST.

Construire votre premier appel d'API REST Gemini 3

Commençons par l'exemple le plus simple possible.

Point de terminaison

POST <https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro:generateContent?key=VOTRE_CLÉ_API>

Exemple de corps de requête (JSON)

{
  "contents": [
    { "role": "user",
      "parts": [{ "text": "Expliquez comment les avions volent." }]
    }
  ]
}

Exemple de commande Curl

curl -X POST \\
  -H "Content-Type: application/json" \\
  -d '{
    "contents": [
      {
        "role": "user",
        "parts": [{ "text": "Expliquez comment les avions volent." }]
      }
    ]
  }' \\
"<https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro:generateContent?key=VOTRE_CLÉ_API>"

Utiliser le mode de pensée Élevée/Dynamique

Pour activer le mode de raisonnement, vous devez utiliser un modèle qui le prend en charge comme gemini-3-pro-thinking.

Exemple d'API REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Trouvez la condition de course dans cet extrait C++ multi-threadé : [code ici]"}]
    }]
  }'

Lorsque vous utilisez le mode de Pensée Élevée/Dynamique, vous recevrez souvent :

Je recommande de n'utiliser ce mode que lorsque cela compte vraiment, comme pour un raisonnement long ou la planification de code.

Utiliser le mode de pensée faible

Les modèles de Pensée Faible sont optimisés pour la vitesse et sont parfaits pour :

Exemple d'API REST utilisant "Flash"

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Comment fonctionne l'IA ?"}]
    }],
    "generationConfig": {
        thinkingConfig: {
          thinkingLevel: "low"
      }
    }
  }'

Les modèles de Pensée Faible coûtent beaucoup moins cher et renvoient des réponses quasi instantanées.

Gérer les entrées multimodales (images, PDF, audio, vidéo)

Gemini 3 introduit un contrôle granulaire sur le traitement de la vision multimodale via le paramètre media_resolution. Des résolutions plus élevées améliorent la capacité du modèle à lire du texte fin ou à identifier de petits détails, mais augmentent l'utilisation de jetons et la latence. Le paramètre media_resolution détermine le nombre maximal de jetons alloués par image ou cadre vidéo d'entrée.

Vous pouvez maintenant définir la résolution sur media_resolution_low, media_resolution_medium ou media_resolution_high par élément multimédia individuel ou globalement (via generation_config). Si non spécifié, le modèle utilise des valeurs par défaut optimales basées sur le type de média.

Gemini 3 prend en charge les intégrations multimodales pour :

Exemple pour télécharger une image (base64) :

curl "https://generativelanguage.googleapis.com/v1alpha/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [
        { "text": "Qu'y a-t-il dans cette image ?" },
        {
          "inlineData": {
            "mimeType": "image/jpeg",
            "data": "..."
          },
          "mediaResolution": {
            "level": "media_resolution_high"
          }
        }
      ]
    }]
  }'

Tester et déboguer avec Apidog

Alors que les commandes curl sont excellentes pour les tests rapides, elles deviennent lourdes lorsque vous développez une véritable application. C'est là qu'Apidog brille.

Avec Apidog, vous pouvez :

  1. Enregistrer votre configuration API : Configurez votre point de terminaison Gemini et votre clé API une seule fois, puis réutilisez-les pour tous vos tests.
  2. Créer des modèles de requête : Enregistrez différents types de prompts (démarreurs de conversation, requêtes d'analyse, écriture créative) comme modèles.
  3. Tester les modes de pensée côte à côte : Basculez facilement entre les modes de Pensée Faible et Élevée pour comparer les réponses et les performances.
  4. Gérer l'historique des conversations : Utilisez les variables d'environnement d'Apidog pour maintenir le contexte de conversation à travers plusieurs requêtes.
  5. Automatiser les tests : Créez des suites de tests qui vérifient le bon fonctionnement de votre intégration Gemini.
télécharger l'application

Voici comment vous pourriez configurer une requête Gemini dans Apidog :

  1. Créez une nouvelle requête POST vers : https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash:generateContent?key={{api_key}}
  2. Configurez une variable d'environnement api_key avec votre clé API réelle
  3. Dans le corps, utilisez JSON :
{
  "contents": [{
    "parts": [{
      "text": "{{prompt}}"
    }]
  }],
  "generationConfig": {
    "temperature": 0.7,
    "maxOutputTokens": 800
  }
}

4.  Définissez une autre variable d'environnement prompt avec ce que vous voulez demander à Gemini

Cette approche rend l'expérimentation beaucoup plus rapide et organisée.

Meilleures pratiques pour l'API Gemini

1. Gérer les erreurs avec élégance

Les appels API peuvent échouer pour de nombreuses raisons. Vérifiez toujours le statut de la réponse et gérez les erreurs de manière appropriée. Le tableau suivant répertorie les codes d'erreur backend courants que vous pourriez rencontrer, ainsi que des explications sur leurs causes et des étapes de dépannage :

2. Gérez vos coûts

L'utilisation de l'API Gemini est mesurée et coûte de l'argent (après les limites du niveau gratuit). Gardez ces conseils à l'esprit :

Les jetons peuvent être des caractères uniques comme z ou des mots entiers comme chat. Les mots longs sont découpés en plusieurs jetons. L'ensemble de tous les jetons utilisés par le modèle est appelé le vocabulaire, et le processus de division du texte en jetons est appelé tokenization.

Lorsque la facturation est activée, le coût d'un appel à l'API Gemini est déterminé en partie par le nombre de jetons d'entrée et de sortie, il peut donc être utile de savoir comment compter les jetons.

3. Créez de meilleurs prompts

La qualité de votre résultat dépend fortement de votre entrée. Voici quelques conseils d'ingénierie des prompts :

Au lieu de : "Écrivez sur les chiens"

Essayez : "Écrivez un article de blog éducatif de 200 mots sur les avantages de l'adoption de chiens de refuge, rédigé sur un ton amical et encourageant pour les futurs propriétaires d'animaux."

Au lieu de : "Réparez ce code"

Essayez : "Veuillez déboguer cette fonction Python qui devrait calculer la factorielle mais renvoie des résultats incorrects pour l'entrée 5. Expliquez ce qui ne va pas et fournissez le code corrigé."

4. Choisissez le bon modèle

Google propose plusieurs modèles Gemini, chacun avec des forces différentes. Vérifiez que les paramètres de votre modèle respectent les valeurs suivantes :

Commencez avec gemini-1.5-flash et ne mettez à niveau que si vous avez besoin de capacités de raisonnement plus avancées. En plus de vérifier les valeurs des paramètres, assurez-vous d'utiliser la bonne version d'API (par exemple, /v1 ou /v1beta) et le modèle qui prend en charge les fonctionnalités dont vous avez besoin. Par exemple, si une fonctionnalité est en version Beta, elle ne sera disponible que dans la version d'API /v1beta.

Conclusion : Votre voyage en IA commence

Vous avez maintenant tout ce dont vous avez besoin pour commencer à construire avec l'API Google Gemini. Vous avez appris comment obtenir une clé API, effectuer des requêtes de base, comprendre les différents modes de pensée et même vu quelques exemples avancés.

N'oubliez pas que travailler avec les API d'IA est un processus itératif. Vous deviendrez meilleur dans la création de prompts et le choix des bons paramètres avec la pratique. N'ayez pas peur d'expérimenter, c'est ainsi que vous découvrirez le plein potentiel de ce que vous pouvez construire.

L'étape la plus importante est de commencer à expérimenter. Prenez les exemples de ce guide, modifiez-les, cassez-les et voyez ce qui se passe. La meilleure façon d'apprendre est de faire.

Pour les débutants, je recommande fortement d'utiliser Apidog comme outil de test d'API REST. Il vous aide à :

Et comme c'est gratuit, il n'y a aucun inconvénient.

télécharger l'application

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API

Comment utiliser l'API Google Gemini 3: Votre guide du débutant pour la magie de l'IA