Comment exécuter Gemma 3 en local avec Ollama ?

Apprenez à exécuter Gemma 3 de Google localement avec Ollama grâce à ce guide.

Louis Dupont

Louis Dupont

5 June 2025

Comment exécuter Gemma 3 en local avec Ollama ?

Exécuter Gemma 3 localement avec Ollama vous donne le contrôle total de votre environnement d'IA sans dépendre des services cloud. Ce guide vous explique comment configurer Ollama, télécharger Gemma 3 et le faire fonctionner sur votre machine.

💡
Oh, et avant de plonger, si vous cherchez à rationaliser vos interactions API pour des projets comme celui-ci, ne manquez pas de télécharger Apidog gratuitement pour dynamiser vos tests et développements API liés à Gemma 3 et au-delà !
button

Commençons.

Pourquoi exécuter Gemma 3 localement avec Ollama ?

« Pourquoi s'embêter à exécuter Gemma 3 localement ? » Eh bien, il y a des raisons convaincantes. D'une part, le déploiement local vous donne le contrôle total de vos données et de votre confidentialité, pas besoin d'envoyer des informations sensibles vers le cloud. De plus, c'est rentable, car vous évitez les frais d'utilisation d'API continus. De plus, l'efficacité de Gemma 3 signifie que même le modèle 27B peut fonctionner sur un seul GPU, ce qui le rend accessible aux développeurs disposant d'un matériel modeste.

Ollama, une plateforme légère pour exécuter des modèles de langage volumineux (LLM) localement, simplifie ce processus. Il regroupe tout ce dont vous avez besoin : les poids des modèles, les configurations et les dépendances dans un format facile à utiliser. Cette combinaison de Gemma 3 et Ollama est parfaite pour bricoler, créer des applications ou tester des flux de travail d'IA sur votre machine. Alors, retroussons nos manches et commençons !

Ce dont vous aurez besoin pour exécuter Gemma 3 avec Ollama

Avant de passer à la configuration, assurez-vous d'avoir les prérequis suivants :

Maintenant que vous êtes équipé, passons au processus d'installation et de configuration.

Guide étape par étape : installation d'Ollama et téléchargement de Gemma 3

1. Installez Ollama sur votre machine

Ollama facilite le déploiement local de LLM, et son installation est simple. Voici comment :

curl -fsSL https://ollama.com/install.sh | sh

Ce script détecte automatiquement votre matériel (y compris les GPU) et installe Ollama.

Une fois installé, vérifiez l'installation en exécutant :

ollama --version

Vous devriez voir le numéro de version actuel, confirmant qu'Ollama est prêt à fonctionner.

2. Extraire les modèles Gemma 3 à l'aide d'Ollama

La bibliothèque de modèles d'Ollama comprend Gemma 3, grâce à son intégration avec des plateformes comme Hugging Face et les offres d'IA de Google. Pour télécharger Gemma 3, utilisez la commande ollama pull.

ollama pull gemma3

Pour les modèles plus petits, vous pouvez utiliser :

La taille du téléchargement varie selon le modèle, attendez-vous à ce que le modèle 27B fasse plusieurs gigaoctets, assurez-vous donc de disposer d'un stockage suffisant. Les modèles Gemma 3 sont optimisés pour l'efficacité, mais ils nécessitent toujours un matériel décent pour les variantes plus volumineuses.

3. Vérifiez l'installation

Une fois téléchargé, vérifiez que le modèle est disponible en répertoriant tous les modèles :

ollama list

Vous devriez voir gemma3 (ou la taille que vous avez choisie) dans la liste. S'il est là, vous êtes prêt à exécuter Gemma 3 localement !

Exécution de Gemma 3 avec Ollama : mode interactif et intégration API

Mode interactif : discuter avec Gemma 3

Le mode interactif d'Ollama vous permet de discuter avec Gemma 3 directement depuis le terminal. Pour commencer, exécutez :

ollama run gemma3

Vous verrez une invite où vous pourrez taper des requêtes. Par exemple, essayez :

Quelles sont les principales caractéristiques de Gemma 3 ?

Gemma 3, avec sa fenêtre contextuelle de 128 K et ses capacités multimodales, répondra avec des réponses détaillées et contextuelles. Il prend en charge plus de 140 langues et peut traiter du texte, des images et même des entrées vidéo (pour certaines tailles).

Pour quitter, tapez Ctrl+D ou /bye.

Intégration de Gemma 3 à l'API Ollama

Si vous souhaitez créer des applications ou automatiser des interactions, Ollama fournit une API que vous pouvez utiliser. C'est là qu'Apidog brille : son interface conviviale vous aide à tester et à gérer efficacement les requêtes API. Voici comment commencer :

Démarrer le serveur Ollama : exécutez la commande suivante pour lancer le serveur API d'Ollama :

ollama serve

Cela démarre le serveur sur localhost:11434 par défaut.

Effectuer des requêtes API : vous pouvez interagir avec Gemma 3 via des requêtes HTTP. Par exemple, utilisez curl pour envoyer une invite :

curl http://localhost:11434/api/generate -d '{"model": "gemma3", "prompt": "What is the capital of France?"}'

La réponse inclura la sortie de Gemma 3, formatée en JSON.

Utiliser Apidog pour les tests : téléchargez Apidog gratuitement et créez une requête API pour tester les réponses de Gemma 3. L'interface visuelle d'Apidog vous permet de saisir le point de terminaison (http://localhost:11434/api/generate), de définir la charge utile JSON et d'analyser les réponses sans écrire de code complexe. Ceci est particulièrement utile pour le débogage et l'optimisation de votre intégration.

button

Guide étape par étape pour l'utilisation des tests SSE sur Apidog

Passons en revue le processus d'utilisation de la fonctionnalité de test SSE optimisée sur Apidog, avec les nouvelles améliorations d'Auto-Merge. Suivez ces étapes pour configurer et maximiser votre expérience de débogage en temps réel.

button

Étape 1 : créer une nouvelle requête API

Commencez par lancer un nouveau projet HTTP sur Apidog. Ajoutez un nouveau point de terminaison et entrez l'URL du point de terminaison de votre API ou de votre modèle d'IA. C'est votre point de départ pour tester et déboguer vos flux de données en temps réel.

creating a new endpoint at Apidog

Étape 2 : envoyer la requête

Une fois votre point de terminaison configuré, envoyez la requête API. Observez attentivement les en-têtes de réponse. Si l'en-tête inclut Content-Type: text/event-stream, Apidog reconnaîtra et interprétera automatiquement la réponse comme un flux SSE. Cette détection est cruciale pour le processus de fusion automatique ultérieur.

Sending the API request using Apidog

Étape 3 : surveiller la chronologie en temps réel

Une fois la connexion SSE établie, Apidog ouvrira une vue chronologique dédiée où tous les événements SSE entrants sont affichés en temps réel. Cette chronologie se met à jour en continu à mesure que de nouvelles données arrivent, ce qui vous permet de surveiller le flux de données avec une précision extrême. La chronologie n'est pas seulement un déversement brut de données, c'est une visualisation soigneusement structurée qui vous aide à voir exactement quand et comment les données sont transmises.

View Streamed API responses in a complete reply

Étape 4 : message de fusion automatique

C'est là que la magie opère. Grâce aux améliorations d'Auto-Merge, Apidog reconnaît automatiquement les formats de modèles d'IA populaires et fusionne les réponses SSE fragmentées en une réponse complète. Cette étape comprend :

Auto-Merging streamed API responses

Cette fonctionnalité est particulièrement utile lorsque vous travaillez avec des applications basées sur l'IA, garantissant que chaque partie de la réponse est capturée et présentée dans son intégralité sans intervention manuelle.

Étape 5 : configurer les règles d'extraction JSONPath

Toutes les réponses SSE ne se conformeront pas automatiquement aux formats intégrés. Lorsque vous traitez des réponses JSON qui nécessitent une extraction personnalisée, Apidog vous permet de configurer des règles JSONPath. Par exemple, si votre réponse SSE brute contient un objet JSON et que vous devez extraire le champ content, vous pouvez configurer JSONPath comme suit :

Cette configuration indique à Apidog comment extraire les données souhaitées de votre réponse SSE, garantissant que même les réponses non standard sont gérées efficacement.

Conclusion

Exécuter Gemma 3 localement avec Ollama est une façon passionnante d'exploiter les capacités d'IA avancées de Google sans quitter votre machine. De l'installation d'Ollama et du téléchargement du modèle à l'interaction via le terminal ou l'API, ce guide vous a guidé à chaque étape. Avec ses fonctionnalités multimodales, sa prise en charge multilingue et ses performances impressionnantes, Gemma 3 change la donne pour les développeurs et les passionnés d'IA. N'oubliez pas d'utiliser des outils comme Apidog pour des tests et une intégration API transparents : téléchargez-le gratuitement dès aujourd'hui pour améliorer vos projets Gemma 3 !

button

Que vous bricoliez avec le modèle 1B sur un ordinateur portable ou que vous repoussiez les limites du modèle 27B sur une plate-forme GPU, vous êtes maintenant prêt à explorer les possibilités. Bon codage, et voyons quelles choses incroyables vous construisez avec Gemma 3 !

Explore more

Comment utiliser Deepseek R1 en local avec Cursor

Comment utiliser Deepseek R1 en local avec Cursor

Apprenez à configurer DeepSeek R1 local avec Cursor IDE pour une aide au codage IA privée et économique.

4 June 2025

Comment exécuter Gemma 3n sur Android ?

Comment exécuter Gemma 3n sur Android ?

Apprenez à installer et exécuter Gemma 3n sur Android via Google AI Edge Gallery.

3 June 2025

Comment utiliser Claude Code avec GitHub Actions

Comment utiliser Claude Code avec GitHub Actions

Découvrez Claude Code avec GitHub Actions : revues de code, corrections de bugs, implémentation de fonctionnalités. Tutoriel pour développeurs.

29 May 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API