Comment utiliser Ollama sur Windows et Mac : Guide complet

Emmanuel Mumba

Emmanuel Mumba

31 July 2025

Comment utiliser Ollama sur Windows et Mac : Guide complet

L'exécution de grands modèles linguistiques (LLM) localement était autrefois le domaine des utilisateurs de ligne de commande (CLI) chevronnés et des bricoleurs de systèmes. Mais cela change rapidement. Ollama, connu pour son interface de ligne de commande simple pour l'exécution de LLM open source sur des machines locales, vient de lancer des applications de bureau natives pour macOS et Windows.

Et ce ne sont pas de simples enveloppes. Ces applications apportent des fonctionnalités puissantes qui facilitent considérablement la conversation avec les modèles, l'analyse de documents, la rédaction de documentation et même le travail avec des images pour les développeurs.

Dans cet article, nous explorerons comment la nouvelle expérience de bureau améliore le flux de travail des développeurs, quelles fonctionnalités se démarquent et où ces outils brillent réellement dans la vie quotidienne de codage.

💡
Si vous développez ou testez des API tout en travaillant avec des LLM locaux comme Ollama, Apidog est un outil puissant à avoir dans votre flux de travail. Il vous permet d'exécuter, de tester et de déboguer des API LLM localement, même sans connexion Internet, ce qui le rend parfait pour les développeurs travaillant avec des modèles auto-hébergés.
bouton

Pourquoi les LLM locaux sont toujours importants

Alors que les outils basés sur le cloud comme ChatGPT, Claude et Gemini dominent les gros titres, il existe un mouvement croissant vers le développement d'IA axé sur le local. Les développeurs veulent des outils qui sont :

Ollama s'inscrit directement dans cette tendance, vous permettant d'exécuter des modèles comme LLaMA, Mistral, Gemma, Codellama, Mixtral et d'autres nativement sur votre machine - maintenant avec une expérience beaucoup plus fluide.


Étape 1 : Télécharger Ollama pour le bureau

Rendez-vous sur ollama.com et téléchargez la dernière version pour votre système :

Installez-le comme une application de bureau normale. Aucune configuration en ligne de commande n'est requise pour commencer.

Étape 2 : Lancer et choisir un modèle

Une fois installé, ouvrez l'application de bureau Ollama. L'interface est propre et ressemble à une simple fenêtre de chat.

Il vous sera demandé de choisir un modèle à télécharger et à exécuter. Certaines options incluent :

Choisissez-en un et l'application le téléchargera et le chargera automatiquement.

Une intégration plus fluide pour les développeurs - Un moyen plus facile de discuter avec les modèles

Auparavant, utiliser Ollama signifiait lancer un terminal et émettre des commandes ollama run pour démarrer une session de modèle. Désormais, l'application de bureau s'ouvre comme n'importe quelle application native, offrant une interface de chat simple et propre.

Vous pouvez maintenant parler aux modèles de la même manière que vous le feriez dans ChatGPT — mais entièrement hors ligne. C'est parfait pour :

L'application vous donne un accès immédiat aux modèles locaux comme codellama ou mistral sans aucune configuration au-delà d'une simple installation.

Et pour les développeurs qui aiment la personnalisation, l'interface de ligne de commande (CLI) fonctionne toujours en arrière-plan, vous permettant de basculer la longueur du contexte, les invites système et les versions de modèle via le terminal si nécessaire.


Glisser. Déposer. Poser des questions.

Discuter avec des fichiers

L'une des fonctionnalités les plus conviviales pour les développeurs dans la nouvelle application est l'ingestion de fichiers. Il suffit de glisser un fichier dans la fenêtre de chat — qu'il s'agisse d'un .pdf, .md ou .txt — et le modèle en lira le contenu.

Besoin de comprendre un document de conception de 60 pages ? Envie d'extraire des TODOs d'un README désordonné ? Ou de résumer un brief produit d'un client ? Déposez-le et posez des questions en langage naturel comme :

Cette fonctionnalité peut réduire considérablement le temps passé à parcourir la documentation, à examiner les spécifications ou à s'intégrer à de nouveaux projets.


Aller au-delà du texte

Prise en charge multimodale

Certains modèles au sein d'Ollama (tels que ceux basés sur Llava) prennent désormais en charge l'entrée d'image. Cela signifie que vous pouvez télécharger une image, et le modèle l'interprétera et y répondra.

Certains cas d'utilisation incluent :

Bien que cela en soit encore à ses débuts par rapport à des outils comme GPT-4 Vision, avoir un support multimodal intégré à une application locale est un grand pas pour les développeurs qui construisent des systèmes multi-entrées ou testent des interfaces d'IA.


Documents privés et locaux — à votre commande

Rédaction de documentation

Si vous maintenez une base de code croissante, vous connaissez la douleur de la dérive de la documentation. Avec Ollama, vous pouvez utiliser des modèles locaux pour aider à générer ou mettre à jour la documentation sans jamais pousser de code sensible vers le cloud.

Il suffit de glisser un fichier — par exemple utils.py — dans l'application et de demander :

Cela devient encore plus puissant lorsqu'il est associé à des outils comme [Deepdocs] qui automatisent les flux de travail de documentation à l'aide de l'IA. Vous pouvez précharger le README ou les fichiers de schéma de votre projet, puis poser des questions de suivi ou générer des journaux de modifications, des notes de migration ou des guides de mise à jour — le tout localement.


Optimisation des performances sous le capot

Avec cette nouvelle version, Ollama a également amélioré les performances de manière générale :

Ces mises à niveau rendent l'application flexible pour tout, des agents locaux aux outils de développement en passant par les assistants de recherche personnels.


CLI et GUI : Le meilleur des deux mondes

Le meilleur dans tout ça ? La nouvelle application de bureau ne remplace pas le terminal — elle le complète.

Vous pouvez toujours :

ollama pull codellama
ollama run codellama

Ou exposer le serveur de modèles :

ollama serve --host 0.0.0.0

Ainsi, si vous construisez une interface d'IA, un agent ou un plugin personnalisé qui repose sur un LLM local, vous pouvez désormais construire sur l'API d'Ollama et utiliser l'interface graphique pour une interaction directe ou des tests.

Tester l'API d'Ollama localement avec Apidog

Apidog Product UI

Vous souhaitez intégrer Ollama dans votre application d'IA ou tester ses points d'extrémité d'API locaux ? Vous pouvez lancer l'API REST d'Ollama en utilisant :

bash tollama serve

Ensuite, utilisez Apidog pour tester, déboguer et documenter vos points d'extrémité LLM locaux.

bouton
test local llms using Apidog

Pourquoi utiliser Apidog avec Ollama :

Cas d'utilisation pour développeurs qui fonctionnent réellement

Voici où la nouvelle application Ollama brille dans les flux de travail réels des développeurs :

Cas d'utilisation Comment Ollama aide
Assistant de révision de code Exécuter codellama localement pour un retour sur la refactorisation
Mises à jour de la documentation Demander aux modèles de réécrire, résumer ou corriger des fichiers de documentation
Chatbot de développement local Intégrer dans votre application comme un assistant sensible au contexte
Outil de recherche hors ligne Charger des PDF ou des livres blancs et poser des questions clés
Terrain de jeu LLM personnel Expérimenter l'ingénierie des invites et le réglage fin

Pour les équipes soucieuses de la confidentialité des données ou des hallucinations de modèles, les flux de travail LLM axés sur le local offrent une alternative de plus en plus convaincante.


Réflexions finales

La version de bureau d'Ollama fait en sorte que les LLM locaux ressemblent moins à une expérience scientifique bancale et plus à un outil de développement peaufiné.

Avec la prise en charge de l'interaction avec les fichiers, des entrées multimodales, de la rédaction de documents et des performances natives, c'est une option sérieuse pour les développeurs soucieux de la vitesse, de la flexibilité et du contrôle.

Pas de clés API cloud. Pas de suivi en arrière-plan. Pas de facturation par jeton. Juste une inférence locale rapide avec le choix du modèle open source qui correspond à vos besoins.

Si vous avez été curieux d'exécuter des LLM sur votre machine, ou si vous utilisez déjà Ollama et souhaitez une expérience plus fluide, c'est le moment de l'essayer à nouveau.

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API