Windows ve Mac'te Ollama Nasıl Kullanılır

Emmanuel Mumba

Emmanuel Mumba

31 July 2025

Windows ve Mac'te Ollama Nasıl Kullanılır

Büyük dil modellerini (LLM'ler) yerel olarak çalıştırmak, eskiden sıkı CLI kullanıcılarının ve sistem kurcalayıcılarının alanıydı. Ancak bu hızla değişiyor. Yerel makinelerde açık kaynaklı LLM'leri çalıştırmak için basit komut satırı arayüzüyle tanınan Ollama, macOS ve Windows için yerel masaüstü uygulamalarını yeni yayınladı.

Ve bunlar sadece basit sarmalayıcılar değil. Bu uygulamalar, modellerle sohbet etmeyi, belgeleri analiz etmeyi, dokümantasyon yazmayı ve hatta görüntülerle çalışmayı geliştiriciler için önemli ölçüde kolaylaştıran güçlü özellikler sunuyor.

Bu makalede, yeni masaüstü deneyiminin geliştirici iş akışını nasıl iyileştirdiğini, öne çıkan özelliklerini ve bu araçların günlük kodlama yaşamında nerede gerçekten parladığını keşfedeceğiz.

💡
Ollama gibi yerel LLM'lerle çalışırken API'ler oluşturuyor veya test ediyorsanız, Apidog iş akışınızda bulunması gereken güçlü bir araçtır. İnternet bağlantısı olmasa bile LLM API'lerini yerel olarak çalıştırmanıza, test etmenize ve hata ayıklamanıza olanak tanır, bu da kendi kendine barındırılan modellerle çalışan geliştiriciler için mükemmeldir.

düğme

Yerel LLM'ler Neden Hala Önemli?

ChatGPT, Claude ve Gemini gibi bulut tabanlı araçlar manşetlere hakim olsa da, yerel öncelikli yapay zeka geliştirmeye yönelik büyüyen bir hareket var. Geliştiriciler şu özellikleri sunan araçlar istiyor:

Ollama, LLaMA, Mistral, Gemma, Codellama, Mixtral ve diğer modelleri doğrudan makinenizde yerel olarak çalıştırmanıza olanak tanıyarak bu eğilime doğrudan uyuyor - şimdi çok daha sorunsuz bir deneyimle.


Adım 1: Masaüstü için Ollama'yı İndirin

Ollama Masaüstü Uygulaması İndirme Sayfası

ollama.com adresine gidin ve sisteminiz için en son sürümü indirin:

Normal bir masaüstü uygulaması gibi kurun. Başlamak için komut satırı kurulumu gerekmez.

Adım 2: Başlatın ve Bir Model Seçin

Ollama Masaüstü Uygulaması Model Seçimi

Kurulduktan sonra Ollama masaüstü uygulamasını açın. Arayüz temizdir ve basit bir sohbet penceresine benzer.

İndirmek ve çalıştırmak için bir model seçmeniz istenecektir. Bazı seçenekler şunlardır:

Birini seçin ve uygulama otomatik olarak indirecek ve yükleyecektir.

Geliştiriciler İçin Daha Sorunsuz Bir Başlangıç - Modellerle Sohbet Etmenin Daha Kolay Bir Yolu

Ollama Masaüstü Uygulaması Sohbet Arayüzü

Daha önce, Ollama kullanmak bir terminal açıp bir model oturumu başlatmak için ollama run komutlarını vermek anlamına geliyordu. Şimdi, masaüstü uygulaması herhangi bir yerel uygulama gibi açılıyor ve basit ve temiz bir sohbet arayüzü sunuyor.

Artık modellerle ChatGPT'de yaptığınız gibi konuşabilirsiniz - ancak tamamen çevrimdışı. Bu, aşağıdakiler için mükemmeldir:

Uygulama, basit bir kurulumun ötesinde hiçbir ayar gerektirmeden codellama veya mistral gibi yerel modellere anında erişim sağlar.

Ve özelleştirmeyi seven geliştiriciler için, CLI hala arka planda çalışarak bağlam uzunluğunu, sistem istemlerini ve model sürümlerini gerektiğinde terminal aracılığıyla değiştirmelerine olanak tanır.


Sürükle. Bırak. Soru Sor.

Dosyalarla Sohbet Edin

Ollama Masaüstü Uygulaması Dosya Yükleme

Yeni uygulamadaki en geliştirici dostu özelliklerden biri dosya alımıdır. Bir dosyayı sohbet penceresine sürüklemeniz yeterlidir — ister .pdf, .md veya .txt olsun — ve model içeriğini okuyacaktır.

Ollama Masaüstü Uygulaması Dosya İçeriği Özeti

60 sayfalık bir tasarım belgesini anlamanız mı gerekiyor? Dağınık bir README'den YAPILACAKLAR'ı çıkarmak mı istiyorsunuz? Yoksa bir müşterinin ürün özetini mi özetleyeceksiniz? İçine bırakın ve doğal dilde sorular sorun:

Bu özellik, dokümantasyonu taramak, teknik özellikleri incelemek veya yeni projelere dahil olmak için harcanan süreyi önemli ölçüde azaltabilir.


Metnin Ötesine Geçin

Çok Modlu Destek

Ollama Masaüstü Uygulaması Çok Modlu Girdi

Ollama içindeki belirli modeller (Llava tabanlı olanlar gibi) artık görüntü girişini destekliyor. Bu, bir görüntü yükleyebileceğiniz ve modelin onu yorumlayıp yanıtlayacağı anlamına gelir.

Bazı kullanım durumları şunları içerir:

Bu, GPT-4 Vision gibi araçlarla karşılaştırıldığında hala erken bir aşamada olsa da, yerel öncelikli bir uygulamaya çok modlu desteğin entegre edilmesi, çok girişli sistemler oluşturan veya yapay zeka arayüzlerini test eden geliştiriciler için büyük bir adımdır.


Özel, Yerel Belgeler — Emrinizde

Dokümantasyon Yazımı

Ollama Masaüstü Uygulaması Dokümantasyon Oluşturma

Büyüyen bir kod tabanını sürdürüyorsanız, dokümantasyon kaymasının acısını bilirsiniz. Ollama ile, hassas kodu buluta itmeden dokümantasyon oluşturmaya veya güncellemeye yardımcı olmak için yerel modelleri kullanabilirsiniz.

Sadece bir dosyayı — örneğin utils.py — uygulamaya sürükleyin ve sorun:

Bu, yapay zeka kullanarak dokümantasyon iş akışlarını otomatikleştiren [Deepdocs] gibi araçlarla birleştirildiğinde daha da güçlü hale gelir. Projenizin README veya şema dosyalarını önceden yükleyebilir, ardından takip soruları sorabilir veya değişiklik günlükleri, geçiş notları veya güncelleme kılavuzları oluşturabilirsiniz — hepsi yerel olarak.


Kapsamlı Performans Ayarı

Bu yeni sürümle Ollama, genel performansı da iyileştirdi:

Bu yükseltmeler, uygulamayı yerel aracılardan geliştirme araçlarına ve kişisel araştırma asistanlarına kadar her şey için esnek hale getiriyor.


CLI ve GUI: İki Dünyanın En İyisi

En iyi yanı ne mi? Yeni masaüstü uygulaması terminalin yerini almıyor — onu tamamlıyor.

Hala şunları yapabilirsiniz:

ollama pull codellama
ollama run codellama

Veya model sunucusunu açığa çıkarın:

ollama serve --host 0.0.0.0

Yani, yerel bir LLM'ye dayanan özel bir yapay zeka arayüzü, aracı veya eklentisi oluşturuyorsanız, artık Ollama'nın API'sinin üzerine inşa edebilir ve doğrudan etkileşim veya test için GUI'yi kullanabilirsiniz.

Ollama'nın API'sini Apidog ile Yerel Olarak Test Edin

Apidog Ürün Arayüzü

Ollama'yı yapay zeka uygulamanıza entegre etmek veya yerel API uç noktalarını test etmek mi istiyorsunuz? Ollama'nın REST API'sini şunları kullanarak çalıştırabilirsiniz:

bash tollama serve

Ardından, yerel LLM uç noktalarınızı test etmek, hata ayıklamak ve belgelemek için Apidog'u kullanın.

düğme

Apidog kullanarak yerel LLM'leri test et

Apidog'u Ollama ile neden kullanmalısınız:

Gerçekten Çalışan Geliştirici Kullanım Durumları

Yeni Ollama uygulamasının gerçek geliştirici iş akışlarında parladığı yerler şunlardır:

Kullanım Durumu Ollama Nasıl Yardımcı Olur
Kod İnceleme Asistanı Yeniden düzenleme geri bildirimi için codellama'yı yerel olarak çalıştırın
Dokümantasyon Güncellemeleri Modellerden doküman dosyalarını yeniden yazmalarını, özetlemelerini veya düzeltmelerini isteyin
Yerel Geliştirici Sohbet Botu Uygulamanıza bağlama duyarlı bir asistan olarak yerleştirin
Çevrimdışı Araştırma Aracı PDF'leri veya teknik incelemeleri yükleyin ve önemli sorular sorun
Kişisel LLM Oyun Alanı İstem mühendisliği ve ince ayar ile deney yapın

Veri gizliliği veya model halüsinasyonları konusunda endişeli ekipler için, yerel öncelikli LLM iş akışları giderek daha cazip bir alternatif sunuyor.


Son Düşünceler

Ollama'nın masaüstü sürümü, yerel LLM'leri hacklenmiş bir bilim deneyi gibi değil, daha çok cilalı bir geliştirici aracı gibi hissettiriyor.

Dosya etkileşimi, çok modlu girişler, belge yazımı ve yerel performans desteğiyle, hız, esneklik ve kontrolü önemseyen geliştiriciler için ciddi bir seçenektir.

Bulut API anahtarı yok. Arka plan takibi yok. Token başına faturalandırma yok. Sadece ihtiyaçlarınıza uygun açık model seçeneğiyle hızlı, yerel çıkarım.

LLM'leri makinenizde çalıştırmayı merak ettiyseniz veya zaten Ollama kullanıyorsanız ve daha sorunsuz bir deneyim istiyorsanız, şimdi tekrar denemenin tam zamanı.

API Tasarım-Öncelikli Yaklaşımı Apidog'da Uygulayın

API'leri oluşturmanın ve kullanmanın daha kolay yolunu keşfedin