Büyük dil modellerini (BDM'ler) yerel olarak çalıştırmak, geliştiricilere gizlilik, kontrol ve maliyet tasarrufu sağlar. OpenAI'ın açık ağırlıklı modelleri, topluca GPT-OSS (gpt-oss-120b ve gpt-oss-20b) olarak bilinir, kodlama, ajans iş akışları ve veri analizi gibi görevler için güçlü muhakeme yetenekleri sunar. Açık kaynaklı bir platform olan Ollama ile bu modelleri bulut bağımlılıkları olmadan kendi donanımınıza dağıtabilirsiniz. Bu teknik kılavuz, Ollama'yı kurma, GPT-OSS modellerini yapılandırma ve yerel BDM'ler için API testini basitleştiren bir araç olan Apidog ile hata ayıklama konularında size yol gösterecektir.
GPT-OSS'i Ollama ile Neden Yerel Olarak Çalıştırmalıyız?
GPT-OSS'i Ollama kullanarak yerel olarak çalıştırmak, geliştiriciler ve araştırmacılar için belirgin avantajlar sunar. İlk olarak, girdileriniz ve çıktılarınız makinenizde kaldığı için veri gizliliğini sağlar. İkinci olarak, yinelenen bulut API maliyetlerini ortadan kaldırır, bu da onu yüksek hacimli veya deneysel kullanım durumları için ideal kılar. Üçüncü olarak, Ollama'nın OpenAI'ın API yapısıyla uyumluluğu, mevcut araçlarla sorunsuz entegrasyon sağlarken, gpt-oss-20b gibi nicelenmiş modeller için desteği (yalnızca 16 GB bellek gerektiren) mütevazı donanımlarda erişilebilirliği garanti eder.

Dahası, Ollama BDM dağıtımının karmaşıklıklarını basitleştirir. Model ağırlıklarını, bağımlılıkları ve yapılandırmaları, yapay zeka için bir Docker kapsayıcısına benzer şekilde tek bir Modelfile aracılığıyla yönetir. Akış halindeki yapay zeka yanıtlarının gerçek zamanlı görselleştirmesini sunan Apidog ile eşleştirildiğinde, yerel yapay zeka geliştirme için sağlam bir ekosistem elde edersiniz. Şimdi, bu ortamı kurmak için ön koşulları inceleyelim.
GPT-OSS'i Yerel Olarak Çalıştırmak İçin Ön Koşullar
Devam etmeden önce, sisteminizin aşağıdaki gereksinimleri karşıladığından emin olun:
- Donanım:
- gpt-oss-20b için: Minimum 16 GB RAM, ideal olarak bir GPU ile (örn. NVIDIA 1060 4GB).
- gpt-oss-120b için: 80 GB GPU belleği (örn. tek bir 80 GB GPU veya üst düzey veri merkezi kurulumu).
- Model ağırlıkları ve bağımlılıkları için 20-50 GB boş depolama alanı.
- Yazılım:
- İşletim Sistemi: Linux veya macOS önerilir; Windows ek kurulumla desteklenir.
- Ollama: ollama.com adresinden indirin.
- İsteğe Bağlı: Open WebUI çalıştırmak için Docker veya API testi için Apidog.
- İnternet: İlk model indirmeleri için kararlı bağlantı.
- Bağımlılıklar: GPU hızlandırması kullanılıyorsa NVIDIA/AMD GPU sürücüleri; yalnızca CPU modu çalışır ancak daha yavaştır.
Bunlar sağlandığında, Ollama'yı kurmaya ve GPT-OSS'i dağıtmaya hazırsınız demektir. Kurulum sürecine geçelim.
Adım 1: Ollama'yı Sisteminize Kurma
Ollama'nın kurulumu basittir ve macOS, Linux ve Windows'u destekler. Kurulum için şu adımları izleyin:
Ollama'yı İndirin:
- ollama.com adresini ziyaret edin ve işletim sisteminize uygun yükleyiciyi indirin.
- Linux/macOS için terminal komutunu kullanın:
curl -fsSL https://ollama.com/install.sh | sh
Bu betik, indirme ve kurulum sürecini otomatikleştirir.
Kurulumu Doğrulayın:
- Terminalinizde
ollama --version
komutunu çalıştırın. Bir sürüm numarası (örn. 0.1.44) görmelisiniz. Görmezseniz, sorun giderme için Ollama GitHub'ı kontrol edin.
Ollama Sunucusunu Başlatın:
ollama serve
komutunu çalıştırarak sunucuyu başlatın, bu sunucuhttp://localhost:11434
adresini dinleyecektir. Sürekli kullanım için bu terminali açık tutun veya Ollama'yı bir arka plan hizmeti olarak yapılandırın.
Kurulduktan sonra, Ollama **GPT-OSS** modellerini indirmeye ve çalıştırmaya hazırdır. Modelleri indirmeye geçelim.
Adım 2: GPT-OSS Modellerini İndirme
OpenAI'ın GPT-OSS modelleri (gpt-oss-120b ve gpt-oss-20b), Hugging Face'te mevcuttur ve bellek gereksinimlerini azaltan MXFP4 nicelemesi ile Ollama için optimize edilmiştir. Bunları indirmek için şu adımları izleyin:
Modeli Seçin:
- gpt-oss-20b: 16 GB RAM'e sahip masaüstü/dizüstü bilgisayarlar için idealdir. Token başına 3.6 milyar parametre etkinleştirir, kenar cihazlar için uygundur.

- gpt-oss-120b: Veri merkezleri veya 80 GB belleğe sahip üst düzey GPU'lar için tasarlanmıştır, token başına 5.1 milyar parametre etkinleştirir.

Ollama Aracılığıyla İndirme:
- Terminalinizde şunu çalıştırın:
ollama pull gpt-oss-20b
veya
ollama pull gpt-oss-120b
Donanımınıza bağlı olarak, indirme (20-50 GB) zaman alabilir. Kararlı bir internet bağlantısı olduğundan emin olun.
İndirmeyi Doğrulayın:
- Yüklü modelleri şununla listeleyin:
ollama list
gpt-oss-20b:latest
veya gpt-oss-120b:latest
ifadesini arayın.
Model indirildikten sonra, artık onu yerel olarak çalıştırabilirsiniz. **GPT-OSS** ile nasıl etkileşim kuracağımızı inceleyelim.
Adım 3: GPT-OSS Modellerini Ollama ile Çalıştırma
Ollama, GPT-OSS modelleriyle etkileşim kurmak için birden fazla yol sunar: komut satırı arayüzü (CLI), API veya Open WebUI gibi grafik arayüzler. Basitlik adına CLI ile başlayalım.
Etkileşimli Bir Oturum Başlatın:
- Çalıştırın:
ollama run gpt-oss-20b
Bu, gerçek zamanlı bir sohbet oturumu açar. Sorgunuzu yazın (örn. "İkili arama için bir Python fonksiyonu yazın") ve Enter tuşuna basın. Özel komutlar için /help
kullanın.
Tek Seferlik Sorgular:
- Etkileşimli mod olmadan hızlı yanıtlar için şunu kullanın:
ollama run gpt-oss-20b "Explain quantum computing in simple terms"
Parametreleri Ayarlayın:
- Model davranışını sıcaklık (yaratıcılık) ve top-p (yanıt çeşitliliği) gibi parametrelerle değiştirin. Örneğin:
ollama run gpt-oss-20b --temperature 0.1 --top-p 1.0 "Write a factual summary of blockchain technology"
Düşük sıcaklık (örn. 0.1), teknik görevler için ideal olan deterministik, olgusal çıktılar sağlar.
Şimdi, belirli kullanım durumları için Modelfile'ları kullanarak modelin davranışını özelleştirelim.
Adım 4: Ollama Modelfile'ları ile GPT-OSS'i Özelleştirme
Ollama'nın Modelfile'ları, GPT-OSS davranışını yeniden eğitmeden özelleştirmenize olanak tanır. Sistem istemlerini ayarlayabilir, bağlam boyutunu değiştirebilir veya parametreleri ince ayar yapabilirsiniz. İşte özel bir model oluşturma:
Bir Modelfile Oluşturun:
Modelfile
adında bir dosya oluşturun ve içine şunları yazın:
FROM gpt-oss-20b
SYSTEM "You are a technical assistant specializing in Python programming. Provide concise, accurate code with comments."
PARAMETER temperature 0.5
PARAMETER num_ctx 4096
Bu, modeli orta düzeyde yaratıcılığa ve 4k token bağlam penceresine sahip Python odaklı bir asistan olarak yapılandırır.
Özel Modeli Oluşturun:
- Modelfile'ı içeren dizine gidin ve şunu çalıştırın:
ollama create python-gpt-oss -f Modelfile
Özel Modeli Çalıştırın:
- Şununla başlatın:
ollama run python-gpt-oss
Artık model, belirtilen davranışla Python ile ilgili yanıtlara öncelik verir.
Bu özelleştirme, kodlama veya teknik dokümantasyon gibi belirli alanlar için GPT-OSS'i geliştirir. Şimdi, Ollama'nın API'sini kullanarak modeli uygulamalara entegre edelim.
Adım 5: GPT-OSS'i Ollama'nın API'si ile Entegre Etme
http://localhost:11434
adresinde çalışan Ollama'nın API'si, GPT-OSS'e programlı erişim sağlar. Bu, yapay zeka destekli uygulamalar geliştiren geliştiriciler için idealdir. İşte nasıl kullanılacağı:
API Uç Noktaları:
- POST /api/generate: Tek bir istem için metin üretir. Örnek:
curl http://localhost:11434/api/generate -H "Content-Type: application/json" -d '{"model": "gpt-oss-20b", "prompt": "Write a Python script for a REST API"}'
- POST /api/chat: Mesaj geçmişiyle sohbet etkileşimlerini destekler:
curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "gpt-oss-20b", "messages": [{"role": "user", "content": "Explain neural networks"}]}'
- POST /api/embeddings: Arama veya sınıflandırma gibi semantik görevler için vektör gömüleri üretir.
OpenAI Uyumluluğu:
- Ollama, OpenAI'ın Sohbet Tamamlama API formatını destekler. OpenAI kütüphanesi ile Python'ı kullanın:
from openai import OpenAI
client = OpenAI(base_url="http://localhost:11434/v1", api_key="ollama")
response = client.chat.completions.create(
model="gpt-oss-20b",
messages=[{"role": "user", "content": "What is machine learning?"}]
)
print(response.choices[0].message.content)
Bu API entegrasyonu, GPT-OSS'in sohbet robotlarını, kod oluşturucuları veya veri analiz araçlarını desteklemesini sağlar. Ancak, akış halindeki yanıtların hata ayıklaması zor olabilir. **Apidog**'un bunu nasıl basitleştirdiğini görelim.
Adım 6: GPT-OSS'te Apidog ile Hata Ayıklama
Apidog, Ollama'nın uç noktalarından gelen akış halindeki yanıtları görselleştiren güçlü bir API test aracıdır, bu da GPT-OSS çıktılarında hata ayıklamayı kolaylaştırır. İşte nasıl kullanılacağı:
Apidog'u Kurun:
- Apidog'u apidog.com adresinden indirin ve sisteminize kurun.
Ollama API'sini Apidog'da Yapılandırın:
- Apidog'da yeni bir API isteği oluşturun.
- URL'yi
http://localhost:11434/api/generate
olarak ayarlayın. - Şuna benzer bir JSON gövdesi kullanın:
{
"model": "gpt-oss-20b",
"prompt": "Generate a Python function for sorting",
"stream": true
}
Yanıtları Görselleştirin:
- Apidog, ham JSON çıktılarının aksine, akış halindeki token'ları okunabilir bir biçimde birleştirir.
- Bu, modelin muhakemesinde biçimlendirme sorunlarını veya mantıksal hataları belirlemeye yardımcı olur.
- Özellikle kodlama veya problem çözme gibi karmaşık görevler için GPT-OSS'in adım adım düşünme sürecini incelemek üzere Apidog'un muhakeme analizini kullanın.
Karşılaştırmalı Test:
- Farklı parametrelerin (örn. sıcaklık, top-p) GPT-OSS çıktılarını nasıl etkilediğini test etmek için Apidog'da istem koleksiyonları oluşturun.
- Bu, kullanım durumunuz için optimal model performansını sağlar.
Apidog'un görselleştirmesi, hata ayıklamayı sıkıcı bir görevden açık, eyleme geçirilebilir bir sürece dönüştürerek geliştirme iş akışınızı geliştirir. Şimdi, karşılaşabileceğiniz yaygın sorunları ele alalım.
Adım 7: Yaygın Sorunları Giderme
GPT-OSS'i yerel olarak çalıştırmak zorluklar sunabilir. İşte sık karşılaşılan sorunlara çözümler:
GPU Bellek Hatası:
- Sorun: gpt-oss-120b yetersiz GPU belleği nedeniyle başarısız oluyor.
- Çözüm: gpt-oss-20b'ye geçin veya sisteminizin 80 GB GPU'ya sahip olduğundan emin olun. Bellek kullanımını
nvidia-smi
ile kontrol edin.
Model Başlamıyor:
- Sorun:
ollama run
bir hatayla başarısız oluyor. - Çözüm: Modelin indirildiğini (
ollama list
) ve Ollama sunucusunun çalıştığını (ollama serve
) doğrulayın. Günlükleri~/.ollama/logs
içinde kontrol edin.
API Yanıt Vermiyor:
- Sorun:
localhost:11434
adresine yapılan API istekleri başarısız oluyor. - Çözüm:
ollama serve
'in aktif olduğundan ve 11434 portunun açık olduğundan emin olun. Onaylamak içinnetstat -tuln | grep 11434
kullanın.
Yavaş Performans:
- Sorun: CPU tabanlı çıkarım yavaş.
- Çözüm: Uygun sürücülerle GPU hızlandırmasını etkinleştirin veya gpt-oss-20b gibi daha küçük bir model kullanın.
Kalıcı sorunlar için, **GPT-OSS** desteği için Ollama GitHub veya Hugging Face topluluğuna danışın.
Adım 8: Open WebUI ile GPT-OSS'i Geliştirme
Kullanıcı dostu bir arayüz için Ollama'yı, GPT-OSS için tarayıcı tabanlı bir kontrol paneli olan Open WebUI ile eşleştirin:
Open WebUI'yi Kurun:
- Docker kullanın:
docker run -d -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:main
Arayüze Erişin:
- Tarayıcınızda
http://localhost:3000
adresini açın. gpt-oss-20b
veyagpt-oss-120b
'yi seçin ve sohbet etmeye başlayın. Özellikler arasında sohbet geçmişi, istem depolama ve model değiştirme bulunur.
Belge Yüklemeleri:
- Bağlama duyarlı yanıtlar (örn. kod incelemeleri veya veri analizi) için Retrieval-Augmented Generation (RAG) kullanarak dosyaları yükleyin.
Open WebUI, teknik olmayan kullanıcılar için etkileşimi basitleştirir ve **Apidog**'un teknik hata ayıklama yeteneklerini tamamlar.
Sonuç: Ollama ve Apidog ile GPT-OSS'in Potansiyelini Ortaya Çıkarma
GPT-OSS'i Ollama ile yerel olarak çalıştırmak, OpenAI'ın açık ağırlıklı modellerini ücretsiz olarak, gizlilik ve özelleştirme üzerinde tam kontrolle kullanmanızı sağlar. Bu kılavuzu takip ederek, Ollama'yı kurmayı, GPT-OSS modellerini indirmeyi, davranışı özelleştirmeyi, API aracılığıyla entegre etmeyi ve Apidog ile hata ayıklamayı öğrendiniz. Yapay zeka destekli uygulamalar geliştiriyor veya muhakeme görevleriyle deneyler yapıyor olun, bu kurulum eşsiz esneklik sunar. Parametreleri ayarlamak veya Apidog'un görselleştirmesini kullanmak gibi küçük dokunuşlar, iş akışınızı önemli ölçüde geliştirebilir. Bugün yerel yapay zekayı keşfetmeye başlayın ve GPT-OSS'in potansiyelini ortaya çıkarın!
