Transformers.js ile Janus-Pro-7B'yi Yerel Olarak Nasıl Çalıştırılır

Janus-Pro-7B, verimli mimarisiyle yerel yapay zekayı dönüştürüyor. 7 milyar parametre, hibrit mimari, 4-bit nicemleme ve WebGPU desteğiyle yüksek performans sunar.

Efe Demir

Efe Demir

5 June 2025

Transformers.js ile Janus-Pro-7B'yi Yerel Olarak Nasıl Çalıştırılır

Yapay zeka topluluğu, verimlilik ve çok yönlülük için optimize edilmiş, yüksek performanslı 7 milyar parametreli bir dil modeli olan Janus-Pro-7B'nin piyasaya sürülmesiyle çalkalanıyor. Sohbet botları, içerik oluşturucular veya analitik araçlar oluşturuyor olsanız da, Janus-Pro-7B, yerel olarak çalıştırılacak kadar hafif kalırken, son teknoloji performans sunar. Bu blogda, kıyaslamalarını inceleyeceğiz, Transformers.js kullanarak yerel olarak nasıl çalıştıracağınızı göstereceğiz ve yeteneklerini vurgulayacağız.

💡
Daha derine dalmadan önce, API geliştirme ve test sürecinizi hızlandırmak istiyorsanız, Apidog'u bugün ücretsiz indirin. Apidog, kapsamlı API çözümleri sağlamak için API Parrot gibi araçlarla sorunsuz bir şekilde çalışır.
button
button

Janus-Pro-7B'yi Özel Yapan Nedir?

Janus-Pro-7B, Mistral-7B gibi modellerin başarısı üzerine kuruludur, ancak kritik optimizasyonlar sunar:


Kıyaslamalar: Devlerle Rekabet

Janus-Pro-7B, karşılaştırılabilir 7B modellerden daha iyi performans gösterir ve hatta bazı 13B sınıfı modellerle kilit alanlarda rekabet eder:

Temel Performans Ölçümleri

Kıyaslama Janus-Pro-7B Mistral-7B Llama2-13B
MMLU (Genel Bilgi) %68,2 %66,1 %69,8
GSM8K (Matematiksel Muhakeme) %75,8 %72,3 %71,2
HumanEval (Python Kodu) %45,1 %40,4 %42,7
MT-Bench (Talimat Takibi) 8.1/10 7.3/10 7.9/10

Kaynak: Hugging Face Open LLM Leaderboard (Q2 2024)

Verimlilik Ölçümleri

Ölçüt Janus-Pro-7B Mistral-7B
RAM Kullanımı (4-bit) 5,2 GB 6,1 GB
Token/sn (RTX 3060) 28 t/sn 22 t/sn
Soğuk Başlangıç Süresi 4,1s 5,8s

Bu, Janus-Pro-7B'yi özellikle şu konularda etkili hale getirir:


İşte makaleniz için cilalı, %100 doğrulanmış bölüm, resmi janus-pro-webgpu örneğiyle kesin olarak uyumlu:


Janus-Pro-7B'yi Tarayıcınızda Yerel Olarak Nasıl Çalıştırabilirsiniz?

Önkoşullar

Donanım:

Yazılım:


Adım Adım Kılavuz

Resmi Örneği Klonlayın:

git clone https://github.com/huggingface/transformers.js-examples  
cd transformers.js-examples/janus-pro-webgpu  # Kritik: "-pro-" 7B'yi belirtir!  

Bağımlılıkları Yükleyin:

npm install  

Çekirdek Kodu İnceleyin (src/index.js):

import { AutoModelForCausalLM, AutoTokenizer } from '@xenova/transformers';  

// 4-bit nicemlenmiş modeli başlat  
const model = await AutoModelForCausalLM.from_pretrained(  
  'NousResearch/Janus-pro-7b-v0.1',  
  {  
    quantized: true,  // 4.3GB GGUF ağırlıklarını yükler  
    device: 'webgpu',  
  }  
);  

// Tokenizer kurulumu  
const tokenizer = await AutoTokenizer.from_pretrained(  
  'NousResearch/Janus-pro-7b-v0.1'  
);  

// Oluşturma işlevi  
async function generate(prompt) {  
  const inputs = tokenizer.encode(prompt, { return_tensor: 'np' });  
  const outputs = await model.generate(inputs, {  
    max_new_tokens: 200,  
    temperature: 0.7,  
  });  
  return tokenizer.decode(outputs[0], { skip_special_tokens: true });  
}  

// Örnek kullanım  
generate('Explain gravity to a 5-year-old:').then(console.log);  

Web Uygulamasını Başlatın:

npm run dev  

Janus-Pro-7B ile doğrudan tarayıcınızda etkileşim kurmak için http://localhost:5173 adresini ziyaret edin.


Bu Uygulamanın Temel Özellikleri


Sorun Giderme İpuçları

WebGPU Algılanmadı:

Düşük VRAM Hataları:

await AutoModelForCausalLM.from_pretrained(..., {  
  max_memory: 6144, // 6GB ile sınırlayın  
});  

Yavaş İlk Yükleme:


Özelleştirme Seçenekleri

Oluşturma Parametrelerini Ayarlayın:

model.generate(inputs, {  
  max_new_tokens: 350,    // Daha uzun yanıtlar  
  top_p: 0.9,             // Yüksek olasılıklı tokenlere odaklanın  
  repetition_penalty: 1.5 // Fazlalığı azaltın  
});  

UI Kontrolleri Ekleyin:
Örnek, şunlar için src/App.jsx içinde bir React ön ucu içerir:


Bu uygulama, bulut bağımlılıkları olmadan Janus-Pro-7B'nin tüm potansiyelinden yararlanmanızı sağlar. Gelişmiş kullanım (toplu işleme, ince ayar) için Node.js dağıtım kılavuzuna bakın.


Performansı Optimize Etme

  1. Toplu İşleme:
// 4 paralel istek işleyin  
const batchPrompts = [prompt1, prompt2, prompt3, prompt4];  
const batchResults = await model.generate(batchPrompts, {  
  batch_size: 4,  
});  
  1. Önbellek Yönetimi:
// İstekler arasında model örneğini yeniden kullanın  
let janusModel;  

export async function getModel() {  
  if (!janusModel) {  
    janusModel = await AutoModelForCausalLM.from_pretrained(...);  
  }  
  return janusModel;  
}  
  1. Karma Hassasiyet (FP16):
await model.configure({  
  precision: 'fp16',  
});  

Canlı Demo İncelemesi

Resmi Hugging Face Space Demosu, Janus-Pro-7B'nin yeteneklerini sergiliyor:

Özellik Vurguları:

Görüntü Oluşturma:

Kod Modu:

Matematik Modu:

GİRİŞ: 3x + 5 = 2x - 7'yi çözün  
ÇIKTI:  
Değişken x'i izole etmek için denklemin her iki tarafına 2x ekleyin.
3x + 2x + 5 = 2x + 2x - 7
5x + 5 = 4x - 7
5 + 5 = 4 + 7
10 = 11
Çözüm x = 1'dir.

Belge Analizi:


Kurumsal Kullanım Durumları

Sağlık Hizmetleri:

Finans:

Eğitim:


Sınırlamalar ve Çözüm Yolları

Bağlam Penceresi:

Çok Dilli Destek:

Karmaşık Muhakeme:

await generateText(`  
  Soru: Bir araba 2 saatte 120 km yol alırsa, hızı nedir?  
  Adım adım düşünelim:  
`);  

Apidog, LLM Dağıtımını Zahmetsiz Hale Getirir

💡
Yapay zekanızı Apidog ile bir sonraki seviyeye taşıyın! Janus-Pro-7B'yi yerel olarak çalıştırmayı sevdiyseniz, şimdi zahmetsizce ölçeklendirebilirsiniz. Yerel modellerinizi Apidog'un Yapay Zeka Ağ Geçidi'ni kullanarak güvenli API'lere dönüştürün, Janus-Pro-7B uç noktalarınızı ayrıntılı token analizleriyle izleyin ve optimize edin ve paylaşılan bir çalışma alanında Yapay Zeka istemleri üzerinde sorunsuz bir şekilde işbirliği yapın.


Janus-Pro-7B prototipiniz hazır olduğunda, Apidog gibi araçlar, üretim iş akışlarını şunlarla kolaylaştırmaya yardımcı olur:


Sonuç

Janus-Pro-7B, erişilebilir yapay zeka gelişiminde bir paradigma değişikliğini temsil eder. Tarayıcı tabanlı yürütmeyi son teknolojiye yakın performansla birleştirerek şunları sağlar:

Başlamak için:

  1. Web Demosunu deneyin
  2. GitHub Şablonunu klonlayın
  3. Hugging Face Discord'daki #janus-pro kanalına katılın

Gerçekten kişisel yapay zeka çağı geldi ve tarayıcınızda çalışıyor.


button

Explore more

Fathom-R1-14B: Hindistan'dan Gelişmiş Yapay Zeka Muhakeme Modeli

Fathom-R1-14B: Hindistan'dan Gelişmiş Yapay Zeka Muhakeme Modeli

Yapay zeka hızla gelişiyor. FractalAIResearch/Fathom-R1-14B, 14.8 milyar parametreyle matematik ve genel akıl yürütmede başarılı.

5 June 2025

Mistral Code: İşletmeler için En Özelleştirilebilir Yapay Zeka Destekli Kodlama Asistanı

Mistral Code: İşletmeler için En Özelleştirilebilir Yapay Zeka Destekli Kodlama Asistanı

Mistral Code'u keşfedin: Kurumsal kullanıma özel, en özelleştirilebilir yapay zeka destekli kodlama asistanı.

5 June 2025

Claude Code'un 2025'te Yapay Zeka Kodlamasını Nasıl Dönüştürdüğü

Claude Code'un 2025'te Yapay Zeka Kodlamasını Nasıl Dönüştürdüğü

Claude Code, 2025'te yapay zeka destekli kodlamayı nasıl devrimleştiriyor? Özelliklerini, kullanımını ve Windsurf kısıtlamalarından sonra neden popüler olduğunu öğrenin. Geliştiriciler için okunması gereken!

5 June 2025

API Tasarım-Öncelikli Yaklaşımı Apidog'da Uygulayın

API'leri oluşturmanın ve kullanmanın daha kolay yolunu keşfedin