Bu kılavuz, Ollama'nın yeni ve güçlü özelliklerinden birini nasıl kullanacağınızı size adım adım anlatacaktır: yanıtları akış halinde sunma ve araçları (fonksiyonlar veya API'ler gibi) gerçek zamanlı olarak çağırma yeteneği. Bu, canlı hissettiren ve etraflarındaki dünyayla etkileşime girebilen sohbet uygulamaları oluşturmak için çığır açan bir özelliktir.
Bu eğitimde öğrenecekleriniz:
- Ollama'da akış yanıtları ve araç çağırmanın ne anlama geldiği.
- Bu kombinasyonun yapay zeka projeleriniz için neden süper faydalı olduğu.
- Şunları kullanarak bunu uygulamak için adım adım talimatlar:
- cURL (hızlı testler ve evrensel erişim için)
- Python (arka uç uygulamaları için)
- JavaScript (web ve Node.js uygulamaları için)
- Ollama'nın bu özellikleri nasıl akıllıca ele aldığına bir bakış.
- En iyi performansı elde etmek için ipuçları.
Geliştirici Ekibinizin maksimum verimlilikle birlikte çalışması için entegre, Hepsi Bir Arada bir platform mu istiyorsunuz?
Apidog tüm taleplerinizi karşılıyor ve Postman'in yerini çok daha uygun bir fiyata alıyor!
Başlarken: İhtiyacınız Olanlar
Eğitimi takip etmek için birkaç şeye ihtiyacınız olacak:
- Ollama Yüklü: Sisteminizde Ollama'nın en son sürümünün çalıştığından emin olun. Değilse, indirmek ve yüklemek için resmi Ollama web sitesine gidin.
- Temel Komut Satırı Bilgisi: cURL örnekleri için.
- Python Ortamı (Python bölümü için): Python 3.x yüklü ve paketleri yönetmek için
pip
. - Node.js Ortamı (JavaScript bölümü için): Node.js ve
npm
yüklü. - JSON Anlayışı: Ollama, verileri ve araç çağrılarını yapılandırmak için JSON kullanır.
Temel Fikirleri Anlamak: Akış ve Araç Çağrıları
"Akış yanıtları" ve "araç çağırma" ile ne kastettiğimizi açıklayalım.
Yanıt Akışı Nedir?
Bir yapay zeka ile sohbet ettiğinizi hayal edin. Yapay zekanın düşünmesini ve tüm cevabını yazmasını beklemek yerine, akış, yapay zeka yanıtını parça parça, kelime kelime, oluşturdukça size gönderir. Bu, etkileşimin gerçek bir konuşma gibi çok daha hızlı ve daha doğal hissetmesini sağlar.
Ollama ile, akışı etkinleştirdiğinizde ("stream": true
), bu artımlı güncellemeleri alırsınız.
Araç Çağırma Nasıl Çalışır?
Araç çağırma, yapay zeka modellerinizin sadece metin üretmekten daha fazlasını yapmasını sağlar. Yapay zekanın bilgi almak veya eylemler gerçekleştirmek için kullanmaya karar verebileceği "araçlar" - esasen fonksiyonlar veya harici API'ler - tanımlayabilirsiniz.
Örneğin, bir araç şunlar olabilir:
get_current_weather(location)
: Mevcut hava durumunu getirir.calculate_sum(number1, number2)
: Bir hesaplama yapar.search_web(query)
: İnternetten bilgi alır.
Bu araçları Ollama'ya tanımlarsınız ve yapay zeka bir aracı kullanmanın kullanıcının sorgusunu yanıtlamaya yardımcı olacağına karar verdiğinde, o aracı belirli argümanlarla çağırma niyetini sinyalleştirir. Uygulamanız daha sonra aracı çalıştırır ve sonuçları yapay zekaya geri göndererek konuşmaya devam edebilir.
Akışı Araç Çağırmayla Neden Birleştirmeli?
Ollama'nın büyük yükseltmesi, artık araç çağırmayı akış yanıtları sırasında işleyebilmesidir. Bu, uygulamanızın şunları yapabileceği anlamına gelir:
- Modelden ilk metni alın (akış halinde).
- Aniden, akış bir araç çağrısının gerekli olduğunu gösterebilir.
- Uygulamanız araç çağrısını işler.
- Bu arada, model daha fazla metin akışı yapabilir (örneğin, "Tamam, sizin için hava durumunu alacağım...").
- Uygulamanız aracın sonucunu aldıktan sonra, bunu modele geri gönderebilirsiniz ve araç çıktısından haberdar olarak yanıtını akış halinde sunmaya devam edecektir.
Bu, son derece duyarlı ve yetenekli yapay zeka uygulamaları oluşturur.
Bu Özellikleri Hangi Modeller Destekler?
Ollama bunu, şunlar dahil olmak üzere birçok popüler model için etkinleştirdi:
- Qwen 3
- Devstral
- Qwen2.5 ve Qwen2.5-coder
- Llama 3.1
- Llama 4
- ...ve sürekli olarak yenileri ekleniyor!
cURL ile İlk Akış Araç Çağrınızı Nasıl Yaparsınız?
cURL, Ollama'nın API'sini hızlıca test etmek için harika bir yoldur. Toronto'daki hava durumunu soralım.
Adım 1: Aracınızı Kavramsallaştırma
Aracımız get_current_weather
olacak. Şunlara ihtiyacı var:
location
(dize): örn., "Toronto"format
(dize): örn., "celsius" veya "fahrenheit"
Adım 2: cURL Komutunu Oluşturma
Terminalinizi açın ve aşağıdaki komutu hazırlayın. Bunu parçalayacağız:
curl <http://localhost:11434/api/chat> -d '{
"model": "qwen3",
"messages": [
{
"role": "user",
"content": "What is the weather today in Toronto?"
}
],
"stream": true,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather for a location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The location to get the weather for, e.g. San Francisco, CA"
},
"format": {
"type": "string",
"description": "The format to return the weather in, e.g. \\\\\\\\'celsius\\\\\\\\' or \\\\\\\\'fahrenheit\\\\\\\\'",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location", "format"]
}
}
}
]
}'
Parçalama:
curl <http://localhost:11434/api/chat
:> Komut ve Ollama'nın sohbet API uç noktası.d '{...}'
: JSON verilerini istek gövdesine gönderir."model": "qwen3"
: Hangi yapay zeka modelinin kullanılacağını belirtir."messages": [...]
: Konuşma geçmişi. Burada, sadece kullanıcının sorusu."stream": true
: Bu önemli! Ollama'ya yanıtı akış halinde sunmasını söyler."tools": [...]
: Modele sunulan araçları tanımladığımız bir dizi."type": "function"
: Araç türünü belirtir."function": {...}
: Fonksiyonu tanımlar."name": "get_current_weather"
: Aracın adı."description": "..."
: Modelin aracın ne yaptığını anlamasına yardımcı olur."parameters": {...}
: Aracın kabul ettiği argümanları tanımlar (JSON Şeması kullanarak).
Adım 3: Çıktıyı Yürütme ve Gözlemleme
Enter'a basın. Birbiri ardına görünen bir dizi JSON nesnesi göreceksiniz. Bu akış!
Akıştan örnek parçacıklar:
{
"model": "qwen3", "created_at": "...",
"message": { "role": "assistant", "content": "Okay, " }, "done": false
}
{
"model": "qwen3", "created_at": "...",
"message": { "role": "assistant", "content": "I will " }, "done": false
}
{
"model": "qwen3", "created_at": "...",
"message": { "role": "assistant", "content": "try to get that for you." }, "done": false
}
(Model, dahili sürecine bağlı olarak <think>...celsius...</think>
gibi bazı "düşünme" belirteçleri çıkarabilir, bunlar da akışın bir parçasıdır)
Ardından, kritik olarak, şuna benzer bir şey görebilirsiniz:
{
"model": "qwen3",
"created_at": "2025-05-27T22:54:58.100509Z",
"message": {
"role": "assistant",
"content": "", // Content might be empty when a tool call is made
"tool_calls": [
{
"function": {
"name": "get_current_weather",
"arguments": { // The arguments the model decided on!
"format": "celsius",
"location": "Toronto"
}
}
}
]
},
"done": false // Still not done, awaiting tool result
}
Neye Dikkat Etmeli:
- Her parça bir JSON nesnesidir.
"done": false
, akışın devam ettiği anlamına gelir. Son parça"done": true
olacaktır."message"
nesnesi şunları içerir:"role": "assistant"
"content"
: Akışın metin kısmı."tool_calls"
: Model bir araç kullanmak istediğinde görünen bir dizi. Aracınname
'ini ve karar verdiğiarguments
'ı içerir.
Gerçek bir uygulamada, bir tool_calls
parçası gördüğünüzde, kodunuz şunları yapacaktır:
- Akışın işlenmesini duraklatın (veya eşzamansız olarak işleyin).
- Gerçek
get_current_weather
fonksiyonunu/API'sini "Toronto" ve "celsius" ile çalıştırın. - Sonucu alın (örneğin, "20 derece Celsius").
- Bu sonucu Ollama'ya
role: "tool"
ile yeni bir mesajda geri gönderin. - Model daha sonra bu bilgiyi kullanarak yanıtını, aynı zamanda akış halinde, oluşturmaya devam edecektir.
Python Kullanarak Araç Çağrılarını Nasıl Akış Halinde Sunarsınız?
Ollama'nın resmi kitaplığını kullanarak benzer bir fikri Python'da uygulayalım.
Adım 1: Ollama Python Kütüphanesini Yükleme
Henüz yapmadıysanız, kitaplığı yükleyin veya yükseltin:
pip install -U ollama
Adım 2: Aracınızı Tanımlama ve Python'da Kodlama
Ollama Python SDK'sı, Python fonksiyonlarını doğrudan araç olarak geçirmenize olanak tanır. Yapay zeka için şemayı oluşturmak üzere fonksiyon imzasını ve docstring'i inceler.
Basit bir matematik aracı örneği oluşturalım (girdi add_two_numbers
kullanır, ancak çıktı örneği model tarafından çağrılan subtract_two_numbers
'ı gösterir. Tanım için sağlanan add_two_numbers
'a bağlı kalacağız ve modelin isteme göre ne yapacağına karar vermesine izin vereceğiz.)
import ollama
# Define the python function that can be used as a tool
def add_two_numbers(a: int, b: int) -> int:
"""
Add two numbers.
Args:
a (int): The first number as an int.
b (int): The second number as an int.
Returns:
int: The sum of the two numbers.
"""
print(f"--- Tool 'add_two_numbers' called with a={a}, b={b} ---")
return a + b
# --- Main conversation logic ---
messages = [{'role': 'user', 'content': 'What is three plus one?'}]
# Or, for the subtraction example in the original output:
# messages = [{'role': 'user', 'content': 'what is three minus one?'}]
print(f"User: {messages[0]['content']}")
# Make the chat request with streaming and the tool
# Note: ChatResponse type hint might be ollama.ChatResponse or similar depending on library version
response_stream = ollama.chat(
model='qwen3', # Or another capable model
messages=messages,
tools=[
{ # You can also define the tool explicitly if needed, or pass the function directly
'type': 'function',
'function': {
'name': 'add_two_numbers', # Must match the Python function name if you want it to be called directly by your code later
'description': 'Add two integer numbers together.',
'parameters': {
'type': 'object',
'properties': {
'a': {'type': 'integer', 'description': 'The first number'},
'b': {'type': 'integer', 'description': 'The second number'}
},
'required': ['a', 'b']
}
}
}
# Simpler way for Python: pass the function directly if the library supports easy schema generation from it
# tools=[add_two_numbers] # The SDK can often create the schema from this
],
stream=True
)
print("Assistant (streaming):")
full_response_content = ""
tool_call_info = None
for chunk in response_stream:
# Print the streamed content part
if chunk['message']['content']:
print(chunk['message']['content'], end='', flush=True)
full_response_content += chunk['message']['content']
# Check for tool calls in the chunk
if 'tool_calls' in chunk['message'] and chunk['message']['tool_calls']:
tool_call_info = chunk['message']['tool_calls'][0] # Assuming one tool call for simplicity
print(f"\\\\n--- Detected Tool Call: {tool_call_info['function']['name']} ---")
break # Stop processing stream for now, handle tool call
if chunk.get('done'):
print("\\\\n--- Stream finished ---")
if not tool_call_info:
print("No tool call was made.")
# --- If a tool call was detected, handle it ---
if tool_call_info:
tool_name = tool_call_info['function']['name']
tool_args = tool_call_info['function']['arguments']
print(f"Arguments for the tool: {tool_args}")
# Here, you'd actually call your Python tool function
if tool_name == "add_two_numbers":
# For safety, ensure arguments are of correct type if necessary
try:
arg_a = int(tool_args.get('a'))
arg_b = int(tool_args.get('b'))
tool_result = add_two_numbers(a=arg_a, b=arg_b)
print(f"--- Tool execution result: {tool_result} ---")
# Now, send this result back to Ollama to continue the conversation
messages.append({'role': 'assistant', 'content': full_response_content, 'tool_calls': [tool_call_info]})
messages.append({
'role': 'tool',
'content': str(tool_result), # Result must be a string
'tool_call_id': tool_call_info.get('id', '') # If your library/model provides a tool_call_id
})
print("\\\\n--- Sending tool result back to model ---")
follow_up_response_stream = ollama.chat(
model='qwen3',
messages=messages,
stream=True
# No tools needed here unless you expect another tool call
)
print("Assistant (after tool call):")
for follow_up_chunk in follow_up_response_stream:
if follow_up_chunk['message']['content']:
print(follow_up_chunk['message']['content'], end='', flush=True)
if follow_up_chunk.get('done'):
print("\\\\n--- Follow-up stream finished ---")
break
except ValueError:
print("Error: Could not parse tool arguments as integers.")
except Exception as e:
print(f"An error occurred during tool execution or follow-up: {e}")
else:
print(f"Error: Unknown tool '{tool_name}' requested by the model.")
Python Kodunun Açıklaması:
ollama
'yı içe aktar.add_two_numbers
fonksiyonu: Bu bizim aracımız. Docstring ve tür ipuçları, Ollama'nın amacını ve parametrelerini anlamasına yardımcı olur.messages
: Konuşmaya kullanıcının sorgusuyla başlarız.ollama.chat(...)
:
model
,messages
,stream=True
, cURL'e benzer.tools=[...]
: Araç tanımını sağlıyoruz. Python SDK'sı oldukça esnektir; şemayı çıkarabiliyorsa fonksiyon nesnesini doğrudan geçebilirsiniz (örneğin,tools=[add_two_numbers]
) veya gösterildiği gibi açıkça tanımlayabilirsiniz.
response_stream
üzerinden döngü:
chunk['message']['content']
: Bu, akış halindeki metindir. Hemen yazdırırız.chunk['message']['tool_calls']
: Bu anahtar varsa ve içeriği varsa, yapay zeka bir araç kullanmak istiyor demektir. Butool_call_info
'yu saklar ve onu işlemek için döngüyü keseriz.
- Araç Çağrısını İşleme:
tool_name
vetool_args
'ı çıkarırız.- Gerçek Python fonksiyonumuzu (
add_two_numbers
) bu argümanlarla çağırırız. - Önemli Olarak: Daha sonra, yapay zekanın kısmi yanıtını (araç çağrısına yol açan) ve
role: "tool"
ve fonksiyonumuzun stringleştirilmiş sonucu olarakcontent
ile yeni bir mesajımessages
listesine ekleriz. - Yapay zekanın aracın çıktısına göre nihai yanıtını almak için bu güncellenmiş mesajlarla başka bir
ollama.chat
çağrısı yaparız.
Beklenen Çıktı Akışı: İlk kullanıcı sorusunu, ardından asistanın yanıtının akış halinde sunulmasını göreceksiniz. add_two_numbers
'ı (veya orijinal materyalin örnek çıktısındaki gibi, istem çıkarma içinse subtract_two_numbers
'ı) çağırmaya karar verirse, "Araç Çağrısı Algılandı" mesajını, argümanları, Python fonksiyonunuzun sonucunu ve ardından asistanın bu sonucu kullanarak yanıtına devam ettiğini göreceksiniz.
(Orijinal örnek çıktı şunu gösteriyordu:
<think>
Okay, the user is asking ...
</think>
[ToolCall(function=Function(name='subtract_two_numbers', arguments={'a': 3, 'b': 1}))]
Bu, yapay zekanın dahili "düşünce" sürecini ve ardından Python SDK'sının sağladığı yapılandırılmış araç çağrısı nesnesini gösterir.)
JavaScript (Node.js) Kullanarak Araç Çağrılarını Nasıl Akış Halinde Sunarsınız?
Şimdi, genellikle bir Node.js arka ucu veya web uygulaması için aynı şeyi JavaScript ile yapalım.
Adım 1: Ollama JavaScript Kütüphanesini Yükleme
Proje dizininizde şunu çalıştırın:
npm i ollama
Adım 2: Araç Şemasını Tanımlama ve JavaScript'te Kodlama
JavaScript'te, genellikle araç şemasını bir JSON nesnesi olarak tanımlarsınız.
import ollama from 'ollama';
// Describe the tool schema (e.g., for adding two numbers)
const addTool = {
type: 'function',
function: {
name: 'addTwoNumbers',
description: 'Add two numbers together',
parameters: {
type: 'object',
required: ['a', 'b'],
properties: {
a: { type: 'number', description: 'The first number' },
b: { type: 'number', description: 'The second number' }
}
}
}
};
// Your actual JavaScript function that implements the tool
function executeAddTwoNumbers(a, b) {
console.log(`--- Tool 'addTwoNumbers' called with a=${a}, b=${b} ---`);
return a + b;
}
async function main() {
const messages = [{ role: 'user', content: 'What is 2 plus 3?' }];
console.log('User:', messages[0].content);
console.log('Assistant (streaming):');
let assistantResponseContent = "";
let toolToCallInfo = null;
try {
const responseStream = await ollama.chat({
model: 'qwen3', // Or another capable model
messages: messages,
tools: [addTool],
stream: true
});
for await (const chunk of responseStream) {
if (chunk.message.content) {
process.stdout.write(chunk.message.content);
assistantResponseContent += chunk.message.content;
}
if (chunk.message.tool_calls && chunk.message.tool_calls.length > 0) {
toolToCallInfo = chunk.message.tool_calls[0]; // Assuming one tool call
process.stdout.write(`\\\\n--- Detected Tool Call: ${toolToCallInfo.function.name} ---\\\\n`);
break; // Stop processing stream to handle tool call
}
if (chunk.done) {
process.stdout.write('\\\\n--- Stream finished ---\\\\n');
if (!toolToCallInfo) {
console.log("No tool call was made.");
}
break;
}
}
// --- If a tool call was detected, handle it ---
if (toolToCallInfo) {
const toolName = toolToCallInfo.function.name;
const toolArgs = toolToCallInfo.function.arguments;
console.log(`Arguments for the tool:`, toolArgs);
let toolResult;
if (toolName === 'addTwoNumbers') {
toolResult = executeAddTwoNumbers(toolArgs.a, toolArgs.b);
console.log(`--- Tool execution result: ${toolResult} ---`);
// Append assistant's partial message and the tool message
messages.push({
role: 'assistant',
content: assistantResponseContent, // Include content leading up to tool call
tool_calls: [toolToCallInfo]
});
messages.push({
role: 'tool',
content: toolResult.toString(), // Result must be a string
// tool_call_id: toolToCallInfo.id // If available and needed
});
console.log("\\\\n--- Sending tool result back to model ---");
const followUpStream = await ollama.chat({
model: 'qwen3',
messages: messages,
stream: true
});
console.log("Assistant (after tool call):");
for await (const followUpChunk of followUpStream) {
if (followUpChunk.message.content) {
process.stdout.write(followUpChunk.message.content);
}
if (followUpChunk.done) {
process.stdout.write('\\\\n--- Follow-up stream finished ---\\\\n');
break;
}
}
} else {
console.error(`Error: Unknown tool '${toolName}' requested.`);
}
}
} catch (error) {
console.error('Error during Ollama chat:', error);
}
}
main().catch(console.error);
JavaScript Kodunun Açıklaması:
ollama
'yı içe aktar.addTool
nesnesi: Bu, aracımızı Ollama'ya açıklayan JSON şemasıdır.executeAddTwoNumbers
fonksiyonu: Aracımız için gerçek JavaScript fonksiyonumuz.main
async fonksiyonu:
messages
dizisi konuşmayı başlatır.await ollama.chat({...})
: Çağrıyı yapar.tools: [addTool]
: Araç şemamızı geçirir.stream: true
: Akışı etkinleştirir.for await (const chunk of responseStream)
: Bu döngü, akış halindeki her parçayı işler.chunk.message.content
: Akışın metin kısmı.chunk.message.tool_calls
: Varsa, yapay zeka bir araç kullanmak istiyor.toolToCallInfo
'yu saklarız.
- Araç Çağrısını İşleme: Python'a benzer şekilde,
toolToCallInfo
ayarlanırsa:
- Adı ve argümanları çıkarın.
executeAddTwoNumbers()
'ı çağırın.- Asistanın mesajını (araç çağrısı isteğini içeren) ve sonuçla birlikte yeni bir
role: "tool"
mesajınımessages
dizisine ekleyin. - Nihai yanıtı almak için güncellenmiş mesajlarla başka bir
ollama.chat
çağrısı yapın.
Beklenen Çıktı Akışı (cURL ve Python örneklerine benzer): Kullanıcının sorusunu, ardından asistanın yanıtının akışını göreceksiniz. addTwoNumbers
'ı çağırmaya karar verdiğinde, araç çağrısı bilgilerini, JavaScript fonksiyonunuzdan gelen sonucu yazdıracak ve ardından yapay zekanın o sonuca dayalı olarak yanıtını akış halinde sunmaya devam edecektir.
JS için orijinal örnek çıktı şöyle görünüyordu:
Question: What is 2 plus 3?
<think>
Okay, the user is asking...
</think>
Tool call: {
function: {
name: "addTwoNumbers",
arguments: { a: 2, b: 3 },
},
}
Ollama, Akış Sırasında Araç Ayrıştırmayı Nasıl İşler?
Ollama'nın metni nasıl akış halinde sunduğunu ve araç çağrılarını bu kadar sorunsuz bir şekilde nasıl tanımladığını merak edebilirsiniz. Akıllıca yeni bir artımlı ayrıştırıcı kullanır.
- Eski Yöntem: Birçok sistem, tüm yapay zeka yanıtını beklemek, ardından araç çağrılarını (genellikle JSON olarak biçimlendirilmiş) taramak zorundaydı. Bu, bir araç çağrısı herhangi bir yerde görünebileceğinden akışı engelledi.
- Ollama'nın Yeni Yöntemi:
- Ayrıştırıcı, bir araç çağrısını nasıl sinyalleştirdiğini anlamak için her modelin özel şablonuna bakar (örneğin, özel belirteçler veya önekler).
- Bu, Ollama'nın araç çağrılarını normal metin içeriğinden ayırarak, veriler akış halinde gelirken "artımlı" olarak tanımlamasına olanak tanır.
- Açıkça araç önekleriyle eğitilmemiş ancak yine de geçerli araç çağrısı yapıları oluşturmayı başaran modelleri işleyecek kadar akıllıdır. Hatta gerekirse JSON benzeri yapılar aramaya geri dönebilir, ancak akıllıca, sadece herhangi bir JSON'u kapmaz.
Bu neden daha iyi?
- Gerçek Akış: Hemen metin alırsınız ve araç çağrıları anında tanımlanır.
- Doğruluk: Yanlış pozitiflerden kaçınmada daha iyidir (örneğin, yapay zeka daha önce yaptığı bir araç çağrısından bahsederse, yeni ayrıştırıcı onu tekrar yanlışlıkla tetikleme olasılığı daha düşüktür).
İpucu: Bağlam Penceresi ile Performansı İyileştirme
Daha karmaşık etkileşimler için, özellikle araç çağırma ile, modelin kullandığı "bağlam penceresinin" boyutu önemli olabilir. Daha büyük bir bağlam penceresi, modelin mevcut konuşmanın daha fazlasını hatırlaması anlamına gelir.
- Model Bağlam Protokolü (MCP): Ollama'nın iyileştirmeleri MCP ile iyi çalışır.
num_ctx
: Genellikle bir bağlam penceresi boyutu önerebilirsiniz. Örneğin, 32.000 (32k
) belirteç veya daha fazlası, araç çağırma performansını ve sonuçların kalitesini artırabilir.- Takas: Daha büyük bağlam pencereleri daha fazla bellek kullanır.
Örnek: cURL ile Bağlam Penceresi Ayarlama(Orijinal materyalde önerildiği gibi llama3.1
veya llama4
gibi daha büyük bağlamları destekleyen bir model kullanın - ancak örnek llama3.2
kullanır)
curl -X POST "<http://localhost:11434/api/chat>" -d '{
"model": "llama3.1",
"messages": [
{
"role": "user",
"content": "why is the sky blue?"
}
],
"options": {
"num_ctx": 32000
}
}'
Araç çağırmanın istediğiniz kadar güvenilir olmadığını fark ederseniz bu ayarla deney yapın.
Buradan Nereye Gidilir?
Artık, akış yanıtları ve araç