So führen Sie Mistral Small 3.1 lokal mit Ollama aus: Eine Schritt-für-Schritt-Anleitung

Erfahre, wie du Mistral Small 3.1 lokal mit Ollama ausführst. Einfache Anleitung zu Einrichtung, Nutzung und Tipps.

Leo Schulz

Leo Schulz

8 September 2025

So führen Sie Mistral Small 3.1 lokal mit Ollama aus: Eine Schritt-für-Schritt-Anleitung

```html

Das lokale Ausführen fortschrittlicher KI-Modelle bietet Entwicklern und Technikbegeisterten beispiellose Kontrolle, Datenschutz und Anpassungsmöglichkeiten. Wenn Sie die Leistungsfähigkeit modernster künstlicher Intelligenz auf Ihrem eigenen Rechner nutzen möchten, bietet Mistral Small 3.1 in Kombination mit Ollama eine hervorragende Lösung. Mistral Small 3.1 ist ein hochmodernes Sprachmodell, das von Mistral AI entwickelt wurde und über 24 Milliarden Parameter und eine erstklassige Leistung in seiner Gewichtsklasse verfügt. Inzwischen vereinfacht Ollama den Prozess der lokalen Bereitstellung solcher Large Language Models (LLMs) und macht es auch für diejenigen mit bescheidenen technischen Voraussetzungen zugänglich. In diesem umfassenden Leitfaden führen wir Sie durch jeden Schritt, um Mistral Small 3.1 mit Ollama auf Ihrem System zum Laufen zu bringen. Außerdem zeigen wir Ihnen, wie Sie Ihre Erfahrung verbessern können, indem Sie Apidog integrieren, ein leistungsstarkes Tool für die API-Entwicklung und -Tests.

Warum lokal arbeiten? Durch die Ausführung von Mistral Small 3.1 auf Ihrem Rechner behalten Sie Ihre Daten privat, vermeiden Cloud-Kosten und erhalten die Flexibilität, das Modell für Ihre Bedürfnisse anzupassen, egal ob Sie einen Chatbot erstellen, Code generieren oder mehrsprachigen Text verarbeiten.

💡
Um die Interaktion mit Ihrem lokalen Modell noch reibungsloser zu gestalten, empfehlen wir die Verwendung von Apidog. Mit diesem kostenlosen API-Tool können Sie die Endpunkte Ihres Modells mühelos testen und debuggen. Laden Sie Apidog noch heute kostenlos herunter und optimieren Sie Ihren Workflow, während Sie die Fähigkeiten von Mistral Small 3.1 erkunden!
button

Warum Mistral Small 3.1 und Ollama wählen?

Bevor wir uns mit der Einrichtung befassen, wollen wir untersuchen, warum Mistral Small 3.1 und Ollama ein so überzeugendes Paar bilden. Mistral Small 3.1, das unter der Open-Source-Lizenz Apache 2.0 veröffentlicht wurde, liefert eine außergewöhnliche Leistung für seine Größe. Mit einem 128k-Token-Kontextfenster verarbeitet es lange Gespräche oder Dokumente mit Leichtigkeit. Es unterstützt auch mehrere Sprachen und multimodale Eingaben, was es vielseitig für Aufgaben wie Texterstellung, Übersetzung oder sogar Bildunterschriftenanalyse macht. Entwickler lieben seine Effizienz, da es mit größeren Modellen konkurriert und gleichzeitig auf relativ bescheidener Hardware läuft.

Ollama hingegen ist ein leichtgewichtiges Tool, das für die lokale Ausführung von LLMs entwickelt wurde. Es abstrahiert einen Großteil der Komplexität, denken Sie an Dependency Management oder GPU-Konfiguration, sodass Sie sich auf die Verwendung des Modells konzentrieren können, anstatt sich mit Einrichtungshürden herumzuschlagen. Zusammen ermöglichen Mistral Small 3.1 und Ollama Ihnen die Bereitstellung eines leistungsstarken KI-Modells, ohne sich auf Cloud-Dienste verlassen zu müssen.

Ollama auf Ihrem Rechner installieren

Ollama vereinfacht die lokale Ausführung von LLMs, und die Installation ist unkompliziert. Befolgen Sie diese Schritte, um es zum Laufen zu bringen:

Installieren Sie Ollama: Laden Sie es von Ollamas offizieller Website herunter und befolgen Sie die Anweisungen.

Installation überprüfen: Bestätigen Sie, dass Ollama korrekt installiert wurde, indem Sie die Version überprüfen:

ollama --version

Sie sollten eine Versionsnummer sehen (z. B. 0.1.x). Wenn nicht, beheben Sie das Problem, indem Sie sicherstellen, dass Ihr PATH die Binärdatei von Ollama enthält.

Nach der Installation von Ollama sind Sie einen Schritt näher daran, Mistral Small 3.1 auszuführen. Als Nächstes müssen Sie die Modellgewichte abrufen.

Herunterladen der Modellgewichte von Mistral Small 3.1

Öffnen Sie Ihr Terminal und geben Sie Folgendes ein:

ollama pull cnjack/mistral-samll-3.1

Dadurch werden die Modellgewichte auf Ihren lokalen Speicher heruntergeladen (eine Community-Version von mistral small 3.1). Link: https://ollama.com/cnjack/mistral-samll-3.1

Je nach Ihrer Internetgeschwindigkeit kann dies aufgrund der Dateigröße von über 50 GB 15–30 Minuten dauern.

Download überprüfen: Führen Sie ollama list erneut aus. Sie sollten mistral-small-3.1 sehen, was darauf hindeutet, dass es einsatzbereit ist.

Nun, da Sie das Modell haben, laden wir es in Ollama und beginnen, seine Fähigkeiten zu erkunden.

Laden von Mistral Small 3.1 in Ollama

Durch das Laden des Modells wird es für die Inferenz vorbereitet. Ollama übernimmt die schwere Arbeit, daher ist dieser Schritt schnell:

  1. Laden Sie das Modell: Führen Sie diesen Befehl aus, um Mistral Small 3.1 in den Speicher zu laden:
ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_S

Wenn Sie dies zum ersten Mal ausführen, initialisiert Ollama das Modell, was je nach Hardware einige Minuten dauern kann. Nachfolgende Läufe sind schneller.

  1. Testen Sie es: Sobald es geladen ist, führt Ollama Sie zu einer interaktiven Eingabeaufforderung. Geben Sie eine einfache Abfrage ein:
Hallo, wie funktioniert Mistral Small 3.1?

Das Modell antwortet direkt im Terminal und zeigt seine Textgenerierungsfähigkeiten.

An diesem Punkt ist Mistral Small 3.1 betriebsbereit. Um jedoch sein volles Potenzial auszuschöpfen, insbesondere für den programmgesteuerten Zugriff, wollen wir untersuchen, wie man weiter mit ihm interagieren kann.

Lokale Interaktion mit Mistral Small 3.1

Sie können mit Mistral Small 3.1 auf zwei Arten interagieren: direkte Befehlszeilen-Inferenz oder über einen API-Server. Beide Methoden nutzen die Flexibilität von Ollama, und wir werden Apidog für den API-Ansatz einbinden.

Methode 1: Direkte Inferenz über die Befehlszeile

Verwenden Sie für schnelle Tests oder einmalige Generierungen den Befehl run von Ollama mit einer Eingabeaufforderung:

ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_S "Schreibe ein kurzes Gedicht über KI."

Das Modell verarbeitet die Eingabe und gibt eine Antwort aus, z. B.:

Künstliche Geister in tiefen Schaltkreisen,
Lernen Muster, während wir schlafen,
Stimmen des Codes, sie sprechen sanft,
Eine strahlende Zukunft, ihre Gedanken bewahren wir.

Diese Methode eignet sich für Experimente, weist aber keine Skalierbarkeit auf. Richten Sie für robustere Anwendungen einen API-Server ein.

Methode 2: Ausführen von Mistral Small 3.1 als API-Server

Um Mistral Small 3.1 in Projekte zu integrieren oder systematisch zu testen, führen Sie es als lokalen API-Server aus:

  1. Starten Sie den Server: Starten Sie Ollama im Servermodus:
ollama serve

Dadurch wird eine REST-API unter http://localhost:11434 gestartet (Ollamas Standardport). Lassen Sie dies in einem Terminal laufen.

  1. Testen Sie die API: Verwenden Sie in einem neuen Terminal curl, um eine Anfrage zu senden:
curl http://localhost:11434/api/generate -d '{"model": "mistral-small-3.1", "prompt": "Erkläre KI in einem Satz."}'

Die Antwort könnte so aussehen:

{
  "response": "KI ist die Simulation menschlicher Intelligenz durch Maschinen, die es ihnen ermöglicht, zu lernen, zu argumentieren und Aufgaben autonom auszuführen."
}

Diese API-Einrichtung öffnet die Tür zu erweiterten Interaktionen, bei denen Apidog glänzt.

Verwenden von Apidog zur Interaktion mit der API von Mistral Small 3.1

Apidog vereinfacht das Testen und die Entwicklung von APIs und eignet sich daher perfekt für die Abfrage Ihres lokalen Mistral Small 3.1-Servers. So richten Sie es ein:

Installieren Sie Apidog:

button

Erstellen Sie ein neues Projekt:

Fügen Sie eine API-Anfrage hinzu:

Konfigurieren Sie den Anfragetext:

{
  "model": "mistral-small-3.1",
  "prompt": "Generiere ein Python-Skript, um 'Hallo, KI!' auszugeben",
  "stream": false
}

Senden und überprüfen:

{
  "response": "print('Hallo, KI!')"
}

Die intuitive Benutzeroberfläche von Apidog ermöglicht es Ihnen, mit Eingabeaufforderungen zu experimentieren, Antwortzeiten zu überwachen und sogar Tests zu automatisieren – ideal für Entwickler, die auf Mistral Small 3.1 aufbauen.

Behebung häufiger Probleme

Das lokale Ausführen eines Modells mit 24B-Parametern kann zu Problemen führen. Hier sind Lösungen für häufige Probleme:

Mit diesen Tipps können Sie die meisten Probleme beheben und Mistral Small 3.1 am Laufen halten.

Optimieren und Erweitern Sie Ihr Setup

Nachdem Mistral Small 3.1 lokal ausgeführt wird, sollten Sie in Erwägung ziehen, es zu erweitern:

Diese Schritte schalten das volle Potenzial von Mistral Small 3.1 frei und passen es an Ihre individuellen Projekte an.

Fazit

Das lokale Ausführen von Mistral Small 3.1 mit Ollama ist ein Wendepunkt für Entwickler und KI-Enthusiasten. Dieser Leitfaden hat Sie durch den Prozess geführt, von der Zusammenstellung der Voraussetzungen über die Installation von Ollama und das Herunterladen des Modells bis hin zur Interaktion damit über die Befehlszeile oder die API. Durch das Hinzufügen von Apidog in den Mix optimieren Sie das API-Testen und eröffnen neue Möglichkeiten für die Integration. Mit seinen 24 Milliarden Parametern, dem 128k-Token-Kontext und der Open-Source-Flexibilität bietet Mistral Small 3.1 immense Leistung an Ihren Fingerspitzen. Beginnen Sie noch heute mit dem Experimentieren und sehen Sie, wie dieses Duo Ihre Projekte verändern kann.

button

```

Explore more

So verwenden Sie Deepseek R1 lokal mit Cursor

So verwenden Sie Deepseek R1 lokal mit Cursor

Erfahre, wie du DeepSeek R1 lokal mit Cursor IDE einrichtest & konfigurierst – privates, kostengünstiges KI-Coding.

4 June 2025

Wie man Gemma 3n auf Android ausführt?

Wie man Gemma 3n auf Android ausführt?

Erfahre, wie du Gemma 3n auf Android installierst und ausführst, mit Google AI Edge Gallery.

3 June 2025

So verwenden Sie den Google Search Console MCP-Server

So verwenden Sie den Google Search Console MCP-Server

Google Search Console & Apidog: SEO-Analyse & KI-API-Entwicklung. Installation, Konfiguration & Nutzung für Web-Performance & API-Einblicke.

30 May 2025

Praktizieren Sie API Design-First in Apidog

Entdecken Sie eine einfachere Möglichkeit, APIs zu erstellen und zu nutzen