```html
Das lokale Ausführen fortschrittlicher KI-Modelle bietet Entwicklern und Technikbegeisterten beispiellose Kontrolle, Datenschutz und Anpassungsmöglichkeiten. Wenn Sie die Leistungsfähigkeit modernster künstlicher Intelligenz auf Ihrem eigenen Rechner nutzen möchten, bietet Mistral Small 3.1 in Kombination mit Ollama eine hervorragende Lösung. Mistral Small 3.1 ist ein hochmodernes Sprachmodell, das von Mistral AI entwickelt wurde und über 24 Milliarden Parameter und eine erstklassige Leistung in seiner Gewichtsklasse verfügt. Inzwischen vereinfacht Ollama den Prozess der lokalen Bereitstellung solcher Large Language Models (LLMs) und macht es auch für diejenigen mit bescheidenen technischen Voraussetzungen zugänglich. In diesem umfassenden Leitfaden führen wir Sie durch jeden Schritt, um Mistral Small 3.1 mit Ollama auf Ihrem System zum Laufen zu bringen. Außerdem zeigen wir Ihnen, wie Sie Ihre Erfahrung verbessern können, indem Sie Apidog integrieren, ein leistungsstarkes Tool für die API-Entwicklung und -Tests.

Warum lokal arbeiten? Durch die Ausführung von Mistral Small 3.1 auf Ihrem Rechner behalten Sie Ihre Daten privat, vermeiden Cloud-Kosten und erhalten die Flexibilität, das Modell für Ihre Bedürfnisse anzupassen, egal ob Sie einen Chatbot erstellen, Code generieren oder mehrsprachigen Text verarbeiten.
Warum Mistral Small 3.1 und Ollama wählen?
Bevor wir uns mit der Einrichtung befassen, wollen wir untersuchen, warum Mistral Small 3.1 und Ollama ein so überzeugendes Paar bilden. Mistral Small 3.1, das unter der Open-Source-Lizenz Apache 2.0 veröffentlicht wurde, liefert eine außergewöhnliche Leistung für seine Größe. Mit einem 128k-Token-Kontextfenster verarbeitet es lange Gespräche oder Dokumente mit Leichtigkeit. Es unterstützt auch mehrere Sprachen und multimodale Eingaben, was es vielseitig für Aufgaben wie Texterstellung, Übersetzung oder sogar Bildunterschriftenanalyse macht. Entwickler lieben seine Effizienz, da es mit größeren Modellen konkurriert und gleichzeitig auf relativ bescheidener Hardware läuft.

Ollama hingegen ist ein leichtgewichtiges Tool, das für die lokale Ausführung von LLMs entwickelt wurde. Es abstrahiert einen Großteil der Komplexität, denken Sie an Dependency Management oder GPU-Konfiguration, sodass Sie sich auf die Verwendung des Modells konzentrieren können, anstatt sich mit Einrichtungshürden herumzuschlagen. Zusammen ermöglichen Mistral Small 3.1 und Ollama Ihnen die Bereitstellung eines leistungsstarken KI-Modells, ohne sich auf Cloud-Dienste verlassen zu müssen.
Ollama auf Ihrem Rechner installieren
Ollama vereinfacht die lokale Ausführung von LLMs, und die Installation ist unkompliziert. Befolgen Sie diese Schritte, um es zum Laufen zu bringen:
Installieren Sie Ollama: Laden Sie es von Ollamas offizieller Website herunter und befolgen Sie die Anweisungen.

Installation überprüfen: Bestätigen Sie, dass Ollama korrekt installiert wurde, indem Sie die Version überprüfen:
ollama --version

Sie sollten eine Versionsnummer sehen (z. B. 0.1.x). Wenn nicht, beheben Sie das Problem, indem Sie sicherstellen, dass Ihr PATH die Binärdatei von Ollama enthält.
Nach der Installation von Ollama sind Sie einen Schritt näher daran, Mistral Small 3.1 auszuführen. Als Nächstes müssen Sie die Modellgewichte abrufen.
Herunterladen der Modellgewichte von Mistral Small 3.1
Öffnen Sie Ihr Terminal und geben Sie Folgendes ein:
ollama pull cnjack/mistral-samll-3.1
Dadurch werden die Modellgewichte auf Ihren lokalen Speicher heruntergeladen (eine Community-Version von mistral small 3.1). Link: https://ollama.com/cnjack/mistral-samll-3.1
Je nach Ihrer Internetgeschwindigkeit kann dies aufgrund der Dateigröße von über 50 GB 15–30 Minuten dauern.
Download überprüfen: Führen Sie ollama list erneut aus. Sie sollten mistral-small-3.1 sehen, was darauf hindeutet, dass es einsatzbereit ist.
Nun, da Sie das Modell haben, laden wir es in Ollama und beginnen, seine Fähigkeiten zu erkunden.
Laden von Mistral Small 3.1 in Ollama
Durch das Laden des Modells wird es für die Inferenz vorbereitet. Ollama übernimmt die schwere Arbeit, daher ist dieser Schritt schnell:
- Laden Sie das Modell: Führen Sie diesen Befehl aus, um Mistral Small 3.1 in den Speicher zu laden:
ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_SWenn Sie dies zum ersten Mal ausführen, initialisiert Ollama das Modell, was je nach Hardware einige Minuten dauern kann. Nachfolgende Läufe sind schneller.
- Testen Sie es: Sobald es geladen ist, führt Ollama Sie zu einer interaktiven Eingabeaufforderung. Geben Sie eine einfache Abfrage ein:
Hallo, wie funktioniert Mistral Small 3.1?
Das Modell antwortet direkt im Terminal und zeigt seine Textgenerierungsfähigkeiten.
An diesem Punkt ist Mistral Small 3.1 betriebsbereit. Um jedoch sein volles Potenzial auszuschöpfen, insbesondere für den programmgesteuerten Zugriff, wollen wir untersuchen, wie man weiter mit ihm interagieren kann.
Lokale Interaktion mit Mistral Small 3.1
Sie können mit Mistral Small 3.1 auf zwei Arten interagieren: direkte Befehlszeilen-Inferenz oder über einen API-Server. Beide Methoden nutzen die Flexibilität von Ollama, und wir werden Apidog für den API-Ansatz einbinden.
Methode 1: Direkte Inferenz über die Befehlszeile
Verwenden Sie für schnelle Tests oder einmalige Generierungen den Befehl run von Ollama mit einer Eingabeaufforderung:
ollama run cnjack/mistral-samll-3.1:24b-it-q4_K_S "Schreibe ein kurzes Gedicht über KI."
Das Modell verarbeitet die Eingabe und gibt eine Antwort aus, z. B.:
Künstliche Geister in tiefen Schaltkreisen,
Lernen Muster, während wir schlafen,
Stimmen des Codes, sie sprechen sanft,
Eine strahlende Zukunft, ihre Gedanken bewahren wir.
Diese Methode eignet sich für Experimente, weist aber keine Skalierbarkeit auf. Richten Sie für robustere Anwendungen einen API-Server ein.
Methode 2: Ausführen von Mistral Small 3.1 als API-Server
Um Mistral Small 3.1 in Projekte zu integrieren oder systematisch zu testen, führen Sie es als lokalen API-Server aus:
- Starten Sie den Server: Starten Sie Ollama im Servermodus:
ollama serve
Dadurch wird eine REST-API unter http://localhost:11434 gestartet (Ollamas Standardport). Lassen Sie dies in einem Terminal laufen.
- Testen Sie die API: Verwenden Sie in einem neuen Terminal
curl, um eine Anfrage zu senden:
curl http://localhost:11434/api/generate -d '{"model": "mistral-small-3.1", "prompt": "Erkläre KI in einem Satz."}'
Die Antwort könnte so aussehen:
{
"response": "KI ist die Simulation menschlicher Intelligenz durch Maschinen, die es ihnen ermöglicht, zu lernen, zu argumentieren und Aufgaben autonom auszuführen."
}
Diese API-Einrichtung öffnet die Tür zu erweiterten Interaktionen, bei denen Apidog glänzt.
Verwenden von Apidog zur Interaktion mit der API von Mistral Small 3.1
Apidog vereinfacht das Testen und die Entwicklung von APIs und eignet sich daher perfekt für die Abfrage Ihres lokalen Mistral Small 3.1-Servers. So richten Sie es ein:
Installieren Sie Apidog:
- Gehen Sie zu Apidogs Website und laden Sie die kostenlose Desktop-App für Ihr Betriebssystem herunter.
- Installieren Sie es gemäß den Anweisungen auf dem Bildschirm.
Erstellen Sie ein neues Projekt:
- Öffnen Sie Apidog und klicken Sie auf „Neues Projekt“.
- Nennen Sie es beispielsweise „Mistral Small 3.1 Local API“.

Fügen Sie eine API-Anfrage hinzu:
- Klicken Sie auf „Neue Anfrage“ und legen Sie die Methode auf
POSTfest. - Geben Sie den Endpunkt ein:
http://localhost:11434/api/generate.

Konfigurieren Sie den Anfragetext:
- Wechseln Sie zur Registerkarte „Body“, wählen Sie „JSON“ und geben Sie Folgendes ein:
{
"model": "mistral-small-3.1",
"prompt": "Generiere ein Python-Skript, um 'Hallo, KI!' auszugeben",
"stream": false
}

Senden und überprüfen:
- Klicken Sie auf „Senden“. Apidog zeigt die Antwort an, z. B.:

{
"response": "print('Hallo, KI!')"
}
- Verwenden Sie die Tools von Apidog, um Parameter anzupassen, Anfragen zu speichern oder Fehler zu debuggen.
Die intuitive Benutzeroberfläche von Apidog ermöglicht es Ihnen, mit Eingabeaufforderungen zu experimentieren, Antwortzeiten zu überwachen und sogar Tests zu automatisieren – ideal für Entwickler, die auf Mistral Small 3.1 aufbauen.
Behebung häufiger Probleme
Das lokale Ausführen eines Modells mit 24B-Parametern kann zu Problemen führen. Hier sind Lösungen für häufige Probleme:
- Speicherauslastungsfehler:
- Behebung: Stellen Sie sicher, dass Sie über 32 GB+ RAM und eine GPU mit ausreichend VRAM verfügen (z. B. 24 GB auf einer RTX 4090). Reduzieren Sie bei Bedarf die Batch-Größe oder die Kontextlänge.
- Modell nicht gefunden:
- Behebung: Überprüfen Sie, ob der Download abgeschlossen wurde (
ollama list) und der Modellname exakt übereinstimmt. - API-Server kann nicht gestartet werden:
- Behebung: Überprüfen Sie, ob Port 11434 verwendet wird (
netstat -tuln | grep 11434), und geben Sie ihn frei oder ändern Sie den Port von Ollama über die Konfiguration. - Langsame Leistung:
- Behebung: Rüsten Sie Ihre GPU auf oder lagern Sie weniger kritische Aufgaben auf die CPU aus.
Mit diesen Tipps können Sie die meisten Probleme beheben und Mistral Small 3.1 am Laufen halten.
Optimieren und Erweitern Sie Ihr Setup
Nachdem Mistral Small 3.1 lokal ausgeführt wird, sollten Sie in Erwägung ziehen, es zu erweitern:
- Feinabstimmung: Verwenden Sie Datensätze, die für Ihre Domäne spezifisch sind (z. B. Rechtstexte, Code), um die Ausgaben des Modells anzupassen.
- Skalierung: Führen Sie mehrere Instanzen von Ollama für verschiedene Modelle oder Aufgaben aus.
- Integration: Verbinden Sie die API mit Web-Apps, Bots oder Workflows mithilfe von Apidog, um Endpunkte zu prototypisieren.
Diese Schritte schalten das volle Potenzial von Mistral Small 3.1 frei und passen es an Ihre individuellen Projekte an.
Fazit
Das lokale Ausführen von Mistral Small 3.1 mit Ollama ist ein Wendepunkt für Entwickler und KI-Enthusiasten. Dieser Leitfaden hat Sie durch den Prozess geführt, von der Zusammenstellung der Voraussetzungen über die Installation von Ollama und das Herunterladen des Modells bis hin zur Interaktion damit über die Befehlszeile oder die API. Durch das Hinzufügen von Apidog in den Mix optimieren Sie das API-Testen und eröffnen neue Möglichkeiten für die Integration. Mit seinen 24 Milliarden Parametern, dem 128k-Token-Kontext und der Open-Source-Flexibilität bietet Mistral Small 3.1 immense Leistung an Ihren Fingerspitzen. Beginnen Sie noch heute mit dem Experimentieren und sehen Sie, wie dieses Duo Ihre Projekte verändern kann.
```



