Am 18. Juni 2024 stellte OpenAI das GPT-4o mini vor, einen revolutionären Fortschritt in der kosteneffizienten künstlichen Intelligenz. Dieses neue Modell wurde entwickelt, um einem breiteren Publikum fortschrittliche KI-Funktionen zugänglich zu machen, indem die Bereitstellungskosten erheblich gesenkt und gleichzeitig eine hohe Leistung und Vielseitigkeit beibehalten werden. In diesem Blog werden wir uns mit den wichtigsten Aspekten von GPT-4o mini befassen, einschließlich seiner Funktionen, Vorteile, Preise und Verwendung.
Was ist GPT-4o mini?
GPT-4o mini ist ein hochmodernes Modell der künstlichen Intelligenz, das von OpenAI entwickelt wurde, um eine robuste Leistung zu deutlich reduzierten Kosten im Vergleich zu früheren Modellen zu bieten. Es ist Teil der umfassenderen Initiative von OpenAI, fortschrittliche KI zugänglicher und erschwinglicher zu machen.

Weitere Einzelheiten finden Sie auf der offiziellen Website von OpenAI.
Was ist neu an der GPT-4o mini API?
OpenAI hat GPT-4o mini eingeführt, das als ihr bisher kosteneffizientestes kleines Modell gefeiert wird und fortschrittliche KI-Funktionen zugänglicher und erschwinglicher denn je macht. Hier sind die wichtigsten Innovationen und Funktionen von GPT-4o mini:
1. Unübertroffene Kosteneffizienz:
GPT-4o mini wird zu einem äußerst wettbewerbsfähigen Preis von 15 Cent pro Million Input-Token und 60 Cent pro Million Output-Token angeboten, was es um eine Größenordnung erschwinglicher macht als frühere Modelle und über 60 % günstiger als GPT-3.5 Turbo.
2. Überlegene Leistungsmetriken:
- Textuelle Intelligenz: GPT-4o mini erzielt 82 % auf dem MMLU-Benchmark und übertrifft damit frühere Modelle.
- Argumentations- und Programmierkenntnisse: Es zeichnet sich bei Aufgaben aus, die mathematisches Denken und Programmierkenntnisse erfordern, mit Werten von 87,0 % auf dem MGSM-Benchmark (mathematisches Denken) und 87,2 % auf HumanEval (Programmierleistung).

3. Vielseitigkeit bei der Aufgabenbearbeitung:
Das Modell kann eine breite Palette von Aufgaben effizient verwalten, von der Verkettung mehrerer Modellaufrufe und der Verarbeitung großer Kontextmengen bis hin zur Bereitstellung schneller Textantworten in Echtzeit für Kundeninteraktionen.
4. Multimodale Unterstützung:
Derzeit unterstützt GPT-4o mini Text- und Vision-Eingaben in der API. Es soll in Zukunft um Text-, Bild-, Video- und Audioeingaben und -ausgaben erweitert werden.
5. Erweitertes Kontextfenster:
Mit einem Kontextfenster von 128K Token und Unterstützung für bis zu 16K Output-Token pro Anfrage eignet sich GPT-4o mini gut für Aufgaben, die umfangreiche Dateneingaben erfordern.
6. Verbesserte Verarbeitung nicht-englischer Texte:
Dank eines verbesserten Tokenizers, der mit GPT-4o geteilt wird, ist das Modell jetzt kostengünstiger bei der Verarbeitung nicht-englischer Texte.
7. Erweiterte Sicherheitsmaßnahmen:
- Integrierte Sicherheit: Das Modell umfasst robuste Sicherheitsfunktionen von der Vor-Trainingsphase bis zu den Nach-Trainings-Ausrichtungen unter Verwendung von Verstärkungslernen mit menschlichem Feedback (RLHF), um zuverlässige und genaue Antworten zu gewährleisten.
- Neue Sicherheitstechniken: GPT-4o mini ist das erste Modell, das die Anweisungshierarchiemethode von OpenAI anwendet, die die Verteidigung des Modells gegen Jailbreaks, Aufforderungsinjektionen und Systemaufforderungsextraktionen verbessert und es sicherer für groß angelegte Anwendungen macht.
8. Bewährte praktische Anwendungen:
Vertrauenswürdige Partner wie Ramp und Superhuman haben bereits getestet und festgestellt, dass GPT-4o mini GPT-3.5 Turbo bei praktischen Aufgaben wie dem Extrahieren strukturierter Daten und dem Generieren hochwertiger E-Mail-Antworten deutlich übertrifft.
9. Sofortige Verfügbarkeit
GPT-4o mini ist über die Assistants API, Chat Completions API und Batch API verfügbar. Es ist ab heute für Free-, Plus- und Team-Benutzer auf ChatGPT zugänglich, wobei Enterprise-Benutzer nächste Woche Zugriff erhalten.
10. Reduzierung der KI-Kosten:
Bemerkenswert ist, dass die Kosten pro Token für GPT-4o mini seit der Einführung von text-davinci-003 im Jahr 2022 um 99 % gesunken sind, was das Engagement von OpenAI unterstreicht, die Kosten zu senken und gleichzeitig die Modellfähigkeiten zu verbessern.
Wo kann auf die GPT-4o mini API zugegriffen werden?
Auf die GPT-4o mini API kann über mehrere OpenAI API-Endpunkte zugegriffen werden:
Darüber hinaus kann GPT-4o mini in ChatGPT verwendet werden, wo es ab heute (18. Juni 2024) für Free-, Plus- und Team-Benutzer zugänglich ist, wobei Enterprise-Benutzer nächste Woche Zugriff erhalten.
GPT-4o vs. GPT-4O mini: Was sind die Unterschiede?
OpenAI hat zwei bemerkenswerte Modelle, GPT-4o und GPT-4o mini, als Teil ihrer laufenden Mission eingeführt, fortschrittliche künstliche Intelligenz zugänglicher und vielseitiger zu machen. Während beide Modelle nativ multimodal sind, also so konzipiert, dass sie eine Kombination aus Text-, Audio- und Videoeingaben verarbeiten und Text-, Audio- und Bildausgaben generieren, dienen sie unterschiedlichen Zwecken und Zielgruppen:
1. Modellgröße und Kosten
- GPT-4o: Dies ist ein Modell in voller Größe und leistungsstark, das für die Verarbeitung umfangreicher multimodaler Aufgaben entwickelt wurde. Natürlich ist es mit höheren Rechenanforderungen und Kosten verbunden.
- GPT-4o mini: Eine leichte Version, die deutlich kosteneffizienter ist. Es bietet ähnliche Fähigkeiten zu einem Bruchteil der Kosten und macht es einem breiteren Publikum zugänglich.
2. Leistung und Geschwindigkeit
- GPT-4o: Mit seiner größeren Architektur zeichnet sich GPT-4o bei der Bewältigung komplizierter, ressourcenintensiver Aufgaben mit überlegener Leistung aus. Es ist das Modell der Wahl für Aufgaben, die maximale KI-Leistung erfordern.
- GPT-4o mini: Obwohl es kleiner und günstiger ist, übertrifft GPT-4o mini GPT-3.5 Turbo in Bezug auf die Genauigkeit. Es wurde entwickelt, um eine schnelle Leistung zu bieten, wodurch es für Echtzeitanwendungen geeignet ist.
3. Aktuelle API-Funktionen
- Beide Modelle: Derzeit unterstützt die API Text- und Bildeingaben mit Textausgaben.
- Zukünftige Unterstützung: Für GPT-4o mini werden auch zusätzliche Modalitäten, einschließlich Audio, eingeführt, um sicherzustellen, dass beide Modelle auf dem neuesten Stand der KI-Fähigkeiten bleiben.
4. Anwendungsvielseitigkeit
- GPT-4o: Am besten geeignet für umfassende KI-Anwendungen, die eine nahtlose Verarbeitung multimodaler Daten erfordern. Es ist ideal für Umgebungen mit hohem Risiko, in denen jedes Detail zählt.
- GPT-4o mini: Perfekt für eine Vielzahl von Anwendungen, insbesondere dort, wo Kosteneffizienz und schnelle Bereitstellung entscheidend sind. Es ist eine großartige Wahl für die Skalierung von KI-gesteuerten Lösungen in verschiedenen Sektoren.
5. Praktische Anwendungsfälle
- GPT-4o: Aufgrund seiner umfangreichen Fähigkeiten ist GPT-4o für Anwendungsfälle konzipiert, die eine intensive Datenverarbeitung, komplexes Denken und vielschichtige Interaktionen umfassen.
- GPT-4o mini: Während es ähnliche Funktionen unterstützt, glänzt GPT-4o mini in Szenarien, in denen Erschwinglichkeit und Geschwindigkeit Priorität haben, wie z. B. Echtzeit-Kundensupport und optimierte Datenanalyse.
GPT-4o mini Preisgestaltung
GPT-4o mini wurde als kosteneffizientes KI-Modell konzipiert, das fortschrittliche künstliche Intelligenz für eine breite Palette von Benutzern zugänglich macht. Hier sind die Preisdetails für GPT-4o mini:
- Input-Token: 15 Cent (0,15 $) pro Million Input-Token.
- Output-Token: 60 Cent (0,60 $) pro Million Output-Token.
Diese Preisstruktur macht GPT-4o mini deutlich günstiger als frühere Modelle. So ist es beispielsweise über 60 % günstiger als GPT-3.5 Turbo und um eine Größenordnung kostengünstiger als andere Spitzenmodelle.
Um dies in Perspektive zu setzen:
- Input-Token stellen den Text dar, den Sie zur Verarbeitung an das Modell senden.
- Output-Token stellen den Text dar, den das Modell als Antwort generiert.
Klicken Sie auf GPT-4o mini Preisgestaltung, um weitere Informationen zu erhalten.
Kostenvergleich
- GPT-3.5 Turbo: GPT-4o mini ist über 60 % günstiger als GPT-3.5 Turbo.
- Andere Frontier-Modelle: GPT-4o mini bietet eine Größenordnung an Einsparungen im Vergleich zu anderen High-End-KI-Modellen.
Praktisches Beispiel
Für eine typische Anwendung könnten die Kosten wie folgt berechnet werden:
- Beispielabfrage: Wenn Sie eine Abfrage mit 1.000 Wörtern (ungefähr 1.500 Token) senden und eine Antwort mit 500 Wörtern (ungefähr 750 Token) erhalten, wären die Kosten:
- Eingabe: ( 1.500 \text{Token} \times \frac{15 \text{Cent}}{1.000.000 \text{Token}} ) = $0,0000225
- Ausgabe: ( 750 \text{Token} \times \frac{60 \text{Cent}}{1.000.000 \text{Token}} ) = $0,000045
- Gesamtkosten für die Abfrage: $0,0000675
Diese minimalen Kosten zeigen, wie GPT-4o mini die effiziente Verarbeitung großer Datenmengen zu einem Bruchteil der Kosten früherer Modelle ermöglicht, was es für verschiedene Anwendungen hochgradig skalierbar macht.
GPT-4O mini API schneller mit Apidog bereitstellen
Die Verwaltung und das Testen von APIs ist ein kritischer Aspekt bei der Verwendung der GPT-4O mini API. Apidog, ein führendes API-Management- und -Entwicklungstool, rationalisiert diesen Prozess und macht ihn komfortabler und effizienter.
Was ist Apidog?
Apidog ist eine umfassende All-in-One-Plattform, die für API-Design, -Dokumentation, -Debugging, -Mocking und -Testen entwickelt wurde. Um die Benutzererfahrung zu verbessern, verfügt Apidog über einen API-Hub, der alle gängigen APIs (z. B. Twitter, Instagram, GitHub, Notion, Google und natürlich OpenAI) aggregiert und so den Entdeckungs-, Verwaltungs- und Integrationsprozess rationalisiert.
Dieses zentralisierte Repository ermöglicht es Entwicklern, mehrere APIs einfach zu finden, darauf zuzugreifen und zu verwalten, wodurch ihr Workflow erheblich vereinfacht und die Effizienz verbessert wird.

Um die GPT-4O mini API viel schneller zu implementieren, finden Sie die OpenAI API-Dokumentation im API-Hub von Apidog und beginnen Sie sofort mit den Test- und Bereitstellungsarbeiten.

Voraussetzung: Erhalten Sie einen OpenAI API-Schlüssel
Um die GPT-4O mini API zu nutzen, ist ein OpenAI API-Schlüssel erforderlich. Befolgen Sie diese Schritte, um Ihren API-Schlüssel zu erhalten:
Schritt 1. Melden Sie sich für ein OpenAI-Konto an:
- Besuchen Sie die OpenAI Developer Sign-up page und erstellen Sie ein Konto.
Schritt 2. Generieren Sie Ihren OpenAI API-Schlüssel:
- Greifen Sie auf die API Keys page auf OpenAI zu, melden Sie sich an und klicken Sie auf "Create new secret key", um einen neuen API-Schlüssel zu generieren. Notieren und speichern Sie ihn sicher, da Sie ihn nicht mehr anzeigen können.

Testen und Verwalten der GPT-4O mini API mit Apidog
Apidog vereinfacht die Verwendung von OpenAI-APIs, indem es ein umfassendes OpenAI-API-Projekt bereitstellt, das alle verfügbaren Endpunkte enthält. Derzeit kann auf GPT-4O mini über die Chat Completions API, Assistants API und Batch API zugegriffen werden. Befolgen Sie diese Schritte, um mit der Verwendung der GPT-4O mini API zu beginnen:
Schritt 1: Greifen Sie auf das OpenAI API-Projekt auf Apidog zu:
- Klicken Sie auf "Run in Apidog" auf der Online-Dokumentation von Apidog für OpenAI, um das Projekt auf dem Desktop von Apidog zu importieren.

- Wählen Sie nach dem Import des Projekts in Apidog den Chat Completions API-Endpunkt aus dem linken Menü aus.

- Geben Sie auf dem neuen Bildschirm für die Anfrage die HTTP-Methode und die Endpunkt-URL gemäß der ChatGPT-Spezifikation ein.
- Schreiben Sie im Tab "Body" Ihre Nachricht an ChatGPT im JSON-Format. Achten Sie darauf, das Modell als "GPT-4O mini" anzugeben, indem Sie
"model": "gpt-4o-mini"
einfügen.

Schritt 2: Authentifizieren und Anfrage senden:
- Fügen Sie im Tab "Header" den Parameter "Authorization" hinzu.

- Geben Sie Ihren ChatGPT-API-Schlüssel ein und klicken Sie auf die Schaltfläche "Senden". Auf diese Weise erhalten Sie das API-Antwortresultat, um zu validieren, ob es funktioniert.

Profi-Tipp: Mit Apidog können Sie Ihren OpenAI-API-Schlüssel als Umgebungsvariable speichern. Auf diese Weise können Sie in zukünftigen Anfragen einfach auf den API-Schlüssel verweisen, ohne ihn erneut eingeben zu müssen.

Durch die Nutzung von Apidog können Sie die GPT-4O mini API effizient verwalten, testen und nutzen und so eine nahtlosere und effektivere API-Integration für Ihre Projekte vorantreiben.
Zusammenfassung
Die Einführung von GPT-4o Mini durch OpenAI markiert einen bedeutenden Meilenstein im Bereich der künstlichen Intelligenz. Durch das Angebot fortschrittlicher KI-Funktionen zu deutlich reduzierten Kosten ermöglicht GPT-4o Mini einem breiteren Publikum, seine leistungsstarken Funktionen zu nutzen. Seine überlegene Leistung, Vielseitigkeit und Erschwinglichkeit machen es zu einer idealen Lösung für verschiedene Anwendungen, vom Echtzeit-Kundensupport bis zur komplexen Datenanalyse. Das Testen und Verwalten der GPT-4o mini API mit Tools wie Apidog vereinfacht die Verwaltung, das Testen und die Bereitstellung dieser innovativen API weiter und gewährleistet eine nahtlose Integration und einen effizienten Workflow in KI-gesteuerten Projekten.