Am 13. Juni 2023 kündigte OpenAI eine Reihe von Aktualisierungen für seine Suite von Sprachmodellen an, darunter verbesserte Steuerbarkeit, verbesserte Funktionsaufruffähigkeiten, erweiterte Kontextfenster und niedrigere Preise. In nur sechs Monaten hat ChatGPT, ein Schwestermodell von InstructGPT, das darauf trainiert ist, Anweisungen zu befolgen und detaillierte Antworten zu geben, seit seiner Einführung am 30. November 2022 weltweit schnell an Popularität gewonnen. Dieses Update deckt sechs Hauptbereiche ab, und wir freuen uns darauf, mit Ihnen in die Details einzutauchen.
- neue Funktionsaufruffähigkeit in der Chat Completions API
- aktualisierte und besser steuerbare Versionen von
gpt-4
undgpt-3.5-turbo
- neue 16k-Kontextversion von
gpt-3.5-turbo
(vs. der Standard-4k-Version) - 75 % Kostenreduzierung für unser hochmodernes Einbettungsmodell
- 25 % Kostenreduzierung für Eingabe-Tokens für
gpt-3.5-turbo
- Ankündigung des Zeitplans für die Außerbetriebnahme der Modelle
gpt-3.5-turbo-0301
undgpt-4-0314
Funktionsaufruf
Die neuesten Updates für GPT-4-0613 und GPT-3.5-turbo-0613 ermöglichen es Entwicklern, Funktionen für die Modelle zu beschreiben, die dann ein JSON-Objekt mit Argumenten ausgeben können, um diese Funktionen aufzurufen. Dies bietet eine neue Möglichkeit für GPT-Modelle, sich mit externen Tools und APIs zu verbinden, um strukturierte Datenausgaben zu generieren.
Die Modelle wurden feinabgestimmt, um zu erkennen, wann eine Funktion aufgerufen werden muss, und können mit JSON antworten, das der Funktionssignatur entspricht. Dies ermöglicht es Entwicklern, Chatbots zu erstellen, die Fragen beantworten, indem sie externe Tools aufrufen, natürliche Sprache in API-Aufrufe oder Datenbankabfragen umwandeln und strukturierte Daten aus Text extrahieren. Die neuen API-Parameter unterstützen das Aufrufen bestimmter Funktionen, und Entwickler können die Entwicklerdokumentation konsultieren, um Evals hinzuzufügen und den Funktionsaufruf zu verbessern.
Beispiel für Funktionsaufruf
Schritt 1·OpenAI API
Rufen Sie das Modell mit Funktionen und der Eingabe des Benutzers auf
Beispiel-Anfragecode:
curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
"model": "gpt-3.5-turbo-0613",
"messages": [
{"role": "user", "content": "What is the weather like in Boston?"}
],
"functions": [
{
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location"]
}
}
]
}'
Sie können Apidog verwenden, um cURL-Anfragen zu senden. Apidog ist ein leistungsstarkes API-Entwicklungs- und -Testtool, das Entwicklern eine Reihe von Funktionen und Vorteilen bietet. Wie Postman ermöglicht Apidog Benutzern das Senden von cURL-Anfragen, was besonders nützlich für diejenigen ist, die bereits mit cURL in einem Terminal oder einer Befehlszeilenschnittstelle vertraut sind. Durch die Nutzung der benutzerfreundlichen Oberfläche und der zahlreichen Funktionen von Apidog können Sie cURL-Anfragen zusammen mit anderen Arten von Anfragen mit großer Leichtigkeit erstellen und senden. Dies ermöglicht es Entwicklern, APIs effizient zu testen, potenzielle Probleme schnell zu identifizieren und zu debuggen und ihre API-Entwicklungsworkflows zu maximieren.
Egal, ob Sie ein erfahrener Entwickler sind oder gerade erst mit API-Tests beginnen, die cURL-Anfragefunktionalität von Apidog ist ein unverzichtbares Werkzeug, das Sie zur Verfügung haben sollten.
Sie müssen $OPENAI_API_KEY
durch den tatsächlichen Key-Parameter ersetzen, wenn Sie den cURL-Anfragebefehl einfügen.

Nachdem Sie auf die Schaltfläche "Senden" geklickt haben, erhalten Sie eine Zeichenfolge mit Antwortzeichen.

Vollständige Antwort:
{
"id": "chatcmpl-123",
...
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": null,
"function_call": {
"name": "get_current_weather",
"arguments": "{ \"location\": \"Boston, MA\"}"
}
},
"finish_reason": "function_call"
}]
}
Schritt 2·API von Drittanbietern
Verwenden Sie die Modellantwort, um Ihre API aufzurufen, Anfrage wie unten:
curl https://weatherapi.com/...
{ "temperature": 22, "unit": "celsius", "description": "Sunny" }
Schritt 3·OpenAI API
Senden Sie die Antwort zurück an das Modell, um sie zusammenzufassen.
Beispiel-Anfragecode:
curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
"model": "gpt-3.5-turbo-0613",
"messages": [
{"role": "user", "content": "What is the weather like in Boston?"},
{"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
{"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Sunny\"}"}
],
"functions": [
{
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location"]
}
}
]
}'
Sie können Apidog verwenden, um Anfragen zu senden.

Nachdem Sie auf die Schaltfläche "Senden" geklickt haben, erhalten Sie eine erfolgreiche Antwort.

Vollständige Antwort:
{
"id": "chatcmpl-******",
"object": "chat.completion",
"created": *****,
"model": "gpt-3.5-turbo-0613",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "The weather in Boston is currently sunny with a temperature of 22 degrees Celsius."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 127,
"completion_tokens": 17,
"total_tokens": 144
}
}
Das Wetter in Boston ist derzeit sonnig mit einer Temperatur von 22 Grad Celsius.
Größeres Kontextfenster
Mit den neuesten Updates können GPT-4-32k-0613 und GPT-3.5-turbo-16k jetzt größere Texte verarbeiten, was ihre Effektivität für Anwendungen erhöht, die die Verarbeitung erheblicher Mengen an Textdaten erfordern. GPT-3.5-turbo-16k kann jetzt ungefähr 20 Textseiten in einer einzigen Anfrage verarbeiten, was viermal größer ist als das vorherige Modell. Mit anderen Worten, Benutzer werden bald in der Lage sein, bis zu 20 Textseiten gleichzeitig in ChatGPT hochzuladen, was seine Fähigkeiten im Umgang mit größeren Textdaten erheblich steigert.
Neue Modelle
OpenAI kündigte kürzlich Updates für seine GPT-4- und GPT-3.5-Turbo-Modelle an. GPT-4-0613 bietet ein aktualisiertes und verbessertes Modell mit Funktionsaufruffähigkeiten. Inzwischen hat GPT-4-32k-0613 die gleichen Funktionsaufrufverbesserungen wie GPT-4-0613 sowie eine erweiterte Kontextlänge für ein besseres Verständnis größerer Texte.
Die Updates sollen es mehr Menschen ermöglichen, GPT-4 auszuprobieren, und OpenAI lädt in den kommenden Wochen viel mehr von der Warteliste ein, mit der Absicht, die Warteliste mit diesem Modell vollständig zu entfernen. In ähnlicher Weise hat GPT-3.5-Turbo-0613 den Funktionsaufruf und eine zuverlässigere Steuerbarkeit mit der Systemnachricht hinzugefügt.
GPT-3.5-Turbo-16k bietet die vierfache Kontextlänge von GPT-3.5-Turbo, zum doppelten Preis von 0,003 pro 1K Eingabe-Tokens und 0,003pro1Kinputtokensand0,004 pro 1K Ausgabe-Tokens. Dieses Update bedeutet, dass das Modell jetzt ~20 Textseiten in einer einzigen Anfrage unterstützen kann.
OpenAI wird die ursprünglichen Modelle von GPT-4 und GPT-3.5 Turbo, die im März angekündigt wurden, aktualisieren und außer Betrieb nehmen. Anwendungen, die die stabilen Modellnamen verwenden, werden am 27. Juni automatisch auf die neuen Modelle aktualisiert. Entwickler können die älteren Modelle auch bis zum 13. September verwenden, indem sie die entsprechenden Modellnamen in ihren API-Anfragen angeben. OpenAI freut sich über Feedback von Entwicklern, um einen reibungslosen Übergang zu gewährleisten.
Angesichts dieser Updates werden die Modelle von OpenAI leistungsfähiger und benutzerfreundlicher und bieten Entwicklern aufregende neue Möglichkeiten zum Erkunden. Vom verbesserten Funktionsaufruf bis zur größeren Kontextlänge verschieben diese Updates die Grenzen der Verarbeitung natürlicher Sprache und legen Spitzentechnologie in die Hände von Entwicklern weltweit.
Niedrigere Preise
OpenAI hat kürzlich eine erhebliche Preissenkung für sein beliebtes Einbettungsmodell angekündigt, das eine Kostenreduzierung von 75 % erfahren hat, auf 0,0001 $ pro 1K Token. Dieses Update ist Teil der fortlaufenden Bemühungen von OpenAI, seine Systeme effizienter zu gestalten und diese Einsparungen an die Entwickler weiterzugeben.
Das beliebte Chat-Modell GPT-3.5 Turbo, das ChatGPT für Millionen von Benutzern antreibt, hat ebenfalls eine Preissenkung erhalten, mit einer 25%igen Reduzierung der Eingabe-Token-Kosten. Entwickler können dieses Modell jetzt für nur 0,0015 $ pro 1K Eingabe-Tokens und 0,002 $ pro 1K Ausgabe-Tokens verwenden. Die 16k-Kontextversion, GPT-3.5-Turbo-16k, kostet 0,003 pro 1K Eingabe-Tokens und 0,003pro1Kinputtokensand0,004 pro 1K Ausgabe-Tokens, wodurch Entwickler dieses leistungsstarke Modell für die Verarbeitung größerer Texte nutzen können.
OpenAI schätzt das Feedback von Entwicklern, und ihre Vorschläge sind integraler Bestandteil der kontinuierlichen Weiterentwicklung der Plattform. Diese neuesten Updates sollen einen höheren Wert und breitere Anwendungsmöglichkeiten für Entwickler bieten, die die Modelle von OpenAI verwenden. Mit den niedrigeren Preisen und anderen neuen Funktionen ist OpenAI weiterhin führend im Bereich der Verarbeitung natürlicher Sprache.
GPT-4-Modell vs. Chat-Modell (GPT-3.5-turbo)
GPT-3.5-turbo zeichnet sich durch seine geringeren Kosten, ausreichende Leistung für allgemeine Anwendungen und geringere Ressourcenanforderungen aus, was es ideal für diejenigen macht, die über Budgetbeschränkungen verfügen oder in ressourcenbeschränkten Umgebungen arbeiten. Seine begrenzte Kontextfenster und der weniger leistungsstarke Funktionsaufruf sind jedoch möglicherweise nicht für erweiterte Anwendungen geeignet.
Auf der anderen Seite bietet GPT-4 einen verbesserten Funktionsaufruf und ein größeres Kontextfenster, was für komplexe Anwendungen von Vorteil ist, die das Beibehalten umfangreicher vergangener Informationen erfordern. Es ist jedoch mit einem höheren Preis verbunden und erfordert mehr Rechenressourcen. Die Auswahl des richtigen Modells für unsere Bedürfnisse kann die Vorteile maximieren und gleichzeitig im Budget bleiben.
Außerbetriebnahme des Modells
Ein Prozess zum Aktualisieren und Außerbetriebnehmen der ursprünglichen Versionen von gpt-4 und gpt-3.5-turbo hat begonnen, die im März angekündigt wurden. Die stabilen Modellnamen, einschließlich gpt-3.5-turbo, gpt-4 und gpt-4-32k, werden am 27. Juni automatisch auf neue Modelle aktualisiert. Um die Modellleistung zwischen den Versionen zu vergleichen, unterstützt unsere Evals-Bibliothek öffentliche und private Auswertungen, um zu demonstrieren, wie sich Modelländerungen auf Ihre Anwendungsfälle auswirken.
Wenn Entwickler mehr Zeit für den Übergang zu den neuen Modellen benötigen, können sie die älteren Modelle weiterhin verwenden, indem sie gpt-3.5-turbo-0301, gpt-4-0314 oder gpt-4-32k-0314 in ihrer API-Anfrage angeben. Die älteren Modelle sind bis zum 13. September verfügbar, danach sind Anfragen für diese Modellnamen nicht erfolgreich. Um über die Außerbetriebnahme von Modellen auf dem Laufenden zu bleiben, können Sie unsere Seite zur Außerbetriebnahme von Modellen besuchen. Da dies das erste Update für diese Modelle ist, würden wir uns über das Feedback der Entwickler freuen, um einen reibungslosen Übergang zu gewährleisten.
Fazit
OpenAI hat neue Modelle und Funktionen veröffentlicht, mit denen Entwickler leistungsstarke Anwendungen erstellen können. Die reduzierten Preise sind besonders attraktiv, da sie mehr Experimente mit Web-Apps ermöglichen und gleichzeitig die Ausgaben minimieren. Es wird interessant sein zu sehen, wie andere Entwickler diese Updates nutzen werden.
Darüber hinaus ist das ChatGPT-Plugin ein KI-gestütztes Tool, das Ihnen helfen kann, Kundenservice, Marketing und andere Geschäftsaufgaben effizient zu erledigen. Dieser Artikel stellt mehrere kreative Anwendungsfälle vor, um Ihrem Unternehmen mehr Wert zu verleihen.