Open AI (ChatGPT)
🇩🇪 German
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇵🇹 Portuguese
  • 🇰🇷 Korea
  • 🇩🇪 German
  1. Abschlüsse
Open AI (ChatGPT)
🇩🇪 German
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇵🇹 Portuguese
  • 🇰🇷 Korea
  • 🇩🇪 German
  • README
  • Einführung
  • Authentifizierung
  • Anfragen stellen
  • Streaming
  • Debugging-Anfragen
  • Abwärtskompatibilität
  • Verwaltung
  • Audio
    • Sprache erstellen
      POST
    • Transkription erstellen
      POST
    • Übersetzung erstellen
      POST
  • Chat
    • Create chat completion
      POST
  • Einbettungen
    • Create embeddings
      POST
  • Feinabstimmung
    • Feinabstimmungsauftrag erstellen
      POST
    • Listen Sie Feinabstimmungsaufgaben auf
      GET
    • Listen Sie Feinabstimmungsereignisse auf
      GET
    • Listen Sie Prüfpunkte für die Feinabstimmung auf
      GET
    • Feinabstimmungsauftrag abrufen
      GET
    • Feinabstimmung abbrechen
      POST
  • Charge
    • Stapel erstellen
      POST
    • Charge abrufen
      GET
    • Charge abbrechen
      POST
    • Charge auflisten
      GET
  • Files
    • README
    • Datei hochladen
    • Dateien auflisten
    • Datei abrufen
    • Datei löschen
    • Dateiinhalt abrufen
  • Uploads
    • Create upload
    • Upload-Teil hinzufügen
    • Vollständiger Upload
  • Bilder
    • README
    • Bild erstellen
    • Bildbearbeitung erstellen
    • Erstellen Sie Bildvariationen
  • Modelle​
    • Modelle auflisten
    • Modell abrufen
    • Löschen Sie ein fein abgestimmtes Modell
  • Moderationen​
    • Moderation schaffen
  • Einladungen
    • Einladungen auflisten
    • Einladung erstellen
    • Einladung abrufen
    • Einladung löschen
  • Benutzer​
    • Benutzer auflisten
    • Benutzer ändern
    • Benutzer abrufen
  • Projekte
    • Listen Sie Projekte auf
    • Projekt erstellen
    • Projekt abrufen
    • Projekt ändern
    • Archivprojekt
  • Projektbenutzer
    • Projektbenutzer auflisten
    • Projektbenutzer erstellen
    • Projektbenutzer abrufen
    • Projektbenutzer ändern
    • Projektbenutzer löschen
    • Erstellen Sie ein Projektdienstkonto
  • Projektdienstkonten
    • Projektdienstkonten auflisten
    • Erstellen Sie ein Projektdienstkonto
    • Rufen Sie das Projektdienstkonto ab
    • Projektdienstkonto löschen
  • Projekt-API-Schlüssel
    • Projekt-API-Schlüssel auflisten #12400911
    • Projekt-API-Schlüssel abrufen
    • Projekt-API-Schlüssel löschen
  • Grenzwerte für Projektraten
    • Listen Sie die Projektratenbegrenzungen auf
    • Ändern Sie die Projektratenbegrenzung
  • Audit-Protokolle
    • Audit-Logs auflisten
  • Verwendung​
    • Abschlüsse
    • Einbettungen
    • Moderationen
    • Bilder
    • Audio-Vorträge
    • Audiotranskriptionen
    • Vector-Läden
    • Code-Interpreter-Sitzungen
    • Kosten
  • Abschlüsse
    • Abschluss schaffen
      POST
  • Assistenten (v1)
    • Assistent erstellen (v1)
    • Assistentendatei erstellen (v1)
    • Listenassistenten (v1)
    • Assistentendateien auflisten (v1)
    • Abrufassistent (v1)
    • Assistentendatei abrufen (v1)
    • Änderungsassistent (v1)
    • Löschassistent (v1)
    • Assistentendatei löschen (v1)
  • Themen (v1)
    • Thread erstellen (v1)
    • Thread abrufen (v1)
    • Thread ändern (v1)
    • Thread löschen (v1)
  • Nachrichten (v1)
    • Nachricht erstellen (v1)
    • Auflisten von Nachrichten (v1)
    • Auflisten von Meldungsdateien (v1)
    • Nachricht abrufen (v1)
    • Abrufen der Nachrichtendatei (v1)
    • Nachricht ändern (v1)
  • Läufe (v1)
    • Lauf erstellen (v1)
    • Erstellen eines Threads und Ausführen (v1)
    • Auflisten von Ausführungen (v1)
    • Auflisten von Ausführungsschritten (v1)
    • Lauf abrufen (v1)
    • Schritt zum Abrufen des Ausführungsschritts (v1)
    • Ausführung ändern (v1)
    • Übermitteln von Werkzeugausgaben zur Ausführung (v1)
    • Abbrechen einer Ausführung (v1)
  1. Abschlüsse

Abschluss schaffen

POST
https://api.openai.com/v1/completions
Erstellt eine Vervollständigung für die bereitgestellte Eingabeaufforderung und die bereitgestellten Parameter.
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://api.openai.com/v1/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
  "model": "text-davinci-003",
  "prompt": "Say this is a test",
  "max_tokens": 7,
  "temperature": 0,
  "top_p": 1,
  "n": 1,
  "stream": false,
  "logprobs": null,
  "stop": "\n"
}'
Response Response Example
{
  "id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
  "object": "text_completion",
  "created": 1589478378,
  "model": "text-davinci-003",
  "choices": [
    {
      "text": "\n\nThis is indeed a test",
      "index": 0,
      "logprobs": null,
      "finish_reason": "length"
    }
  ],
  "usage": {
    "prompt_tokens": 5,
    "completion_tokens": 7,
    "total_tokens": 12
  }
}

Request

Authorization
Provide your bearer token in the
Authorization
header when making requests to protected resources.
Example:
Authorization: Bearer ********************
Header Params
Authorization
string 
optional
Example:
Bearer {{YOUR_API_KEY}}
Body Params application/json
model
string 
required
ID des zu verwendenden Modells. Sie können die API „Modelle auflisten“ verwenden, um alle Ihre verfügbaren Modelle anzuzeigen, oder in unserer Modellübersicht nach Beschreibungen dieser Modelle suchen.
prompt
string 
required

Die Eingabeaufforderung(en), für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge, Array aus Zeichenfolgen, Array aus Token oder Array aus Token-Arrays. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während des Trainings sieht. Wenn also keine Eingabeaufforderung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments beginnen.

suffix
string 
optional
Das Suffix, das nach der Vervollständigung des eingefügten Texts steht.
max_tokens
integer 
optional
Die maximale Anzahl an Token, die bei der Vervollständigung generiert werden sollen. Die Tokenanzahl Ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Beispiel-Python-Code zum Zählen von Token.
temperature
integer 
optional
What sampling temperature to use, between 0 and 2. Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic. We generally recommend altering this or top_p but not both.
top_p
integer 
optional
Eine Alternative zur Probenahme mit Temperatur, genannt Kernprobenahme, bei der das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse top_p berücksichtigt. 0,1 bedeutet also, dass nur die Token berücksichtigt werden, die die höchste Wahrscheinlichkeitsmasse von 10 % aufweisen. Wir empfehlen im Allgemeinen, diese oder temperature zu ändern, jedoch nicht beide.
n
integer 
optional
Wie viele Vervollständigungen für jede Eingabeaufforderung generiert werden sollen. Hinweis: Da dieser Parameter viele Abschlüsse generiert, kann er Ihr Token-Kontingent schnell verbrauchen. Gehen Sie vorsichtig vor und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop haben.
stream
boolean 
optional
Ob Teilfortschritte zurückgestreamt werden sollen. Wenn diese Option festgelegt ist, werden Token als vom Server gesendete Nur-Daten-Ereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] beendet wird. Beispiel-Python-Code .
logprobs
null 
optional
Fügen Sie die Log-Wahrscheinlichkeiten zu den wahrscheinlichsten logprobs -Tokens sowie zu den ausgewählten Tokens hinzu. Wenn logprobs beispielsweise 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer den logprob des abgetasteten Tokens zurück, daher kann die Antwort bis zu logprobs+1 Elemente enthalten. Der Maximalwert für logprobs beträgt 5.
echo
string 
optional
Geben Sie zusätzlich zur Vervollständigung auch die Eingabeaufforderung zurück
presence_penalty
number 
optional
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen finden Sie hier.
frequency_penalty
number 
optional
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token aufgrund ihrer bisherigen Häufigkeit im Text und verringern so die Wahrscheinlichkeit des Modells, dieselbe Zeile wörtlich zu wiederholen. Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen finden Sie hier.
best_of
integer 
optional
Erzeugt serverseitig best_of Abschlüsse und gibt den „Besten“ zurück (den mit der höchsten Protokollierungswahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden. Bei Verwendung mit n steuert best_of die Anzahl der Kandidatenvervollständigungen und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer als n sein. Hinweis: Da dieser Parameter viele Abschlüsse generiert, kann er Ihr Token-Kontingent schnell verbrauchen. Gehen Sie vorsichtig vor und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop haben.
logit_bias
string 
optional

Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Bias-Wert von -100 bis 100 zuordnet. Sie können dieses Tokenizer-Tool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) zum Konvertieren verwenden Text zu Token-IDs. Mathematisch gesehen wird der Bias zu den vom Modell vor der Stichprobenerhebung generierten Logits hinzugefügt. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Auswahlwahrscheinlichkeit verringern oder erhöhen. Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des entsprechenden Tokens führen. Beispielsweise können Sie {"50256": -100} übergeben, um zu verhindern, dass das <|endoftext|>-Token generiert wird.

stop
string 
optional
Bis zu 4 Sequenzen, in denen die API die Generierung weiterer Token stoppt. Der zurückgegebene Text enthält nicht die Stoppsequenz.
user
string 
optional
Eine eindeutige Kennung, die Ihren Endbenutzer repräsentiert und OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Erfahren Sie mehr .
Examples

Responses

🟢200Ok
application/json
Body
id
string 
required
object
string 
required
created
integer 
required
model
string 
required
choices
array [object {4}] 
required
text
string 
optional
index
integer 
optional
logprobs
null 
optional
finish_reason
string 
optional
usage
object 
required
prompt_tokens
integer 
required
completion_tokens
integer 
required
total_tokens
integer 
required
Modified at 2024-12-23 07:40:08
Previous
Kosten
Next
Assistent erstellen (v1)
Built with