- README
- Einführung
- Authentifizierung
- Anfragen stellen
- Streaming
- Debugging-Anfragen
- Abwärtskompatibilität
- Verwaltung
- Audio
- Chat
- Einbettungen
- Feinabstimmung
- Charge
- Files
- Uploads
- Bilder
- Modelle
- Moderationen
- Einladungen
- Benutzer
- Projekte
- Projektbenutzer
- Projektdienstkonten
- Projekt-API-Schlüssel
- Grenzwerte für Projektraten
- Audit-Protokolle
- Verwendung
- Abschlüsse
- Assistenten (v1)
- Themen (v1)
- Nachrichten (v1)
- Läufe (v1)
- Lauf erstellen (v1)
- Erstellen eines Threads und Ausführen (v1)
- Auflisten von Ausführungen (v1)
- Auflisten von Ausführungsschritten (v1)
- Lauf abrufen (v1)
- Schritt zum Abrufen des Ausführungsschritts (v1)
- Ausführung ändern (v1)
- Übermitteln von Werkzeugausgaben zur Ausführung (v1)
- Abbrechen einer Ausführung (v1)
Abschluss schaffen
curl --location --request POST 'https://api.openai.com/v1/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "text-davinci-003",
"prompt": "Say this is a test",
"max_tokens": 7,
"temperature": 0,
"top_p": 1,
"n": 1,
"stream": false,
"logprobs": null,
"stop": "\n"
}'
{
"id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
"object": "text_completion",
"created": 1589478378,
"model": "text-davinci-003",
"choices": [
{
"text": "\n\nThis is indeed a test",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 7,
"total_tokens": 12
}
}
Request
Authorization: Bearer ********************
Die Eingabeaufforderung(en), für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge, Array aus Zeichenfolgen, Array aus Token oder Array aus Token-Arrays. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während des Trainings sieht. Wenn also keine Eingabeaufforderung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments beginnen.
max_tokens
darf die Kontextlänge des Modells nicht überschreiten. Beispiel-Python-Code zum Zählen von Token.top_p
but not both.temperature
zu ändern, jedoch nicht beide.max_tokens
und stop
haben.data: [DONE]
beendet wird. Beispiel-Python-Code .logprobs
-Tokens sowie zu den ausgewählten Tokens hinzu. Wenn logprobs
beispielsweise 5 ist, gibt die API eine Liste der 5 wahrscheinlichsten Token zurück. Die API gibt immer den logprob
des abgetasteten Tokens zurück, daher kann die Antwort bis zu logprobs+1
Elemente enthalten. Der Maximalwert für logprobs
beträgt 5.best_of
Abschlüsse und gibt den „Besten“ zurück (den mit der höchsten Protokollierungswahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden. Bei Verwendung mit n
steuert best_of
die Anzahl der Kandidatenvervollständigungen und n
gibt an, wie viele zurückgegeben werden sollen – best_of
muss größer als n
sein. Hinweis: Da dieser Parameter viele Abschlüsse generiert, kann er Ihr Token-Kontingent schnell verbrauchen. Gehen Sie vorsichtig vor und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens
und stop
haben.Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung erscheinen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Bias-Wert von -100 bis 100 zuordnet. Sie können dieses Tokenizer-Tool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) zum Konvertieren verwenden Text zu Token-IDs. Mathematisch gesehen wird der Bias zu den vom Modell vor der Stichprobenerhebung generierten Logits hinzugefügt. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Auswahlwahrscheinlichkeit verringern oder erhöhen. Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des entsprechenden Tokens führen. Beispielsweise können Sie {"50256": -100}
übergeben, um zu verhindern, dass das <|endoftext|>-Token generiert wird.