- README
- Introdução
- Autenticação
- Fazer pedidos
- Transmissão
- Solicitações de depuração
- Compatibilidade com versões anteriores
- Administração
- Áudio
- Chat
- Incorporações
- Afinação fina
- Lote
- Arquivos
- imagens
- Modelos
- Moderações
- Convites
- Usuários
- Projetos
- Usuários do projeto
- Contas de serviço do projeto
- Chaves API do projeto
- Limites da taxa de projeto
- Logs de auditoria
- Uso
- Conclusões
- Ajustes finos
- Assistentes (v1)
- Tópicos (v1)
- Mensagens(v1)
- Corridas (v1)
Criar conclusão
curl --location --request POST 'https://api.openai.com/v1/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "text-davinci-003",
"prompt": "Say this is a test",
"max_tokens": 7,
"temperature": 0,
"top_p": 1,
"n": 1,
"stream": false,
"logprobs": null,
"stop": "\n"
}'
{
"id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
"object": "text_completion",
"created": 1589478378,
"model": "text-davinci-003",
"choices": [
{
"text": "\n\nThis is indeed a test",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 7,
"total_tokens": 12
}
}
Request
Authorization: Bearer ********************
Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse o início de um novo documento.
top_p
, mas não ambos.temperature
, mas não ambos.max_tokens
e stop
.data: [DONE]
. Exemplo de código Python ..logprobs
, bem como os tokens escolhidos. Por exemplo, se logprobs
for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob
do token amostrado, portanto, pode haver até logprobs+1
elementos na resposta. O valor máximo para logprobs é 5.best_of
no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos. Quando usado com n
, best_of
controla o número de conclusões candidatas e n
especifica quantos retornar – best_of
deve ser maior que n
. Observação : como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens
e stop
.Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por seu ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Você pode usar esta ferramenta de tokenizer (que funciona tanto para GPT-2 quanto para GPT-3) para converter texto para IDs de token. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de acordo com o modelo, mas valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100}
para evitar que o token <|endoftext|> seja gerado.