Open AI (ChatGPT)
🇵🇹 Portuguese
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇵🇹 Portuguese
  • 🇰🇷 Korea
  • 🇩🇪 German
  1. Conclusões
Open AI (ChatGPT)
🇵🇹 Portuguese
  • 🇺🇸 English
  • 🇯🇵 Japanese
  • 🇵🇹 Portuguese
  • 🇰🇷 Korea
  • 🇩🇪 German
  • README
  • Introdução
  • Autenticação
  • Fazer pedidos
  • Transmissão
  • Solicitações de depuração
  • Compatibilidade com versões anteriores
  • Administração
  • Áudio
    • Criar discurso
      POST
    • Criar transcrição
      POST
    • Criar tradução
      POST
  • Chat
    • Criar conclusão de bate-papo
      POST
  • Incorporações
    • Criar incorporações
      POST
  • Afinação fina
    • Criar trabalho de ajuste fino
      POST
    • Listar trabalhos de ajuste fino
      GET
    • Listar eventos de ajuste fino
      GET
    • Listar pontos de verificação de ajuste fino
      GET
    • Recuperar trabalho de ajuste fino
      GET
    • Cancelar ajuste fino
      POST
  • Lote
    • Crie lote
      POST
    • Recupere o lote
      GET
    • Cancelar lote
      POST
    • Lista em lote
      GET
  • Arquivos
    • README
    • Recuperar o conteúdo do arquivo
    • Listar arquivos
    • Carregar arquivo
    • Excluir arquivo
    • Recuperar arquivo
  • imagens
    • README
    • Criar imagem
    • Criar edição de imagem
    • Criar variação de imagem
  • Modelos
    • Listar modelos
    • Recuperar modelo
  • Moderações
    • Criar moderação
  • Convites
    • Convites da lista
    • Crie convite
    • Recupere o convite
    • Exclua convite
  • Usuários
    • Listar utilizadores
    • Modificar utilizador
    • Recuperar utilizador
  • Projetos
    • Listar projetos
    • Criar projeto
    • Recuperar projeto
    • Modificar projeto
    • Arquivar projeto
  • Usuários do projeto
    • Apagar utilizador do projeto
    • Listar usuários do projeto
    • Criar utilizador do projeto
    • Recuperar utilizador do projeto
    • Modificar utilizador do projeto
    • Criar conta de serviço do projeto
  • Contas de serviço do projeto
    • Listar contas de serviço do projeto
    • Criar conta de serviço do projeto
    • Recuperar a conta de serviço do projeto
    • Excluir conta de serviço do projeto
  • Chaves API do projeto
    • Listar as chaves da API do projeto
    • Recuperar chave API do projeto
    • Apagar chave API do projeto
  • Limites da taxa de projeto
    • Listar limites de taxa de projeto
    • Modificar limite de taxa do projeto
  • Logs de auditoria
    • Listar logs de auditoria
  • Uso
    • Conclusões
    • Incorporações
    • Moderações
    • Imagens
    • Discursos áudio
    • Transcrições de áudio
    • Lojas de vetores
    • Custos
  • Conclusões
    • Criar conclusão
      POST
  • Ajustes finos
    • Crie um ajuste fino
    • List fine-tunes
    • Recuperar ajuste fino
    • Cancelar ajuste fino
    • Listar eventos de ajuste fino
    • Excluir modelo de ajuste fino
  • Assistentes (v1)
    • Crie Assistant (V1)
    • Criar arquivo de assistente (v1)
    • Assistentes de lista (v1)
    • Listar arquivos de assistente (v1)
    • Recuperar Assistente (V1)
    • Recuperar o arquivo Assistant (V1)
    • Modificar Assistente (V1)
    • Excluir assistente (v1)
    • Excluir arquivo de assistente (v1)
  • Tópicos (v1)
    • Criar thread (v1)
    • Recuperar thread (v1)
    • Modificar thread (v1)
    • Excluir thread (v1)
  • Mensagens(v1)
    • Criar mensagem (v1)
    • Mensagens de listar (v1)
    • Listar arquivos de mensagem (v1)
    • Recuperar a mensagem (v1)
    • Recuperar o arquivo de mensagem (v1)
    • Modificar mensagem (v1)
  • Corridas (v1)
    • Criar execução (v1)
    • Crie thread e run (v1)
    • Lista é executada (v1)
    • Lista de etapas de execução (v1)
    • Recuperar execução (v1)
    • Recuperar etapa de execução (v1)
    • Modificar execução (v1)
    • Enviar saídas da ferramenta para executar (v1)
    • Cancelar uma corrida (v1)
  1. Conclusões

Criar conclusão

POST
https://api.openai.com/v1/completions
Dado um prompt, o modelo retornará uma ou mais conclusões previstas e também poderá retornar as probabilidades de tokens alternativos em cada posição.
Cria uma conclusão para o prompt e os parâmetros fornecidos.
Request Request Example
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://api.openai.com/v1/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
  "model": "text-davinci-003",
  "prompt": "Say this is a test",
  "max_tokens": 7,
  "temperature": 0,
  "top_p": 1,
  "n": 1,
  "stream": false,
  "logprobs": null,
  "stop": "\n"
}'
Response Response Example
{
  "id": "cmpl-uqkvlQyYK7bGYrRHQ0eXlWi7",
  "object": "text_completion",
  "created": 1589478378,
  "model": "text-davinci-003",
  "choices": [
    {
      "text": "\n\nThis is indeed a test",
      "index": 0,
      "logprobs": null,
      "finish_reason": "length"
    }
  ],
  "usage": {
    "prompt_tokens": 5,
    "completion_tokens": 7,
    "total_tokens": 12
  }
}

Request

Authorization
Provide your bearer token in the
Authorization
header when making requests to protected resources.
Example:
Authorization: Bearer ********************
Header Params
Authorization
string 
optional
Example:
Bearer {{YOUR_API_KEY}}
Body Params application/json
model
string 
required
ID do modelo a ser usado. Você pode usar a API List models para ver todos os seus modelos disponíveis ou consultar nossa visão geral do modelo para obter descrições deles.
prompt
string 
required

Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse o início de um novo documento.

suffix
string 
optional
O sufixo que vem após a conclusão do texto inserido.
max_tokens
integer 
optional
O número máximo de tokens a serem gerados na conclusão. A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento do contexto do modelo.  Exemplo de código Python para contagem de tokens.
temperature
integer 
optional
Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar este ou top_p , mas não ambos.
top_p
integer 
optional
Uma alternativa à amostragem com temperatura, chamada amostragem nuclear, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos.
n
integer 
optional
Quantas conclusões gerar para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis ​​para max_tokens e stop .
stream
boolean 
optional
Seja para transmitir o progresso parcial. Se definido, os tokens serão enviados como eventos somente de dados enviados pelo servidor  à medida que se tornarem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] .  Exemplo de código Python ..
logprobs
null 
optional
Inclua as probabilidades de log nos tokens mais prováveis logprobs , bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta. O valor máximo para logprobs é 5.
echo
string 
optional
Repita o prompt além da conclusão
presence_penalty
number 
optional
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base no fato de eles terem aparecido no texto até o momento, aumentando a probabilidade do modelo falar sobre novos tópicos. Veja mais informações sobre penalidades de frequência e presença.
frequency_penalty
number 
optional
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base na frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha literalmente. Veja mais informações sobre penalidades de frequência e presença.
best_of
integer 
optional
Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos. Quando usado com n , best_of controla o número de conclusões candidatas e n especifica quantos retornar – best_of deve ser maior que n . Observação : como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis ​​para max_tokens e stop .
logit_bias
string 
optional

Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por seu ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Você pode usar esta ferramenta de tokenizer (que funciona tanto para GPT-2 quanto para GPT-3) para converter texto para IDs de token. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará de acordo com o modelo, mas valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado.

stop
string 
optional
Até 4 sequências em que a API irá parar de gerar mais tokens. O texto retornado não conterá a sequência de parada.
user
string 
optional
Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. Saber mais..
Examples

Responses

🟢200Ok
application/json
Body
id
string 
required
object
string 
required
created
integer 
required
model
string 
required
choices
array [object {4}] 
required
text
string 
optional
index
integer 
optional
logprobs
null 
optional
finish_reason
string 
optional
usage
object 
required
prompt_tokens
integer 
required
completion_tokens
integer 
required
total_tokens
integer 
required
Previous
Custos
Next
Crie um ajuste fino
Built with