Apidog

All-in-one Collaborative API Development Platform

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados de API

Inscreva-se gratuitamente
Home / Ponto de vista / OpenAI GPT-3.5 Turbo e GPT-4 (Preços Mais Baixos & Novo Modelo)

OpenAI GPT-3.5 Turbo e GPT-4 (Preços Mais Baixos & Novo Modelo)

A OpenAI anunciou uma série de atualizações, incluindo melhorias nas capacidades de chamada de funções, janelas de contexto ampliadas e preços mais baixos.

Em 13 de junho de 2023, a OpenAI anunciou uma série de atualizações para seu conjunto de modelos de linguagem, incluindo maior capacidade de crescimento, recursos melhorados de chamada de função, janelas de contexto ampliadas e preços mais baixos. Em apenas seis meses, o ChatGPT, um modelo irmão do InstructGPT que é treinado para seguir instruções e fornecer respostas detalhadas, rapidamente ganhou popularidade em todo o mundo desde seu lançamento em 30 de novembro de 2022. Esta atualização abrange seis áreas principais, e estamos empolgados para explorar os detalhes com você.

  • nova capacidade de chamada de função na API de Conclusões de Bate-Papo
  • versões atualizadas e mais ajustáveis do gpt-4 e gpt-3.5-turbo
  • nova versão de contexto de 16k do gpt-3.5-turbo (contra a versão padrão de 4k)
  • redução de custo de 75% em nosso modelo de embeddings de última geração
  • redução de custo de 25% em tokens de entrada para gpt-3.5-turbo
  • anunciando o cronograma de descontinuação para os modelos gpt-3.5-turbo-0301 e gpt-4-0314

Chamada de função

As últimas atualizações para GPT-4-0613 e GPT-3.5-turbo-0613 permitem que os desenvolvedores descrevam funções para os modelos, que podem então produzir um objeto JSON contendo argumentos para chamar essas funções. Isso fornece uma nova maneira para os modelos GPT se conectarem a ferramentas externas e APIs para gerar saída de dados estruturados.

Os modelos foram ajustados para detectar quando uma função precisa ser chamada e podem responder com JSON que adere à assinatura da função. Isso permite que os desenvolvedores criem chatbots que respondem a perguntas chamando ferramentas externas, convertem linguagem natural em chamadas de API ou consultas de banco de dados, e extraem dados estruturados de texto. Os novos parâmetros da API suportam a chamada de funções específicas, e os desenvolvedores podem consultar a documentação para adicionarem avaliações para melhorar a chamada de função.

Exemplo de chamada de função

Passo 1·API da OpenAI

Chame o modelo com funções e a entrada do usuário

Código de solicitação de exemplo:

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "Como está o clima em Boston?"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Obtenha o clima atual em uma determinada localização",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "A cidade e estado, por exemplo, San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

Você pode usar o Apidog para enviar solicitações cURL. Apidog é uma poderosa ferramenta de desenvolvimento e teste de API que oferece uma gama de recursos e benefícios para os desenvolvedores. Assim como o Postman, o Apidog permite que os usuários enviem solicitações cURL, o que é particularmente útil para aqueles que já estão familiarizados com cURL em um terminal ou interface de linha de comando. Aproveitando a interface amigável do Apidog e suas numerosas funcionalidades, você pode criar e enviar solicitações cURL juntamente com outros tipos de solicitações com grande facilidade. Isso permite que os desenvolvedores testem APIs de forma eficiente, identifiquem e depurem rapidamente possíveis problemas e maximizem seus fluxos de trabalho de desenvolvimento de API.

Seja você um desenvolvedor experiente ou apenas começando com testes de API, a funcionalidade de solicitação cURL do Apidog é uma ferramenta essencial para ter à sua disposição.

Você precisa substituir $OPENAI_API_KEY pelo parâmetro de chave real ao colar o comando de solicitação cURL.

Após clicar no botão "enviar", você receberá uma string de caracteres de resposta.

Resposta completa:

{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": null,
      "function_call": {
        "name": "get_current_weather",
        "arguments": "{ \"location\": \"Boston, MA\"}"
      }
    },
    "finish_reason": "function_call"
  }]
}

Passo 2·API de terceiros

Use a resposta do modelo para chamar sua API, solicitação como abaixo:

curl https://weatherapi.com/...
{ "temperature": 22, "unit": "celsius", "description": "Ensolarado" }

Passo 3·API da OpenAI

Envie a resposta de volta ao modelo para resumir.

Código de solicitação de exemplo:

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "Como está o clima em Boston?"},
    {"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
    {"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Ensolarado\"}"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Obtenha o clima atual em uma determinada localização",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "A cidade e estado, por exemplo, San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

Você pode usar o Apidog para enviar solicitações.

Após clicar no botão "enviar", você receberá uma resposta bem-sucedida.

Resposta completa:

{
    "id": "chatcmpl-******",
    "object": "chat.completion",
    "created": *****,
    "model": "gpt-3.5-turbo-0613",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "O clima em Boston está atualmente ensolarado, com uma temperatura de 22 graus Celsius."
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 127,
        "completion_tokens": 17,
        "total_tokens": 144
    }
}

O clima em Boston está atualmente ensolarado, com uma temperatura de 22 graus Celsius.

Janela de Contexto Maior

Com as últimas atualizações, o GPT-4-32k-0613 e o GPT-3.5-turbo-16k agora são capazes de lidar com textos maiores, o que aumenta sua eficácia para aplicações que requerem o processamento de grandes volumes de dados textuais. O GPT-3.5-turbo-16k agora pode lidar com aproximadamente 20 páginas de texto em uma única solicitação, o que é quatro vezes maior do que o modelo anterior. Em outras palavras, os usuários em breve poderão enviar até 20 páginas de texto para o ChatGPT de uma só vez, proporcionando um aumento significativo em suas capacidades de lidar com grandes dados textuais.

Novos Modelos

A OpenAI anunciou recentemente atualizações para seus modelos GPT-4 e GPT-3.5 Turbo. O GPT-4-0613 apresenta um modelo atualizado e melhorado com capacidades de chamada de função. Enquanto isso, o GPT-4-32k-0613 tem as mesmas melhorias de chamada de função que o GPT-4-0613, juntamente com um comprimento de contexto estendido para melhor compreensão de textos maiores.

As atualizações visam permitir que mais pessoas experimentem o GPT-4, e a OpenAI está convidando muitas outras do cadastro de espera nas próximas semanas, com a intenção de remover completamente a lista de espera com este modelo. Da mesma forma, o GPT-3.5-Turbo-0613 adicionou chamada de função e maior confiabilidade na ajustabilidade com a mensagem do sistema.

O GPT-3.5-Turbo-16k possui quatro vezes o comprimento de contexto do GPT-3.5-Turbo, com um custo duas vezes menor de 0.003 por 1K tokens de entrada e 0.003por1Ktokensdeentradae0.004 por 1K tokens de saída. Essa atualização significa que o modelo agora pode suportar ~20 páginas de texto em uma única solicitação.

A OpenAI atualizará e descontinuará os modelos iniciais do GPT-4 e GPT-3.5 Turbo que foram anunciados em março. As aplicações que usam os nomes estáveis dos modelos serão automaticamente atualizadas para os novos modelos em 27 de junho. Os desenvolvedores também podem usar os modelos mais antigos até 13 de setembro, especificando os nomes de modelo apropriados em suas solicitações de API. A OpenAI agradece o feedback dos desenvolvedores para garantir uma transição suave.

À luz dessas atualizações, os modelos da OpenAI estão se tornando mais poderosos e amigáveis, proporcionando aos desenvolvedores novas e empolgantes capacidades para explorar. Desde a chamada de função melhorada até o maior comprimento de contexto, essas atualizações ampliam os limites do processamento de linguagem natural e colocam tecnologia de ponta nas mãos de desenvolvedores em todo o mundo.

Preços Mais Baixos

A OpenAI anunciou recentemente uma redução significativa de preço para seu popular modelo de embeddings, que teve uma redução de 75% nos custos, para $0.0001 por 1K tokens. Esta atualização faz parte dos esforços contínuos da OpenAI para tornar seus sistemas mais eficientes e repassar essas economias aos desenvolvedores.

O popular modelo de bate-papo GPT-3.5 Turbo que alimenta o ChatGPT para milhões de usuários também recebeu uma redução de preço, com uma diminuição de 25% nos custos de tokens de entrada. Os desenvolvedores agora podem usar este modelo por apenas $0.0015 por 1K tokens de entrada e $0.002 por 1K tokens de saída. A versão de contexto 16k, GPT-3.5-Turbo-16k, está precificada em 0.003 por 1K tokens de entrada e 0.003por1Ktokensdeentradae0.004 por 1K tokens de saída, permitindo que os desenvolvedores aproveitem este poderoso modelo para processamento de textos maiores.

A OpenAI valoriza o feedback dos desenvolvedores, e suas sugestões são fundamentais para a evolução contínua da plataforma. Essas últimas atualizações estão definidas para fornecer maior valor e oportunidades de aplicação mais amplas para os desenvolvedores que utilizam os modelos da OpenAI. Com os preços mais baixos e outros novos recursos, a OpenAI continua a ser líder no campo do processamento de linguagem natural.

Modelo GPT-4 vs Modelo de Bate-Papo (GPT-3.5-turbo)

O GPT-3.5-turbo se destaca com seu custo mais baixo, desempenho suficiente para aplicações gerais e requisitos de recursos mais baixos, tornando-o ideal para aqueles com restrições orçamentárias ou operando em ambientes com recursos limitados. No entanto, sua janela de contexto limitada e capacidade de chamada de função menos poderosa podem não ser adequadas para aplicações avançadas.

Por outro lado, o GPT-4 oferece chamadas de função aprimoradas e uma janela de contexto maior, o que é benéfico para aplicações complexas que requerem a retenção de informações extensas do passado. No entanto, vem a um preço mais alto e exige maiores recursos computacionais. Escolher o modelo certo para nossas necessidades pode maximizar os benefícios enquanto se mantém dentro do orçamento.

Descontinuação de Modelos

Um processo de atualização e descontinuação das versões iniciais do gpt-4 e gpt-3.5-turbo começou, que foram anunciadas em março. Os nomes de modelos estáveis, incluindo gpt-3.5-turbo, gpt-4 e gpt-4-32k, serão automaticamente atualizados para novos modelos em 27 de junho. Para comparar o desempenho do modelo entre as versões, nossa biblioteca Evals suporta avaliações públicas e privadas para demonstrar como as mudanças no modelo impactarão seus casos de uso.

Se os desenvolvedores precisarem de mais tempo para transitar para os novos modelos, ainda poderão usar os modelos mais antigos especificando gpt-3.5-turbo-0301, gpt-4-0314 ou gpt-4-32k-0314 em sua solicitação de API. Os modelos mais antigos estarão disponíveis até 13 de setembro, após o qual as solicitações para esses nomes de modelos não terão sucesso. Para ficar atualizado sobre as desativações de modelos, você pode visitar nossa página de desativação de modelos. Como esta é a primeira atualização para esses modelos, agradeceríamos o feedback dos desenvolvedores para garantir uma transição suave.

Conclusão

A OpenAI lançou novos modelos e recursos que permitirão aos desenvolvedores construir aplicações poderosas. A redução de preços é particularmente atraente, pois permite mais experimentação com aplicativos web enquanto minimiza despesas. Será interessante ver como outros desenvolvedores aproveitam essas atualizações.

Além disso, o plugin ChatGPT é uma ferramenta impulsionada por IA que pode ajudar você a lidar eficientemente com atendimento ao cliente, marketing e outras tarefas empresariais. Este artigo irá introduzir vários casos de uso criativos para trazer mais valor ao seu negócio.

Junte-se à Newsletter da Apidog

Inscreva-se para ficar atualizado e receber os últimos pontos de vista a qualquer momento.