Apidog

Plataforma Colaborativa All-in-one para Desenvolvimento de API

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados de API

API mini GPT-4o: Novos Recursos, Preços, Uso e Mais

Em 18 de junho de 2024, a OpenAI apresentou o GPT-4o Mini, um modelo de IA versátil e econômico, projetado para tornar as capacidades avançadas de IA acessíveis a um público mais amplo. Este blog explora suas características, benefícios, preços e como implantar a API do GPT-4o Mini mais rapidamente.

Miguel Oliveira

Miguel Oliveira

Updated on novembro 29, 2024

No dia 18 de junho de 2024, a OpenAI apresentou o GPT-4o mini, um avanço revolucionário na inteligência artificial eficiente em termos de custo. Este novo modelo foi projetado para trazer capacidades avançadas de IA a um público mais amplo, reduzindo significativamente o custo de implementação enquanto mantém alto desempenho e versatilidade. Neste blog, vamos explorar os aspectos principais do GPT-4o mini, incluindo suas características, vantagens, preços e utilização.

💡
Acelere sua integração com a API GPT-4o Mini usando o Apidog, uma plataforma de desenvolvimento de API tudo-em-um. Com os trechos de código pré-construídos do Apidog e recursos de teste e gerenciamento simplificados, você pode incorporar a API GPT-4o Mini em suas aplicações de forma fácil, reduzindo o tempo e o esforço de desenvolvimento.
button

O que é o GPT-4o mini?

GPT-4o mini é um modelo de inteligência artificial de ponta desenvolvido pela OpenAI, projetado para fornecer desempenho robusto a um custo significativamente reduzido em comparação com modelos anteriores. Faz parte da iniciativa mais ampla da OpenAI para tornar a IA avançada mais acessível e econômica.

Imagem oficial de anúncio do GPT-4o mini

Para mais detalhes, visite o site oficial da OpenAI.

Quais são as novidades sobre a API GPT-4o mini?

A OpenAI apresentou o GPT-4o mini, aclamado como seu modelo pequeno mais eficiente em termos de custo até agora, tornando as capacidades avançadas de IA mais acessíveis e econômicas do que nunca. Aqui estão as principais inovações e recursos do GPT-4o mini:

1. Eficiência de Custo Sem Precedentes:

O GPT-4o mini tem um preço extremamente competitivo de 15 centavos por milhão de tokens de entrada e 60 centavos por milhão de tokens de saída, tornando-o uma ordem de magnitude mais acessível do que os modelos anteriores e mais de 60% mais barato que o GPT-3.5 Turbo.

2. Métricas de Desempenho Superiores:

  • Inteligência Textual: O GPT-4o mini obteve 82% no benchmark MMLU, superando modelos anteriores.
  • Habilidades de Raciocínio e Codificação: Ele se destaca em tarefas que exigem raciocínio matemático e proficiência em codificação, com pontuações de 87,0% no benchmark MGSM (raciocínio matemático) e 87,2% no HumanEval (desempenho de codificação).
Pontuações de avaliação de modelo entre diferentes modelos de IA desenvolvidos pela OpenAI

3. Versatilidade na Manipulação de Tarefas:

O modelo pode gerenciar uma ampla gama de tarefas de forma eficiente, desde encadear várias chamadas de modelo e lidar com grandes volumes de contexto até fornecer respostas de texto rápidas e em tempo real para interações com clientes.

4. Suporte Multimodal:

Atualmente, o GPT-4o mini suporta entradas de texto e visão na API. Está programado para expandir para incluir entradas e saídas de texto, imagem, vídeo e áudio no futuro.

5. Janela de Contexto Estendida:

Com uma janela de contexto de 128K tokens e suporte para até 16K tokens de saída por solicitação, o GPT-4o mini é bem adequado para tarefas que envolvem entradas de dados extensas.

6. Manuseio Aprimorado de Texto em Línguas Não Inglesas:

Graças a um tokenizador melhorado compartilhado com o GPT-4o, o modelo é agora mais econômico no manuseio de texto em idiomas que não o inglês.

7. Medidas de Segurança Aprimoradas:

  • Segurança Integrada: O modelo inclui recursos de segurança robustos desde a fase de pré-treinamento até os alinhamentos pós-treinamento, utilizando aprendizado por reforço com feedback humano (RLHF) para garantir respostas confiáveis e precisas.
  • Novas Técnicas de Segurança: O GPT-4o mini é o primeiro modelo a aplicar o método de hierarquia de instruções da OpenAI, que aprimora a defesa do modelo contra jailbreaks, injeções de prompt e extrações de prompt de sistema, tornando-o mais seguro para aplicações em larga escala.

8. Aplicações Práticas Comprovadas:

Parceiros confiáveis como Ramp e Superhuman já testaram e descobriram que o GPT-4o mini supera significativamente o GPT-3.5 Turbo em tarefas práticas, como extração de dados estruturados e geração de respostas de e-mail de alta qualidade.

9. Disponibilidade Imediata

O GPT-4o mini está disponível por meio da Assistants API, Chat Completions API e Batch API. Ele está acessível para usuários Free, Plus e Team no ChatGPT a partir de hoje, com usuários Enterprise ganhando acesso na próxima semana.

10. Redução nos Custos de IA:

Notavelmente, o custo por token do GPT-4o mini caiu 99% desde a introdução do text-davinci-003 em 2022, sublinhando o compromisso da OpenAI em reduzir custos enquanto aprimora as capacidades do modelo.

Onde a API GPT-4o mini pode ser acessada?

A API GPT-4o mini pode ser acessada através de vários endpoints da OpenAI:

  1. Assistants API
  2. Chat Completions API
  3. Batch API

Além disso, o GPT-4o mini pode ser usado dentro do ChatGPT, onde está acessível para usuários Free, Plus e Team a partir de hoje (18 de junho de 2024), com usuários Enterprise ganhando acesso na próxima semana.

GPT-4o vs GPT-4O mini: Quais são as Diferenças?

A OpenAI introduziu dois modelos notáveis, GPT-4o e GPT-4o mini, como parte de sua missão contínua de tornar a inteligência artificial avançada mais acessível e versátil. Embora ambos os modelos sejam nativamente multimodais, projetados para processar uma combinação de entradas de texto, áudio e vídeo, e gerar saídas de texto, áudio e imagem, eles atendem a diferentes propósitos e públicos:

1. Tamanho do Modelo e Custo

  • GPT-4o: Este é um modelo de tamanho completo e poderoso projetado para lidar com tarefas multimodais extensivas. Naturalmente, vem com requisitos computacionais mais altos e custos maiores.
  • GPT-4o mini: Uma versão leve que é significativamente mais econômica. Oferece capacidades semelhantes a uma fração do custo, tornando-o acessível a um público mais amplo.

2. Desempenho e Velocidade

  • GPT-4o: Com sua arquitetura maior, o GPT-4o se destaca em lidar com tarefas intrincadas e que exigem muitos recursos, com desempenho superior. É o modelo ideal para tarefas que exigem o máximo de poder da IA.
  • GPT-4o mini: Embora menor e mais barato, o GPT-4o mini ainda supera o GPT-3.5 Turbo em precisão. Foi projetado para oferecer desempenho rápido, tornando-o adequado para aplicações em tempo real.

3. Capacidades Atuais da API

  • Ambos os Modelos: Atualmente, a API suporta entradas de texto e imagem com saídas de texto.
  • Suporte Futuro: Para o GPT-4o mini, modalidades adicionais, incluindo áudio, também serão introduzidas, garantindo que ambos os modelos permaneçam na vanguarda das capacidades de IA.

4. Versatilidade de Aplicação

  • GPT-4o: Mais adequado para aplicações de IA abrangentes que exigem processamento contínuo de dados multimodais. É ideal para ambientes de alto risco, onde cada detalhe importa.
  • GPT-4o mini: Perfeito para uma ampla gama de aplicações, especialmente onde eficiência de custo e rápida implementação são cruciais. É uma ótima escolha para escalar soluções movidas por IA em diversos setores.

5. Casos de Uso Práticos

  • GPT-4o: Devido às suas amplas capacidades, o GPT-4o é projetado para casos de uso que envolvem processamento intenso de dados, raciocínio complexo e interações multifacetadas.
  • GPT-4o mini: Embora suporte funções semelhantes, o GPT-4o mini se destaca em cenários onde a acessibilidade e a velocidade são priorizadas, como suporte ao cliente em tempo real e análise de dados simplificada.

Preços do GPT-4o mini

O GPT-4o mini foi projetado para ser um modelo de IA econômico, tornando a inteligência artificial avançada acessível a uma ampla gama de usuários. Aqui estão os detalhes de preço do GPT-4o mini:

  • Tokens de Entrada: 15 centavos ($0.15) por milhão de tokens de entrada.
  • Tokens de Saída: 60 centavos ($0.60) por milhão de tokens de saída.

Essa estrutura de preços torna o GPT-4o mini significativamente mais acessível do que modelos anteriores. Por exemplo, é mais de 60% mais barato que o GPT-3.5 Turbo, e uma ordem de magnitude mais econômico do que outros modelos de fronteira.

Para contextualizar:

  • Tokens de entrada representam o texto que você envia ao modelo para processamento.
  • Tokens de saída representam o texto que o modelo gera como resposta.

Clique Preços do GPT-4o mini para mais informações.

Comparação de Custos

  • GPT-3.5 Turbo: O GPT-4o mini é precificado mais de 60% abaixo do GPT-3.5 Turbo.
  • Outros Modelos de Fronteira: O GPT-4o mini oferece uma economia de ordem de magnitude em comparação com outros modelos de IA de ponta.

Exemplo Prático

Para uma aplicação típica, o custo pode ser calculado da seguinte maneira:

  • Consulta de Exemplo: Se você enviar uma consulta com 1.000 palavras (aproximadamente 1.500 tokens) e receber uma resposta com 500 palavras (aproximadamente 750 tokens), o custo seria:
  • Entrada: ( 1.500 \text{tokens} \times \frac{15 \text{centavos}}{1.000.000 \text{ tokens}} ) = $0.0000225
  • Saída: ( 750 \text{tokens} \times \frac{60 \text{centavos}}{1.000.000 \text{ tokens}} ) = $0.000045
  • Custo Total da Consulta: $0.0000675

Esse custo mínimo demonstra como o GPT-4o mini permite o processamento eficiente de grandes quantidades de dados a uma fração do custo dos modelos anteriores, tornando-o altamente escalável para várias aplicações.

Implante a API GPT-4O mini mais Rápido com Apidog

Gerenciar e testar APIs é um aspecto crítico ao usar a API GPT-4O mini. Apidog, uma ferramenta líder em gerenciamento e desenvolvimento de API, simplifica esse processo, tornando-o mais conveniente e eficiente.

O que é o Apidog?

Apidog é uma plataforma abrangente, tudo-em-um, construída para design, documentação, depuração, simulação e teste de API. Para melhorar a experiência do usuário, o Apidog possui um Hub de API que agrega todas as APIs populares (por exemplo, Twitter, Instagram, GitHub, Notion, Google e, claro, OpenAI), simplificando o processo de descoberta, gerenciamento e integração.

Este repositório centralizado permite que os desenvolvedores encontrem, acessem e gerenciem várias APIs com facilidade, simplificando significativamente seu fluxo de trabalho e melhorando a eficiência.

Hub de API desenvolvido pelo Apidog

Para implementar a API GPT-4O mini muito mais rápido, encontre a documentação da API OpenAI no hub de API do Apidog e comece o trabalho de teste e implantação imediatamente.

Documentação da API OpenAI criada pelo Apidog

Pré-requisito: Obter uma Chave de API da OpenAI

Para utilizar a API GPT-4O mini, uma chave de API da OpenAI é necessária. Siga estas etapas para adquirir sua chave de API:

Passo 1. Cadastre-se para uma Conta OpenAI:

Passo 2. Gere sua Chave de API OpenAI:

  • Acesse a página de Chaves de API na OpenAI, faça login e clique em "Criar nova chave secreta" para gerar uma nova chave de API. Registre-a e armazene-a de forma segura, pois você não poderá vê-la novamente.
Criar nova chave de API da OpenAI no Apidog

Testando e Gerenciando a API GPT-4O mini com Apidog

O Apidog simplifica o uso das APIs da OpenAI, fornecendo um projeto abrangente da API OpenAI que inclui todos os endpoints disponíveis. Atualmente, o GPT-4O mini pode ser acessado através da Chat Completions API, Assistants API e Batch API. Siga estas etapas para começar a usar a API GPT-4O mini:

Passo 1: Acesse o Projeto da API OpenAI no Apidog:

Clique em "Executar no Apidog" para importar o projeto da OpenAI para a área de trabalho do Apidog
  • Uma vez que o projeto esteja importado no Apidog, selecione o endpoint Chat Completions API no menu esquerdo.
Selecione "Criar conclusão de chat" no Apidog para testar o endpoint
  • Na tela de nova solicitação, insira o método HTTP e a URL do endpoint conforme a especificação do ChatGPT.
  • Na aba "Corpo", escreva sua mensagem para o ChatGPT em formato JSON. Certifique-se de especificar o modelo como "GPT-4O mini" incluindo "model": "gpt-4o-mini".
Configurar modelo OpenAI para teste de endpoint

Passo 2: Autentique-se e Envie a Solicitação:

  • Na aba "Cabeçalho", adicione o parâmetro Authorization.
Adicione o parâmetro de autorização na aba de cabeçalho no Apidog
  • Insira sua chave da API do ChatGPT e clique no botão "Enviar". Assim, você receberá o resultado da resposta da API para validar se está funcionando.
Enviar solicitação da API GPT-4O mini com Apidog

Dica profissional: O Apidog permite que você armazene sua chave de API da OpenAI como uma variável de ambiente. Isso permite que você faça referência à chave da API facilmente em solicitações futuras sem precisar digitá-la novamente.

Armazenar chave de API como variável de ambiente para uso posterior

Ao aproveitar o Apidog, você pode gerenciar, testar e utilizar a API GPT-4O mini de forma eficiente, promovendo uma integração de API mais simples e eficaz para seus projetos.

button

Resumo

A introdução do GPT-4o Mini pela OpenAI marca um marco significativo no campo da inteligência artificial. Ao oferecer capacidades avançadas de IA a um custo substancialmente reduzido, o GPT-4o Mini torna possível que um público mais amplo aproveite seus recursos poderosos. Seu desempenho superior, versatilidade e acessibilidade o tornam uma solução ideal para várias aplicações, desde suporte ao cliente em tempo real até análise complexa de dados. Testar e gerenciar a API GPT-4o mini com ferramentas como o Apidog simplifica ainda mais a gestão, teste e implantação dessa API inovadora, garantindo uma integração contínua e fluxo de trabalho eficiente em projetos movidos por IA.