Apidog

All-in-one Collaborative API Development Platform

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados de API

Inscreva-se gratuitamente
Home / Tutoriais / GPT-4o mini API: Novas Funcionalidades, Preços, Uso e Mais

GPT-4o mini API: Novas Funcionalidades, Preços, Uso e Mais

Em 18 de junho de 2024, a OpenAI apresentou o GPT-4o Mini, um modelo de IA econômico e versátil, projetado para tornar capacidades avançadas de IA acessíveis a um público mais amplo. Este blog explora suas características, benefícios, preços e como implementar a API do GPT-4o mini mais rapidamente.

Em 18 de junho de 2024, a OpenAI apresentou o GPT-4o mini, um avanço revolucionário em inteligência artificial de custo eficiente. Este novo modelo é projetado para trazer capacidades avançadas de IA para um público mais amplo, reduzindo significativamente o custo de implementação ao mesmo tempo em que mantém alto desempenho e versatilidade. Neste blog, vamos explorar os aspectos principais do GPT-4o mini, incluindo suas características, vantagens, preços e uso.

💡
Acelere sua integração com a API do GPT-4o Mini usando Apidog, uma plataforma de desenvolvimento de API tudo-em-um. Com os trechos de código pré-construídos da Apidog e suas funcionalidades de teste e gerenciamento simplificadas, você pode incorporar facilmente a API do GPT-4o Mini em suas aplicações, reduzindo o tempo e esforço de desenvolvimento.
button

O que é o GPT-4o mini?

GPT-4o mini é um modelo de inteligência artificial de ponta desenvolvido pela OpenAI, projetado para fornecer desempenho robusto a um custo significativamente reduzido em comparação com modelos anteriores. Ele faz parte da iniciativa mais ampla da OpenAI para tornar a IA avançada mais acessível e econômica.

Imagem oficial do anúncio do GPT-4o mini

Para mais detalhes, visite o site oficial da OpenAI.

O que há de novo na API do GPT-4o mini?

A OpenAI introduziu o GPT-4o mini, considerado seu modelo pequeno mais custo-efetivo até agora, tornando as capacidades avançadas de IA mais acessíveis e acessíveis do que nunca. Aqui estão as inovações e características principais do GPT-4o mini:

1. Eficiência de Custo Sem Precedentes:

O GPT-4o mini tem um preço extremamente competitivo de 15 centavos por milhão de tokens de entrada e 60 centavos por milhão de tokens de saída, tornando-o uma ordem de magnitude mais acessível do que modelos anteriores e mais de 60% mais barato do que o GPT-3.5 Turbo.

2. Métricas de Desempenho Superiores:

  • Inteligência Textual: O GPT-4o mini pontua 82% no benchmark MMLU, superando modelos anteriores.
  • Habilidades de Raciocínio e Codificação: Ele se destaca em tarefas que requerem raciocínio matemático e proficiência em codificação, com pontuações de 87,0% no benchmark MGSM (raciocínio matemático) e 87,2% no HumanEval (desempenho em codificação).
Pontuações de avaliação de modelos entre diferentes modelos de IA desenvolvidos pela OpenAI

3. Versatilidade no manejo de tarefas:

O modelo pode gerenciar uma ampla gama de tarefas de forma eficiente, desde encadear várias chamadas de modelo e lidar com grandes volumes de contexto até fornecer respostas rápidas e em tempo real para interações com clientes.

4. Suporte Multimodal:

Atualmente, o GPT-4o mini suporta entradas de texto e visão na API. Está previsto que se expanda para incluir entradas e saídas de texto, imagem, vídeo e áudio no futuro.

5. Janela de Contexto Estendida:

Com uma janela de contexto de 128K tokens e suporte para até 16K tokens de saída por solicitação, o GPT-4o mini é bem adequado para tarefas que envolvem entrada de dados extensa.

6. Tratamento Aprimorado de Texto Não em Inglês:

Graças a um tokenizer aprimorado compartilhado com o GPT-4o, o modelo agora é mais econômico no tratamento de texto não em inglês.

7. Medidas Avançadas de Segurança:

  • Segurança Integrada: O modelo inclui recursos robustos de segurança desde a fase de pré-treinamento até os alinhamentos pós-treinamento, usando aprendizado por reforço com feedback humano (RLHF) para garantir respostas confiáveis e precisas.
  • Novas Técnicas de Segurança: O GPT-4o mini é o primeiro modelo a aplicar o método de hierarquia de instruções da OpenAI, que melhora a defesa do modelo contra jailbreaks, injeções de prompt e extrações de prompt do sistema, tornando-o mais seguro para aplicações em larga escala.

8. Aplicações Práticas Comprovadas:

Parceiros confiáveis como Ramp e Superhuman já testaram e descobriram que o GPT-4o mini supera significativamente o GPT-3.5 Turbo em tarefas práticas, como extração de dados estruturados e geração de respostas por e-mail de alta qualidade.

9. Disponibilidade Imediata

O GPT-4o mini está disponível através da Assistants API, Chat Completions API e Batch API. Está acessível para usuários Free, Plus e Team no ChatGPT a partir de hoje, com usuários Enterprise tendo acesso na próxima semana.

10. Redução nos Custos de IA:

Notavelmente, o custo por token do GPT-4o mini caiu 99% desde a introdução do text-davinci-003 em 2022, sublinhando o compromisso da OpenAI em reduzir custos enquanto melhora as capacidades do modelo.

Onde a API do GPT-4o mini pode ser acessada?

A API do GPT-4o mini pode ser acessada através de vários endpoints da API da OpenAI:

  1. Assistants API
  2. Chat Completions API
  3. Batch API

Além disso, o GPT-4o mini pode ser usado dentro do ChatGPT, onde está acessível para usuários Free, Plus e Team a partir de hoje (18 de junho de 2024), com usuários Enterprise tendo acesso na próxima semana.

GPT-4o vs GPT-4o mini: Quais são as Diferenças?

A OpenAI introduziu dois modelos notáveis, GPT-4o e GPT-4o mini, como parte de sua missão contínua de tornar a inteligência artificial avançada mais acessível e versátil. Embora ambos os modelos sejam nativamente multimodais, projetados para processar uma combinação de entradas de texto, áudio e vídeo, e gerar saídas de texto, áudio e imagem, eles atendem a diferentes propósitos e públicos:

1. Tamanho do Modelo e Custo

  • GPT-4o: Este é um modelo de tamanho completo e poderoso, projetado para lidar com tarefas multimodais extensas. Naturalmente, ele vem com requisitos computacionais e custos mais altos.
  • GPT-4o mini: Uma versão leve que é significativamente mais econômica. Oferece capacidades semelhantes a uma fração do custo, tornando-o acessível para um público mais amplo.

2. Desempenho e Velocidade

  • GPT-4o: Com sua arquitetura maior, o GPT-4o se destaca em lidar com tarefas intrincadas e intensivas em recursos, com desempenho superior. É o modelo ideal para tarefas que exigem máximo poder de IA.
  • GPT-4o mini: Embora menor e mais barato, o GPT-4o mini ainda supera o GPT-3.5 Turbo em precisão. É projetado para oferecer desempenho rápido, tornando-o adequado para aplicações em tempo real.

3. Capacidades Atuais da API

  • Ambos os Modelos: Atualmente, a API suporta entradas de texto e imagem com saídas de texto.
  • Suporte Futuro: Para o GPT-4o mini, modalidades adicionais, incluindo áudio, também serão introduzidas, garantindo que ambos os modelos permaneçam na vanguarda das capacidades de IA.

4. Versatilidade de Aplicação

  • GPT-4o: Melhor adequado para aplicações abrangentes de IA que requerem processamento contínuo de dados multimodais. É ideal para ambientes de alto risco onde cada detalhe conta.
  • GPT-4o mini: Perfeito para uma ampla gama de aplicações, especialmente onde a eficiência de custo e a rápida implementação são cruciais. É uma ótima escolha para escalar soluções impulsionadas por IA em vários setores.

5. Casos de Uso Práticos

  • GPT-4o: Devido às suas amplas capacidades, o GPT-4o é projetado para casos de uso que envolvem processamento intenso de dados, raciocínio complexo e interações multifacetadas.
  • GPT-4o mini: Enquanto suporta funções semelhantes, o GPT-4o mini brilha em cenários onde a acessibilidade e a velocidade são priorizadas, como suporte ao cliente em tempo real e análise de dados simplificada.

Preços do GPT-4o mini

O GPT-4o mini é projetado para ser um modelo de IA econômico, tornando a inteligência artificial avançada acessível a uma ampla gama de usuários. Aqui estão os detalhes de preços do GPT-4o mini:

  • Tokens de Entrada: 15 centavos ($0,15) por milhão de tokens de entrada.
  • Tokens de Saída: 60 centavos ($0,60) por milhão de tokens de saída.

Esta estrutura de preços torna o GPT-4o mini significativamente mais acessível do que modelos anteriores. Por exemplo, ele é mais de 60% mais barato do que o GPT-3.5 Turbo, e uma ordem de magnitude mais custo-efetivo do que outros modelos de ponta.

Para colocar isso em perspectiva:

  • Tokens de entrada representam o texto que você envia ao modelo para processamento.
  • Tokens de saída representam o texto que o modelo gera como resposta.

Clique Preços do GPT-4o mini para mais informações.

Comparação de Custos

  • GPT-3.5 Turbo: O GPT-4o mini é precificado mais de 60% abaixo do GPT-3.5 Turbo.
  • Outros Modelos de Ponta: O GPT-4o mini oferece uma economia de ordem de magnitude em comparação com outros modelos de IA de alto nível.

Exemplo Prático

Para uma aplicação típica, o custo pode ser calculado da seguinte forma:

  • Consulta Exemplo: Se você enviar uma consulta com 1.000 palavras (aproximadamente 1.500 tokens) e receber uma resposta com 500 palavras (aproximadamente 750 tokens), o custo seria:
  • Entrada: ( 1.500 \text{tokens} \times \frac{15 \text{centavos}}{1.000.000 \text{tokens}} ) = $0.0000225
  • Saída: ( 750 \text{tokens} \times \frac{60 \text{centavos}}{1.000.000 \text{tokens}} ) = $0.000045
  • Custo Total da Consulta: $0.0000675

Este custo mínimo demonstra como o GPT-4o mini permite o processamento eficiente de grandes quantidades de dados a uma fração do custo de modelos anteriores, tornando-o altamente escalável para várias aplicações.

Implantar a API GPT-4O mini Mais Rápido com Apidog

Gerenciar e testar APIs é um aspecto crítico ao usar a API do GPT-4O mini. Apidog, uma ferramenta líder em gerenciamento e desenvolvimento de API, simplifica esse processo, tornando-o mais conveniente e eficiente.

O que é Apidog?

Apidog é uma plataforma abrangente e tudo-em-um projetada para design de APIs, documentação, depuração, simulação e testes. Para aprimorar a experiência do usuário, o Apidog conta com um Hub de API que agrega todas as APIs populares (por exemplo, Twitter, Instagram, GitHub, Notion, Google e, é claro, OpenAI), facilitando o processo de descoberta, gerenciamento e integração.

Este repositório centralizado permite que desenvolvedores encontrem, acessem e gerenciem várias APIs com facilidade, simplificando significativamente seu fluxo de trabalho e melhorando a eficiência.

Hub de API desenvolvido pela Apidog

Para implementar a API do GPT-4O mini muito mais rápido, encontre a documentação da API da OpenAI no hub da Apidog e comece o trabalho de teste e implantação imediatamente.

Documentação da API da OpenAI criada pela Apidog

Pré-requisito: Obtenha uma Chave de API da OpenAI

Para utilizar a API do GPT-4O mini, uma chave de API da OpenAI é necessária. Siga estes passos para adquirir sua chave de API:

Passo 1. Inscreva-se em uma Conta da OpenAI:

Passo 2. Gere Sua Chave de API da OpenAI:

  • Acesse a página de Chaves de API na OpenAI, faça login, e clique em "Criar nova chave secreta" para gerar uma nova chave de API. Registre-a e armazene-a de forma segura, pois você não poderá visualizá-la novamente.
Criar nova chave de API da OpenAI na Apidog

Testando e Gerenciando a API do GPT-4O mini com Apidog

Apidog simplifica o uso das APIs da OpenAI fornecendo um projeto abrangente da API da OpenAI que inclui todos os endpoints disponíveis. Atualmente, o GPT-4O mini pode ser acessado através da API de Conclusões de Chat, API Assistants e API Batch. Siga estes passos para começar a usar a API do GPT-4O mini:

Passo 1: Acesse o Projeto da API da OpenAI no Apidog:

Clique "Executar no Apidog" para importar o projeto da OpenAI para a área de trabalho do Apidog
  • Uma vez que o projeto tenha sido importado para o Apidog, selecione o endpoint da API de Conclusões de Chat no menu à esquerda.
Selecione "Criar conclusão de chat" no Apidog para testar o endpoint
  • Na nova tela de solicitação, insira o método HTTP e a URL do endpoint conforme a especificação do ChatGPT.
  • Na aba "Corpo", escreva sua mensagem para o ChatGPT em formato JSON. Certifique-se de especificar o modelo como "GPT-4O mini" incluindo "model": "gpt-4o-mini".
Configurar o modelo OpenAI para teste de endpoint

Passo 2: Autentique e Envie a Solicitação:

  • Na aba "Header", adicione o parâmetro de Autorização.
Adicione o parâmetro de autorização na aba de header no Apidog
  • Insira sua chave de API do ChatGPT e clique no botão "Enviar". Desta forma, você receberá o resultado da resposta da API para validar se está funcionando.
Enviar solicitação da API GPT-4O mini com Apidog

Dica profissional: Apidog permite que você armazene sua chave de API da OpenAI como uma variável de ambiente. Isso permite que você faça referência à chave da API facilmente em futuras solicitações, sem reentrá-la.

Armazenar chave de API como variável de ambiente para uso futuro

Ao aproveitar o Apidog, você pode gerenciar, testar e utilizar eficientemente a API do GPT-4O mini, promovendo uma integração de API mais fluida e efetiva para seus projetos.

button

Resumo

A introdução do GPT-4o Mini pela OpenAI marca um marco significativo no campo da inteligência artificial. Ao oferecer capacidades avançadas de IA a um custo substancialmente reduzido, o GPT-4o Mini torna possível que um público mais amplo aproveite seus poderosos recursos. Seu desempenho superior, versatilidade e acessibilidade o tornam uma solução ideal para várias aplicações, desde suporte ao cliente em tempo real até análise complexa de dados. Testar e gerenciar a API do GPT-4o mini com ferramentas como Apidog simplifica ainda mais o gerenciamento, teste e implantação desta API inovadora, garantindo uma integração contínua e um fluxo de trabalho eficiente em projetos impulsionados por IA.

Junte-se à Newsletter da Apidog

Inscreva-se para ficar atualizado e receber os últimos pontos de vista a qualquer momento.