Em 18 de junho de 2024, a OpenAI apresentou o GPT-4o mini, um avanço revolucionário em inteligência artificial de custo eficiente. Este novo modelo é projetado para trazer capacidades avançadas de IA para um público mais amplo, reduzindo significativamente o custo de implementação ao mesmo tempo em que mantém alto desempenho e versatilidade. Neste blog, vamos explorar os aspectos principais do GPT-4o mini, incluindo suas características, vantagens, preços e uso.
O que é o GPT-4o mini?
GPT-4o mini é um modelo de inteligência artificial de ponta desenvolvido pela OpenAI, projetado para fornecer desempenho robusto a um custo significativamente reduzido em comparação com modelos anteriores. Ele faz parte da iniciativa mais ampla da OpenAI para tornar a IA avançada mais acessível e econômica.
Para mais detalhes, visite o site oficial da OpenAI.
O que há de novo na API do GPT-4o mini?
A OpenAI introduziu o GPT-4o mini, considerado seu modelo pequeno mais custo-efetivo até agora, tornando as capacidades avançadas de IA mais acessíveis e acessíveis do que nunca. Aqui estão as inovações e características principais do GPT-4o mini:
1. Eficiência de Custo Sem Precedentes:
O GPT-4o mini tem um preço extremamente competitivo de 15 centavos por milhão de tokens de entrada e 60 centavos por milhão de tokens de saída, tornando-o uma ordem de magnitude mais acessível do que modelos anteriores e mais de 60% mais barato do que o GPT-3.5 Turbo.
2. Métricas de Desempenho Superiores:
- Inteligência Textual: O GPT-4o mini pontua 82% no benchmark MMLU, superando modelos anteriores.
- Habilidades de Raciocínio e Codificação: Ele se destaca em tarefas que requerem raciocínio matemático e proficiência em codificação, com pontuações de 87,0% no benchmark MGSM (raciocínio matemático) e 87,2% no HumanEval (desempenho em codificação).
3. Versatilidade no manejo de tarefas:
O modelo pode gerenciar uma ampla gama de tarefas de forma eficiente, desde encadear várias chamadas de modelo e lidar com grandes volumes de contexto até fornecer respostas rápidas e em tempo real para interações com clientes.
4. Suporte Multimodal:
Atualmente, o GPT-4o mini suporta entradas de texto e visão na API. Está previsto que se expanda para incluir entradas e saídas de texto, imagem, vídeo e áudio no futuro.
5. Janela de Contexto Estendida:
Com uma janela de contexto de 128K tokens e suporte para até 16K tokens de saída por solicitação, o GPT-4o mini é bem adequado para tarefas que envolvem entrada de dados extensa.
6. Tratamento Aprimorado de Texto Não em Inglês:
Graças a um tokenizer aprimorado compartilhado com o GPT-4o, o modelo agora é mais econômico no tratamento de texto não em inglês.
7. Medidas Avançadas de Segurança:
- Segurança Integrada: O modelo inclui recursos robustos de segurança desde a fase de pré-treinamento até os alinhamentos pós-treinamento, usando aprendizado por reforço com feedback humano (RLHF) para garantir respostas confiáveis e precisas.
- Novas Técnicas de Segurança: O GPT-4o mini é o primeiro modelo a aplicar o método de hierarquia de instruções da OpenAI, que melhora a defesa do modelo contra jailbreaks, injeções de prompt e extrações de prompt do sistema, tornando-o mais seguro para aplicações em larga escala.
8. Aplicações Práticas Comprovadas:
Parceiros confiáveis como Ramp e Superhuman já testaram e descobriram que o GPT-4o mini supera significativamente o GPT-3.5 Turbo em tarefas práticas, como extração de dados estruturados e geração de respostas por e-mail de alta qualidade.
9. Disponibilidade Imediata
O GPT-4o mini está disponível através da Assistants API, Chat Completions API e Batch API. Está acessível para usuários Free, Plus e Team no ChatGPT a partir de hoje, com usuários Enterprise tendo acesso na próxima semana.
10. Redução nos Custos de IA:
Notavelmente, o custo por token do GPT-4o mini caiu 99% desde a introdução do text-davinci-003 em 2022, sublinhando o compromisso da OpenAI em reduzir custos enquanto melhora as capacidades do modelo.
Onde a API do GPT-4o mini pode ser acessada?
A API do GPT-4o mini pode ser acessada através de vários endpoints da API da OpenAI:
Além disso, o GPT-4o mini pode ser usado dentro do ChatGPT, onde está acessível para usuários Free, Plus e Team a partir de hoje (18 de junho de 2024), com usuários Enterprise tendo acesso na próxima semana.
GPT-4o vs GPT-4o mini: Quais são as Diferenças?
A OpenAI introduziu dois modelos notáveis, GPT-4o e GPT-4o mini, como parte de sua missão contínua de tornar a inteligência artificial avançada mais acessível e versátil. Embora ambos os modelos sejam nativamente multimodais, projetados para processar uma combinação de entradas de texto, áudio e vídeo, e gerar saídas de texto, áudio e imagem, eles atendem a diferentes propósitos e públicos:
1. Tamanho do Modelo e Custo
- GPT-4o: Este é um modelo de tamanho completo e poderoso, projetado para lidar com tarefas multimodais extensas. Naturalmente, ele vem com requisitos computacionais e custos mais altos.
- GPT-4o mini: Uma versão leve que é significativamente mais econômica. Oferece capacidades semelhantes a uma fração do custo, tornando-o acessível para um público mais amplo.
2. Desempenho e Velocidade
- GPT-4o: Com sua arquitetura maior, o GPT-4o se destaca em lidar com tarefas intrincadas e intensivas em recursos, com desempenho superior. É o modelo ideal para tarefas que exigem máximo poder de IA.
- GPT-4o mini: Embora menor e mais barato, o GPT-4o mini ainda supera o GPT-3.5 Turbo em precisão. É projetado para oferecer desempenho rápido, tornando-o adequado para aplicações em tempo real.
3. Capacidades Atuais da API
- Ambos os Modelos: Atualmente, a API suporta entradas de texto e imagem com saídas de texto.
- Suporte Futuro: Para o GPT-4o mini, modalidades adicionais, incluindo áudio, também serão introduzidas, garantindo que ambos os modelos permaneçam na vanguarda das capacidades de IA.
4. Versatilidade de Aplicação
- GPT-4o: Melhor adequado para aplicações abrangentes de IA que requerem processamento contínuo de dados multimodais. É ideal para ambientes de alto risco onde cada detalhe conta.
- GPT-4o mini: Perfeito para uma ampla gama de aplicações, especialmente onde a eficiência de custo e a rápida implementação são cruciais. É uma ótima escolha para escalar soluções impulsionadas por IA em vários setores.
5. Casos de Uso Práticos
- GPT-4o: Devido às suas amplas capacidades, o GPT-4o é projetado para casos de uso que envolvem processamento intenso de dados, raciocínio complexo e interações multifacetadas.
- GPT-4o mini: Enquanto suporta funções semelhantes, o GPT-4o mini brilha em cenários onde a acessibilidade e a velocidade são priorizadas, como suporte ao cliente em tempo real e análise de dados simplificada.
Preços do GPT-4o mini
O GPT-4o mini é projetado para ser um modelo de IA econômico, tornando a inteligência artificial avançada acessível a uma ampla gama de usuários. Aqui estão os detalhes de preços do GPT-4o mini:
- Tokens de Entrada: 15 centavos ($0,15) por milhão de tokens de entrada.
- Tokens de Saída: 60 centavos ($0,60) por milhão de tokens de saída.
Esta estrutura de preços torna o GPT-4o mini significativamente mais acessível do que modelos anteriores. Por exemplo, ele é mais de 60% mais barato do que o GPT-3.5 Turbo, e uma ordem de magnitude mais custo-efetivo do que outros modelos de ponta.
Para colocar isso em perspectiva:
- Tokens de entrada representam o texto que você envia ao modelo para processamento.
- Tokens de saída representam o texto que o modelo gera como resposta.
Clique Preços do GPT-4o mini para mais informações.
Comparação de Custos
- GPT-3.5 Turbo: O GPT-4o mini é precificado mais de 60% abaixo do GPT-3.5 Turbo.
- Outros Modelos de Ponta: O GPT-4o mini oferece uma economia de ordem de magnitude em comparação com outros modelos de IA de alto nível.
Exemplo Prático
Para uma aplicação típica, o custo pode ser calculado da seguinte forma:
- Consulta Exemplo: Se você enviar uma consulta com 1.000 palavras (aproximadamente 1.500 tokens) e receber uma resposta com 500 palavras (aproximadamente 750 tokens), o custo seria:
- Entrada: ( 1.500 \text{tokens} \times \frac{15 \text{centavos}}{1.000.000 \text{tokens}} ) = $0.0000225
- Saída: ( 750 \text{tokens} \times \frac{60 \text{centavos}}{1.000.000 \text{tokens}} ) = $0.000045
- Custo Total da Consulta: $0.0000675
Este custo mínimo demonstra como o GPT-4o mini permite o processamento eficiente de grandes quantidades de dados a uma fração do custo de modelos anteriores, tornando-o altamente escalável para várias aplicações.
Implantar a API GPT-4O mini Mais Rápido com Apidog
Gerenciar e testar APIs é um aspecto crítico ao usar a API do GPT-4O mini. Apidog, uma ferramenta líder em gerenciamento e desenvolvimento de API, simplifica esse processo, tornando-o mais conveniente e eficiente.
O que é Apidog?
Apidog é uma plataforma abrangente e tudo-em-um projetada para design de APIs, documentação, depuração, simulação e testes. Para aprimorar a experiência do usuário, o Apidog conta com um Hub de API que agrega todas as APIs populares (por exemplo, Twitter, Instagram, GitHub, Notion, Google e, é claro, OpenAI), facilitando o processo de descoberta, gerenciamento e integração.
Este repositório centralizado permite que desenvolvedores encontrem, acessem e gerenciem várias APIs com facilidade, simplificando significativamente seu fluxo de trabalho e melhorando a eficiência.
Para implementar a API do GPT-4O mini muito mais rápido, encontre a documentação da API da OpenAI no hub da Apidog e comece o trabalho de teste e implantação imediatamente.
Pré-requisito: Obtenha uma Chave de API da OpenAI
Para utilizar a API do GPT-4O mini, uma chave de API da OpenAI é necessária. Siga estes passos para adquirir sua chave de API:
Passo 1. Inscreva-se em uma Conta da OpenAI:
- Visite a página de inscrição de desenvolvedores da OpenAI e crie uma conta.
Passo 2. Gere Sua Chave de API da OpenAI:
- Acesse a página de Chaves de API na OpenAI, faça login, e clique em "Criar nova chave secreta" para gerar uma nova chave de API. Registre-a e armazene-a de forma segura, pois você não poderá visualizá-la novamente.
Testando e Gerenciando a API do GPT-4O mini com Apidog
Apidog simplifica o uso das APIs da OpenAI fornecendo um projeto abrangente da API da OpenAI que inclui todos os endpoints disponíveis. Atualmente, o GPT-4O mini pode ser acessado através da API de Conclusões de Chat, API Assistants e API Batch. Siga estes passos para começar a usar a API do GPT-4O mini:
Passo 1: Acesse o Projeto da API da OpenAI no Apidog:
- Clique em "Executar no Apidog" na documentação online da OpenAI do Apidog para importar o projeto na área de trabalho do Apidog.
- Uma vez que o projeto tenha sido importado para o Apidog, selecione o endpoint da API de Conclusões de Chat no menu à esquerda.
- Na nova tela de solicitação, insira o método HTTP e a URL do endpoint conforme a especificação do ChatGPT.
- Na aba "Corpo", escreva sua mensagem para o ChatGPT em formato JSON. Certifique-se de especificar o modelo como "GPT-4O mini" incluindo
"model": "gpt-4o-mini"
.
Passo 2: Autentique e Envie a Solicitação:
- Na aba "Header", adicione o parâmetro de Autorização.
- Insira sua chave de API do ChatGPT e clique no botão "Enviar". Desta forma, você receberá o resultado da resposta da API para validar se está funcionando.
Dica profissional: Apidog permite que você armazene sua chave de API da OpenAI como uma variável de ambiente. Isso permite que você faça referência à chave da API facilmente em futuras solicitações, sem reentrá-la.
Ao aproveitar o Apidog, você pode gerenciar, testar e utilizar eficientemente a API do GPT-4O mini, promovendo uma integração de API mais fluida e efetiva para seus projetos.
Resumo
A introdução do GPT-4o Mini pela OpenAI marca um marco significativo no campo da inteligência artificial. Ao oferecer capacidades avançadas de IA a um custo substancialmente reduzido, o GPT-4o Mini torna possível que um público mais amplo aproveite seus poderosos recursos. Seu desempenho superior, versatilidade e acessibilidade o tornam uma solução ideal para várias aplicações, desde suporte ao cliente em tempo real até análise complexa de dados. Testar e gerenciar a API do GPT-4o mini com ferramentas como Apidog simplifica ainda mais o gerenciamento, teste e implantação desta API inovadora, garantindo uma integração contínua e um fluxo de trabalho eficiente em projetos impulsionados por IA.