OpenAI API es una API (Interfaz de Programación de Aplicaciones) para servicios bajo la marca OpenAI, como ChatGPT y DALL·E 3. Con modelos de IA tan potentes, las API de OpenAI se están convirtiendo en una de las API más utilizadas en sus respectivos campos. Sin embargo, su uso no es gratuito.
Consultando la guía introducida en el texto principal, puedes usar la API de OpenAI con Apidog y, al mismo tiempo, calcular automáticamente el número de tokens y el coste que consume. ¡Así que, descarga rápidamente Apidog gratis haciendo clic en el botón de abajo! 👇 👇 👇
Este artículo proporcionará un desglose de los precios de cada modelo de API de OpenAI, así como un método automatizado para calcular el número de tokens y su coste al usar la API de OpenAI.
¿Qué es OpenAI API?
OpenAI API es la API del programa (Interfaz de Programación de Aplicaciones) proporcionada por OpenAI. Con la API de OpenAI, los desarrolladores pueden usar servicios de modelos de IA como GPT API y DALLE 3 API a través de OpenAI API.
Con la API de OpenAI, permite a los desarrolladores crear aplicaciones utilizando los modelos de IA de OpenAI como ChatGPT y Dalle3, o usar estos modelos de IA para crear los tuyos propios, todo sin tener que acceder a la página web real para obtener su funcionalidad.
Entrando en detalles: Precios de la API de OpenAI
En el momento de escribir esto, hay siete modelos de IA recomendados que proporcionan servicios de API bajo OpenAI, que son:
- GPT-4o
- GPT-4 Turbo
- GPT-4
- GPT-3.5 Turbo
- API de Asistentes
- Modelos de ajuste fino
- Modelos de incrustación y modelos básicos
- Modelos de generación de imágenes (DALL·E 3)
- Modelos de audio, y más.
GPT-4o

GPT-4o ("o" de "omni") es la última versión del modelo hasta el 13 de mayo de 2024. También es el modelo insignia más rápido y asequible. Además, GPT-4o tiene la mejor visión y rendimiento en idiomas no ingleses de todos nuestros modelos. GPT-4o está disponible en la API de OpenAI para clientes de pago.
Precios de GPT-4 Turbo

GPT-4 Turbo viene en tres modelos: gpt-4-0125-preview, gpt-4-1106-preview y gpt-4-1106-vision-preview, todos con un precio de 10,00 $ por 1 millón de tokens de entrada y 1 millón de tokens de salida. El precio se fija en 30,00 $ por artículo.
Aunque GPT-4 Turbo es un modelo de procesamiento del lenguaje natural de alto rendimiento, se puede ver que la tarifa de uso puede ser más alta, debido a un mejor rendimiento.
Precios de GPT-4

Hay dos opciones de precios para el modelo de lenguaje GPT-4.
- gpt-4: Esta es la versión estándar de GPT-4. Hay una tarifa de 30,00 $ por 1 millón de tokens de entrada y 60,00 $ por 1 millón de tokens de salida.
- gpt-4-32k: Esta es una versión avanzada de GPT-4 con una longitud de contexto más larga. Tiene un precio de 60,00 $ por 1 millón de tokens de entrada y 120,00 $ por 1 millón de tokens de salida, el doble del precio del gpt-4 estándar.
El amplio conocimiento general y de dominio de GPT-4 y su capacidad para resolver con precisión problemas difíciles siguiendo instrucciones complejas en lenguaje natural merece la pena señalar, sin embargo, para obtener el gpt-4-32k de mayor rendimiento, tendrás que pagar el doble que la versión estándar.
Precios de GPT-3.5 Turbo

La familia de modelos GPT-3.5 Turbo tiene dos miembros. El modelo gpt-3.5-turbo-0125 es el modelo insignia que admite ventanas de contexto de 16K y está optimizado para la interacción. El modelo gpt-3.5-turbo-instruct es un modelo instruido y solo admite ventanas de contexto de 4K. Las tarifas respectivas serán de 0,5 USD y 1,5 USD por 1 millón de tokens de entrada, mientras que 1,5 USD y 2 USD por 1 millón de tokens de salida.
Precios de la API de Asistentes

Los desarrolladores pueden usar la API de Asistentes y las herramientas para construir sus propias aplicaciones de asistente de IA. La función de búsqueda incurre en una tarifa de almacenamiento de archivos para cada asistente, donde el precio se basa en la tarifa de tokens para el modelo de lenguaje seleccionado. Los dos submodelos, Code Interpreter y Retrieval, tienen un precio de 0,03 USD/sesión y 0,2 USD/GB/asistente/día.
Precios del modelo de ajuste fino

Al usar modelos de ajuste fino, a los usuarios solo se les cobrará por el uso del modelo original. Las tarifas respectivas para los tres modelos, como gpt-3.5-turbo, davinci-002 y babbage-002, serán de 8 USD, 6 USD y 0,41 M por 1 millón de tokens de entrenamiento, y 3 USD y 12 USD por 1 millón de tokens de entrada. USD y 1,6 USD, y para 1 millón de tokens de salida, será de 6 USD, 12 USD y 1,6 USD.
Precios de los modelos de incrustación y base

Los modelos de incrustación son bastante asequibles, donde text-embedding-3-small cuesta 0,02 $ por 1 millón de tokens, text-embedding-3-large cuesta 0,13 $ por 1 millón de tokens y ada v2 cuesta 0,10 $ por 1 millón de tokens.
La tarifa del modelo base es de 2,00 $ por 1 millón de tokens para davinci-002 y 0,40 $ para babbage-002.
Precio del modelo de generación de imágenes (DALL·E 3)
La calidad estándar de DALL-E 3 con resolución de 1024x1024 cuesta 0,04 $ por imagen, y la misma resolución en HD cuesta 0,08 $. DALL-E 2 es más barato a resoluciones más bajas: 1024x1024 a 0,02 $, 512x512 a 0,018 $ y 256x256 a 0,016 $.
Resumen tabulado de los precios de cada modelo de API de OpenAI
NOMBRE DEL MODELO | TARIFA POR ENTRADA 1M TOKEN | TARIFA POR SALIDA 1M TOKEN |
---|---|---|
GPT-4 Turbo | 10,00 $ | 30,00 $ |
GPT-4 | ||
- gpt-4 | 30,00 $ | 60,00 $ |
- gpt-4-32k | 60,00 $ | 120,00 $ |
GPT-3.5 Turbo | 0,50 $ | 1,50 $ |
API de Asistentes | ||
- Code Interpreter | 0,30 $/sesión | |
- Retrieval | 0,20 $/GB/asistente/día | |
Modelo de ajuste fino | ||
- gpt-3.5-turbo | 8,00 $ (token de entrenamiento), 3,00 $ (token de entrada), 6,00 $ (token de salida) | |
- davinci-002 | 6,00 $, 12,00 $, 12,00 $ | 0,41 $, 1,60 $, 1,60 $ |
- babbage-002 | 0,40 $, 12,00 $, 12,00 $ | 0,40 $, 1,60 $, 1,60 $ |
Modelo de incrustación | ||
- text-embedding-3-small | 0,02 $ | |
- text-embedding-3-large | 0,13 $ | |
- ada v2 | 0,10 $ | |
Modelo base | ||
- davinci-002 | 2,00 $ | |
- babbage-002 | 0,40 $ | |
Modelo de generación de imágenes (DALL-E 3) | ||
- DALL-E 3 | ||
- 1024x1024 | 0,04 $ | |
- HD 1024x1024 | 0,08 $ | |
- DALL-E 2 | ||
- 1024x1024 | 0,02 $ | |
- 512x512 | 0,018 $ | |
- 256x256 | 0,016 $ | |
Modelo de voz | ||
- Whisper | 0,006 $/minuto (redondeado al segundo más cercano) | |
- TTS | 15,00 $ | |
- TTS HD | 30,00 $ |
Si quieres conocer las tarifas de uso de todos los modelos, visita el sitio web oficial de ChatGPT API y consulta la lista de precios de la API de OpenAI.
Requisitos previos para el cálculo automatizado de costes con Apidog
Para trabajar de forma más eficiente con las API, te recomendamos encarecidamente que uses Apidog.
Apidog es una plataforma de desarrollo de API todo en uno que ayuda a los desarrolladores de API a lo largo de todo el ciclo de vida de una API. Esto significa que Apidog te cubre con los procesos para atender las API, desde el diseño hasta las pruebas y la documentación.

Para crear una calculadora automática del coste de ejecutar la API de OpenAI, necesitamos una biblioteca de conversión de terceros para convertir con precisión las entradas y salidas en valores de token.
Además, podremos convertirlos a cualquier moneda, tomemos como ejemplo el JPY (yen japonés).
Biblioteca de conversión de recuento de tokens
Esto usa la biblioteca Open AI GPT Token Counter para convertir los datos de entrada/salida en recuentos de tokens durante el proceso de depuración de la API.
Ejemplos de código Node.js:
const openaiTokenCounter = require('openai-gpt-token-counter');
const text = process.argv[2]; // Obtener el contenido de la prueba de los argumentos de la línea de comandos
const model = "gpt-4"; // Reemplazar con el modelo de OpenAI que quieras usar
const tokenCount = openaiTokenCounter.text(text, model);
const characterCount = text.length; // Calcular el número de caracteres
console.log(`${tokenCount}`);
A continuación, debes cambiar el nombre del script de Node.js a gpt-tokens-counter.js
y colocarlo en el directorio de programas externos de Apidog para llamarlo.
A continuación, tendrás que instalar OpenAI GPT Token Counter en tu ordenador. Para ello, puedes usar el siguiente comando en tu terminal:
npm install openai-gpt-token-counter
API de tipo de cambio en tiempo real
Después de obtener los valores de los tokens para la entrada y la salida, es necesario estimar el coste en JPY usando una API de tipo de cambio en tiempo real. Este artículo llamará a la API de Currencylayer para obtener el tipo de cambio en tiempo real. Regístrate para obtener una cuenta y obtener una clave API.
Conversión de valores de entrada en tokens usando Apidog
Los valores de entrada pueden entenderse como preguntas e indicaciones cuando el usuario los proporciona durante la consulta de la aplicación de IA. Para aprovechar esto, es necesario añadir un script personalizado en los preprocesadores para extraer el parámetro query
del body
de la solicitud, seguido de su conversión a valores de token.

Este es el código de muestra para añadir el script de conversión de valores de token en la sección de preprocesadores:
try {
var jsonData = JSON.parse(pm.request.body.raw);
var content = jsonData.messages[0].content; // obtiene el contenido de los mensajes
var result_input_tokens_js = pm.execute('./gpt-tokens/gpt-tokens-counter.js',[content])
console.log(content);
pm.environment.set("RESULT_INPUT_TOKENS", result_input_tokens_js);
console.log("Input Tokens count: " + pm.environment.get("RESULT_INPUT_TOKENS"));
} catch (e) {
console.log(e);
}
Después de pulsar Send
, los valores de entrada calculados deberían ser visibles en la sección de la consola de Apidog.

Convertir tokens en coste JPY
Después de obtener el valor de los tokens consumidos de la entrada, es necesario solicitar una API de tipo de cambio en tiempo real para obtener un factor de conversión. Este factor se multiplica por el valor de los tokens para calcular el coste real en JPY. Añade el siguiente script a la preoperación:
pm.sendRequest("http://apilayer.net/api/live?access_key=YOUR-API-KEY¤cies=JPY&source=USD&format=1", (err, res) => {
if (err) {
console.log(err);
} else {
const quotes = res.json().quotes;
const rate = parseFloat(quotes.USDJPY).toFixed(3);
pm.environment.set("USDJPY_RATE", rate);
var USDJPY_RATE = pm.environment.get("USDJPY_RATE");
// Retrieve the RESULT_INPUT_TOKENS variable from the previous script
var RESULT_INPUT_TOKENS = pm.environment.get("RESULT_INPUT_TOKENS");
// Calculate the tokens exchange rate value
const tokensExchangeRate = 0.03; // Price of 1000 tokens in USD (with GPT-4-8k context input pricing as reference)
// Calculate the estimated price in JPY
const JPYPrice = ((RESULT_INPUT_TOKENS / 1000) * tokensExchangeRate * USDJPY_RATE).toFixed(2);
pm.environment.set("INPUT_PRICE", JPYPrice);
console.log("Estimated cost: " + "¥" + JPYPrice);
}
});
Conversión de valores de salida en tokens usando Apidog
Apidog analiza automáticamente los datos devueltos como un evento SSE (Eventos enviados por el servidor) cuando el parámetro content-type en la respuesta devuelta por la API contiene algo como text/event-stream
.
Empieza por ir a la sección de postprocesadores en la definición de la API y añade un script personalizado para extraer el contenido de la respuesta y completar la concatenación.

// Get the response text
const text = pm.response.text()
// Split the text into lines
var lines = text.split('\n');
// Create an empty array to store the "content" parameter
var contents = [];
// Iterate through each line
for (var i = 0; i < lines.length; i++) {
const line = lines[i];
// Skip lines that do not start with "data:"
if (!line.startsWith('data:')) {
continue;
}
// Try to parse the JSON data
try {
var data = JSON.parse(line.substring(5).trim()); // Remove the leading "data: "
// Get the "content" parameter from the "choices" array and add it to the array
contents.push(data.choices[0].delta.content);
} catch (e) {
// Ignore the current line if it is not valid JSON data
}
}
// Join the "content" parameters using the join() method
var result = contents.join('');
// Display the result in the "Visualize" tab of the body
pm.visualizer.set(result);
// Print the result to the console
console.log(result);
Después de crear la solicitud, puedes recuperar el contenido completo de la respuesta en la consola.

Conversión de tokens del valor de salida usando Apidog
Una vez que hayas recibido el contenido de la respuesta, es necesario convertirlo en el valor de los tokens. Esto es posible gracias a una biblioteca de terceros.
Añade el script personalizado en la operación de postprocesamiento para que Apidog pueda llamar al script externo gpt-toejsn-counter.js
para obtener el valor de los tokens.
Usa esta página para ver el código específico:

Con los números que obtengas de la consola, puedes estimar cuánto costará.
// Get the response text
const text = pm.response.text()
// Split the text into lines
var lines = text.split('\n');
// Create an empty array to store the "content" parameter
var contents = [];
// Iterate through each line
for (var i = 0; i < lines.length; i++) {
const line = lines[i];
// Skip lines that do not start with "data:"
if (!line.startsWith('data:')) {
continue;
}
// Try to parse the JSON data
try {
var data = JSON.parse(line.substring(5).trim()); // Remove the leading "data: "
// Get the "content" parameter from the "choices" array and add it to the array
contents.push(data.choices[0].delta.content);
} catch (e) {
// Ignore the current line if it is not valid JSON data
}
}
// Join the "content" parameters using the join() method
var result = contents.join('');
// Display the result in the "Visualize" tab of the body
pm.visualizer.set(result);
// Print the result to the console
console.log(result);
// Calculate the number of output tokens.
var RESULT_OUTPUT_TOKENS = pm.execute('./gpt-tokens/gpt-tokens-counter.js', [result])
pm.environment.set("RESULT_OUTPUT_TOKENS", RESULT_OUTPUT_TOKENS);
console.log("Output Tokens count: " + pm.environment.get("RESULT_OUTPUT_TOKENS"));
Convertir tokens de salida en coste JPY
De forma similar al esquema de cálculo de costes mencionado en la sección anterior, el coste real (JPY) se obtiene multiplicando el valor de los tokens por el tipo de cambio.
Añade el siguiente script en la operación de postprocesamiento:
pm.sendRequest("http://apilayer.net/api/live?access_key=YOUR-API-KEY¤cies=JPY&source=USD&format=1", (err, res) => {
if (err) {
console.log(err);
} else {
const quotes = res.json().quotes;
const rate = parseFloat(quotes.USDJPY).toFixed(3);
pm.environment.set("USDJPY_RATE", rate);
var USDJPY_RATE = pm.environment.get("USDJPY_RATE");
// Get the RESULT_OUTPUT_TOKENS variable from the previous postman script
var RESULT_OUTPUT_TOKENS = pm.environment.get("RESULT_OUTPUT_TOKENS");
// Calculate tokens exchange rate
const tokensExchangeRate = 0.06; // USD price per 1000 tokens (based on GPT-4-8k context input pricing)
// Calculate estimated price in JPY
const JPYPrice = ((RESULT_OUTPUT_TOKENS / 1000) * tokensExchangeRate * USDJPY_RATE).toFixed(2);
pm.environment.set("OUTPUT_PRICE", JPYPrice);
console.log("Output cost (JPY): " + JPYPrice + "円");
}
});
Calcular el coste total en JPY
Por último, añade un script personalizado en la fase de postprocesamiento que pueda calcular automáticamente el coste total de las entradas y salidas.
// Summing up input and output costs
const INPUTPrice = Number(pm.environment.get("INPUT_PRICE"));
// Get the input price variable and convert it to a number
const OUTPUTPrice = Number(pm.environment.get("OUTPUT_PRICE"));
// Get the output price variable and convert it to a number
console.log("Total cost: " + "¥" + (INPUTPrice + OUTPUTPrice));
// Print the total cost: the sum of the input price and output price.
Permitiendo estimar el coste aproximado de la solicitud actual durante el proceso de depuración de la API.

Trabaja en las API de OpenAI con Apidog
Como se ha mencionado antes, Apidog es una herramienta de API completa que proporciona diseño, documentación, pruebas y depuración de API, todo dentro de una sola aplicación.
Con innumerables otras API como las de OpenAI, ahora puedes encontrar y acceder a este tipo de proyectos de API de terceros con el servicio API Hub de Apidog.

Para acceder al proyecto Open API en API Hub, haz clic en este enlace de abajo. ¡Puedes acceder a todas las API proporcionadas por OpenAI!


Cómo llamar y probar la API de OpenAI en línea
Para probar la API de OpenAI, sigue estas instrucciones:
Paso 1: Una vez que accedas a la página del proyecto de la API de OpenAI, selecciona la API que quieras usar en el menú de la izquierda y haz clic en el botón " Pruébalo " en el panel de la derecha.
Paso 2: Para usar la API, necesitas privilegios de acceso a OpenAI y necesitas obtener una clave API, por lo que necesitas introducir la API_KEY de OpenAI aquí.

Con Apidog, la información confidencial como las claves API nunca se almacen