Precios de la API de OpenAI | Cálculo automatizado de costos

La API de OpenAI es popular, pero de pago. Este artículo detalla los precios por modelo y cómo calcular tokens automáticamente.

Daniel Costa

Daniel Costa

15 April 2025

Precios de la API de OpenAI | Cálculo automatizado de costos

OpenAI API es una API (Interfaz de Programación de Aplicaciones) para servicios bajo la marca OpenAI, como ChatGPT y DALL·E 3. Con modelos de IA tan potentes, las API de OpenAI se están convirtiendo en una de las API más utilizadas en sus respectivos campos. Sin embargo, su uso no es gratuito.

💡
Si necesitas usar o probar las API de OpenAI, Apidog es la forma más eficiente de acceder a las API de OpenAI utilizando Apidog, una herramienta de desarrollo de API fácil de usar.

Consultando la guía introducida en el texto principal, puedes usar la API de OpenAI con Apidog y, al mismo tiempo, calcular automáticamente el número de tokens y el coste que consume. ¡Así que, descarga rápidamente Apidog gratis haciendo clic en el botón de abajo! 👇 👇 👇
button

Este artículo proporcionará un desglose de los precios de cada modelo de API de OpenAI, así como un método automatizado para calcular el número de tokens y su coste al usar la API de OpenAI.

¿Qué es OpenAI API?

OpenAI API es la API del programa (Interfaz de Programación de Aplicaciones) proporcionada por OpenAI. Con la API de OpenAI, los desarrolladores pueden usar servicios de modelos de IA como GPT API y DALLE 3 API a través de OpenAI API.

Con la API de OpenAI, permite a los desarrolladores crear aplicaciones utilizando los modelos de IA de OpenAI como ChatGPT y Dalle3, o usar estos modelos de IA para crear los tuyos propios, todo sin tener que acceder a la página web real para obtener su funcionalidad.

Entrando en detalles: Precios de la API de OpenAI

En el momento de escribir esto, hay siete modelos de IA recomendados que proporcionan servicios de API bajo OpenAI, que son:

GPT-4o

GPT-4o ("o" de "omni") es la última versión del modelo hasta el 13 de mayo de 2024. También es el modelo insignia más rápido y asequible. Además, GPT-4o tiene la mejor visión y rendimiento en idiomas no ingleses de todos nuestros modelos. GPT-4o está disponible en la API de OpenAI para clientes de pago.

Precios de GPT-4 Turbo

gpt-4 turbo pricing

GPT-4 Turbo viene en tres modelos: gpt-4-0125-preview, gpt-4-1106-preview y gpt-4-1106-vision-preview, todos con un precio de 10,00 $ por 1 millón de tokens de entrada y 1 millón de tokens de salida. El precio se fija en 30,00 $ por artículo.

Aunque GPT-4 Turbo es un modelo de procesamiento del lenguaje natural de alto rendimiento, se puede ver que la tarifa de uso puede ser más alta, debido a un mejor rendimiento.

Precios de GPT-4

gpt 4 api pricing

Hay dos opciones de precios para el modelo de lenguaje GPT-4.

  1. gpt-4: Esta es la versión estándar de GPT-4. Hay una tarifa de 30,00 $ por 1 millón de tokens de entrada y 60,00 $ por 1 millón de tokens de salida.
  2. gpt-4-32k: Esta es una versión avanzada de GPT-4 con una longitud de contexto más larga. Tiene un precio de 60,00 $ por 1 millón de tokens de entrada y 120,00 $ por 1 millón de tokens de salida, el doble del precio del gpt-4 estándar.

El amplio conocimiento general y de dominio de GPT-4 y su capacidad para resolver con precisión problemas difíciles siguiendo instrucciones complejas en lenguaje natural merece la pena señalar, sin embargo, para obtener el gpt-4-32k de mayor rendimiento, tendrás que pagar el doble que la versión estándar.

Precios de GPT-3.5 Turbo

gpt 3.5 turbo pricing

La familia de modelos GPT-3.5 Turbo tiene dos miembros. El modelo gpt-3.5-turbo-0125 es el modelo insignia que admite ventanas de contexto de 16K y está optimizado para la interacción. El modelo gpt-3.5-turbo-instruct es un modelo instruido y solo admite ventanas de contexto de 4K. Las tarifas respectivas serán de 0,5 USD y 1,5 USD por 1 millón de tokens de entrada, mientras que 1,5 USD y 2 USD por 1 millón de tokens de salida.

Precios de la API de Asistentes

openai assistant api

Los desarrolladores pueden usar la API de Asistentes y las herramientas para construir sus propias aplicaciones de asistente de IA. La función de búsqueda incurre en una tarifa de almacenamiento de archivos para cada asistente, donde el precio se basa en la tarifa de tokens para el modelo de lenguaje seleccionado. Los dos submodelos, Code Interpreter y Retrieval, tienen un precio de 0,03 USD/sesión y 0,2 USD/GB/asistente/día.

Precios del modelo de ajuste fino

fine tuning api model pricing

Al usar modelos de ajuste fino, a los usuarios solo se les cobrará por el uso del modelo original. Las tarifas respectivas para los tres modelos, como gpt-3.5-turbo, davinci-002 y babbage-002, serán de 8 USD, 6 USD y 0,41 M por 1 millón de tokens de entrenamiento, y 3 USD y 12 USD por 1 millón de tokens de entrada. USD y 1,6 USD, y para 1 millón de tokens de salida, será de 6 USD, 12 USD y 1,6 USD.

Precios de los modelos de incrustación y base

embedding and base model price api

Los modelos de incrustación son bastante asequibles, donde text-embedding-3-small cuesta 0,02 $ por 1 millón de tokens, text-embedding-3-large cuesta 0,13 $ por 1 millón de tokens y ada v2 cuesta 0,10 $ por 1 millón de tokens.

La tarifa del modelo base es de 2,00 $ por 1 millón de tokens para davinci-002 y 0,40 $ para babbage-002.

Precio del modelo de generación de imágenes (DALL·E 3)

La calidad estándar de DALL-E 3 con resolución de 1024x1024 cuesta 0,04 $ por imagen, y la misma resolución en HD cuesta 0,08 $. DALL-E 2 es más barato a resoluciones más bajas: 1024x1024 a 0,02 $, 512x512 a 0,018 $ y 256x256 a 0,016 $.

Resumen tabulado de los precios de cada modelo de API de OpenAI

NOMBRE DEL MODELO TARIFA POR ENTRADA 1M TOKEN TARIFA POR SALIDA 1M TOKEN
GPT-4 Turbo 10,00 $ 30,00 $
GPT-4
- gpt-4 30,00 $ 60,00 $
- gpt-4-32k 60,00 $ 120,00 $
GPT-3.5 Turbo 0,50 $ 1,50 $
API de Asistentes
- Code Interpreter 0,30 $/sesión
- Retrieval 0,20 $/GB/asistente/día
Modelo de ajuste fino
- gpt-3.5-turbo 8,00 $ (token de entrenamiento), 3,00 $ (token de entrada), 6,00 $ (token de salida)
- davinci-002 6,00 $, 12,00 $, 12,00 $ 0,41 $, 1,60 $, 1,60 $
- babbage-002 0,40 $, 12,00 $, 12,00 $ 0,40 $, 1,60 $, 1,60 $
Modelo de incrustación
- text-embedding-3-small 0,02 $
- text-embedding-3-large 0,13 $
- ada v2 0,10 $
Modelo base
- davinci-002 2,00 $
- babbage-002 0,40 $
Modelo de generación de imágenes (DALL-E 3)
- DALL-E 3
- 1024x1024 0,04 $
- HD 1024x1024 0,08 $
- DALL-E 2
- 1024x1024 0,02 $
- 512x512 0,018 $
- 256x256 0,016 $
Modelo de voz
- Whisper 0,006 $/minuto (redondeado al segundo más cercano)
- TTS 15,00 $
- TTS HD 30,00 $

Si quieres conocer las tarifas de uso de todos los modelos, visita el sitio web oficial de ChatGPT API y consulta la lista de precios de la API de OpenAI.

Requisitos previos para el cálculo automatizado de costes con Apidog

Para trabajar de forma más eficiente con las API, te recomendamos encarecidamente que uses Apidog.

Apidog es una plataforma de desarrollo de API todo en uno que ayuda a los desarrolladores de API a lo largo de todo el ciclo de vida de una API. Esto significa que Apidog te cubre con los procesos para atender las API, desde el diseño hasta las pruebas y la documentación.

apidog specifications
button

Para crear una calculadora automática del coste de ejecutar la API de OpenAI, necesitamos una biblioteca de conversión de terceros para convertir con precisión las entradas y salidas en valores de token.

Además, podremos convertirlos a cualquier moneda, tomemos como ejemplo el JPY (yen japonés).

Biblioteca de conversión de recuento de tokens

Esto usa la biblioteca Open AI GPT Token Counter para convertir los datos de entrada/salida en recuentos de tokens durante el proceso de depuración de la API.

Ejemplos de código Node.js:

const openaiTokenCounter = require('openai-gpt-token-counter');

const text = process.argv[2]; // Obtener el contenido de la prueba de los argumentos de la línea de comandos
const model = "gpt-4"; // Reemplazar con el modelo de OpenAI que quieras usar

const tokenCount = openaiTokenCounter.text(text, model);
const characterCount = text.length; // Calcular el número de caracteres

console.log(`${tokenCount}`);

A continuación, debes cambiar el nombre del script de Node.js a gpt-tokens-counter.js y colocarlo en el directorio de programas externos de Apidog para llamarlo.

A continuación, tendrás que instalar OpenAI GPT Token Counter en tu ordenador. Para ello, puedes usar el siguiente comando en tu terminal:

npm install openai-gpt-token-counter

API de tipo de cambio en tiempo real

Después de obtener los valores de los tokens para la entrada y la salida, es necesario estimar el coste en JPY usando una API de tipo de cambio en tiempo real. Este artículo llamará a la API de Currencylayer para obtener el tipo de cambio en tiempo real. Regístrate para obtener una cuenta y obtener una clave API.

Conversión de valores de entrada en tokens usando Apidog

Los valores de entrada pueden entenderse como preguntas e indicaciones cuando el usuario los proporciona durante la consulta de la aplicación de IA. Para aprovechar esto, es necesario añadir un script personalizado en los preprocesadores para extraer el parámetro query del body de la solicitud, seguido de su conversión a valores de token.

first step to converting input into tokens

Este es el código de muestra para añadir el script de conversión de valores de token en la sección de preprocesadores:

try {
  var jsonData = JSON.parse(pm.request.body.raw);
  var content = jsonData.messages[0].content; // obtiene el contenido de los mensajes
  var result_input_tokens_js = pm.execute('./gpt-tokens/gpt-tokens-counter.js',[content])
  console.log(content);
  pm.environment.set("RESULT_INPUT_TOKENS", result_input_tokens_js);
  console.log("Input Tokens count: " + pm.environment.get("RESULT_INPUT_TOKENS"));
} catch (e) {
    console.log(e);
}

Después de pulsar Send, los valores de entrada calculados deberían ser visibles en la sección de la consola de Apidog.

input converted to token display apidog

Convertir tokens en coste JPY

Después de obtener el valor de los tokens consumidos de la entrada, es necesario solicitar una API de tipo de cambio en tiempo real para obtener un factor de conversión. Este factor se multiplica por el valor de los tokens para calcular el coste real en JPY. Añade el siguiente script a la preoperación:

pm.sendRequest("http://apilayer.net/api/live?access_key=YOUR-API-KEY&currencies=JPY&source=USD&format=1", (err, res) => {
  if (err) {
    console.log(err);
  } else {
    const quotes = res.json().quotes;
    const rate = parseFloat(quotes.USDJPY).toFixed(3);
    pm.environment.set("USDJPY_RATE", rate); 
    var USDJPY_RATE = pm.environment.get("USDJPY_RATE");
    // Retrieve the RESULT_INPUT_TOKENS variable from the previous script
    var RESULT_INPUT_TOKENS = pm.environment.get("RESULT_INPUT_TOKENS");

    // Calculate the tokens exchange rate value
    const tokensExchangeRate = 0.03; // Price of 1000 tokens in USD (with GPT-4-8k context input pricing as reference)

    // Calculate the estimated price in JPY
    const JPYPrice = ((RESULT_INPUT_TOKENS / 1000) * tokensExchangeRate * USDJPY_RATE).toFixed(2);

    pm.environment.set("INPUT_PRICE", JPYPrice); 

    console.log("Estimated cost: " + "¥" + JPYPrice);
  }
});

Conversión de valores de salida en tokens usando Apidog

Apidog analiza automáticamente los datos devueltos como un evento SSE (Eventos enviados por el servidor) cuando el parámetro content-type en la respuesta devuelta por la API contiene algo como text/event-stream.

Empieza por ir a la sección de postprocesadores en la definición de la API y añade un script personalizado para extraer el contenido de la respuesta y completar la concatenación.

select custom script apidog
// Get the response text
const text = pm.response.text()
// Split the text into lines
var lines = text.split('\n');
// Create an empty array to store the "content" parameter
var contents = [];
// Iterate through each line
for (var i = 0; i < lines.length; i++) {
    const line = lines[i];
    // Skip lines that do not start with "data:"
    if (!line.startsWith('data:')) {
        continue;
    }
    // Try to parse the JSON data
    try {
        var data = JSON.parse(line.substring(5).trim());  // Remove the leading "data: "
        // Get the "content" parameter from the "choices" array and add it to the array
        contents.push(data.choices[0].delta.content);
    } catch (e) {
        // Ignore the current line if it is not valid JSON data
    }
}
// Join the "content" parameters using the join() method
var result = contents.join('');
// Display the result in the "Visualize" tab of the body
pm.visualizer.set(result);
// Print the result to the console
console.log(result);

Después de crear la solicitud, puedes recuperar el contenido completo de la respuesta en la consola.

Conversión de tokens del valor de salida usando Apidog

Una vez que hayas recibido el contenido de la respuesta, es necesario convertirlo en el valor de los tokens. Esto es posible gracias a una biblioteca de terceros.

Añade el script personalizado en la operación de postprocesamiento para que Apidog pueda llamar al script externo gpt-toejsn-counter.js para obtener el valor de los tokens.

Usa esta página para ver el código específico:

Con los números que obtengas de la consola, puedes estimar cuánto costará.

// Get the response text
const text = pm.response.text()
// Split the text into lines
var lines = text.split('\n');
// Create an empty array to store the "content" parameter
var contents = [];
// Iterate through each line
for (var i = 0; i < lines.length; i++) {
    const line = lines[i];
    // Skip lines that do not start with "data:"
    if (!line.startsWith('data:')) {
        continue;
    }
    // Try to parse the JSON data
    try {
        var data = JSON.parse(line.substring(5).trim());  // Remove the leading "data: "
        // Get the "content" parameter from the "choices" array and add it to the array
        contents.push(data.choices[0].delta.content);
    } catch (e) {
        // Ignore the current line if it is not valid JSON data
    }
}
// Join the "content" parameters using the join() method
var result = contents.join('');
// Display the result in the "Visualize" tab of the body
pm.visualizer.set(result);
// Print the result to the console
console.log(result);

// Calculate the number of output tokens.
var RESULT_OUTPUT_TOKENS = pm.execute('./gpt-tokens/gpt-tokens-counter.js', [result])
pm.environment.set("RESULT_OUTPUT_TOKENS", RESULT_OUTPUT_TOKENS);

console.log("Output Tokens count: " + pm.environment.get("RESULT_OUTPUT_TOKENS")); 

Convertir tokens de salida en coste JPY

De forma similar al esquema de cálculo de costes mencionado en la sección anterior, el coste real (JPY) se obtiene multiplicando el valor de los tokens por el tipo de cambio.

Añade el siguiente script en la operación de postprocesamiento:

pm.sendRequest("http://apilayer.net/api/live?access_key=YOUR-API-KEY&currencies=JPY&source=USD&format=1", (err, res) => {
  if (err) {
    console.log(err);
  } else {
    const quotes = res.json().quotes;
    const rate = parseFloat(quotes.USDJPY).toFixed(3);
    pm.environment.set("USDJPY_RATE", rate); 
    var USDJPY_RATE = pm.environment.get("USDJPY_RATE");
    // Get the RESULT_OUTPUT_TOKENS variable from the previous postman script
    var RESULT_OUTPUT_TOKENS = pm.environment.get("RESULT_OUTPUT_TOKENS");

    // Calculate tokens exchange rate
    const tokensExchangeRate = 0.06; // USD price per 1000 tokens (based on GPT-4-8k context input pricing)

    // Calculate estimated price in JPY
    const JPYPrice = ((RESULT_OUTPUT_TOKENS / 1000) * tokensExchangeRate * USDJPY_RATE).toFixed(2);

    pm.environment.set("OUTPUT_PRICE", JPYPrice); 

    console.log("Output cost (JPY): " + JPYPrice + "円");
  }
});

Calcular el coste total en JPY

Por último, añade un script personalizado en la fase de postprocesamiento que pueda calcular automáticamente el coste total de las entradas y salidas.

// Summing up input and output costs

const INPUTPrice = Number(pm.environment.get("INPUT_PRICE"));
// Get the input price variable and convert it to a number

const OUTPUTPrice = Number(pm.environment.get("OUTPUT_PRICE"));
// Get the output price variable and convert it to a number

console.log("Total cost: " + "¥" + (INPUTPrice + OUTPUTPrice));
// Print the total cost: the sum of the input price and output price.

Permitiendo estimar el coste aproximado de la solicitud actual durante el proceso de depuración de la API.

button

Trabaja en las API de OpenAI con Apidog

Como se ha mencionado antes, Apidog es una herramienta de API completa que proporciona diseño, documentación, pruebas y depuración de API, todo dentro de una sola aplicación.

Con innumerables otras API como las de OpenAI, ahora puedes encontrar y acceder a este tipo de proyectos de API de terceros con el servicio API Hub de Apidog.

api hub website
button

Para acceder al proyecto Open API en API Hub, haz clic en este enlace de abajo. ¡Puedes acceder a todas las API proporcionadas por OpenAI!

https://apidog.com/apidoc/project-370474
try openai api apidog project

Cómo llamar y probar la API de OpenAI en línea

Para probar la API de OpenAI, sigue estas instrucciones:

Paso 1: Una vez que accedas a la página del proyecto de la API de OpenAI, selecciona la API que quieras usar en el menú de la izquierda y haz clic en el botón " Pruébalo " en el panel de la derecha.

Paso 2: Para usar la API, necesitas privilegios de acceso a OpenAI y necesitas obtener una clave API, por lo que necesitas introducir la API_KEY de OpenAI aquí.

set value apihub api project

Con Apidog, la información confidencial como las claves API nunca se almacen

Explore more

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

28 April 2025

¿Dónde Descargar Swagger UI en Español Gratis?

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

23 April 2025

¿Dónde Descargar Postman en Español Gratis?

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

22 April 2025

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs