Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de API

OpenAI GPT-3.5 Turbo y GPT-4 (Precios más bajos y nuevo modelo)

OpenAI anunció mejoras: funciones de llamada optimizadas, ventanas de contexto ampliadas y precios más bajos.

Daniel Costa

Daniel Costa

Updated on April 15, 2025

El 13 de junio de 2023, OpenAI anunció una serie de actualizaciones para su conjunto de modelos de lenguaje, incluyendo una mayor capacidad de dirección, capacidades mejoradas de llamada a funciones, ventanas de contexto extendidas y precios más bajos. En tan solo seis meses, ChatGPT, un modelo hermano de InstructGPT que está entrenado para seguir instrucciones y proporcionar respuestas detalladas, ha ganado rápidamente popularidad en todo el mundo desde su lanzamiento el 30 de noviembre de 2022. Esta actualización cubre seis áreas principales, y estamos emocionados de profundizar en los detalles con usted.

  • nueva capacidad de llamada a funciones en la API de Chat Completions
  • versiones actualizadas y más dirigibles de gpt-4 y gpt-3.5-turbo
  • nueva versión de contexto de 16k de gpt-3.5-turbo (vs la versión estándar de 4k)
  • reducción del costo del 75% en nuestro modelo de embeddings de última generación
  • reducción del costo del 25% en los tokens de entrada para gpt-3.5-turbo
  • anuncio del cronograma de obsolescencia para los modelos gpt-3.5-turbo-0301 y gpt-4-0314

Llamada a funciones

Las últimas actualizaciones de GPT-4-0613 y GPT-3.5-turbo-0613 permiten a los desarrolladores describir funciones a los modelos, que luego pueden generar un objeto JSON que contiene argumentos para llamar a esas funciones. Esto proporciona una nueva forma para que los modelos GPT se conecten con herramientas y APIs externas para generar una salida de datos estructurada.

Los modelos se han ajustado para detectar cuándo es necesario llamar a una función y pueden responder con JSON que se adhiere a la firma de la función. Esto permite a los desarrolladores crear chatbots que responden preguntas llamando a herramientas externas, convertir el lenguaje natural en llamadas a la API o consultas a la base de datos, y extraer datos estructurados del texto. Los nuevos parámetros de la API admiten la llamada a funciones específicas, y los desarrolladores pueden consultar la documentación para desarrolladores para agregar evaluaciones para mejorar la llamada a funciones.

Ejemplo de llamada a funciones

Paso 1·API de OpenAI

Llame al modelo con funciones y la entrada del usuario

Código de solicitud de muestra:

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "¿Qué tiempo hace en Boston?"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Obtener el clima actual en una ubicación dada",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "La ciudad y el estado, p. ej. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

Puede usar Apidog para enviar solicitudes cURL. Apidog es una poderosa herramienta de desarrollo y prueba de API que ofrece una gama de características y beneficios para los desarrolladores. Al igual que Postman, Apidog permite a los usuarios enviar solicitudes cURL, lo cual es particularmente útil para aquellos que ya están familiarizados con cURL en una terminal o interfaz de línea de comandos. Aprovechando la interfaz fácil de usar de Apidog y sus numerosas funcionalidades, puede crear y enviar solicitudes cURL junto con otros tipos de solicitudes con gran facilidad. Esto permite a los desarrolladores probar eficientemente las APIs, identificar y depurar rápidamente posibles problemas y maximizar sus flujos de trabajo de desarrollo de API.

Ya sea que sea un desarrollador experimentado o que esté comenzando con las pruebas de API, la funcionalidad de solicitud cURL de Apidog es una herramienta esencial para tener a su disposición.

Debe reemplazar $OPENAI_API_KEY con el parámetro Key real al pegar el comando de solicitud cURL.

Después de hacer clic en el botón "enviar", recibirá una cadena de caracteres de respuesta.

Respuesta completa:

{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": null,
      "function_call": {
        "name": "get_current_weather",
        "arguments": "{ \"location\": \"Boston, MA\"}"
      }
    },
    "finish_reason": "function_call"
  }]
}

Paso 2·API de terceros

Use la respuesta del modelo para llamar a su API, solicite como se muestra a continuación:

curl https://weatherapi.com/...
{ "temperature": 22, "unit": "celsius", "description": "Sunny" }

Paso 3·API de OpenAI

Envíe la respuesta de vuelta al modelo para resumir.

Código de solicitud de muestra:

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "¿Qué tiempo hace en Boston?"},
    {"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
    {"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Sunny\"}"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Obtener el clima actual en una ubicación dada",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "La ciudad y el estado, p. ej. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

puede usar Apidog para enviar solicitudes.

Después de hacer clic en el botón "enviar", obtendrá una respuesta exitosa.

Respuesta completa:

{
    "id": "chatcmpl-******",
    "object": "chat.completion",
    "created": *****,
    "model": "gpt-3.5-turbo-0613",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "The weather in Boston is currently sunny with a temperature of 22 degrees Celsius."
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 127,
        "completion_tokens": 17,
        "total_tokens": 144
    }
}

El clima en Boston es actualmente soleado con una temperatura de 22 grados Celsius.

Ventana de contexto más grande

Con las últimas actualizaciones, GPT-4-32k-0613 y GPT-3.5-turbo-16k ahora pueden manejar textos más grandes, lo que mejora su eficacia para aplicaciones que requieren el procesamiento de cantidades sustanciales de datos de texto. GPT-3.5-turbo-16k ahora puede manejar aproximadamente 20 páginas de texto en una sola solicitud, que es cuatro veces más grande que el modelo anterior. En otras palabras, los usuarios pronto podrán cargar hasta 20 páginas de texto en ChatGPT a la vez, lo que proporciona un impulso significativo a sus capacidades para tratar con datos de texto más grandes.

Nuevos modelos

OpenAI anunció recientemente actualizaciones para sus modelos GPT-4 y GPT-3.5 Turbo. GPT-4-0613 presenta un modelo actualizado y mejorado con capacidades de llamada a funciones. Mientras tanto, GPT-4-32k-0613 tiene las mismas mejoras de llamada a funciones que GPT-4-0613, junto con una longitud de contexto extendida para una mejor comprensión de textos más grandes.

Las actualizaciones están configuradas para permitir que más personas prueben GPT-4, y OpenAI está invitando a muchos más de la lista de espera en las próximas semanas, con la intención de eliminar la lista de espera por completo con este modelo. Del mismo modo, GPT-3.5-Turbo-0613 ha agregado la llamada a funciones y una capacidad de dirección más confiable con el mensaje del sistema.

GPT-3.5-Turbo-16k presenta cuatro veces la longitud de contexto de GPT-3.5-Turbo, al doble del precio de 0.003 por 1K tokens de entrada y0.003por1Ktokensdeentradaand0.004 por 1K tokens de salida. Esta actualización significa que el modelo ahora puede admitir ~20 páginas de texto en una sola solicitud.

OpenAI actualizará y desaprobará los modelos iniciales de GPT-4 y GPT-3.5 Turbo que se anunciaron en marzo. Las aplicaciones que utilizan los nombres de modelos estables se actualizarán automáticamente a los nuevos modelos el 27 de junio. Los desarrolladores también pueden usar los modelos más antiguos hasta el 13 de septiembre especificando los nombres de modelos apropiados en sus solicitudes de API. OpenAI agradece los comentarios de los desarrolladores para garantizar una transición sin problemas.

En vista de estas actualizaciones, los modelos de OpenAI se están volviendo más potentes y fáciles de usar, proporcionando a los desarrolladores nuevas y emocionantes capacidades para explorar. Desde la llamada a funciones mejorada hasta la mayor longitud de contexto, estas actualizaciones superan los límites del procesamiento del lenguaje natural y ponen la tecnología de vanguardia en manos de los desarrolladores de todo el mundo.

Precios más bajos

OpenAI ha anunciado recientemente una reducción significativa de precios para su popular modelo de embeddings, que ha experimentado una reducción del 75% en los costos, hasta $0.0001 por 1K tokens. Esta actualización es parte de los continuos esfuerzos de OpenAI para hacer que sus sistemas sean más eficientes y transferir esos ahorros a los desarrolladores.

El popular modelo de chat GPT-3.5 Turbo que impulsa ChatGPT para millones de usuarios también ha recibido una reducción de precio, con una disminución del 25% en los costos de los tokens de entrada. Los desarrolladores ahora pueden usar este modelo por solo $0.0015 por 1K tokens de entrada y $0.002 por 1K tokens de salida. La versión de contexto de 16k, GPT-3.5-Turbo-16k, tiene un precio de 0.003 por 1K tokens de entrada y0.003por1Ktokensdeentradaand0.004 por 1K tokens de salida, lo que permite a los desarrolladores aprovechar este potente modelo para el procesamiento de textos más grandes.

OpenAI valora los comentarios de los desarrolladores, y sus sugerencias son integrales para la continua evolución de la plataforma. Estas últimas actualizaciones están configuradas para proporcionar un mayor valor y oportunidades de aplicación más amplias para los desarrolladores que utilizan los modelos de OpenAI. Con los precios más bajos y otras características nuevas, OpenAI continúa siendo un líder en el campo del procesamiento del lenguaje natural.

Modelo GPT-4 vs Modelo de chat (GPT-3.5-turbo)

GPT-3.5-turbo destaca por su menor costo, rendimiento suficiente para aplicaciones generales y menores requisitos de recursos, lo que lo hace ideal para aquellos con limitaciones presupuestarias o que operan en entornos con recursos limitados. Sin embargo, su ventana de contexto limitada y su llamada a funciones menos potente podrían no ser adecuadas para aplicaciones avanzadas.

Por otro lado, GPT-4 ofrece una llamada a funciones mejorada y una ventana de contexto más grande, que son beneficiosas para aplicaciones complejas que requieren retener información pasada extensa. Sin embargo, tiene un precio más alto y requiere mayores recursos computacionales. Elegir el modelo adecuado para nuestras necesidades puede maximizar los beneficios sin salirse del presupuesto.

Obsolescencia del modelo

Ha comenzado un proceso de actualización y obsolescencia de las versiones iniciales de gpt-4 y gpt-3.5-turbo, que se anunciaron en marzo. Los nombres de modelos estables, incluidos gpt-3.5-turbo, gpt-4 y gpt-4-32k, se actualizarán automáticamente a los nuevos modelos el 27 de junio. Para comparar el rendimiento del modelo entre versiones, nuestra biblioteca Evals admite evaluaciones públicas y privadas para demostrar cómo los cambios del modelo afectarán sus casos de uso.

Si los desarrolladores necesitan más tiempo para realizar la transición a los nuevos modelos, aún pueden usar los modelos más antiguos especificando gpt-3.5-turbo-0301, gpt-4-0314 o gpt-4-32k-0314 en su solicitud de API. Los modelos más antiguos estarán disponibles hasta el 13 de septiembre, después de lo cual las solicitudes de esos nombres de modelos no tendrán éxito. Para mantenerse actualizado sobre las obsolescencias de los modelos, puede visitar nuestra página de obsolescencia de modelos. Como esta es la primera actualización de estos modelos, agradeceríamos los comentarios de los desarrolladores para garantizar una transición sin problemas.

Conclusión

OpenAI ha lanzado nuevos modelos y características que permitirán a los desarrolladores crear aplicaciones potentes. La reducción de precios es particularmente atractiva, ya que permite una mayor experimentación con aplicaciones web al tiempo que minimiza los gastos. Será interesante ver cómo otros desarrolladores capitalizan estas actualizaciones.

Además, el plugin de ChatGPT es una herramienta impulsada por IA que puede ayudarle a gestionar eficientemente el servicio al cliente, el marketing y otras tareas empresariales. Este artículo presentará varios casos de uso creativos para aportar más valor a su negocio.

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con OllamaPunto de vista

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

Mikael Svenson

April 28, 2025

¿Dónde Descargar Swagger UI en Español Gratis?Punto de vista

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

Oliver Kingsley

April 23, 2025

¿Dónde Descargar Postman en Español Gratis?Punto de vista

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

Oliver Kingsley

April 22, 2025