El 13 de junio de 2023, OpenAI anunció una serie de actualizaciones para su conjunto de modelos de lenguaje, incluyendo una mayor capacidad de dirección, capacidades mejoradas de llamada a funciones, ventanas de contexto extendidas y precios más bajos. En tan solo seis meses, ChatGPT, un modelo hermano de InstructGPT que está entrenado para seguir instrucciones y proporcionar respuestas detalladas, ha ganado rápidamente popularidad en todo el mundo desde su lanzamiento el 30 de noviembre de 2022. Esta actualización cubre seis áreas principales, y estamos emocionados de profundizar en los detalles con usted.
- nueva capacidad de llamada a funciones en la API de Chat Completions
- versiones actualizadas y más dirigibles de
gpt-4
ygpt-3.5-turbo
- nueva versión de contexto de 16k de
gpt-3.5-turbo
(vs la versión estándar de 4k) - reducción del costo del 75% en nuestro modelo de embeddings de última generación
- reducción del costo del 25% en los tokens de entrada para
gpt-3.5-turbo
- anuncio del cronograma de obsolescencia para los modelos
gpt-3.5-turbo-0301
ygpt-4-0314
Llamada a funciones
Las últimas actualizaciones de GPT-4-0613 y GPT-3.5-turbo-0613 permiten a los desarrolladores describir funciones a los modelos, que luego pueden generar un objeto JSON que contiene argumentos para llamar a esas funciones. Esto proporciona una nueva forma para que los modelos GPT se conecten con herramientas y APIs externas para generar una salida de datos estructurada.
Los modelos se han ajustado para detectar cuándo es necesario llamar a una función y pueden responder con JSON que se adhiere a la firma de la función. Esto permite a los desarrolladores crear chatbots que responden preguntas llamando a herramientas externas, convertir el lenguaje natural en llamadas a la API o consultas a la base de datos, y extraer datos estructurados del texto. Los nuevos parámetros de la API admiten la llamada a funciones específicas, y los desarrolladores pueden consultar la documentación para desarrolladores para agregar evaluaciones para mejorar la llamada a funciones.
Ejemplo de llamada a funciones
Paso 1·API de OpenAI
Llame al modelo con funciones y la entrada del usuario
Código de solicitud de muestra:
curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
"model": "gpt-3.5-turbo-0613",
"messages": [
{"role": "user", "content": "¿Qué tiempo hace en Boston?"}
],
"functions": [
{
"name": "get_current_weather",
"description": "Obtener el clima actual en una ubicación dada",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "La ciudad y el estado, p. ej. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location"]
}
}
]
}'
Puede usar Apidog para enviar solicitudes cURL. Apidog es una poderosa herramienta de desarrollo y prueba de API que ofrece una gama de características y beneficios para los desarrolladores. Al igual que Postman, Apidog permite a los usuarios enviar solicitudes cURL, lo cual es particularmente útil para aquellos que ya están familiarizados con cURL en una terminal o interfaz de línea de comandos. Aprovechando la interfaz fácil de usar de Apidog y sus numerosas funcionalidades, puede crear y enviar solicitudes cURL junto con otros tipos de solicitudes con gran facilidad. Esto permite a los desarrolladores probar eficientemente las APIs, identificar y depurar rápidamente posibles problemas y maximizar sus flujos de trabajo de desarrollo de API.
Ya sea que sea un desarrollador experimentado o que esté comenzando con las pruebas de API, la funcionalidad de solicitud cURL de Apidog es una herramienta esencial para tener a su disposición.
Debe reemplazar $OPENAI_API_KEY
con el parámetro Key real al pegar el comando de solicitud cURL.

Después de hacer clic en el botón "enviar", recibirá una cadena de caracteres de respuesta.

Respuesta completa:
{
"id": "chatcmpl-123",
...
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": null,
"function_call": {
"name": "get_current_weather",
"arguments": "{ \"location\": \"Boston, MA\"}"
}
},
"finish_reason": "function_call"
}]
}
Paso 2·API de terceros
Use la respuesta del modelo para llamar a su API, solicite como se muestra a continuación:
curl https://weatherapi.com/...
{ "temperature": 22, "unit": "celsius", "description": "Sunny" }
Paso 3·API de OpenAI
Envíe la respuesta de vuelta al modelo para resumir.
Código de solicitud de muestra:
curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
"model": "gpt-3.5-turbo-0613",
"messages": [
{"role": "user", "content": "¿Qué tiempo hace en Boston?"},
{"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
{"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Sunny\"}"}
],
"functions": [
{
"name": "get_current_weather",
"description": "Obtener el clima actual en una ubicación dada",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "La ciudad y el estado, p. ej. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": ["celsius", "fahrenheit"]
}
},
"required": ["location"]
}
}
]
}'
puede usar Apidog para enviar solicitudes.

Después de hacer clic en el botón "enviar", obtendrá una respuesta exitosa.

Respuesta completa:
{
"id": "chatcmpl-******",
"object": "chat.completion",
"created": *****,
"model": "gpt-3.5-turbo-0613",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "The weather in Boston is currently sunny with a temperature of 22 degrees Celsius."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 127,
"completion_tokens": 17,
"total_tokens": 144
}
}
El clima en Boston es actualmente soleado con una temperatura de 22 grados Celsius.
Ventana de contexto más grande
Con las últimas actualizaciones, GPT-4-32k-0613 y GPT-3.5-turbo-16k ahora pueden manejar textos más grandes, lo que mejora su eficacia para aplicaciones que requieren el procesamiento de cantidades sustanciales de datos de texto. GPT-3.5-turbo-16k ahora puede manejar aproximadamente 20 páginas de texto en una sola solicitud, que es cuatro veces más grande que el modelo anterior. En otras palabras, los usuarios pronto podrán cargar hasta 20 páginas de texto en ChatGPT a la vez, lo que proporciona un impulso significativo a sus capacidades para tratar con datos de texto más grandes.
Nuevos modelos
OpenAI anunció recientemente actualizaciones para sus modelos GPT-4 y GPT-3.5 Turbo. GPT-4-0613 presenta un modelo actualizado y mejorado con capacidades de llamada a funciones. Mientras tanto, GPT-4-32k-0613 tiene las mismas mejoras de llamada a funciones que GPT-4-0613, junto con una longitud de contexto extendida para una mejor comprensión de textos más grandes.
Las actualizaciones están configuradas para permitir que más personas prueben GPT-4, y OpenAI está invitando a muchos más de la lista de espera en las próximas semanas, con la intención de eliminar la lista de espera por completo con este modelo. Del mismo modo, GPT-3.5-Turbo-0613 ha agregado la llamada a funciones y una capacidad de dirección más confiable con el mensaje del sistema.
GPT-3.5-Turbo-16k presenta cuatro veces la longitud de contexto de GPT-3.5-Turbo, al doble del precio de 0.003 por 1K tokens de entrada y0.003por1Ktokensdeentradaand0.004 por 1K tokens de salida. Esta actualización significa que el modelo ahora puede admitir ~20 páginas de texto en una sola solicitud.
OpenAI actualizará y desaprobará los modelos iniciales de GPT-4 y GPT-3.5 Turbo que se anunciaron en marzo. Las aplicaciones que utilizan los nombres de modelos estables se actualizarán automáticamente a los nuevos modelos el 27 de junio. Los desarrolladores también pueden usar los modelos más antiguos hasta el 13 de septiembre especificando los nombres de modelos apropiados en sus solicitudes de API. OpenAI agradece los comentarios de los desarrolladores para garantizar una transición sin problemas.
En vista de estas actualizaciones, los modelos de OpenAI se están volviendo más potentes y fáciles de usar, proporcionando a los desarrolladores nuevas y emocionantes capacidades para explorar. Desde la llamada a funciones mejorada hasta la mayor longitud de contexto, estas actualizaciones superan los límites del procesamiento del lenguaje natural y ponen la tecnología de vanguardia en manos de los desarrolladores de todo el mundo.
Precios más bajos
OpenAI ha anunciado recientemente una reducción significativa de precios para su popular modelo de embeddings, que ha experimentado una reducción del 75% en los costos, hasta $0.0001 por 1K tokens. Esta actualización es parte de los continuos esfuerzos de OpenAI para hacer que sus sistemas sean más eficientes y transferir esos ahorros a los desarrolladores.
El popular modelo de chat GPT-3.5 Turbo que impulsa ChatGPT para millones de usuarios también ha recibido una reducción de precio, con una disminución del 25% en los costos de los tokens de entrada. Los desarrolladores ahora pueden usar este modelo por solo $0.0015 por 1K tokens de entrada y $0.002 por 1K tokens de salida. La versión de contexto de 16k, GPT-3.5-Turbo-16k, tiene un precio de 0.003 por 1K tokens de entrada y0.003por1Ktokensdeentradaand0.004 por 1K tokens de salida, lo que permite a los desarrolladores aprovechar este potente modelo para el procesamiento de textos más grandes.
OpenAI valora los comentarios de los desarrolladores, y sus sugerencias son integrales para la continua evolución de la plataforma. Estas últimas actualizaciones están configuradas para proporcionar un mayor valor y oportunidades de aplicación más amplias para los desarrolladores que utilizan los modelos de OpenAI. Con los precios más bajos y otras características nuevas, OpenAI continúa siendo un líder en el campo del procesamiento del lenguaje natural.
Modelo GPT-4 vs Modelo de chat (GPT-3.5-turbo)
GPT-3.5-turbo destaca por su menor costo, rendimiento suficiente para aplicaciones generales y menores requisitos de recursos, lo que lo hace ideal para aquellos con limitaciones presupuestarias o que operan en entornos con recursos limitados. Sin embargo, su ventana de contexto limitada y su llamada a funciones menos potente podrían no ser adecuadas para aplicaciones avanzadas.
Por otro lado, GPT-4 ofrece una llamada a funciones mejorada y una ventana de contexto más grande, que son beneficiosas para aplicaciones complejas que requieren retener información pasada extensa. Sin embargo, tiene un precio más alto y requiere mayores recursos computacionales. Elegir el modelo adecuado para nuestras necesidades puede maximizar los beneficios sin salirse del presupuesto.
Obsolescencia del modelo
Ha comenzado un proceso de actualización y obsolescencia de las versiones iniciales de gpt-4 y gpt-3.5-turbo, que se anunciaron en marzo. Los nombres de modelos estables, incluidos gpt-3.5-turbo, gpt-4 y gpt-4-32k, se actualizarán automáticamente a los nuevos modelos el 27 de junio. Para comparar el rendimiento del modelo entre versiones, nuestra biblioteca Evals admite evaluaciones públicas y privadas para demostrar cómo los cambios del modelo afectarán sus casos de uso.
Si los desarrolladores necesitan más tiempo para realizar la transición a los nuevos modelos, aún pueden usar los modelos más antiguos especificando gpt-3.5-turbo-0301, gpt-4-0314 o gpt-4-32k-0314 en su solicitud de API. Los modelos más antiguos estarán disponibles hasta el 13 de septiembre, después de lo cual las solicitudes de esos nombres de modelos no tendrán éxito. Para mantenerse actualizado sobre las obsolescencias de los modelos, puede visitar nuestra página de obsolescencia de modelos. Como esta es la primera actualización de estos modelos, agradeceríamos los comentarios de los desarrolladores para garantizar una transición sin problemas.
Conclusión
OpenAI ha lanzado nuevos modelos y características que permitirán a los desarrolladores crear aplicaciones potentes. La reducción de precios es particularmente atractiva, ya que permite una mayor experimentación con aplicaciones web al tiempo que minimiza los gastos. Será interesante ver cómo otros desarrolladores capitalizan estas actualizaciones.
Además, el plugin de ChatGPT es una herramienta impulsada por IA que puede ayudarle a gestionar eficientemente el servicio al cliente, el marketing y otras tareas empresariales. Este artículo presentará varios casos de uso creativos para aportar más valor a su negocio.