OpenAI GPT-3.5 Turbo et GPT-4 (Prix plus bas et nouveau modèle)

OpenAI annonce des mises à jour : fonctions améliorées, fenêtres contextuelles étendues, et prix réduits.

Louis Dupont

Louis Dupont

5 June 2025

OpenAI GPT-3.5 Turbo et GPT-4 (Prix plus bas et nouveau modèle)

Le 13 juin 2023, OpenAI a annoncé une série de mises à jour de sa suite de modèles de langage, notamment une meilleure contrôlabilité, des capacités d'appel de fonction améliorées, des fenêtres contextuelles étendues et des prix plus bas. En seulement six mois, ChatGPT, un modèle frère d'InstructGPT qui est formé pour suivre les instructions et fournir des réponses détaillées, a rapidement gagné en popularité dans le monde entier depuis son lancement le 30 novembre 2022. Cette mise à jour couvre six domaines majeurs, et nous sommes ravis de plonger dans les détails avec vous.

Appel de fonction

Les dernières mises à jour de GPT-4-0613 et GPT-3.5-turbo-0613 permettent aux développeurs de décrire des fonctions aux modèles, qui peuvent ensuite générer un objet JSON contenant des arguments pour appeler ces fonctions. Cela offre une nouvelle façon pour les modèles GPT de se connecter à des outils et API externes pour générer une sortie de données structurées.

Les modèles ont été affinés pour détecter quand une fonction doit être appelée et peuvent répondre avec du JSON qui adhère à la signature de la fonction. Cela permet aux développeurs de créer des chatbots qui répondent aux questions en appelant des outils externes, de convertir le langage naturel en appels d'API ou en requêtes de base de données, et d'extraire des données structurées du texte. Les nouveaux paramètres d'API prennent en charge l'appel de fonctions spécifiques, et les développeurs peuvent se référer à la documentation du développeur pour ajouter des évaluations afin d'améliorer l'appel de fonction.

Exemple d'appel de fonction

Étape 1·API OpenAI

Appelez le modèle avec des fonctions et l'entrée de l'utilisateur

Exemple de code de requête :

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "What is the weather like in Boston?"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Get the current weather in a given location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "The city and state, e.g. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

Vous pouvez utiliser Apidog pour envoyer des requêtes cURL. Apidog est un outil puissant de développement et de test d'API qui offre une gamme de fonctionnalités et d'avantages aux développeurs. Comme Postman, Apidog permet aux utilisateurs d'envoyer des requêtes cURL, ce qui est particulièrement utile pour ceux qui connaissent déjà cURL dans un terminal ou une interface de ligne de commande. En tirant parti de l'interface conviviale et des nombreuses fonctionnalités d'Apidog, vous pouvez créer et envoyer des requêtes cURL ainsi que d'autres types de requêtes avec une grande facilité. Cela permet aux développeurs de tester efficacement les API, d'identifier et de déboguer rapidement les problèmes potentiels et de maximiser leurs flux de travail de développement d'API.

Que vous soyez un développeur expérimenté ou que vous débutiez dans les tests d'API, la fonctionnalité de requête cURL d'Apidog est un outil essentiel à avoir à votre disposition.

Vous devez remplacer $OPENAI_API_KEY par le paramètre Key réel lors du collage de la commande de requête cURL.

Après avoir cliqué sur le bouton "envoyer", vous recevrez une chaîne de caractères de réponse.

Réponse complète :

{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": null,
      "function_call": {
        "name": "get_current_weather",
        "arguments": "{ \"location\": \"Boston, MA\"}"
      }
    },
    "finish_reason": "function_call"
  }]
}

Étape 2·API tierce

Utilisez la réponse du modèle pour appeler votre API, requête comme ci-dessous :

curl https://weatherapi.com/...
{ "temperature": 22, "unit": "celsius", "description": "Sunny" }

Étape 3·API OpenAI

Renvoyez la réponse au modèle pour la résumer.

Exemple de code de requête :

curl https://api.openai.com/v1/chat/completions -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "What is the weather like in Boston?"},
    {"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
    {"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Sunny\"}"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Get the current weather in a given location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "The city and state, e.g. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'

vous pouvez utiliser Apidog pour envoyer des requêtes.

Après avoir cliqué sur le bouton "envoyer", vous obtiendrez une réponse réussie.

Réponse complète :

{
    "id": "chatcmpl-******",
    "object": "chat.completion",
    "created": *****,
    "model": "gpt-3.5-turbo-0613",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "The weather in Boston is currently sunny with a temperature of 22 degrees Celsius."
            },
            "finish_reason": "stop"
        }
    ],
    "usage": {
        "prompt_tokens": 127,
        "completion_tokens": 17,
        "total_tokens": 144
    }
}

Le temps à Boston est actuellement ensoleillé avec une température de 22 degrés Celsius.

Fenêtre contextuelle plus grande

Avec les dernières mises à jour, GPT-4-32k-0613 et GPT-3.5-turbo-16k sont désormais capables de gérer des textes plus volumineux, ce qui améliore leur efficacité pour les applications qui nécessitent le traitement d'importantes quantités de données textuelles. GPT-3.5-turbo-16k peut désormais gérer environ 20 pages de texte en une seule requête, ce qui est quatre fois plus grand que le modèle précédent. En d'autres termes, les utilisateurs pourront bientôt télécharger jusqu'à 20 pages de texte dans ChatGPT à la fois, ce qui donnera un coup de pouce significatif à ses capacités de traitement de données textuelles plus volumineuses.

Nouveaux modèles

OpenAI a récemment annoncé des mises à jour de ses modèles GPT-4 et GPT-3.5 Turbo. GPT-4-0613 propose un modèle mis à jour et amélioré avec des capacités d'appel de fonction. Pendant ce temps, GPT-4-32k-0613 possède les mêmes améliorations d'appel de fonction que GPT-4-0613, ainsi qu'une longueur de contexte étendue pour une meilleure compréhension des textes plus volumineux.

Les mises à jour sont conçues pour permettre à davantage de personnes d'essayer GPT-4, et OpenAI invite beaucoup plus de personnes de la liste d'attente au cours des semaines à venir, avec l'intention de supprimer complètement la liste d'attente avec ce modèle. De même, GPT-3.5-Turbo-0613 a ajouté l'appel de fonction et une contrôlabilité plus fiable avec le message système.

GPT-3.5-Turbo-16k présente quatre fois la longueur de contexte de GPT-3.5-Turbo, à deux fois le prix de 0,003 par 1 000 jetons d'entrée et0,003 *par* 1 *Kjetonsd'entréeet* 0,004 par 1 000 jetons de sortie. Cette mise à jour signifie que le modèle peut désormais prendre en charge ~20 pages de texte en une seule requête.

OpenAI mettra à niveau et dépréciera les modèles initiaux de GPT-4 et GPT-3.5 Turbo qui ont été annoncés en mars. Les applications utilisant les noms de modèles stables seront automatiquement mises à niveau vers les nouveaux modèles le 27 juin. Les développeurs peuvent également utiliser les anciens modèles jusqu'au 13 septembre en spécifiant les noms de modèles appropriés dans leurs requêtes d'API. OpenAI se félicite des commentaires des développeurs pour assurer une transition en douceur.

Compte tenu de ces mises à jour, les modèles d'OpenAI deviennent plus puissants et conviviaux, offrant aux développeurs de nouvelles capacités passionnantes à explorer. De l'appel de fonction amélioré à la longueur de contexte plus importante, ces mises à jour repoussent les limites du traitement du langage naturel et mettent une technologie de pointe entre les mains des développeurs du monde entier.

Prix plus bas

OpenAI a récemment annoncé une réduction de prix importante pour son modèle d'intégration populaire, qui a vu une réduction de 75 % des coûts, jusqu'à 0,0001 $ par 1 000 jetons. Cette mise à jour fait partie des efforts continus d'OpenAI pour rendre ses systèmes plus efficaces et répercuter ces économies sur les développeurs.

Le modèle de chat populaire GPT-3.5 Turbo qui alimente ChatGPT pour des millions d'utilisateurs a également bénéficié d'une réduction de prix, avec une diminution de 25 % des coûts des jetons d'entrée. Les développeurs peuvent désormais utiliser ce modèle pour seulement 0,0015 $ par 1 000 jetons d'entrée et 0,002 $ par 1 000 jetons de sortie. La version de contexte 16k, GPT-3.5-Turbo-16k, est au prix de 0,003 par 1 000 jetons d'entrée et0,003 *par* 1 *Kjetonsd'entréeet* 0,004 par 1 000 jetons de sortie, ce qui permet aux développeurs d'exploiter ce modèle puissant pour le traitement de texte plus volumineux.

OpenAI apprécie les commentaires des développeurs, et leurs suggestions font partie intégrante de l'évolution continue de la plateforme. Ces dernières mises à jour sont conçues pour offrir une valeur accrue et de plus larges possibilités d'application aux développeurs utilisant les modèles d'OpenAI. Avec des prix plus bas et d'autres nouvelles fonctionnalités, OpenAI continue d'être un leader dans le domaine du traitement du langage naturel.

Modèle GPT-4 vs Modèle de chat (GPT-3.5-turbo)

GPT-3.5-turbo se distingue par son coût inférieur, ses performances suffisantes pour les applications générales et ses exigences en ressources moindres, ce qui le rend idéal pour ceux qui ont des contraintes budgétaires ou qui opèrent dans des environnements aux ressources limitées. Cependant, sa fenêtre contextuelle limitée et son appel de fonction moins puissant pourraient ne pas convenir aux applications avancées.

D'un autre côté, GPT-4 offre un appel de fonction amélioré et une fenêtre contextuelle plus grande, ce qui est bénéfique pour les applications complexes qui nécessitent de conserver des informations antérieures importantes. Cependant, il est proposé à un prix plus élevé et nécessite des ressources informatiques plus importantes. Choisir le bon modèle pour nos besoins peut maximiser les avantages tout en respectant le budget.

Dépréciation du modèle

Un processus de mise à niveau et de dépréciation des versions initiales de gpt-4 et gpt-3.5-turbo a commencé, qui ont été annoncées en mars. Les noms de modèles stables, notamment gpt-3.5-turbo, gpt-4 et gpt-4-32k, seront automatiquement mis à niveau vers de nouveaux modèles le 27 juin. Pour comparer les performances des modèles entre les versions, notre bibliothèque Evals prend en charge les évaluations publiques et privées pour démontrer comment les modifications des modèles auront un impact sur vos cas d'utilisation.

Si les développeurs ont besoin de plus de temps pour passer aux nouveaux modèles, ils peuvent toujours utiliser les anciens modèles en spécifiant gpt-3.5-turbo-0301, gpt-4-0314 ou gpt-4-32k-0314 dans leur requête d'API. Les anciens modèles seront disponibles jusqu'au 13 septembre, après quoi les requêtes pour ces noms de modèles échoueront. Pour rester informé des dépréciations de modèles, vous pouvez consulter notre page de dépréciation de modèles. Comme il s'agit de la première mise à jour de ces modèles, nous apprécierions les commentaires des développeurs pour assurer une transition en douceur.

Conclusion

OpenAI a publié de nouveaux modèles et fonctionnalités qui permettront aux développeurs de créer des applications puissantes. La réduction des prix est particulièrement attrayante, car elle permet de faire plus d'expérimentations avec les applications Web tout en minimisant les dépenses. Il sera intéressant de voir comment les autres développeurs capitaliseront sur ces mises à jour.

De plus, le plugin ChatGPT est un outil basé sur l'IA qui peut vous aider à gérer efficacement le service client, le marketing et d'autres tâches commerciales. Cet article présentera plusieurs cas d'utilisation créatifs pour apporter plus de valeur à votre entreprise.

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API