OpenAI met à jour et révise le prix de ses modèles
OpenAI, l'entreprise américaine à l'origine du chatbot ChatGPT et du générateur d'images DALL·E, met à jour son API et ses modèles GPT-3.5 Turbo et GPT-4X, lancés en mars dernier.
L'entreprise de recherche et déploiement en intelligence artificielle a annoncé réduire de 25% le coût des jetons d'entrée (input tokens) utilisés pour faire fonctionner GPT-3.5 Turbo. Ce modèle de langage pré-entraîné (generative pre-training transformer) est utilisé par ChatGPT.
Les développeurs peuvent ainsi utiliser ce modèle pour la somme de « 0,0015 $ pour 1000 jetons d'entrée et 0,002 $ pour 1000 jetons de sortie », ce qui équivaut à environ 1 dollar pour 700 pages.
OpenAI déclare également réduire le coût de son modèle d'intégration de 75%.
GPT-3.5-turbo-16k
Un modèle plus récent, GPT-3.5-turbo-16k, fournit une capacité maximale de 16 000 jetons pour une même invite, contre 4000 jetons pour la version standard. Aussi, GPT-3.5-turbo-16k peut traiter environ 20 pages de texte en une seule requête.
GPT-3.5-turbo-16k sera proposé au prix de 0,003 $ pour 1 000 jetons d'entrée et de 0,004 dollar pour 1 000 jetons de sortie.
Par ailleurs, certaines des mises à jour sont associées à une nouvelle capacité d'appel de fonctions dans l'API Chat Completions.
« Les développeurs peuvent désormais décrire les fonctions à gpt-4-0613 et gpt-3.5-turbo-0613, et demander au modèle de choisir intelligemment de générer un objet JSON contenant des arguments pour appeler ces fonctions. Il s'agit d'une nouvelle façon de connecter de manière plus fiable les capacités de GPT avec des outils et des API externes », explique OpenAI.
L'annonce intervient deux mois après le lancement d'un programme de Bug Bounty (OpenAI Bug Bounty Program).
Lire aussi : GPT-4o : où, quand et pour qui ?
Par ce biais, les hackers « éthiques » et autres chercheurs en sécurité peuvent obtenir jusqu'à 20 000 $ par vulnérabilité signalée dans ChatGPT.
(crédit photo © Adobe Stock)
Sur le même thème
Voir tous les articles Data & IA