Recherche

OpenAI tente une « formule entreprise » pour ChatGPT

Entre la levée de fonds de Hugging Face et la publication des modèles Llama, timing idéal pour lancer ChatGPT Enterprise ?

Publié par Clément Bohic le - mis à jour à
Lecture
3 min
  • Imprimer
OpenAI tente une « formule entreprise » pour ChatGPT

OpenAI vient d'annoncer la disponibilité de cette offre qu'il a expérimentée auprès, entre autres, de Carlyle (société de gestion), d'Estée Lauder (produits de soins et cosmétiques) et de PwC (cabinet d'audit).

Que nous promet-on en vitrine ? Dans les grandes lignes, l'ensemble des fonctionnalités de l'offre ChatGPT Plus lancée en février dernier, avec, en complément :

- Un fonctionnement « jusqu'à deux fois plus rapide »... en fonction du taux d'utilisation des systèmes (il n'y a donc pas de SLA, en tout cas en façade)

- Pas de limites d'usage (ChatGPT Plus : 50 messages par tranche de 3 heures)

- Une fenêtre de contexte de 32k tokens, contre 8k pour GPT-4 aussi bien sur ChatGPT Plus que sur l'API OpenAI

- Un accès illimité au plug-in Advanced Data Analysis (ex-Code Interpreter), qui offre un environnement d'exécution Python pour, notamment, l'analyse et la visualisation de données

- Des modèles de prompts à partager au sein des espaces de travail (sous forme de bibliothèque)

- Des crédits pour utiliser l'API

Il n'est pas encore possible d'entraîner le modèle sur des données internes.

Des vraies garanties de sécurité pour ChatGPT ?

ChatGPT Enterprise comporte surtout des engagements en matière de sécurité. En premier lieu, une certification SOC 2. Type 1 pour le moment, tandis que l'API est certifiée Type 2 - ce qui suppose une évaluation sur la durée et non simplement à un instant T.

OpenAI fait aussi valoir un chiffrement des données au repos (AES-256) et en transit (TLS 1.2 au minimum). Il ne fournit pas publiquement d'informations à ce sujet concernant ChatGPT Plus.

Les inputs passent tout de même par une forme de filtre de modération. Le traitement se limite néanmoins aux métadonnées, assure OpenAI. Certains de ses employés pourront cependant accéder aux données, dans les cas suivants : « pour résoudre des incidents », « pour récupérer des conversations avec votre permission explicite »... ou quand la loi l'exige. C'est, grosso modo, le même régime que sur l'API, à ceci près que sur cette dernière, des tiers peuvent aussi intervenir pour la modération.

ChatGPT Enterprise a la spécificité de permettre aux clients de contrôler le délai de conservation des données. Une conversation supprimée n'est toutefois pas forcément immédiatement purgée : elle l'est « sous 30 jours ». Sur l'API, OpenAI se réserve ce même délai pour identifier d'éventuel abus.

Pour ce qui du « combien ça coûte », aucune tarification publique : OpenAI invite à prendre contact avec lui.

Photo d'illustration générée par IA

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #security

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page