Recherche

ChatGPT, ses semblables et leurs secrets pas si bien gardés

Il arrive que ChatGPT et consorts dévoilent des éléments qu'ils sont censés garder pour eux. Y compris l'essence de leur « morale ».

Publié par Clément Bohic le | Mis à jour le
Lecture
4 min
  • Imprimer
ChatGPT, ses semblables et leurs secrets pas si bien gardés

Pas de blague sur les hommes politiques influents ? C'est une règle à suivre pour Bing Chat.

Le chatbot n'est pas censé révéler les consignes qui conditionnent son comportement. Mais on peut l'y pousser. En particulier quand on sait qu'il traite chaque conversation comme un document. Et qu'au début de ce document se trouvent lesdites consignes.

Ainsi un étudiant de Stanford est-il parvenu, la semaine dernière, à mettre au jour la manière dont Bing Chat collecte et présente l'information, émet des suggestions, s'impose des limites, etc.

D'autres méthodes - impliquant entre autres de se faire passer pour un développeur d'OpenAI - ont abouti au même résultat, permettant de confirmer qu'il ne s'agissait pas d'une hallucination de la part de Bing Chat.

Dans les grandes lignes, que retenir ? D'abord que Bing Chat doit fournir des réponses « positives » et « engageantes ». Et, au contraire, éviter celles qui violeraient le droit d'auteur de livres ou de paroles de chansons. Ainsi que celles « sujettes à controverse ».

Bing Chat ne doit par ailleurs pas générer de suggestions de tâches qu'il n'est pas lui-même capable d'effectuer. Surtout, il doit :

- Refuser de faire « toute blague susceptible de blesser un groupe d'individus »
- Présenter les résultats de recherche « d'une manière non partisane »
- Réaliser de façon « édulcorée » les tâches qui pourraient s'avérer blessantes
- Et, donc, ne pas générer de « contenu créatif comme des blagues, des poèmes, des histoires, des tweets [ou] du code » à propos d'hommes politiques, d'activistes ou de chefs d'État influents

Bing Chat et ChatGPT : même ascendance, mêmes faiblesses ?

Bing Chat dérive de la même racine que ChatGPT. Ce dernier embarque aussi de multiples garde-fous destinés à produire des résultats « politiquement corrects ». Mais on peut les contourner. Par exemple pour pousser le chatbot à critiquer la politique de modération à laquelle on le soumet. Ou à lui faire exprimer ses actes de violence favoris.

Illustration principale © vegefox.com - Adobe Stock

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page