Recherche

ChatGPT : OpenAI prépare des outils contre la désinformation électorale

Alors que 2024 sera une année d’élections majeures, notamment aux Etats-Unis ; OpenAI annonce le lancement de nouveaux outils pour prévenir les manipulations à des fins politiques provenant de ChatGPT et DALL-E.

Publié par Philippe Leroy le - mis à jour à
Lecture
3 min
  • Imprimer
ChatGPT : OpenAI prépare des outils contre la désinformation électorale

2024 sera une année  riche en périodes électorales  aux quatre coins du globe, notamment aux Etats-Unis, en Inde ou en Grande-Bretagne.  Et les outils d’IA générative auront leur place dans la production des messages politiques.

Dans ce contexte, OpenAI annonce la création de nouveaux outils pour éviter que ChatGPT et DALL-E, ses deux créations majeures de GenAI, ne soient utilisés à des fins de désinformation.

« Nous nous efforçons d'anticiper et de prévenir les abus pertinents, tels que les 'deepfakes' trompeurs, les opérations d'influence à grande échelle ou les chatbots se faisant passer pour des candidats.» explique OpenAI.

De nouveaux GPT pour lutter contre la désinformation

Sans donner de détails techniques, l'inventeur de ChatGPT affirme travailler sur le création de nouveaux GPT permettant notamment aux utilisateurs de signaler des détournements de son usage qui permettent de générer des messages de désinformation.

« Jusqu’à ce que nous en sachions plus, nous n’autorisons pas les gens à créer des applications à des fins de campagne politique et de lobbying. (...) Notre approche consiste à poursuivre notre travail de sécurité des plateformes en améliorant l’exactitude des informations sur le vote, en appliquant des politiques mesurées et en améliorant la transparence» déclare OpenAI.

Le champion de la GenAI prend la peine de signaler que des 'garde fous' à la puissance de ses deux outils phares existent déjà. C'est le cas pour DALL·E qui refuser les demandes de génération d'images de personnes réelles, y compris de candidats.

Pour 2024, son objectif affiché est de proposer  « une meilleure transparence sur la provenance des images, y compris la capacité de détecter quels outils ont été utilisés pour produire une image, peut permettre aux électeurs d'évaluer une image avec confiance dans la façon dont elle a été créée.». Autre annonce : un nouvel outil de détection des images générées par DALL·E.

OpenAI rejoint la C2PA avec Microsoft, Intel, AWS , etc

Dans son grand mouvement de transparence, OpenAI annonce rejoindre la Coalition for Content Provenance and Authenticity (C2PA) fondée en 2021. Ce consortium, qui compte Microsoft et AWS parmi ses membres, élabore des spécifications techniques pour établir la provenance et l'authenticité du contenu. 

La C2PA a livré la version 1.0 de sa norme technique pour la provenance et l'authenticité du contenu en 2021, mise à jour avec la version 1.1 puis 1.2 en 2022. La prise en charge de l'IA générative, de la vidéo et de l'audio en direct font partie des développements à venir.

 

 

 

 

 

 

 

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page