Recherche

Deepfake : l'IA pourrait influencer les prochaines élections américaines

À l'approche des élections présidentielles américaines de novembre, l'utilisation de contenus issus des progrès récents de l'IA, quasiment indifférenciables de ceux écrits par des êtres humains, pourrait influencer le vote des électeurs.

Publié par le - mis à jour à
Lecture
4 min
  • Imprimer
Deepfake : l'IA pourrait influencer les prochaines élections américaines

Cette nouvelle IA est un modèle de langage baptisé GPT-3, qui a été mise au point par la société OpenAI, et dont les capacités sont impressionnantes et étendues. Le modèle est entraîné à répondre à une analyse textuelle donnée. Il peut répondre à des questions, écrire des poèmes et des romans, ou encore générer des pages Web simples, ainsi que des requêtes SQL à partir du langage naturel.

Cette IA excelle également dans la production d'articles de journaux fictifs, et ceci très facilement. Il suffit de fournir un titre et un sous-titre à l'IA pour qu'elle génère un texte complet. On peut facilement imaginer l'influence que cette IA aurait sur les prochaines élections américaines si elle était alimentée avec un titre et un sous-titre défendant un parti, un candidat ou des intérêts politiques particuliers.

Selon OpenAI, il est difficile pour les humains de repérer avec exactitude les articles de journaux rédigés par GPT-3. Ainsi, un article récent généré par l'IA s'est retrouvé à la Une d'un site populaire d'actualité sur la Tech, seulement très peu de lecteurs ayant réalisé qu'il avait été produit artificiellement.

Cette IA ne se limite pas à la production d'articles fantaisistes, comme la multitude de fausses informations générées par l'humain qui sont devenues virales lors des élections de 2016, elle est aussi capable de gérer un incroyable volume de contenus originaux et convaincants.
Selon une étude menée par l'université d'Oxford, environ 50 % des informations partagées sur Twitter dans le Michigan pendant les élections de 2016 provenaient de sources douteuses.

Avec la production de contenus réalistes et difficiles à distinguer du travail de journalistes professionnels, ce pourcentage pourrait considérablement augmenter et noyer les véritables articles de journaux sous des myriades d'informations générées par l'IA.

Les commentaires réalistes générés par l'IA plus difficiles à détecter

L'IA peut également être employée pour créer un consensus apparent autour de sujets politiques spécifiques. Une étude du Pew Research Center sur la consultation publique lancée en 2014 par la Commission fédérale américaine des communications (ou FCC, Federal Communications Commission) à propos de la neutralité du Net a révélé que, parmi les 21,7 millions de commentaires en ligne, seuls 6 % étaient uniques. Les 94 % restants, principalement des copies d'autres commentaires, se sont en majorité prononcés contre les réglementations sur la neutralité du Net.

Un bot de désinformation de ce type pourrait être utilisé sur des sites de réseaux sociaux et des forums afin de faire passer certaines opinions pour des idées largement répandues. Des études montrent que les décisions d'un individu sont influencées par celles des autres, même si l'opinion de la majorité apparente n'est qu'une illusion.

Comment limiter l'impact du contenu produit par l'IA sur les électeurs ?

On pourrait imaginer une seconde IA, formée pour identifier les textes issus de GPT-3, qui enverrait un avertissement signalant aux lecteurs qu'il s'agit de contenus potentiellement générés de façon automatique. Dans un même ordre d'idée, il est aujourd'hui possible de détecter les vidéos deepfake, qui contiennent généralement des déclarations fictives de personnalités politiques. Ces vidéos présentent souvent des anomalies. Les variations infimes de couleur de la peau dues à des battements de coeur réguliers y sont par exemple absentes.

Si la société OpenAI estime que des erreurs factuelles, des répétitions, des raisonnements dénués de logique et des formulations inhabituelles sont des signes qu'un article a été rédigé par l'IA GPT-3, elle note toutefois que ces indicateurs sont très subtils. Étant donné la fréquence à laquelle de nombreux lecteurs parcourent les articles, de tels indicateurs risquent de passer inaperçus. Une seconde IA pourrait certes relever ces indices de manière plus cohérente, mais son entraînement dégénérerait vite en une course à l'armement de l'IA, chaque IA devenant progressivement meilleure pour tromper l'autre.

En attendant, OpenAI s'est engagé à limiter l'accès à l'IA GPT-3 aux seuls usages éthiques, en surveillant de près son API (actuellement disponible en version bêta privée). Mais les clés des API sont parfois partagées ou accidentellement exposées dans des référentiels publics.

Maintenant que l'IA a démontré sa puissance, d'autres groupes vont sans doute tenter de reproduire ces résultats, et de les exploiter à des fins personnelles et politiques. L'adoption de ce type de technologie par des cybercriminels dépendra de sa capacité à améliorer leur workflow.
Peu d'éléments tendent à prouver que les cybercriminels ont adopté les modèles de langage précédents (comme GPT-2), mais plus la technologie gagnera en réalisme et en fiabilité, plus elle deviendra attrayante.

Christopher Thissen, Data scientist - Vectra.

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #bigdata

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page