Recherche

Comment minimiser les risques de cybersécurité de ChatGPT ?

Les entreprises doivent anticiper que les attaquants seront de plus en plus friands d'outils basés sur l'IA, comme ChatGPT, et que seules des méthodes également automatisées permettront de les contrer.

Publié par le - mis à jour à
Lecture
4 min
  • Imprimer
Comment minimiser les risques de cybersécurité de ChatGPT ?

Qui n'a pas entendu parler de ChatGPT, ce chatbot qui a le potentiel extraordinaire d'automatiser de nombreux processus et de simplifier les interactions entre les bots et les humains ?

On peut raisonnablement imaginer que bientôt, l'utilisation de technologies telles que ChatGPT, ERNIE de Baidu ou encore BARD de Google deviendra un outil quotidien de génération de contenu comme les autres au sein des entreprises, au même titre qu'un outil de traitement de texte ou qu'un tableur.

Cependant, celle-ci peut comporter des risques de sécurité importants. Selon une récente enquête de Blackberry, plus de la moitié des professionnels de l'IT pensent que la probabilité d'une cyberattaque déclenchée par ChatGPT reste élevée.

D'autre part, 71% estiment que ChatGPT pourrait déjà être utilisé par certains États pour attaquer d'autres pays via des tentatives de piratage et de phishing. Il est donc capital que les professionnels en soient conscients, et puissent se préparer à ces risques dès aujourd'hui.

L'automatisation : un facteur de risque connu

Le premier risque concerne le phishing. Ces attaques commencent le plus souvent par un message dans votre boîte mail. Aujourd'hui, ces tentatives d'escroquerie sont facilement identifiables au vu des nombreuses fautes d'orthographes, des objets racoleurs ou des visuels pixelisés.

Mais avec l'aide de l'IA, cela pourrait changer. ChatGPT pourrait en effet créer des e-mails faussement authentiques, les rendant moins évidents à détecter par les utilisateurs, et donc bien plus efficaces.

Le second risque a trait aux attaques par malwares. Dans la même logique que le phishing, la création de logiciels malveillants pourrait être facilitée par l'IA. Selon les chercheurs américains de Check Point, ChatGPT pourrait être un outil efficace pour la création automatisée de logiciels malveillants. Les cybercriminels seraient par exemple en mesure de s'appuyer sur l'IA pour créer un script Python, pouvant ensuite être utilisé pour ce type d'attaque.

Jusqu'à présent, ChatGPT ne disposait que de capacités de programmation limitées. Mais selon les différents experts, ce n'est qu'une question de temps avant que celles-ci ne s'améliorent drastiquement. La course contre la montre a commencé, et il y a aujourd'hui un besoin urgent d'outils et de processus automatisés de sécurité, eux-mêmes pilotés par de l'IA, capables de détecter et de contrer rapidement les attaques de logiciels malveillants.

Trois mesures pour contrer les risques de sécurité

L'algorithme de ChatGPT a été entraîné sur un grand corpus de texte, et est capable de générer tout type de réponse, y compris des morceaux de code, des recettes de cuisine ou des poèmes en alexandrins.

Ce faisant, l'outil retient au fur et à mesure de son apprentissage les entrées fournies par les utilisateurs eux-mêmes, et recueille ainsi une grande quantité de données personnelles.

Compte tenu du taux d'utilisation élevé et de la vitesse à laquelle l'IA s'introduit dans de nombreux domaines de la vie (personnelle comme professionnelle), la plus grande prudence reste de mise.

Alors, si les risques sont nombreux, comment s'en protéger ? Plusieurs méthodes ont d'ores et déjà été identifiées. Il est d'abord fortement recommandé de mettre en oeuvre un système de surveillance du réseau en temps réel, qui détecte les activités malveillantes dès qu'elles se produisent. Il existe à cet égard plusieurs niveaux de protection de l'identité, telles que l'authentification à deux facteurs (2FA), qui offre une couche de sécurité supplémentaire à l'entreprise.

Les entreprises doivent également anticiper le fait que les attaquants seront de plus en plus friands d'outils basés sur l'IA, et que seules des méthodes également automatisées permettront de les contrer. Investir dans des technologies de protection est donc indispensable, car la course à l'algorithme a déjà commencé.

Enfin, l'aspect de sensibilisation et de formation des collaborateurs reste essentiel. Chacun doit apprendre à reconnaître les signes d'un email frauduleux ou d'un lien malveillant pour éviter une attaque de phishing, potentiellement dangereuse pour l'intégrité de l'entreprise. Identifier les menaces est un travail constant et de longue haleine, qui doit être initié par les équipes IT et diffusé au sein de toute l'entreprise.

ChatGPT est une nouvelle technologie qui présente à la fois des avantages et des inconvénients. Certaines autorités européennes ont interdit son utilisation, comme l'agence italienne de protection des données, car elle ne respecte pas les règles de confidentialité.

Le comité européen de la protection des données a également créé un groupe de travail pour enquêter sur ChatGPT. Cela pourrait conduire à davantage d'actions en justice susceptibles d'entraver la croissance des chatbots et de l'IA en Europe.

Joey Stanford, VP Privacy & Security - Platform.sh.

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #bigdata

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page