Cybersécurité : comment les « hackers d'Etat » utilisent les outils d'OpenAI
«Les pirates informatiques des États-nations utilisent déjà de grands modèles de langage tels que ChatGPT d’OpenAI, pour affiner et améliorer leurs cyberattaques.
Microsoft Threat Intelligence et OpenAI l’affirment dans des articles de blog respectifs, indiquant que « des acteurs malveillants tentent parfois d’abuser de nos outils pour nuire à autrui, y compris dans le cadre de cyberopérations ».
« En partenariat avec Microsoft Threat Intelligence, nous avons déjoué cinq acteurs étatiques qui cherchaient à utiliser les services d’IA pour soutenir des cyberactivités malveillantes », déclare OpenAI. « Nous décrivons également notre approche pour détecter et perturber ces acteurs afin de promouvoir le partage d’informations et la transparence concernant leurs activités.»
5 groupes de pirates affiliés à la Chine, l’Iran, la Russie et la Corée du Nord
OpenAI et Microsoft ont identifié cinq groupes malveillants, notamment de deux affiliés à la Chine, connus sous le nom de Charcoal Typhoon et Salmon Typhoon ; un affilié à l’Iran connu sous le nom de Crimson Sandstorm ; un affilié à la Corée du Nord connu sous le nom d’Emerald Sleet ; et un affilié à la Russie connu sous le nom de Forest Blizzard.
Dans le détail, on apprend que :
> Charcoal Typhoon a utilisé les services OpenAI pour rechercher diverses entreprises et outils de cybersécurité, déboguer du code et générer des scripts, créer du contenu susceptible d’être utilisé dans des campagnes de phishing.
> Salmon Typhoon a utilisé les services OpenAI pour traduire des documents techniques, récupérer des informations accessibles au public sur plusieurs agences de renseignement et acteurs régionaux de la menace, aider au codage et rechercher des moyens courants de dissimuler les processus sur un système.
> Crimson Sandstorm a utilisé les services OpenAI pour la prise en charge des scripts liés au développement d’applications Web, en générant du contenu susceptible d’être utilisé dans des campagnes de spear phishing et en recherchant les moyens par lesquels les logiciels malveillants pourraient échapper à la détection.
> Emerald Sleet a utilisé les services OpenAI pour identifier des experts et des organisations sur les questions de défense dans la région Asie-Pacifique, comprendre les vulnérabilités accessibles au public, réaliser les tâches de script de base et rédiger du contenu pouvant être utilisé dans des campagnes de phishing.
> Forest Blizzard a utilisé les services OpenAI principalement pour la recherche open source sur les protocoles de communication par satellite et la technologie d’imagerie radar, ainsi que pour l’assistance aux tâches de script.
Les comptes OpenAI associés à ces acteurs ont été clôturés.
OpenAI veut renforcer les contrôles…
« Bien que les capacités de nos modèles actuels pour les tâches malveillantes de cybersécurité soient limitées, nous pensons qu’il est important de garder une longueur d’avance sur les menaces importantes et évolutives » affirme OpenAI.
Et d’annoncer plusieurs fronts de riposte contre l’utilisation de sa plate-forme : surveiller et perturber les acteurs malveillants affiliés à un État ; travailler avec des partenaires industriels et l’écosystème de l’IA ; apprendre les mesures d’atténuation de sécurité et être publiquement transparent sur les utilisations abusives potentielles de l’IA.
« La grande majorité des gens utilisent nos systèmes pour améliorer leur vie quotidienne, des tuteurs virtuels pour les étudiants aux applications capables de retranscrire le monde pour les personnes malvoyantes », déclare OpenAI. « Bien que nous nous efforcions de minimiser les abus potentiels de la part de ces acteurs, nous ne serons pas en mesure d’arrêter tous les cas », ajoute-t-il.
Le porte-parole de l’ambassade américaine de Chine, Liu Pengyu, a déclaré à Reuters qu’il s’opposait aux « calomnies et accusations sans fondement contre la Chine » et a plaidé pour le déploiement « sûr, fiable et contrôlable » de la technologie de l’IA pour « améliorer le bien-être commun de toute l’humanité ».
Tom Jowitt, Silicon UK
Sur le même thème
Voir tous les articles Data & IA