OpenAI : ce que l’on sait du piratage de la messagerie interne

OpenAI GPT-4

Le New York Times rapporte qu’un hacker s’est infiltré dans la messagerie interne d’OpenAI. Il aurait eu accès au contenu de discussions internes entre chercheurs et autres employés, mais pas au code source des LLM.

OpenAI a été victime du piratage de sa messagerie interne affirme le New-York Times.

Selon le quotidien américain, les dirigeants d’OpenAI avaient révélé l’incident aux collaborateurs  lors d’une réunion dans  les bureaux de l’entreprise à San Francisco en avril 2023. Ils ont également informé le conseil d’administration.

Cependant, ils auraient choisi de ne pas communiquer publiquement car aucune information sur les clients ou les partenaires n’avait été volée, ont déclaré deux sources au New York Times.

Le pirate informatique aurait récupéré des informations sur un forum en ligne où des employés parlaient des dernières technologies d’OpenAI, mais n’aurait pas eu accès au code des modèles de langage.

Les dirigeants n’ont pas considéré l’incident comme une menace pour la sécurité nationale et n’ont pas informé le FBI ou une autre autre agence fédérale chargée de la sécurité.

Après la violation, Leopold Aschenbrenner, membre de l’équipe de « Superalignement« , a envoyé une note au conseil d’administration d’OpenAI arguant que l’entreprise n’en faisait pas assez pour empêcher le gouvernement chinois et d’autres pays étrangers  de voler ses secrets, a rapporté le New York Times.

Le chercheur a ensuite affirmé qu’OpenAI l’avait licencié ce printemps, et dissout l’équipe de « Superalignement« , pour avoir divulgué d’autres informations. Il a aussi fait valoir que son licenciement avait été motivé par des raisons politiques.

Un ancien directeur de la NSA a rejoint OpenAI

« Bien que nous partagions son engagement à construire une A.G.I (Artificial General Intelligence) sûre, nous ne sommes pas d’accord avec bon nombre des affirmations qu’il a faites depuis à propos de notre travail. Cela inclut ses descriptions de notre sécurité, notamment cet incident, que nous avons abordé et partagé avec notre conseil d’administration. » a rétorqué la porte-parole d’OpenAI, Liz Bourgeois, au New York Times.

En mai dernier, OpenAI a crée un comité pour superviser la sécurité des IA « superintelligentes » après la dissolution de l’équipe de « superalignement ». Objectif : répondre aux problèmes de sécurité de l’IA, dans le cadre de la création déclaré de son modèle  « frontier » de nouvelle génération pour succéder au modèle GPT-4 qui pilote actuellement ChatGPT.

Le mois suivant, en juin, c’est le général à la retraite de l’armée américaine Paul M. Nakasone qui a rejoint son conseil d’administration.  L’homme a joué un rôle central dans la création de l’US Cyber ​​Command et a été directeur de la National Security Agency (NSA) avant de prendre sa retraite en février 2024.

Avec Tom Jowitt, Silicon UK