OpenAI a été victime du piratage de sa messagerie interne affirme le New-York Times.
Selon le quotidien américain, les dirigeants d’OpenAI avaient révélé l’incident aux collaborateurs lors d’une réunion dans les bureaux de l’entreprise à San Francisco en avril 2023. Ils ont également informé le conseil d’administration.
Cependant, ils auraient choisi de ne pas communiquer publiquement car aucune information sur les clients ou les partenaires n’avait été volée, ont déclaré deux sources au New York Times.
Le pirate informatique aurait récupéré des informations sur un forum en ligne où des employés parlaient des dernières technologies d’OpenAI, mais n’aurait pas eu accès au code des modèles de langage.
Les dirigeants n’ont pas considéré l’incident comme une menace pour la sécurité nationale et n’ont pas informé le FBI ou une autre autre agence fédérale chargée de la sécurité.
Après la violation, Leopold Aschenbrenner, membre de l’équipe de « Superalignement« , a envoyé une note au conseil d’administration d’OpenAI arguant que l’entreprise n’en faisait pas assez pour empêcher le gouvernement chinois et d’autres pays étrangers de voler ses secrets, a rapporté le New York Times.
Le chercheur a ensuite affirmé qu’OpenAI l’avait licencié ce printemps, et dissout l’équipe de « Superalignement« , pour avoir divulgué d’autres informations. Il a aussi fait valoir que son licenciement avait été motivé par des raisons politiques.
« Bien que nous partagions son engagement à construire une A.G.I (Artificial General Intelligence) sûre, nous ne sommes pas d’accord avec bon nombre des affirmations qu’il a faites depuis à propos de notre travail. Cela inclut ses descriptions de notre sécurité, notamment cet incident, que nous avons abordé et partagé avec notre conseil d’administration. » a rétorqué la porte-parole d’OpenAI, Liz Bourgeois, au New York Times.
En mai dernier, OpenAI a crée un comité pour superviser la sécurité des IA « superintelligentes » après la dissolution de l’équipe de « superalignement ». Objectif : répondre aux problèmes de sécurité de l’IA, dans le cadre de la création déclaré de son modèle « frontier » de nouvelle génération pour succéder au modèle GPT-4 qui pilote actuellement ChatGPT.
Le mois suivant, en juin, c’est le général à la retraite de l’armée américaine Paul M. Nakasone qui a rejoint son conseil d’administration. L’homme a joué un rôle central dans la création de l’US Cyber Command et a été directeur de la National Security Agency (NSA) avant de prendre sa retraite en février 2024.
Avec Tom Jowitt, Silicon UK
Le principal sondage communautaire de GitLab illustre plusieurs particularités françaises concernant l'IA dans le développement…
Gartner aborde le marché des plates-formes DSML sous l'angle de la complémentarité entre offres. Aperçu…
Un an après son lancement, Threads reste en construction. En particulier au niveau de l'intégration…
Le Cesin s'inquiète du rachat d'importants éditeurs de solutions de cybersécurité par le fonds américain…
Dans son rapport sur l'état de l'internet en France, l'Arcep a inclus une section sur…
Les performances évolutives et les mécanismes de protection de la donnée offrent aux 335 médecins…