Pour gérer vos consentements :
Categories: ChatGPT

OpenAI : ce que l’on sait du piratage de la messagerie interne

OpenAI a été victime du piratage de sa messagerie interne affirme le New-York Times.

Selon le quotidien américain, les dirigeants d’OpenAI avaient révélé l’incident aux collaborateurs  lors d’une réunion dans  les bureaux de l’entreprise à San Francisco en avril 2023. Ils ont également informé le conseil d’administration.

Cependant, ils auraient choisi de ne pas communiquer publiquement car aucune information sur les clients ou les partenaires n’avait été volée, ont déclaré deux sources au New York Times.

Le pirate informatique aurait récupéré des informations sur un forum en ligne où des employés parlaient des dernières technologies d’OpenAI, mais n’aurait pas eu accès au code des modèles de langage.

Les dirigeants n’ont pas considéré l’incident comme une menace pour la sécurité nationale et n’ont pas informé le FBI ou une autre autre agence fédérale chargée de la sécurité.

Après la violation, Leopold Aschenbrenner, membre de l’équipe de « Superalignement« , a envoyé une note au conseil d’administration d’OpenAI arguant que l’entreprise n’en faisait pas assez pour empêcher le gouvernement chinois et d’autres pays étrangers  de voler ses secrets, a rapporté le New York Times.

Le chercheur a ensuite affirmé qu’OpenAI l’avait licencié ce printemps, et dissout l’équipe de « Superalignement« , pour avoir divulgué d’autres informations. Il a aussi fait valoir que son licenciement avait été motivé par des raisons politiques.

Un ancien directeur de la NSA a rejoint OpenAI

« Bien que nous partagions son engagement à construire une A.G.I (Artificial General Intelligence) sûre, nous ne sommes pas d’accord avec bon nombre des affirmations qu’il a faites depuis à propos de notre travail. Cela inclut ses descriptions de notre sécurité, notamment cet incident, que nous avons abordé et partagé avec notre conseil d’administration. » a rétorqué la porte-parole d’OpenAI, Liz Bourgeois, au New York Times.

En mai dernier, OpenAI a crée un comité pour superviser la sécurité des IA « superintelligentes » après la dissolution de l’équipe de « superalignement ». Objectif : répondre aux problèmes de sécurité de l’IA, dans le cadre de la création déclaré de son modèle  « frontier » de nouvelle génération pour succéder au modèle GPT-4 qui pilote actuellement ChatGPT.

Le mois suivant, en juin, c’est le général à la retraite de l’armée américaine Paul M. Nakasone qui a rejoint son conseil d’administration.  L’homme a joué un rôle central dans la création de l’US Cyber ​​Command et a été directeur de la National Security Agency (NSA) avant de prendre sa retraite en février 2024.

Avec Tom Jowitt, Silicon UK

Recent Posts

IA et développement logiciel : des spécificités françaises

Le principal sondage communautaire de GitLab illustre plusieurs particularités françaises concernant l'IA dans le développement…

2 heures ago

DSML : la clé dans la complémentarité des plates-formes ?

Gartner aborde le marché des plates-formes DSML sous l'angle de la complémentarité entre offres. Aperçu…

4 heures ago

Threads a 1 an : un réseau social encore en chantier

Un an après son lancement, Threads reste en construction. En particulier au niveau de l'intégration…

3 jours ago

Alain Bouillé – Cesin : « Il faut se pencher sur la domination croissante de Thoma Bravo dans la cybersécurité »

Le Cesin s'inquiète du rachat d'importants éditeurs de solutions de cybersécurité par le fonds américain…

3 jours ago

IA générative et internet ouvert : ce que craint l’Arcep

Dans son rapport sur l'état de l'internet en France, l'Arcep a inclus une section sur…

3 jours ago

Comment l’Hôpital Américain de Paris planifie son stockage à long terme

Les performances évolutives et les mécanismes de protection de la donnée offrent aux 335 médecins…

4 jours ago