Pour gérer vos consentements :
Categories: ChatGPT

Superalignment : quel est ce projet OpenAI abandonné par ses managers ?

Jan Leike était co-dirigeant du projet « Superalignement » d’OpenAI, lancé en 2023 pour piloter et contrôler les systèmes d’IA. À l’époque, OpenAI avait annoncé qu’elle consacrerait 20 % de sa puissance de calcul à cette initiative sur quatre ans.

La semaine dernière, Jan Leike a annoncé qu’il quittait OpenAI et a publiquement critiqué sa direction, après qu’un désaccord sur les objectifs clés ait atteint un « point de rupture ».


« S’éloigner de ce travail a été l’une des choses les plus difficiles que j’ai jamais faites, car nous devons de toute urgence trouver comment diriger et contrôler les systèmes d’IA beaucoup plus intelligents que nous »  a-t-il écrit dans une série de tweets.

« J’ai rejoint le groupe parce que je pensais qu’OpenAI serait le meilleur endroit au monde pour mener cette recherche » , a-t-il écrit. « Cependant, je suis en désaccord avec les dirigeants d’OpenAI sur les priorités fondamentales de l’entreprise depuis un certain temps, jusqu’à ce que nous atteignions finalement un point de rupture.»

Il a affirmé qu’« au cours des dernières années, la culture et les processus de sécurité ont cédé le pas aux produits brillants » chez OpenAI.

Il a également fait part de ses inquiétudes quant au fait que l’entreprise ne consacrait pas suffisamment de ressources à la préparation d’une éventuelle « intelligence générale artificielle » (IAG) qui pourrait être plus intelligente que les humains.

La semaine dernière, a également vu le départ du co-fondateur et scientifique en chef d’OpenAI, Ilya Sutskever, quelques mois après avoir joué un rôle dans le licenciement choc et la réembauche du PDG Sam Altman en novembre dernier.


Les réponses d’OpenAI

OpenAI a défendu ses pratiques de sécurité, et Sam Altman a tweeté qu’il appréciait l’engagement de Jan Leike envers la « culture de la sécurité » et a déclaré qu’il était triste de le voir partir.


Samedi, le co-fondateur d’OpenAI, Greg Brockman, a tweeté une déclaration attribuée à lui-même et à Altman sur X, dans laquelle ils affirmaient qu’OpenAI avait « sensibilisé aux risques et aux opportunités de l’AGI afin que le monde puisse mieux s’y préparer ».

Mais CNBC a rapporté, citant une personne proche du dossier, qu’OpenAI avait dissous l’équipe axée sur les risques à long terme de l’intelligence artificielle, un an seulement après que la société a annoncé la création du groupe.

La source a déclaré que certains membres de l’équipe étaient réaffectés dans plusieurs autres équipes au sein de l’entreprise.

Tom Jowitt, Silicon UK

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago