OpenAI forme un comité de sûreté et de sécurité

OpenAI crée un comité pour superviser la sécurité des IA « superintelligentes » après la dissolution de l’équipe de « superalignement ».

OpenAI a formé un comité de sécurité pour répondre aux problèmes de sécurité de l’IA, dans le cadre de la création déclaré de son modèle  » frontier  » de nouvelle génération pour succéder au modèle GPT-4 qui pilote actuellement ChatGPT.

 

Le nouveau comité de sûreté et de sécurité sera dirigé par des membres du conseil d’administration, dont le directeur général Sam Altman, le président Bret Taylor et quatre experts techniques et politiques d’OpenAI, ainsi que les membres du conseil d’administration Adam D’Angelo, le directeur général de Quora et l’avocate Nicole Seligman, ancienne de Sony.

Un nouveau modèle nommé Frontier

Il s’agit de consulter des experts externes, dont l’ancien directeur de la cybersécurité de l’Agence nationale de sécurité des États-Unis, Rob Joyce, et l’ancien responsable du ministère de la Justice, John Carlin, et de conseiller le conseil d’administration sur les « décisions critiques en matière de sûreté et de sécurité » pour les projets et les opérations, explique OpenAI.

Le comité doit dans un premier temps évaluer et développer davantage les processus et garanties existants d’OpenAI et faire des recommandations au conseil d’administration dans les 90 jours.

OpenAI  rendra publique ses recommandations formulées « d’une manière compatible avec la sûreté et la sécurité ». Et de préciser avoir « récemment commencé à former son prochain modèle », ajoutant : « Nous nous félicitons d’un débat approfondi à ce moment important ».

 L’équipe de « superalignement » a été dissoute ce mois-ci après que les chercheurs qui la dirigeaient, Jan Leike et Ilya Sutskever, aient quitté l’entreprise.

Jan Leike a déclaré mardi qu’il rejoignait son rival d’OpenAI, Anthropic, pour « poursuivre la mission de superalignement ».

Matthew Broersma, Silicon UK