((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Ajout d'un commentaire d'analyste aux paragraphes 5 et 6) par Arsheeya Bajwa
OpenAI a formé un comité de sûreté et de sécurité qui sera dirigé par des membres du conseil d'administration, dont le directeur général Sam Altman, alors qu'elle commence à former son prochain modèle d'intelligence artificielle, a déclaré la startup d'IA mardi.
Les directeurs Bret Taylor, Adam D'Angelo et Nicole Seligman dirigeront également le comité, a indiqué OpenAI sur un blog de la société.
Les chatbots d'OpenAI, soutenus par Microsoft MSFT.O et dotés de capacités d'IA générative, telles que l'engagement dans des conversations semblables à celles des humains et la création d'images à partir d'invites textuelles, ont suscité des préoccupations en matière de sécurité à mesure que les modèles d'IA devenaient puissants.
Le nouveau comité sera chargé de faire des recommandations au conseil d'administration sur les décisions relatives à la sûreté et à la sécurité des projets et des opérations de l'OpenAI.
"La création d'un nouveau comité de sécurité signifie que l'OpenAI est en train de devenir une entité commerciale, alors qu'elle n'était jusqu'à présent qu'une entité à but non lucratif", a déclaré Gil Luria, directeur général de D.A. Davidson.
"Cela devrait permettre de rationaliser le développement des produits tout en maintenant la responsabilité
Les anciens scientifiques en chef Ilya Sutskever et Jan Leike, qui dirigeaient l'équipe Superalignment d'OpenAI, chargée de veiller à ce que l'IA reste alignée sur les objectifs visés, ont quitté l'entreprise au début du mois.
OpenAI a dissous l'équipe Superalignment au début du mois de mai, moins d'un an après sa création, certains membres de l'équipe ayant été réaffectés à d'autres groupes, a rapporté CNBC quelques jours après ces départs très médiatisés.
La première tâche du comité sera d'évaluer et de développer les pratiques de sécurité existantes d'OpenAI au cours des 90 prochains jours, après quoi il partagera ses recommandations avec le conseil d'administration.
Après l'examen du conseil d'administration, OpenAI communiquera publiquement une mise à jour des recommandations adoptées, a déclaré la société.
Parmi les autres membres du comité figurent Jakub Pachocki, scientifique en chef nouvellement nommé, et Matt Knight, responsable de la sécurité.
L'entreprise consultera également d'autres experts, dont Rob Joyce, ancien directeur de la cybersécurité de l'Agence nationale de sécurité des États-Unis, et John Carlin, ancien fonctionnaire du ministère de la justice.
OpenAI n'a pas fourni d'autres détails sur le nouveau modèle "frontière" qu'elle est en train de former, si ce n'est qu'il amènerait ses systèmes au "prochain niveau de capacités sur notre chemin vers l'AGI"
Plus tôt en mai, elle a annoncé un nouveau modèle d'IA capable d'effectuer des conversations vocales réalistes et d'interagir avec du texte et des images.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer