((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
OpenAI a réaffecté son responsable de la sécurité de l'intelligence artificielle (AI), Aleksander Madry, à un "rôle plus important au sein de l'organisation de recherche", a rapporté The Information mardi.
L'année dernière, Aleksander Madry a mis en place l'équipe Preparedness de la société d'IA afin d'évaluer les modèles d'IA pour les "risques catastrophiques" avant de les mettre à la disposition du public, selon le rapport.
Tejal Patwardhan, chercheur à l'OpenAI, gérera désormais une grande partie du travail de l'équipe Preparedness, ajoute le rapport, citant une personne familière avec le sujet.
La réaffectation de M. Madry intervient à un moment où les chatbots d'OpenAI, qui peuvent engager des conversations semblables à celles des humains et créer des vidéos et des images à partir d'invites textuelles, sont devenus de plus en plus puissants et ont suscité des inquiétudes en matière de sécurité sur le site .
Au début de l'année, la société MSFT.O , soutenue par Microsoft, a formé un comité de sûreté et de sécurité dirigé par des membres du conseil d'administration, dont le directeur général Sam Altman, dans la perspective de la formation de son prochain modèle d'intelligence artificielle.
OpenAI et Madry n'ont pas répondu immédiatement aux demandes de commentaires.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer