((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Refonte du premier paragraphe, ajout de détails à partir du cinquième paragraphe)
OpenAI a averti mercredi que ses prochains modèles d'intelligence artificielle pourraient présenter un risque de cybersécurité "élevé", car leurs capacités progressent rapidement.
Les modèles d'IA pourraient soit développer des exploits à distance de type "zero-day" contre des systèmes bien défendus, soit participer à des opérations complexes d'intrusion dans des entreprises ou des industries visant à produire des effets réels, a déclaré le fabricant de ChatGPT dans un billet de blog.
Au fur et à mesure que les capacités progressent, OpenAI a déclaré qu'elle "investit dans le renforcement des modèles pour les tâches défensives de cybersécurité et dans la création d'outils qui permettent aux défenseurs d'effectuer plus facilement des flux de travail tels que l'audit du code et la correction des vulnérabilités".
Pour contrer les risques de cybersécurité, l'OpenAI a déclaré qu'elle s'appuyait sur une combinaison de contrôles d'accès, de renforcement de l'infrastructure, de contrôles de sortie et de surveillance.
La société MSFT.O , soutenue par Microsoft, a déclaré qu'elle introduirait bientôt un programme visant à fournir aux utilisateurs et aux clients qualifiés travaillant dans le domaine de la cyberdéfense un accès échelonné à des capacités améliorées.
OpenAI va également mettre en place un groupe consultatif, appelé Frontier Risk Council, qui réunira des cyberdéfenseurs expérimentés et des praticiens de la sécurité en étroite collaboration avec ses équipes.
Le groupe commencera par se concentrer sur la cybersécurité et s'étendra à l'avenir à d'autres domaines de compétences.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer