((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
Un groupe d'employés et d'anciens employés d'entreprises spécialisées dans l'intelligence artificielle (AI), dont OpenAI MSFT.O , soutenue par Microsoft, et Google DeepMind GOOGL.O , soutenue par Alphabet, ont fait part mardi de leurs inquiétudes quant aux risques posés par la technologie émergente.
Une lettre ouverte rédigée par un groupe de 11 employés actuels et anciens d'OpenAI et un employé actuel et un autre ancien employé de Google DeepMind a déclaré que les motivations financières des entreprises d'IA empêchaient une surveillance efficace.
"Nous ne pensons pas que des structures sur mesure de gouvernance d'entreprise soient suffisantes pour changer cela", ajoute la lettre.
La lettre met également en garde contre les risques d'une IA non réglementée, qui vont de la diffusion de fausses informations à la perte de systèmes d'IA indépendants, en passant par l'aggravation des inégalités existantes, ce qui pourrait conduire à "l'extinction de l'humanité"
Les chercheurs ont trouvé des exemples de générateurs d'images d'entreprises telles que OpenAI et Microsoft produisant des photos avec de la désinformation liée au vote , malgré des politiques interdisant ce type de contenu.
Les entreprises d'IA ont de "faibles obligations" de partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes, indique la lettre, ajoutant que l'on ne peut pas compter sur ces entreprises pour partager ces informations volontairement.
Cette lettre ouverte est la dernière en date à soulever des questions de sécurité concernant les technologies d'IA générative, qui peuvent produire rapidement et à peu de frais des textes, des images et des sons semblables à ceux d'un être humain.
Le groupe a exhorté les entreprises d'IA à faciliter la mise en place d'un processus permettant aux employés actuels et anciens de faire part de leurs préoccupations en matière de risques et à ne pas appliquer les accords de confidentialité qui interdisent toute critique.
Par ailleurs, l'entreprise dirigée par Sam Altman a déclaré jeudi avoir interrompu cinq opérations d'influence secrètes visant à utiliser ses modèles d'intelligence artificielle pour des "activités trompeuses" sur l'internet.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer