((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Sheila Dang
Le National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités) (NCMEC) a déclaré avoir reçu l'année dernière 4 700 rapports concernant des contenus générés par l'intelligence artificielle et décrivant l'exploitation sexuelle d'enfants.
Le NCMEC a déclaré à Reuters que ce chiffre reflétait un problème naissant qui devrait prendre de l'ampleur à mesure que la technologie de l'intelligence artificielle progresse.
Ces derniers mois, des experts et des chercheurs spécialisés dans la sécurité des enfants ont tiré la sonnette d'alarme sur le risque que les technologies d'intelligence artificielle générative, qui peuvent créer du texte et des images en réponse à des messages, n'exacerbent l'exploitation en ligne.
Le NCMEC n'a pas encore publié le nombre total de signalements de contenus pédopornographiques provenant de toutes les sources qu'il a reçus en 2023, mais en 2022, il a reçu des signalements d'environ 88,3 millions de fichiers.
"Nous recevons des rapports des entreprises d'IA générative elles-mêmes, des plateformes en ligne et des membres du public. C'est absolument en train de se produire", a déclaré John Shehan, vice-président principal du NCMEC, qui sert de centre national d'échange d'informations pour signaler les contenus pédopornographiques aux forces de l'ordre.
Les directeurs généraux de Meta Platforms META.O , X, TikTok, Snap SNAP.N et Discord ont témoigné mercredi lors d'une audition au Sénat sur la sécurité des enfants en ligne, au cours de laquelle les législateurs ont interrogé les entreprises de médias sociaux et de messagerie sur leurs efforts pour protéger les enfants des prédateurs en ligne.
Des chercheurs de l'Observatoire de l'Internet de Stanford ont déclaré dans un rapport publié en juin que l'IA générative pourrait être utilisée par des abuseurs pour nuire de manière répétée à de vrais enfants en créant de nouvelles images qui correspondent à la ressemblance de l'enfant.
Les contenus signalés comme étant générés par l'IA deviennent "de plus en plus des photos réalistes", ce qui rend difficile de déterminer si la victime est une personne réelle, a déclaré Fallon McNulty, directeur de la CyberTipline du NCMEC, qui reçoit les signalements d'exploitation d'enfants en ligne.
OpenAI, créateur du populaire ChatGPT, a mis en place un processus pour envoyer des rapports au NCMEC, et l'organisation est en pourparlers avec d'autres entreprises d'IA générative, a déclaré Mme McNulty.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer