((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Ajout d'informations sur le mémo du chercheur Meta aux paragraphes 3 et 4, demande de commentaires au paragraphe 7, clarification des paragraphes 6 et 8) par Courtney Rozen
Près d'un utilisateur sur cinq âgé de 13 à 15 ans a dit à Meta qu'il avait vu "de la nudité ou des images sexuelles sur Instagram" qu'il ne voulait pas voir, selon un document déposé au tribunal.
Le document, rendu public vendredi dans le cadre d'un procès fédéral en Californie et examiné par Reuters, comprend des parties d'une déposition datant de mars 2025 du responsable d'Instagram Adam Mosseri.
Dans un autre document rendu public dans le cadre du procès, un chercheur de Meta recommande à l'entreprise de se concentrer sur les utilisateurs adolescents parce qu'ils sont des "catalyseurs" pour leurs ménages et influencent la façon dont leurs frères et sœurs plus jeunes et leurs parents utilisent l'application. Le document est daté du 20 janvier 2021.
"Si nous cherchons à acquérir (et à fidéliser) les nouveaux utilisateurs, nous devons reconnaître l'influence d'un adolescent au sein du foyer pour y parvenir", a déclaré le chercheur dans le mémo.
Meta, qui possède Facebook et Instagram, fait face à des allégations de dirigeants mondiaux selon lesquelles les produits de l'entreprise nuisent aux jeunes utilisateurs. Aux États-Unis, des milliers d'actions en justice intentées devant les tribunaux fédéraux et étatiques accusent l'entreprise de concevoir des produits qui créent une dépendance et d'alimenter une crise de la santé mentale chez les mineurs.
Les statistiques sur les images explicites proviennent d'une enquête menée en 2021 auprès des utilisateurs d'Instagram sur leurs expériences sur la plateforme, a déclaré Andy Stone, porte-parole de Meta, et non d'un examen des publications elles-mêmes.
Meta n'a pas immédiatement répondu à une demande de commentaire de Reuters sur la note du chercheur.
Environ 8 % des utilisateurs âgés de 13 à 15 ans ont déclaré dans l'enquête de 2021 qu'ils avaient "vu quelqu'un se faire du mal ou menacer de le faire sur Instagram", selon la déposition de Mosseri.
Fin 2025, la société a déclaré pour les utilisateurs adolescents, qu'elle supprimerait les images et les vidéos "contenant de la nudité ou une activité sexuelle explicite, y compris lorsqu'elles sont générées par l'IA", avec des exceptions envisagées pour les contenus médicaux et éducatifs.
"Nous sommes fiers des progrès que nous avons accomplis et nous nous efforçons toujours de faire mieux", a déclaré Andy Stone.
La plupart des images sexuellement explicites ont été envoyées par le biais de messages privés entre utilisateurs, a déclaré Adam Mosseri lors de sa déposition, et Meta doit tenir compte de la vie privée des utilisateurs lorsqu'il les examine.
"Beaucoup de gens ne veulent pas que nous lisions leurs messages", a-t-il déclaré.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer