Les fonctionnalités de sécurité d'Instagram pour les adolescents présentent des lacunes, selon des chercheurs information fournie par Reuters 25/09/2025 à 17:05
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
*
Selon les chercheurs, seuls 8 des 47 dispositifs de sécurité testés sont pleinement efficaces
*
Meta conteste les résultats et se dit confiant dans la protection des comptes des adolescents
*
Des documents internes de Meta montrent que l'entreprise était consciente de certaines failles dans les dispositifs de sécurité
par Jeff Horwitz
De nombreux dispositifs de sécurité que Meta a déclaré avoir mis en œuvre pour protéger les jeunes utilisateurs sur Instagram au fil des ans ne fonctionnent pas bien ou, dans certains cas, n'existent pas, selon un rapport de groupes de défense de la sécurité des enfants qui a été corroboré par des chercheurs de l'Université de Northeastern.
L'étude, que Meta a contestée parce qu'elle était trompeuse, intervient dans un contexte de pression renouvelée sur les entreprises technologiques pour qu'elles protègent les enfants et les autres utilisateurs vulnérables de leurs plateformes de médias sociaux.
Sur les 47 dispositifs de sécurité testés, seuls huit ont été jugés totalement efficaces. Les autres étaient soit défectueux, soit "n'étaient plus disponibles ou étaient substantiellement inefficaces", selon le rapport.
Les dispositifs destinés à empêcher les jeunes utilisateurs de trouver des contenus liés à l'automutilation en bloquant des termes de recherche ont été facilement contournés, selon les chercheurs. Les filtres de messages anti-harcèlement n'ont pas non plus été activés, même lorsqu'ils ont été invités à utiliser les mêmes phrases de harcèlement que celles utilisées par Meta dans un communiqué de presse les promouvant. Enfin, les chercheurs ont constaté qu'une fonction destinée à empêcher les adolescents de se jeter sur des contenus liés à l'automutilation ne s'est jamais déclenchée.
Les chercheurs ont constaté que certaines des fonctions de sécurité des comptes d'adolescents fonctionnaient comme annoncé, telles qu'un "mode silencieux" destiné à désactiver temporairement les notifications la nuit, et une fonction exigeant que les parents approuvent les modifications apportées aux paramètres du compte d'un enfant.
Intitulé "Comptes d'adolescents, promesses non tenues", le rapport a compilé et analysé les mises à jour des fonctionnalités de sécurité et de bien-être des jeunes annoncées publiquement par Instagram depuis plus de dix ans. Deux des groupes à l'origine du rapport - Molly Rose Foundation au Royaume-Uni et Parents for Safe Online Spaces aux États-Unis - ont été fondés par des parents qui affirment que leurs enfants sont morts à cause de contenus d'intimidation et d'automutilation sur les plateformes de l'entreprise de médias sociaux.
Les conclusions remettent en question les efforts de Meta "pour protéger les adolescents des pires aspects de la plateforme", a déclaré Laura Edelson, professeur à l'université de Northeastern, qui a supervisé l'examen des conclusions. "En utilisant des scénarios de test réalistes, nous pouvons voir que de nombreux outils de sécurité d'Instagram ne fonctionnent tout simplement pas."
Meta - qui a déclaré jeudi qu'il élargissait les comptes d'adolescents aux utilisateurs de Facebook au niveau international - a qualifié les conclusions d'erronées et trompeuses.
"Ce rapport présente de manière erronée nos efforts pour donner aux parents les moyens d'agir et pour protéger les adolescents. Il donne une image erronée du fonctionnement de nos outils de sécurité et de la manière dont des millions de parents et d'adolescents les utilisent aujourd'hui", a déclaré le porte-parole de Meta, Andy Stone. Il a contesté certaines des évaluations du rapport, les qualifiant de "dangereusement trompeuses", et a déclaré que l'approche de l'entreprise concernant les caractéristiques des comptes des adolescents et les contrôles parentaux avait évolué au fil du temps.
"Les adolescents qui ont été placés dans ces protections ont vu moins de contenus sensibles, ont subi moins de contacts non désirés et ont passé moins de temps sur Instagram le soir", a déclaré M. Stone. "Nous continuerons à améliorer nos outils, et nous accueillons les commentaires constructifs - mais ce rapport n'est pas cela."
Les groupes de défense et les chercheurs universitaires ont reçu des conseils d'Arturo Bejar, un ancien cadre de Meta chargé de la sécurité, indiquant que les fonctionnalités d'Instagram étaient défectueuses. Bejar a travaillé chez Meta jusqu'en 2015, puis est revenu fin 2019 en tant que consultant pour Instagram jusqu'en 2021. Au cours de son deuxième passage dans l'entreprise, a-t-il déclaré à Reuters, Meta n'a pas réagi aux données indiquant de graves problèmes de sécurité des adolescents sur Instagram.
"J'ai vécu directement comment de bonnes idées de sécurité ont été réduites à des fonctionnalités inefficaces par la direction", a déclaré Bejar. "En voyant les affirmations de Meta sur ses outils de sécurité, j'ai réalisé qu'il était essentiel de procéder à un examen approfondi."
Le porte-parole de Meta, M. Stone, a déclaré que l'entreprise avait répondu aux inquiétudes soulevées par M. Bejar lorsqu'il travaillait chez Meta en prenant des mesures pour rendre ses produits plus sûrs.
CONTOURNER LES BLOQUEURS DE TERMES DE RECHERCHE
Reuters a confirmé certaines des conclusions du rapport en effectuant ses propres tests et en examinant des documents internes de Meta.
Dans l'un des tests, Reuters a utilisé de simples variations de termes de recherche interdits sur Instagram pour trouver des contenus censés être interdits aux adolescents. Meta avait bloqué le terme de recherche "skinny thighs" (cuisses maigres), un hashtag utilisé depuis longtemps par des comptes promouvant des contenus sur les troubles de l'alimentation. Mais lorsqu'un compte test d'adolescent a saisi les mots sans espace entre eux, la recherche a fait apparaître des contenus liés à l'anorexie.
Les documents Meta consultés par l'agence de presse montrent qu'au moment où l'entreprise faisait la promotion des fonctions de sécurité pour les adolescents sur Instagram l'année dernière, elle était consciente que certaines d'entre elles présentaient des lacunes importantes.
Par exemple, des employés chargés de la sécurité ont averti l'année dernière que Meta n'avait pas réussi à maintenir ses systèmes de détection automatique des contenus liés aux troubles alimentaires et à l'automutilation, selon les documents vus par Reuters. En conséquence, Meta n'a pas pu éviter de manière fiable la promotion de contenus glorifiant les troubles alimentaires et le suicide auprès des adolescents, comme il l'avait promis, ni détourner les utilisateurs qui semblaient consommer de grandes quantités de ce type de contenus, selon les documents.
Le personnel chargé de la sécurité a également reconnu qu'un système permettant de bloquer les termes de recherche utilisés par des prédateurs potentiels d'enfants n'était pas mis à jour en temps utile, selon des documents internes et des personnes connaissant bien le développement du produit Meta.
M. Stone a déclaré que les problèmes internes soulevés par les restrictions déficientes des termes de recherche ont été résolus depuis en combinant un nouveau système automatisé avec des données humaines.
Le mois dernier, des sénateurs américains ont ouvert une enquête sur Meta après que Reuters a fait état d'un document de politique interne qui autorisait les chatbots de l'entreprise à "engager un enfant dans des conversations romantiques ou sensuelles" Ce mois-ci, d'anciens employés de Meta ont déclaré lors d'une audition de la sous-commission judiciaire du Sénat que l'entreprise avait supprimé les recherches montrant que les utilisateurs préadolescents de ses produits de réalité virtuelle étaient exposés à des prédateurs d'enfants. M. Stone a qualifié les allégations des anciens employés de "non-sens"
Meta s'efforce à nouveau de démontrer les mesures qu'elle a prises pour protéger les enfants. Jeudi, elle a annoncé l'extension de ses comptes pour adolescents aux utilisateurs de Facebook en dehors des États-Unis et a déclaré qu'elle poursuivrait de nouveaux partenariats locaux avec des collèges et des lycées.
"Nous voulons que les parents se sentent bien lorsque leurs adolescents utilisent les médias sociaux", a déclaré Adam Mosseri, responsable d'Instagram.