Meta va donner plus de contrôle aux parents des adolescents après les critiques sur les chatbots d'IA aguicheurs information fournie par Reuters 17/10/2025 à 15:58
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Mise à jour du titre)
Meta META.O a déclaré vendredi qu'elle permettrait aux parents de désactiver les conversations privées de leurs adolescents avec des personnages d'IA , ajoutant une autre mesure pour rendre ses plateformes de médias sociaux sûres pour les mineurs après les critiques virulentes sur le comportement de ses chatbots de flirt.
En début de semaine, l'entreprise a déclaré que ses expériences d'IA pour les adolescents seraient guidées par le système de classification des films PG-13 , afin d'empêcher les mineurs d'accéder à des contenus inappropriés.
Les autorités de régulation américaines ont intensifié leur surveillance des entreprises d'IA en raison des effets négatifs potentiels des chatbots. En août, Reuters a rapporté comment les règles d'IA de Meta ont permis des conversations provocantes avec des mineurs.
Les nouveaux outils, détaillés par Adam Mosseri, responsable d'Instagram, et Alexandr Wang, responsable en chef de l'IA, feront leur apparition sur Instagram au début de l'année prochaine, aux États-Unis, au Royaume-Uni, au Canada et en Australie, selon un billet de blog.
Meta a déclaré que les parents seront également en mesure de bloquer des personnages d'IA spécifiques et de voir les sujets généraux dont leurs adolescents discutent avec les chatbots et l'assistant d'IA de Meta, sans désactiver complètement l'accès à l'IA.
Son assistant IA restera disponible avec des paramètres par défaut adaptés à l'âge de l'enfant, même si les parents désactivent les discussions individuelles des adolescents avec les personnages IA, a précisé Meta.
Les fonctions de supervision s'appuient sur les protections déjà appliquées aux comptes des adolescents, a précisé l'entreprise, ajoutant qu'elle utilise les signaux de l'IA pour placer les adolescents suspects sous protection, même s'ils disent être adultes.
Un rapport publié en septembre a montré que de nombreuses fonctions de sécurité mises en place par Meta sur Instagram au fil des ans ne fonctionnent pas bien ou n'existent pas.
Meta a déclaré que ses personnages d'IA sont conçus pour ne pas s'engager dans des discussions inappropriées pour l'âge sur l'automutilation, le suicide ou les troubles de l'alimentation avec les adolescents.
Le mois dernier, OpenAI a déployé le contrôle parental pour ChatGPT sur le web et le mobile, suite à une action en justice des parents d'un adolescent décédé par suicide après que le chatbot de la startup l'ait prétendument guidé sur les méthodes d'automutilation.