((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Réécrit le paragraphe 1, ajoute la réponse de Character.AI au paragraphe 3, la déclaration de la Maison Blanche au paragraphe 5, le contexte aux paragraphes 6-9)
La Commission fédérale du commerce des États-Unis se prépare à examiner les risques pour la santé mentale des chatbots d'IA pour les enfants et demandera des documents internes aux principales entreprises technologiques, y compris OpenAI, Meta Platforms META.O et Character.AI, a rapporté le Wall Street Journal jeudi.
L'agence prépare des lettres à envoyer aux entreprises qui exploitent les chatbots les plus populaires, selon le rapport, qui cite des fonctionnaires de l'administration.
"Character.AI n'a pas reçu de lettre concernant l'étude de la FTC, mais nous sommes heureux de travailler avec les régulateurs et les législateurs alors qu'ils commencent à envisager une législation pour cet espace émergent", a déclaré la société.
La FTC, OpenAI et Meta n'ont pas immédiatement répondu aux demandes de commentaires de Reuters. Reuters n'a pas pu vérifier le rapport de manière indépendante.
La FTC et l'ensemble de l'administration se concentrent sur la réalisation du mandat de Trump "pour cimenter la domination de l'Amérique dans l'IA, les crypto-monnaies et d'autres technologies de pointe du futur" sans compromettre la sécurité et le bien-être de la population, a déclaré un porte-parole de la Maison Blanche.
Cette nouvelle intervient quelques semaines après qu'un rapport exclusif de Reuters a révélé que Meta autorisait des comportements provocateurs de chatbots avec des enfants, notamment en laissant les bots s'engager dans des "conversations romantiques ou sensuelles."
La semaine dernière, l'entreprise de médias sociaux a déclaré qu'elle ajouterait de nouvelles protections pour les adolescents à ses produits d'intelligence artificielle en formant les systèmes à éviter les conversations de flirt et les discussions sur l'automutilation ou le suicide avec des mineurs, et en limitant temporairement leur accès à certains personnages d'intelligence artificielle.
En juin, plus de 20 groupes de défense des consommateurs ont déposé une plainte auprès de la FTC et des procureurs généraux des États, alléguant que des plateformes d'IA telles que Meta AI Studio et Character.AI permettent l'exercice non autorisé de la médecine en hébergeant des "robots thérapeutiques".
Le mois dernier, le procureur général du Texas, Ken Paxton, a ouvert une enquête sur Meta et Character.AI, qu'il accuse de pratiques commerciales trompeuses et de violations de la vie privée, parce qu'elles auraient induit des enfants en erreur avec des services de santé mentale générés par l'IA.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer