L'intelligence artificielle peut-elle empêcher le suicide ? C'est le pari de Facebook. Le réseau social a annoncé la mise en place d'un outil qui permet de détecter automatiquement les comportements et les pensées suicidaires en épluchant les messages et les vidéos postés sur le site. Il identifie certains mots, phrases ou références, mais étudie aussi les commentaires. Des formules telles que « Je peux t'aider ? » ou « Tu te sens bien ? » sur une page d'un membre peuvent indiquer un sérieux mal-être.
Si les employés de Facebook, après avoir examiné le message, estiment que la situation est alarmante et qu'il est nécessaire d'intervenir, ils peuvent appeler les services de secours, contacter la personne via Facebook Messenger et lui envoyer des liens vers des sites et des numéros d'écoute et de prévention du suicide. L'algorithme permet également aux équipes de Facebook de ranger par ordre d'urgence les différents cas.
Facebook teste le programme depuis le printemps aux États-Unis et compte le lancer dans la plupart des pays où il opère, sauf en Europe qui a des règles de confidentialité plus strictes.
Suicides en direct
Si le réseau social s'attaque au problème du suicide, c'est qu'il a été beaucoup critiqué après des vidéos de jeunes se donnant la mort en direct, comme celle de Katelyn Nicole Davis. Fin décembre 2016, cette adolescente de 12 ans de l'État de Georgie...
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer