((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Répétition de l'histoire sans modification du texte) par Praveen Menon
Le conseil de surveillance de Meta META.O a déclaré vendredi qu'il examinerait deux cas sur la façon dont le géant des médias sociaux a traité des messages potentiellement trompeurs qui ont été partagés avant le référendum australien sur la reconnaissance des indigènes en octobre de l'année dernière.
Le conseil, qui est financé par Meta mais géré de manière indépendante, a déclaré que les cas ont été sélectionnés pour évaluer les politiques de modération de contenu de Meta sur les informations de vote fausses ou trompeuses et la fraude électorale.
En octobre de l'année dernière, les Australiens ont rejeté de manière décisive une proposition visant à reconnaître constitutionnellement les Aborigènes et les habitants des îles du détroit de Torres. Le vote s'est déroulé dans le cadre d'un débat qui a profondément divisé le pays et alors que l'on craignait qu'une campagne de désinformation n'influence les électeurs.
La commission a déclaré que deux utilisateurs de Facebook ont posté séparément des captures d'écran montrant des informations partielles partagées par la Commission électorale australienne (AEC) sur X (anciennement Twitter).
La commission a déclaré que les captures d'écran de l'AEC publiées par les utilisateurs de Facebook comprenaient la formulation suivante: "Si une personne vote dans deux bureaux de vote différents au sein de son électorat et dépose son vote formel dans l'urne de chaque bureau de vote, son vote est comptabilisé
Elles montrent également un autre commentaire selon lequel le secret du vote empêche la Commission électorale indépendante de "savoir quel bulletin de vote appartient à quelle personne"
Toutefois, les captures d'écran ne montrent pas que le fait de voter plusieurs fois constitue une infraction en Australie, a déclaré la commission.
Le premier utilisateur de Facebook a partagé la capture d'écran avec la légende qui l'accompagnait: "Votez tôt, votez souvent et votez NON Le second utilisateur a posté la même capture d'écran en disant: le deuxième utilisateur a posté la même capture d'écran en disant: "Vous pouvez donc voter plusieurs fois... ils nous préparent à un 'truquage'... détruisez les centres de vote... c'est un Non, Non, Non, Non, Non, Non"
Dans les deux cas, Meta a identifié de manière proactive les messages, qui ont été automatiquement envoyés pour examen humain, a déclaré le conseil, ajoutant qu'après l'examen humain, les messages ont tous deux été supprimés.
Les deux utilisateurs ont fait appel de la décision de Meta de supprimer leurs messages. Dans leurs déclarations à la commission, les deux utilisateurs ont affirmé qu'ils publiaient du contenu provenant de l'AEC.
La Commission a déclaré que ces cas relevaient de sa priorité stratégique, à savoir les élections et l'espace civique.
Dans le cadre de ses décisions, la Commission peut émettre des recommandations politiques à l'intention de Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre dans un délai de 60 jours.
Les entreprises de médias sociaux feront l'objet d'un examen plus approfondi cette année, car des pays représentant plus de la moitié de la population mondiale organisent des élections , notamment les États-Unis, l'Inde et la Russie. Les plateformes de médias sociaux telles que Facebook et X sont devenues des plateformes de plus en plus populaires pour les campagnes électorales dans le monde entier.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer