Meta identifie les réseaux qui diffusent des contenus trompeurs probablement générés par l'IA
information fournie par Reuters 29/05/2024 à 20:11

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))

(Corrige le quatrième paragraphe pour indiquer qu'il s'agit de la première divulgation de l'utilisation de l'IA générative basée sur le texte, et non de l'utilisation de l'IA générative tout court)

Meta META.O a déclaré mercredi avoir trouvé du contenu "probablement généré par l'IA" utilisé de manière trompeuse sur ses plateformes Facebook et Instagram, y compris des commentaires faisant l'éloge de la gestion par Israël de la guerre à Gaza publiés sous des posts d'organismes de presse mondiaux et de législateurs américains.

Dans son rapport trimestriel sur la sécurité, la société de médias sociaux a déclaré que les comptes se sont fait passer pour des étudiants juifs, des Afro-Américains et d'autres citoyens concernés, ciblant des audiences aux États-Unis et au Canada. Elle a attribué cette campagne à la société de marketing politique STOIC, basée à Tel-Aviv.

STOIC n'a pas répondu immédiatement à une demande de commentaire sur ces allégations.

POURQUOI C'EST IMPORTANT?

Alors que Meta a trouvé des photos de profil de base générées par l'intelligence artificielle dans les opérations d'influence depuis 2019, le rapport est le premier à divulguer l'utilisation de la technologie d'IA générative basée sur le texte depuis son apparition à la fin de 2022.

Les chercheurs ont craint que l'IA générative, qui peut produire rapidement et à peu de frais du texte, de l'imagerie et de l'audio semblables à ceux des humains, ne conduise à des campagnes de désinformation plus efficaces et ne fasse basculer les élections.

Lors d'une conférence de presse, les responsables de Meta Security ont déclaré qu'ils avaient retiré la campagne israélienne très tôt et qu'ils ne pensaient pas que les nouvelles technologies de l'IA avaient entravé leur capacité à perturber les réseaux d'influence, qui sont des tentatives coordonnées de diffusion de messages.

Les dirigeants ont déclaré qu'ils n'avaient pas vu de tels réseaux déployer des images d'hommes politiques générées par l'IA et suffisamment réalistes pour être confondues avec des photos authentiques.

CITATION CLÉ

"Il y a plusieurs exemples dans ces réseaux de la façon dont ils utilisent des outils d'IA générative pour créer du contenu. Cela leur permet peut-être de le faire plus rapidement ou avec plus de volume. Mais cela n'a pas vraiment eu d'impact sur notre capacité à les détecter", a déclaré Mike Dvilyanski, responsable des enquêtes sur les menaces chez Meta.

PAR LES NOMBRES

Le rapport met en évidence six opérations d'influence secrètes que Meta a perturbées au cours du premier trimestre.

Outre le réseau STOIC, Meta a fermé un réseau basé en Iran axé sur le conflit Israël-Hamas, bien qu'il n'ait pas identifié d'utilisation de l'IA générative dans cette campagne.

CONTEXTE

Meta et d'autres géants de la technologie se sont interrogés sur la manière d'aborder l'utilisation abusive potentielle des nouvelles technologies d'IA, en particulier dans le cadre d'élections.

Des chercheurs ont trouvé des exemples de générateurs d'images d'entreprises telles que OpenAI et Microsoft MSFT.O produisant des photos contenant de la désinformation liée au vote , bien que ces entreprises aient mis en place des politiques interdisant ce type de contenu.

Les entreprises ont mis l'accent sur les systèmes d'étiquetage numérique pour marquer le contenu généré par l'IA au moment de sa création, bien que ces outils ne fonctionnent pas sur le texte et que les chercheurs doutent de leur efficacité.

QUOI SUIVRE

Meta est confronté à des tests clés de ses défenses avec les élections dans l'Union européenne début juin et aux États-Unis en novembre.