((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
La Grande-Bretagne travaillera avec Microsoft MSFT.O , des universitaires et des experts pour développer un système permettant de repérer les faux contenus en ligne, a déclaré le gouvernement jeudi, alors qu'il s'apprête à établir des normes pour lutter contre les contenus nuisibles et trompeurs générés par l'IA.
Alors que des contenus manipulés circulent en ligne depuis des décennies, l'adoption rapide de chatbots d'IA générative - rendue possible par le lancement de ChatGPT et d'autres - a amplifié les inquiétudes quant à l'ampleur et au réalisme des "deepfakes".
La Grande-Bretagne, qui a récemment criminalisé la création d'images intimes non consensuelles, a déclaré qu'elle travaillait sur un cadre d'évaluation de la détection des deepfakes afin d'établir des normes cohérentes pour l'évaluation des outils et des technologies de détection.
« Les deepfakes sont instrumentalisés par les criminels pour escroquer le public, exploiter les femmes et les jeunes filles et saper la confiance dans ce que nous voyons et entendons », a déclaré la ministre des technologies, Liz Kendall, dans un communiqué.
LES IMAGES NON CONSENSUELLES INCITENT LES GOUVERNEMENTS À AGIR
Le cadre évaluera la manière dont la technologie peut être utilisée pour évaluer, comprendre et détecter les faux contenus nuisibles, quelle que soit leur source, a déclaré le gouvernement, en testant les technologies de détection des faux contenus contre des menaces réelles telles que les abus sexuels, la fraude et l'usurpation d'identité.
Cela aiderait le gouvernement et les forces de l'ordre à mieux connaître les lacunes qui subsistent en matière de détection, a déclaré le gouvernement, ajoutant que le cadre serait utilisé pour définir des attentes claires pour les industries en ce qui concerne les normes de détection des deepfakes.
On estime que 8 millions de deepfakes ont été partagés en 2025, contre 500 000 en 2023, selon les chiffres du gouvernement.
Les gouvernements et les régulateurs du monde entier, qui s'efforcent de suivre le rythme de l'évolution rapide de la technologie de l'IA, ont été incités à agir cette année, lorsqu'il s'est avéré que le chatbot Grok d'Elon Musk générait des images sexualisées non consensuelles de personnes, y compris d'enfants.
L'autorité britannique de surveillance des communications et l'autorité de régulation de la vie privée mènent des enquêtes parallèles sur Grok.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer