((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Refonte du titre pour remplacer "allié" par "apaisé") par Anna Tong
15 janvier - Le laboratoire d'intelligence artificielle OpenAI a publié lundi un article de blog visant à répondre aux craintes d'ingérence de sa technologie dans les élections, alors que plus d'un tiers du globe s'apprête à se rendre aux urnes cette année.
L'utilisation de l'IA pour interférer avec l'intégrité des élections est une préoccupation depuis que la société soutenue par Microsoft MSFT.O a lancé deux produits: ChatGPT, qui peut imiter l'écriture humaine de manière convaincante, et DALL-E, dont la technologie peut être utilisée pour créer des "deepfakes ", c'est-à-dire des images d'apparence réaliste qui sont fabriquées.
Parmi ceux qui s'inquiètent, on trouve le directeur général d'OpenAI, Sam Altman, qui a déclaré en mai au Congrès qu'il était "inquiet" de la capacité de l'IA générative à compromettre l'intégrité des élections par le biais d'une "désinformation interactive individuelle"
La société basée à San Francisco a déclaré qu'aux États-Unis , où se tiendront les élections présidentielles cette année, elle travaille avec l'Association nationale des secrétaires d'État, une organisation qui se concentre sur la promotion de processus démocratiques efficaces tels que les élections.
ChatGPT dirigera les utilisateurs vers CanIVote.org lorsqu'on leur posera certaines questions relatives aux élections.
L'entreprise a également indiqué qu'elle travaillait à rendre plus évidentes les images générées par l'IA à l'aide de DALL-E, et qu'elle prévoyait d'apposer une icône "cr" sur les images pour indiquer qu'elles ont été générées par l'IA, conformément à un protocole créé par la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu) .
Elle travaille également sur les moyens d'identifier le contenu généré par DALL-E même après que les images ont été modifiées.
Dans son billet de blog, OpenAI souligne que ses politiques interdisent que sa technologie soit utilisée d'une manière qu'elle a identifiée comme potentiellement abusive, telle que la création de robots de conversation prétendant être de vraies personnes, ou la dissuasion de voter.
Elle interdit également à DALL-E de créer des images de personnes réelles, y compris de candidats politiques.
La société est confrontée à des difficultés pour contrôler ce qui se passe réellement sur sa plateforme.
L'année dernière, lorsque Reuters a essayé de créer des images de Donald Trump et de Joe Biden sur , la demande a été bloquée et un message est apparu indiquant que cela "ne correspondait pas à notre politique en matière de contenu"
Reuters a toutefois pu créer des images d'au moins une douzaine d'autres hommes politiques américains, dont l'ancien vice-président Mike Pence.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer