((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Ajoute des détails aux paragraphes 2 à 9)
La société OpenAI, dirigée par Sam Altman, a déclaré jeudi qu'elle avait perturbé cinq opérations d'influence secrètes qui cherchaient à utiliser ses modèles d'intelligence artificielle pour des "activités trompeuses" sur l'internet.
L'entreprise d'intelligence artificielle a déclaré que les acteurs de la menace avaient utilisé ses modèles d'intelligence artificielle pour générer de courts commentaires, des articles plus longs dans différentes langues, des noms inventés et des biographies pour des comptes de médias sociaux au cours des trois derniers mois.
Ces campagnes, auxquelles ont participé des acteurs de la menace russes, chinois, iraniens et israéliens, ont également porté sur des sujets tels que l'invasion de l'Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique en Europe et aux États-Unis, entre autres.
Ces opérations trompeuses étaient une "tentative de manipuler l'opinion publique ou d'influencer les résultats politiques", a déclaré OpenAI dans un communiqué.
Le rapport de l'entreprise basée à San Francisco est le dernier en date à susciter des inquiétudes quant à l'utilisation potentiellement abusive de la technologie de l'IA génique, qui peut rapidement et facilement produire des textes, des images et des sons semblables à ceux de l'homme.
La sociétéOpenAI , soutenue par Microsoft ,a déclaré mardi qu'elle avait créé un comité de sûreté et de sécurité qui serait dirigé par des membres du conseil d'administration, dont le directeur général Sam Altman, alors qu'elle commence à former son prochain modèle d'IA.
Les campagnes trompeuses n'ont pas bénéficié d'un engagement ou d'une portée accrue de l'audience grâce aux services de l'entreprise d'IA, a déclaré OpenAI dans le communiqué.
L'OpenAI a précisé que ces opérations n'utilisaient pas uniquement du matériel généré par l'IA, mais également des textes écrits manuellement ou des mèmes copiés sur l'internet.
Séparément, Meta Platforms META.O , dans son rapport trimestriel sur la sécurité mercredi, a déclaré avoir trouvé du contenu "probablement généré par l'IA" utilisé de manière trompeuse sur ses plateformes Facebook et Instagram, y compris des commentaires faisant l'éloge de la gestion par Israël de la guerre à Gaza publiés sous des posts d'organismes de presse mondiaux et de législateurs américains.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer