((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Ajoute la réponse de Google aux paragraphes 9-11) par Byron Kaye
Google a informé les autorités australiennes qu'il avait reçu plus de 250 plaintes dans le monde entier depuis près d'un an, selon lesquelles son logiciel d'intelligence artificielle avait été utilisé pour fabriquer de faux documents sur le terrorisme.
Le géant technologique GOOGL.O , propriété d'Alphabet, a également déclaré avoir reçu des dizaines de rapports d'utilisateurs avertissant que son programme d'intelligence artificielle, Gemini, était utilisé pour créer des documents sur la maltraitance des enfants, selon la Commission australienne pour la sécurité électronique.
En vertu de la loi australienne, les entreprises technologiques doivent fournir périodiquement à la Commission eSafety des informations sur les efforts de minimisation des dommages, sous peine de se voir infliger des amendes. La période couverte par le rapport s'étend d'avril 2023 à février 2024.
Depuis que le ChatGPT d'OpenAI a explosé dans l'esprit du public à la fin de l'année 2022, les régulateurs du monde entier ont demandé de meilleurs garde-fous afin que l'IA ne puisse pas être utilisée pour favoriser le terrorisme, la fraude, la pornographie de type "deepfake" et d'autres abus.
La Commission australienne pour la sécurité électronique a qualifié la divulgation de Google de "première mondiale" sur la manière dont les utilisateurs peuvent exploiter la technologie pour produire des contenus nuisibles et illégaux.
"Cela souligne à quel point il est essentiel que les entreprises qui développent des produits d'intelligence artificielle intègrent et testent l'efficacité des mesures de protection visant à empêcher la production de ce type de contenu", a déclaré Julie Inman Grant, commissaire à l'eSafety, dans un communiqué.
Dans son rapport, Google indique avoir reçu 258 signalements d'utilisateurs concernant des contenus terroristes ou extrémistes violents présumés générés par l'IA à l'aide de Gemini, et 86 autres signalements d'utilisateurs alléguant des contenus d'exploitation ou de maltraitance d'enfants générés par l'IA.
L'autorité de régulation n'a pas précisé le nombre de plaintes qu'elle a vérifiées.
Un porte-parole de Google a déclaré que la société n'autorisait pas la génération ou la distribution de contenus liés à la facilitation de l'extrémisme violent ou de la terreur, à l'exploitation ou à la maltraitance des enfants, ou à d'autres activités illégales.
"Nous nous engageons à développer nos efforts pour aider les Australiens à assurer leur sécurité en ligne", a déclaré le porte-parole par courrier électronique.
"Le nombre de rapports d'utilisateurs de Gemini que nous avons transmis à eSafety représente le volume total des rapports d'utilisateurs, et non les violations confirmées des règles
Google a utilisé un système de comparaison automatique d'images nouvellement téléchargées avec des images déjà connues pour identifier et supprimer les contenus pédopornographiques créés avec Gemini.
Mais il n'a pas utilisé le même système pour éliminer le matériel terroriste ou extrémiste violent généré avec Gemini, a ajouté l'autorité de régulation.
L'autorité de régulation a infligé des amendes à Telegram () et à Twitter (), rebaptisé par la suite X, pour ce qu'elle appelle des lacunes dans leurs rapports. X a perdu un appel concernant son amende de 610 500 dollars australiens (382 000 dollars américains), mais prévoit de faire à nouveau appel. Telegram prévoit également de contester son amende.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer