Le comité de protection des données de l'UE estime que ChatGPT ne respecte toujours pas les normes d'exactitude des données
information fournie par Reuters 24/05/2024 à 14:07

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))

(Ajout de détails sur le groupe de travail, les conclusions du rapport et le contexte du paragraphe 3)

Les efforts d'OpenAI pour produire moins de données factuelles erronées à partir de son chatbot ChatGPT ne sont pas suffisants pour garantir une conformité totale avec les règles de l'Union européenne en matière de données, a déclaré un groupe de travail de l'organisme de surveillance de la vie privée de l'UE.

"Bien que les mesures prises pour se conformer au principe de transparence soient utiles pour éviter une mauvaise interprétation des résultats de ChatGPT, elles ne sont pas suffisantes pour se conformer au principe d'exactitude des données", a déclaré le groupe de travail dans un rapport publié sur son site web vendredi.

L'organisme qui réunit les organismes nationaux de protection de la vie privée en Europe a mis en place le groupe de travail sur le ChatGPT l'année dernière, après que les régulateurs nationaux, sous la houlette de l'autorité italienne, ont exprimé leurs inquiétudes quant à ce service d'intelligence artificielle largement utilisé.

OpenAI n'a pas répondu immédiatement à une demande de commentaire de Reuters.

Les diverses enquêtes lancées par les organismes nationaux de protection de la vie privée dans certains États membres sont toujours en cours, indique le rapport, ajoutant qu'il n'est donc pas encore possible de fournir une description complète des résultats. Les résultats doivent être considérés comme un "dénominateur commun" entre les autorités nationales.

L'exactitude des données est l'un des principes directeurs de l'ensemble des règles de l'UE en matière de protection des données.

"En fait, en raison de la nature probabiliste du système, l'approche de formation actuelle conduit à un modèle qui peut également produire des résultats biaisés ou inventés", indique le rapport.

"En outre, les résultats fournis par ChatGPT sont susceptibles d'être considérés comme exacts par les utilisateurs finaux, y compris les informations relatives aux personnes, quelle que soit leur exactitude réelle"