Le gendarme français de la vie privée interroge DeepSeek sur l'IA et la protection des données
information fournie par Reuters 30/01/2025 à 19:30

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))

(Ajoute les commentaires et les détails de l'organisme français de protection de la vie privée) par Foo Yun Chee

L'organisme français de protection de la vie privée a déclaré jeudi qu'il interrogerait DeepSeek afin d'avoir une meilleure idée de la manière dont le système d'IA de la startup chinoise fonctionne et des risques éventuels pour la vie privée des utilisateurs.

DeepSeek a attiré l'attention du monde entier après avoir écrit dans un article le mois dernier que l'entraînement de DeepSeek-V3 nécessitait moins de 6 millions de dollars de puissance de calcul provenant de puces Nvidia H800.

"Le département IA de la CNIL analyse actuellement cet outil", a déclaré un porte-parole de l'organisme de surveillance français.

"Afin de mieux comprendre le fonctionnement de ce système d'IA et les risques en matière de protection des données, la CNIL interrogera la société qui propose le chatbot DeepSeek.

L'autorité de contrôle française est l'une des plus actives en Europe et a notamment infligé des amendes à Google et à Meta Platforms.

L'autorité italienne de protection des données a déclaré en début de semaine qu'elle demandait des réponses à DeepSeek sur son utilisation des données personnelles, tandis que la commission irlandaise de protection des données a déclaré qu'elle avait demandé à l'entreprise chinoise des informations sur le traitement des données effectué en relation avec les utilisateurs irlandais .

L'Europe s'est montrée particulièrement protectrice des droits à la vie privée et son règlement général sur la protection des données (GDPR) est largement considéré comme l'une des lois les plus complètes et les plus strictes au monde en matière de protection de la vie privée.

Les infractions au GDPR peuvent entraîner des amendes allant jusqu'à 4 % du chiffre d'affaires global d'une entreprise.

L'année dernière, l'Union européenne des 27 pays a adopté des règles historiques qui imposent des obligations de transparence strictes aux systèmes d'IA à haut risque et des obligations plus légères aux modèles d'IA à usage général.

Les amendes pour infraction vont de 7,5 millions d'euros, soit 1,5 % du chiffre d'affaires, à 35 millions d'euros, soit 7 % du chiffre d'affaires mondial, en fonction du type d'infraction.