((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Martin Coulter
L'Union européenne a choisi une poignée d'experts en intelligence artificielle pour décider de la rigueur avec laquelle les entreprises devront se conformer à une série de nouvelles réglementations régissant cette technologie.
POURQUOI C'EST IMPORTANT?
Lundi, la Commission européenne convoquera la première réunion plénière des groupes de travail - composés d'experts externes - chargés de rédiger le "code de pratique" de la loi sur l'IA, qui précisera comment les entreprises peuvent se conformer à ce vaste ensemble de lois.
Quatre groupes de travail sont chargés d'étudier des questions telles que les droits d'auteur et l'atténuation des risques. Parmi les experts sélectionnés pour superviser ces groupes figurent le scientifique canadien et "parrain de l'IA" Yoshua Bengio, l'ancien conseiller politique du gouvernement britannique Nitarshan Rajkumar et Marietje Schaake, membre du Cyber Policy Center de l'université de Stanford.
De grandes entreprises technologiques telles que Google
GOOGL.O et Microsoft MSFT.O seront représentées dans les groupes de travail, de même qu'un certain nombre d'organisations à but non lucratif et d'experts universitaires.
Le code de bonnes pratiques ne sera pas juridiquement contraignant lorsqu'il entrera en vigueur en 2024, mais il fournira aux entreprises une liste de contrôle qu'elles pourront utiliser pour prouver qu'elles respectent la loi. Toute entreprise qui prétendrait respecter la loi tout en ignorant le code pourrait faire l'objet d'une action en justice.
CONTEXTE
Les entreprises d'IA sont très réticentes à révéler le contenu sur lequel leurs modèles ont été entraînés, décrivant ces informations comme un secret commercial qui pourrait donner à leurs concurrents un avantage déloyal s'il était rendu public.
Alors que le texte de la loi sur l'IA stipule que certaines entreprises seront obligées de fournir des résumés détaillés des données utilisées pour entraîner leurs modèles d'IA, le code de pratique devrait préciser le degré de détail de ces résumés.
L'un des quatre groupes de travail de l'UE se concentrera spécifiquement sur les questions relatives à la transparence et aux droits d'auteur, ce qui pourrait obliger les entreprises à publier des ensembles de données complets, les rendant ainsi vulnérables à des contestations juridiques non vérifiées.
Ces derniers mois, un certain nombre d'entreprises technologiques de premier plan, dont Google et OpenAI, ont fait l'objet de poursuites judiciaires de la part de créateurs affirmant que leur contenu avait été utilisé de manière inappropriée pour entraîner leurs modèles.
PROCHAINE ÉTAPE
Après lundi, les groupes de travail se réuniront encore trois fois avant une dernière réunion en avril, au cours de laquelle ils devraient présenter le code de bonnes pratiques à la Commission.
S'il est accepté, les efforts de mise en conformité des entreprises seront mesurés à l'aune du code de bonnes pratiques à partir d'août 2025.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer