Un code de bonnes pratiques visant à aider les entreprises à se conformer aux règles en matière d'IA pourrait s'appliquer fin 2025, selon l'UE
information fournie par Reuters 03/07/2025 à 19:04

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

*

La Commission européenne annoncera des orientations sur l'IA dans les prochains jours

*

Les orientations de l'UE visent à apporter une sécurité juridique aux entreprises qui utilisent l'IA

*

L'UE a été confrontée à un lobbying intense de la part de Big Tech et de certaines entreprises européennes sur les règles relatives à l'IA

(Ajout d'un commentaire du groupe de défense de l'IA The Future Society) par Foo Yun Chee et Supantha Mukherjee

Un code de pratique conçu pour aider des milliers d'entreprises à se conformer aux règles historiques de l'Union européenne en matière d'intelligence artificielle pourrait ne s'appliquer qu'à la fin de 2025, a déclaré la Commission européenne jeudi. Alphabet GOOGL.O Google, Meta Platforms META.O , des entreprises européennes telles que Mistral et ASML ASML.AS ainsi que plusieurs gouvernements de l'UE ont demandé de retarder la mise en œuvre de la loi sur l'IA, en partie à cause de l'absence d'un code de bonnes pratiques. La publication du code de pratique pour les grands modèles de langage (GPAI), tels que le ChatGPT d'OpenAI et les modèles similaires lancés par Google et Mistral, était initialement prévue pour le 2 mai. La Commission prévoit de présenter le code dans les prochains jours et s'attend à ce que les entreprises signent le mois prochain et que les orientations entrent en vigueur à la fin de l'année, a déclaré un porte-parole de la Commission. "En ce qui concerne les règles GPAI de la loi sur l'IA, le Conseil européen de l'IA discute du calendrier de mise en œuvre du code de pratique, fin 2025 étant envisagée", a-t-il déclaré. La signature du code est volontaire, mais les entreprises qui refusent de le faire, comme l'ont indiqué certaines entreprises de Big Tech, ne bénéficieront pas de la sécurité juridique offerte aux signataires. Le groupe de défense de l'IA The Future Society a déclaré que le code serait un élément clé de la réglementation en matière d'IA. Le code de pratique indique clairement le niveau de qualité auquel les utilisateurs en aval ou les entreprises clientes peuvent s'attendre, ce qui rend plus difficile pour les entreprises américaines de tromper les utilisateurs en leur faisant adopter des produits peu fiables, a déclaré Nick Moës, son directeur exécutif. Selon lui, le code exige que des autorités et des experts mandatés par la loi évaluent la qualité de ces services d'IA à usage général. La Commission s'est opposée aux demandes de report de la mise en œuvre des règles relatives à l'IA. "Notre engagement envers les objectifs de la loi sur l'IA, tels que l'établissement de règles harmonisées basées sur le risque à travers l'UE et la garantie de la sécurité des systèmes d'IA sur le marché européen, reste inchangé", a déclaré le porte-parole. Le groupe de campagne Corporate Europe Observatory a décrié le rôle de Big Tech. "Retard. Pause. Déréglementer. C'est la recette du lobby de Big Tech pour affaiblir fatalement les règles qui devraient nous protéger des systèmes d'IA biaisés et injustes", a déclaré Bram Vranken, chercheur et militant de Corporate Europe Observatory. Les règles relatives à l'IA pour les modèles GPAI deviendront juridiquement contraignantes le 2 août, mais ne seront appliquées qu'un an plus tard pour les nouveaux modèles mis sur le marché à partir du mois prochain. Les modèles existants auront deux ans, jusqu'au 2 août 2027, pour se conformer aux règles.