((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Martin Coulter
Un nouvel ensemble de lois régissant l'utilisation de l'intelligence artificielle (AI) dans l'Union européenne obligera les entreprises à être plus transparentes sur les données utilisées pour former leurs systèmes, dévoilant ainsi l'un des secrets les mieux gardés de l'industrie.
Au cours des 18 mois qui se sont écoulés depuis que l'OpenAI
MSFT.O , soutenue par Microsoft, a dévoilé ChatGPT au public , on a assisté à une explosion de l'engagement public et des investissements dans l'IA générative, un ensemble d'applications qui peuvent être utilisées pour produire rapidement du texte, des images et du contenu audio.
Mais l'essor du secteur a soulevé des questions sur la manière dont les entreprises d'IA obtiennent les données utilisées pour entraîner leurs modèles, et sur le fait de savoir si le fait de leur fournir des livres à succès et des films hollywoodiens sans l'autorisation de leurs créateurs constitue une violation du droit d'auteur.
La loi sur l'IA récemment adoptée par l'UE est mise en œuvre par étapes au cours des deux prochaines années, ce qui donne aux régulateurs le temps de mettre en œuvre les nouvelles lois tandis que les entreprises sont confrontées à un nouvel ensemble d'obligations. Mais on ne sait pas encore comment certaines de ces règles fonctionneront dans la pratique.
L'un des articles les plus controversés de la loi stipule que les organisations déployant des modèles d'IA à usage général, tels que ChatGPT, devront fournir des "résumés détaillés" du contenu utilisé pour les former. L'Office de l'IA nouvellement créé a déclaré qu'il prévoyait de publier un modèle à suivre par les organisations au début de l'année 2025, à la suite d'une consultation avec les parties prenantes.
Alors que les détails doivent encore être précisés, les entreprises spécialisées dans l'IA sont très réticentes à révéler sur quoi leurs modèles ont été formés, décrivant l'information comme un secret commercial qui donnerait à leurs concurrents un avantage déloyal s'il était rendu public.
"Ce serait un rêve devenu réalité de voir les ensembles de données de mes concurrents et, de la même manière, qu'ils voient les nôtres", a déclaré Matthieu Riouf, directeur général de Photoroom, une entreprise de retouche d'images basée sur l'IA.
"C'est comme la cuisine", a-t-il ajouté. il y a une partie secrète de la recette que les meilleurs chefs ne partageraient pas, le "je ne sais quoi" qui la rend différente
La granularité de ces rapports de transparence aura des conséquences importantes pour les petites entreprises d'IA et les grandes sociétés technologiques comme Google GOOGL.O et Meta META.O , qui ont placé la technologie au centre de leurs futures opérations.
PARTAGE DE SECRETS COMMERCIAUX
Au cours de l'année écoulée, plusieurs grandes entreprises technologiques, dont Google, OpenAI et Stability AI, ont fait l'objet de poursuites judiciaires de la part de créateurs affirmant que leur contenu avait été utilisé de manière inappropriée pour entraîner leurs modèles.
Alors que le président américain Joe Biden a adopté un certain nombre de décrets axés sur les risques de sécurité de l'IA, les questions relatives aux droits d'auteur n'ont pas encore été pleinement examinées. Les appels lancés aux entreprises technologiques pour qu'elles paient les détenteurs de droits sur les données ont reçu un soutien bipartisan au Congrès.
Face à l'attention croissante qu'elles suscitent, les entreprises technologiques ont signé une multitude d'accords de licence de contenu avec des médias et des sites web. OpenAI a notamment signé des accords avec le Financial Times et The Atlantic, tandis que Google a conclu des accords avec NewsCorp
NWSA.O , le site de médias sociaux Reddit.
Malgré ces initiatives, OpenAI s'est attiré des critiques en mars lorsque Mira Murati, directrice technique, a refusé de répondre à une question du Wall Street Journal qui voulait savoir si des vidéos YouTube avaient été utilisées pour former son outil de génération de vidéos Sora, ce qui, selon l'entreprise, constituerait une violation de ses conditions générales d'utilisation.
Le mois dernier, OpenAI a dû faire face à d'autres réactions négatives pour avoir présenté une voix générée par l'IA, décrite comme "étrangement similaire" à la sienne par l'actrice Scarlett Johansson, lors d'une démonstration publique de la nouvelle version de ChatGPT.
Thomas Wolf, cofondateur de la startup Hugging Face, spécialisée dans l'IA, a déclaré qu'il était favorable à une plus grande transparence, mais que ce sentiment n'était pas partagé par l'ensemble de l'industrie. "Il est difficile de savoir comment cela va se passer. Il y a encore beaucoup de choses à décider", a-t-il déclaré.
Les législateurs de haut rang du continent restent divisés.
Dragos Tudorache, l'un des législateurs qui a supervisé la rédaction de la loi sur l'IA au Parlement européen, a déclaré que les entreprises d'IA devraient être obligées de rendre leurs ensembles de données publics.
"Ils doivent être suffisamment détaillés pour que Scarlett Johansson, Beyonce ou quiconque puisse savoir si leur travail, leurs chansons, leur voix, leur art ou leur science ont été utilisés pour entraîner l'algorithme ", a-t-il déclaré.
Un fonctionnaire de la Commission a déclaré: "La loi sur l'IA reconnaît la nécessité d'assurer un équilibre approprié entre le besoin légitime de protéger les secrets commerciaux et, d'autre part, la nécessité de faciliter la capacité des parties ayant des intérêts légitimes, y compris les titulaires de droits d'auteur, à exercer leurs droits en vertu du droit de l'Union."
Sous la présidence d'Emmanuel Macron, le gouvernement français s'est opposé en privé à l'introduction de règles qui pourraient entraver la compétitivité des startups européennes de l'IA.
S'exprimant lors de la conférence Viva Technology à Paris en mai, le ministre français des finances Bruno Le Maire a déclaré qu'il souhaitait que l'Europe soit un leader mondial en matière d'IA, et pas seulement un consommateur de produits américains et chinois.
"Pour une fois, l'Europe, qui a créé des contrôles et des normes, doit comprendre qu'il faut innover avant de réglementer", a-t-il déclaré. "Sinon, on risque de réglementer des technologies que l'on ne maîtrise pas, ou de mal les réglementer parce qu'on ne les maîtrise pas

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer