Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

Les gouvernements se lancent dans une course à la réglementation des outils d'IA
information fournie par Reuters 03/11/2023 à 11:05

(Mise à jour de la section sur la Grande-Bretagne avec d'autres détails du sommet sur la sécurité de l'IA)

Les progrès rapides de l'intelligence artificielle () tels que le ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour se mettre d'accord sur des lois régissant l'utilisation de la technologie.

Voici les dernières mesures prises par les instances dirigeantes nationales et internationales pour réglementer les outils d'IA:

AUSTRALIE

* Réglementation de la planification

L'Australie va obliger les moteurs de recherche à rédiger de nouveaux codes pour empêcher le partage de documents sur les abus sexuels commis sur des enfants créés par l'IA et la production de versions falsifiées de ces mêmes documents.

BRETAGNE

* Réglementation en matière d'urbanisme

Les principaux développeurs d'IA ont accepté le 2 novembre de collaborer avec les gouvernements pour tester les nouveaux modèles avant leur mise sur le marché afin de gérer les risques liés au développement de la technologie. Il s'agit là d'une "réalisation historique" lors du premier sommet mondial sur la sécurité de l'IA, qui s'est tenu en Grande-Bretagne.

Plus de 25 pays présents au sommet , dont les États-Unis et la Chine, ainsi que l'Union européenne, ont signé le 1er novembre une "déclaration de Bletchley" indiquant que les pays devaient travailler ensemble et établir une approche commune en matière de surveillance.

Lors du sommet, la Grande-Bretagne a déclaré qu'elle triplerait son financement (300 millions de livres sterling (364 millions de dollars)) pour le "AI Research Resource", composé de deux superordinateurs qui soutiendront la recherche sur la sécurisation des modèles d'IA avancés.

Le 26 octobre, le Premier ministre Rishi Sunak a déclaré que la Grande-Bretagne créerait le premier institut de sécurité de l'IA au monde afin de "comprendre ce dont chaque nouveau modèle est capable, en explorant tous les risques, des préjudices sociaux comme la partialité et la désinformation aux risques les plus extrêmes".

Le 10 octobre, l'organisme britannique de surveillance des données a déclaré avoir adressé à Snapchat ( SNAP.N ) un avis préliminaire d'exécution (preliminary enforcement notice) en raison d'un éventuel manquement à l'obligation d'évaluer correctement les risques pour la vie privée des utilisateurs, en particulier des enfants, liés à son chatbot d'IA générative.

CHINE

* Mise en œuvre de réglementations temporaires

Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet sur la sécurité de l'IA en Grande-Bretagne le 1er novembre que Pékin était prêt à renforcer la collaboration sur la sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

En octobre, la Chine a publié une proposition d'exigences de sécurité pour les entreprises proposant des services alimentés par l'IA générative, y compris une liste noire de sources qui ne peuvent pas être utilisées pour former des modèles d'IA.

Le pays a publié une série de mesures temporaires en août, exigeant des fournisseurs de services qu'ils soumettent des évaluations de sécurité et qu'ils reçoivent une autorisation avant de lancer des produits d'IA sur le marché de masse.

UNION EUROPÉENNE

* Réglementation de la planification

Le 24 octobre, les législateurs européens se sont mis d'accord sur une partie essentielle des nouvelles règles en matière d'IA, décrivant les types de systèmes qui seront désignés comme étant "à haut risque", se rapprochant ainsi d'un accord plus large sur la loi historique sur l'IA qui est attendue en décembre, selon cinq personnes familières avec le sujet.

Le 13 septembre, la présidente de la Commission européenne, Ursula von der Leyen, a demandé la création d'un groupe d'experts mondial () chargé d'évaluer les risques et les avantages de l'IA.

FRANCE

* Enquête sur d'éventuelles violations

L'organisme français de protection de la vie privée a déclaré en avril qu'il enquêtait sur des plaintes concernant ChatGPT.

G7

* Recherche d'informations sur les réglementations

Le 30 octobre, les pays du Groupe des Sept se sont mis d'accord sur un code de conduite en 11 points pour les entreprises qui développent des systèmes d'IA avancés, qui "vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier".

ITALIE

* Enquête sur d'éventuelles violations

L'autorité italienne de protection des données prévoit d'examiner les plateformes d'IA et d'engager des experts dans ce domaine, a déclaré un haut fonctionnaire en mai. ChatGPT a été temporairement interdit dans le pays en mars, mais il est redevenu accessible en avril.

JAPON

* Enquête sur d'éventuelles infractions

Le Japon prévoit d'introduire d'ici à la fin de 2023 des réglementations qui seront probablement plus proches de l'attitude des États-Unis que des réglementations strictes prévues par l'UE, a déclaré en juillet un fonctionnaire proche des délibérations.

L'organisme de surveillance de la vie privée du pays a averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes.

POLOGNE

* Enquête sur d'éventuelles violations

L'Office polonais de protection des données personnelles a déclaré en septembre qu'il enquêtait sur OpenAI à la suite d'une plainte selon laquelle ChatGPT enfreint les lois européennes sur la protection des données.

ESPAGNE

* Enquête sur d'éventuelles infractions

L'agence espagnole de protection des données a lancé en avril une enquête préliminaire sur d'éventuelles violations de données par ChatGPT.

NATIONS UNIES

* Réglementation de la planification

Le 26 octobre, le secrétaire général de l'ONU, António Guterres, a annoncé la création d'un organe consultatif de 39 membres , composé de dirigeants d'entreprises technologiques, de fonctionnaires et d'universitaires, chargé d'examiner les questions relatives à la gouvernance internationale de l'IA.

Le Conseil de sécurité de l'ONU a tenu sa première discussion officielle sur l'IA en juillet, abordant les applications militaires et non militaires de l'IA qui "pourraient avoir des conséquences très graves pour la paix et la sécurité mondiales", a déclaré António Guterres à l'époque.

LES ÉTATS-UNIS

* Recherche d'informations sur les réglementations

Les États-Unis vont créer un institut de sécurité de l'IA pour évaluer les risques connus et émergents des modèles d'IA dits "pionniers", a déclaré la secrétaire d'État au commerce, Gina Raimondo, le 1er novembre, lors du sommet sur la sécurité de l'IA qui s'est tenu en Grande-Bretagne.

Le 30 octobre, le président Joe Biden a publié un nouveau décret () pour exiger des développeurs de systèmes d'IA qui présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis qu'ils partagent les résultats des tests de sécurité avec le gouvernement.

En septembre, le Congrès américain a organisé des auditions sur l'IA et un forum sur l'IA auquel ont participé Mark Zuckerberg, directeur général de Meta META.O , et Elon Musk, directeur général de Tesla. Plus de 60 sénateurs ont participé à ces discussions, au cours desquelles Elon Musk a demandé un "arbitre" américain pour l'IA .

La Commission fédérale du commerce des États-Unis a ouvert en juillet une enquête sur OpenAI, qui aurait enfreint les lois sur la protection des consommateurs.

Valeurs associées

Tradegate +5.45%
Tradegate +4.10%
OTCBB +12.01%
OTCBB -52.00%
OTCBB 0.00%
NASDAQ -0.94%
NASDAQ -3.37%
IBM
NYSE +0.19%
NASDAQ -2.41%
NASDAQ -1.00%
NASDAQ +0.03%
NYSE -0.28%
NASDAQ +15.31%
Afficher toutes les valeurs associées Réduire

0 commentaire

Signaler le commentaire

Fermer

Mes listes

Cette liste ne contient aucune valeur.