par Martin Coulter et Paul Sandle
Le Premier ministre britannique Rishi Sunak a défendu une série d'accords historiques après avoir accueilli le premier sommet sur la sécurité de l'intelligence artificielle (AI), mais un plan mondial de supervision de la technologie est encore loin d'être mis en place.
Pendant deux jours de discussions entre dirigeants mondiaux, cadres d'entreprise et chercheurs, des directeur général du secteur technologique tels qu'Elon Musk et Sam Altman d'OpenAI ont côtoyé des personnalités telles que la vice-présidente des États-Unis Kamala Harris et la commissaire européenne Ursula von der Leyen pour discuter de la future réglementation de l'intelligence artificielle.
Les dirigeants de 28 pays, dont la Chine, ont signé la déclaration de Bletchley , une déclaration commune reconnaissant les risques liés à la technologie; les États-Unis et la Grande-Bretagne ont tous deux annoncé leur intention de lancer leurs propres instituts de sécurité de l'IA; et deux autres sommets ont été annoncés pour l'année prochaine en Corée du Sud et en France.
Mais si un certain consensus s'est dégagé sur la nécessité de réglementer l'IA, des désaccords subsistent sur les modalités exactes de cette réglementation et sur la question de savoir qui dirigera ces efforts.
Les risques liés au développement rapide de l'IA constituent une priorité de plus en plus importante pour les décideurs politiques depuis qu'Open AI MSFT.O , soutenu par Microsoft, a rendu public le ChatGPT l'année dernière.
La capacité sans précédent de ce chatbot à répondre à des questions avec une fluidité comparable à celle des humains a conduit certains experts à demander une pause dans le développement de ces systèmes, avertissant qu'ils pourraient devenir autonomes et menacer l'humanité.
M. Sunak s'est dit "privilégié et excité" d'accueillir le fondateur de Tesla TSLA.O Musk, mais les législateurs européens ont mis en garde contre le fait que trop de technologies et de données étaient détenues par un petit nombre d'entreprises dans un seul pays, les États-Unis.
"Le fait qu'un seul pays détienne toutes les technologies, toutes les entreprises privées, tous les appareils, toutes les compétences, sera un échec pour nous tous", a déclaré le ministre français de l'économie et des finances, Bruno Le Maire, à la presse.
Le Royaume-Uni s'est également démarqué de l'UE en proposant une approche légère de la réglementation de l'IA, contrairement à la loi européenne sur l'IA , qui est sur le point d'être finalisée et qui obligera les développeurs d'applications considérées comme "à haut risque" à se soumettre à des contrôles plus stricts.
"Je suis venue ici pour vendre notre loi sur l'IA", a déclaré Vera Jourova, vice-présidente de la Commission européenne.
Bien qu'elle ne s'attende pas à ce que d'autres pays copient intégralement les lois de l'Union européenne, Mme Jourova a déclaré qu'un accord sur les règles mondiales était nécessaire.
"Si le monde démocratique ne veut pas imposer de règles et que nous en imposons, la bataille sera perdue", a-t-elle déclaré.
Tout en projetant une image d'unité, les participants ont déclaré que les trois principaux blocs de pouvoir présents - les États-Unis, l'Union européenne et la Chine - ont tenté d'affirmer leur suprématie, et la Chine - ont tenté d'affirmer leur domination.
Certains ont suggéré que Mme Harris avait devancé Mme Sunak lorsque le gouvernement américain a annoncé la création de son propre institut de sécurité de l'IA , tout comme la Grande-Bretagne l'avait fait une semaine auparavant, et qu'elle a prononcé un discours à Londres soulignant les risques à court terme de la technologie, contrairement au sommet qui s'est concentré sur les menaces existentielles.
"Il était fascinant de constater qu'au moment où nous annoncions notre institut de sécurité de l'IA, les Américains annonçaient le leur", a déclaré Nigel Toon, directeur général de l'entreprise britannique Graphcore, qui participait au sommet.
La présence de la Chine au sommet et sa décision de signer la "déclaration de Bletchley" ont été saluées comme un succès par les responsables britanniques.
Le vice-ministre chinois de la science et de la technologie a déclaré que son pays était prêt à travailler avec toutes les parties sur la gouvernance de l'IA.
Toutefois, Wu Zhaohui a fait part aux délégués des tensions entre la Chine et l'Occident: "Les pays, quelles que soient leur taille et leur échelle, ont les mêmes droits de développer et d'utiliser l'IA
Le ministre chinois a participé à la table ronde ministérielle du jeudi, a indiqué son ministère. Il n'a toutefois pas participé aux événements publics du deuxième jour.
Un thème récurrent des discussions à huis clos, souligné par un certain nombre de participants, était les risques potentiels de l'IA à code source ouvert, qui donne aux membres du public un accès libre à l'expérimentation du code qui sous-tend la technologie.
Certains experts ont mis en garde contre le fait que les modèles open-source pourraient être utilisés par des terroristes pour créer des armes chimiques, voire une super-intelligence échappant au contrôle de l'homme.
S'adressant à Sunak lors d'un événement en direct à Londres jeudi, Musk a déclaré: "On en arrivera à un point où l'IA open-source commencera à s'approcher de l'intelligence humaine, voire à la dépasser. Je ne sais pas vraiment quoi faire à ce sujet"
Yoshua Bengio, un pionnier de l'IA nommé pour diriger un rapport sur l'état de la science commandé dans le cadre de la déclaration de Bletchley, a déclaré à Reuters que les risques de l'IA à code source ouvert étaient une priorité absolue.
Il a déclaré à Reuters que les risques de l'IA à code source ouvert étaient une priorité absolue. Il a ajouté: "Elle pourrait se retrouver entre les mains de mauvais acteurs et être modifiée à des fins malveillantes. Il n'est pas possible de publier ces systèmes puissants en code source libre tout en protégeant le public avec des garde-fous adéquats"

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer