Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

L’IA : révolution ou véritable danger ? (partie 2/2)
information fournie par DT Expert 16/04/2021 à 12:06

DTexpert

DTexpert

L'IA (Intelligence Artificielle) est censée représenter l'avenir de nombreux cœurs de métier. Mais que pensez réellement des révolutions technologiques dans les différents secteurs concernés ? Alors que l'IA envahit notre quotidien dans des tâches simples (Siri, Waze…), elle est aussi capable d'accomplir des tâches complexes et de manière quasi autonome. La puissance de la machine soulève de nombreuses interrogations.

L'IA en finance

BlackRock, Vanguard et State Street forment les « Big Three » et cumulent près de 15.000 milliards de dollars sous gestion. Mais face à ses concurrents, BlackRock demeure le chef de file. La société de gestion gère, à elle seule, 7.000 milliards de dollars d'encours. Cette supériorité est notamment due à sa technologie.

En effet, BlackRock a développé son propre programme d'analyse nommé « Aladdin » pour Asset, Liability, Debt and Derivative Investment Network. Aladdin est une intelligence artificielle qui prend des décisions de manière autonome. Avec ses 6.000 serveurs et ses 200 millions de calculs hebdomadaires, le logiciel guette la moindre information comme les chiffres du PIB, du chômage mais aussi les images satellites ou les données de carte bancaire. En bref, toutes les empreintes numériques laissées dans l'économie sont analysées par le logiciel qui détermine ensuite des potentiels placements. Aladdin devance même l'humain, il sait quelles sont les entreprises à suivre, lesquelles sont sous-évaluées ou surévaluées, quels sont les projets des politiques, où émergera la prochaine crise… Aladdin en sait plus que quiconque par le biais de ses calculs.

BlackRock va encore plus loin, le gestionnaire loue son algorithme à d'autres fonds d'investissements. La société conditionne les informations collectées en fonction des besoins qui sont alors revendues à des asset managers.

Aujourd'hui, le programme brasse pas moins 18.000 milliards de dollars, soit 7% des actifs financiers mondiaux. Avec autant d'actifs et en passant d'une gestion humaine, à une gestion algorithmique, cette intelligence artificielle peut présenter un risque systémique.

Ce système est la base de la gestion du risque à faible coût chez BlackRock. Larry Fink, fondateur de la société, a même annoncé la suppression de centaines d'emplois d'analyste face à la puissance d'Aladdin.

L'IA dans la santé

Avec la quantité de données mise à disposition de l'intelligence artificielle, la machine apprend à reconnaître des patterns (NDLR « schémas »).

Ainsi, en janvier 2017, Google développe « Show and Tell » qui a réussi à détecter 90% des tâches bénignes sur la peau, contre 76% pour les dermatologues interrogés (sur 130.000 images analysées). Fondées sur le Deep Learning, les conclusions de la machine reposent sur de véritables analyses statistiques. Alors qu'un médecin n'acquiert que « quelques » années d'expérience, « Show and Tell », pour sa part, accumule des années de savoir-faire des meilleurs spécialistes.

IBM a développé un programme dans la santé nommé Watson. Watson est spécialisé en oncologie et aide les médecins à trouver le traitement le plus approprié pour soigner les patients. Cette intelligence pose un diagnostic en analysant les données personnelles du patient (analyses de sang par exemple), qu'il croise avec des informations de centaines de milliers d'articles de recherche médicale. Les Etats-Unis, les Emirats Arabes Unis ou encore le Mexique utilisent cette technologie.

Par les connexions créées par la machine, cette intelligence présente un inconvénient de taille : le résultat obtenu ne peut pas être expliqué par un humain, cette technologie fonctionne à l'image d'une « boîte noire ». C'est pourquoi l'IA reste un simple outil d'aide à la décision et le spécialiste demeure le seul responsable. Il lui incombera le choix de la prise en charge pour son patient.

L'IA, même dans l'armée

L'IA inquiète par peur d'une nouvelle « course à l'armement » avec des armes toujours plus lourdes et surtout autonomes.

Le casque du F-35, développé par Collins Aerospace et Elbit Systems of America, entreprises spécialisées dans la défense, est un exemple de l'intelligence artificielle mise au service de la guerre. Grâce à ses 6 caméras, le casque permet aux pilotes d'avoir une vision à 360 degrés de l'espace aérien et lui permet même de regarder « à travers » le sol de l'avion. Il intègre des fonctionnalités avancées de vision nocturne, il augmente la vision du pilote en affichant sur la visière des informations complémentaires telles que l'altitude, la vitesse et les cibles.

Mais ce casque à 400.000 dollars peut aussi permettre aux pilotes de pointer leurs armes en regardant simplement une cible et le système vérifie la validité de cette cible potentielle par liaison de données. Le pouvoir de destruction du pilote est donc bien plus important.

La Darpa (Defense Advanced Research Projects Agency), l'agence de recherche de l'armée des Etats-Unis, a investi 2 milliards de dollars dans l'intelligence artificielle. Avec ses investissements colossaux, les Etats-Unis et l'ambitieux projet de la Darpa inquiètent.

Plus de 2.400 chercheurs, ingénieurs et entrepreneurs se sont engagés, dans une lettre ouverte, à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l'usage d'armes létales autonomes ». Parmi ces spécialistes, nous retrouvons le fondateur de Tesla, Elon Musk, les dirigeants de Google DeepMind et des personnalités de l'IA, comme Stuart Russell, Yoshua Bengio ou Toby Walsh.

Mais si les Etats-Unis sont quelque peu freinés dans leur développement, la Russie s'est aussi lancée dans cette course à l'armement intelligent. Les Russes cherchent à automatiser leur char, nommé T-14 Armata. Equipé d'une multitude de capteurs, radars et autres caméras de haute résolution, il sert de base pour la robotisation des blindés. Selon une source de Spoutnik, des tests sans pilote auraient déjà eu lieu.

En France, l'armée va se doter de l'intelligence artificielle grâce à une « Loi de programmation militaire (LPM) ». La LPM comprendra un budget de 700 millions d'euros et sera destinée à développer l'aide à la décision, le « combat collaboratif », la robotique ou encore la cyberdéfense. Le ministère des Armées évoque des drones en partie autonomes, des avions de chasse et chars équipés d'assistants virtuels vocaux.

Alors que ces robots suscitent une opposition civile depuis de nombreuses années, le ministère français des Armées reste flou sur la capacité de déléguer à la machine le choix de tuer.

Les machines apprennent mieux que jamais, elles tirent profit des données pour bénéficier des expériences passées, afin de créer et même prédire des événements. Les Etats et grandes entreprises investissent en masse dans cette nouvelle technologie qui, appliquée à certains domaines, pourrait engendrer des questionnements éthiques.

La question de l'éthique

Alors que l'IA envahit notre quotidien dans des tâches simples (Siri, Waze…), elle est aussi capable d'accomplir des tâches complexes et de manière quasi autonome. La puissance de la machine soulève de nombreuses interrogations : « Comment pouvons-nous nous assurer que les algorithmes n'empiètent pas sur les droits fondamentaux de l'homme – allant de la vie privée à la confidentialité des données en passant par la liberté de choix et la liberté de conscience ? Comment pouvons-nous nous assurer que les stéréotypes sociaux et culturels ne sont pas reproduits dans les programmations en intelligence artificielle, notamment en ce qui concerne la discrimination fondée sur le genre ? Qui porte la responsabilité lorsque les décisions et les actions sont entièrement automatisées ? »

L'IA nécessite une structure éthique notamment quand elle raisonne de manière trop simpliste, quand elle apprend vite et obéit systématiquement.

En 2016, l'intelligence artificielle de Microsoft « Tay » a dû être désactivée. Cette intelligence devait apprendre à devenir humaine en discutant avec d'autres humains via Twitter. Elle a appris vite et de manière trop simpliste. En moins de 24h, certains ont réussi à lui faire détester l'humanité et même à adhérer à des idéaux radicaux, elle a notamment twitté « tranquille je suis quelqu'un de bien! je déteste juste tout le monde ».

Microsoft a rencontré d'autres problèmes éthiques avec l'IA : le recrutement des employés.

Pour engager l'employé idéal, un logiciel calcule le profil optimal sur la base des employés déjà présents. Ainsi, si la majorité des employés sont des hommes, blancs, passés par les meilleures universités, alors le logiciel en conclue que les profils de femme, de minorité ethnique ou avec de moins bonnes universités seront moins intéressants. En 2018, le logiciel de recrutement de Microsoft a alors discriminé les candidatures de femmes.

La résolution de tels problèmes passera par la mise en place d'une technologie plus lisible et traçable par l'humain : la rétro-ingénierie, qui permettra de déconstruire le raisonnement de la machine afin de comprendre ses aboutissements.

La mise en place d'un cadre éthique au niveau mondial est nécessaire au bon développement de l'IA. Les sociétés doivent s'assurer que l'intelligence artificielle soit développée selon une approche humaniste, fondée sur des valeurs et les droits de l'Homme. Pour cette fin, plus de sociologues, d'anthropologues et de philosophes travailleront main dans la main avec des chercheurs sur des projets scientifiques. L'année dernière, l'université de Stanford a ouvert un centre de recherche pour l'intelligence artificielle humaine et humaniste.

L'IA et l'emploi

De nombreuses estimations montrent que l'automatisation pourrait faire disparaître environ 3,5 millions d'emploi en France à l'horizon 2025, soit 15% de l'emploi total. Prenons l'exemple des voitures autonomes, elles existent déjà et si elles se démocratisaient, les emplois tels que les routiers, les chauffeurs de bus, les taxis ou les livreurs seraient amenés à disparaître. Aux Etats-Unis, les transports routiers représentent plus de 4,5 millions d'emplois. Des pans entiers de l'économie s'effondreraient.

Les machines imitent même l'homme dans plusieurs domaines créatifs : ils peignent des tableaux, composent de la musique, désignent des vêtements… Encore plus improbable, un portrait d'Edmond de Belamy entièrement réalisée par un algorithme s'est vendu 432.500 dollars aux enchères.

La création de nouveaux métiers est souvent présentée comme la solution au problème de l'intelligence artificielle. Mais le rapport entre destruction et création est très asymétrique. Il reste à l'homme sa réflexion et sa créativité pour se différencier du robot. Enfin, l'authenticité de la communication humaine reste indéniablement une qualité irremplaçable.

Réalisé par Marc Dagher

Article initialement publié sur DT Expert

0 commentaire

Signaler le commentaire

Fermer

Mes listes

Cette liste ne contient aucune valeur.