Doit-on avoir peur de l'intelligence artificielle?

le
4

Les récentes déclarations, pour le moins alarmistes, de personnalités de référence en la matière, tels que l'astrophysicien Stephen Hawking, le co-fondateur d'Apple Steve Wozniak, Bill Gates ou encore le très médiatique Elon Musk ont lieu d'inquiéter. Ils mettent en garde contre les dangers d'une "super intelligence" aux capacités supérieures à celle de l'être humain. Pourtant, à écouter les spécialistes comme Michel Nachez, cyberanthropologue, ou Jeff Hawkins, chercheur dans le domaine, nous sommes bien loin de créer des machines plus intelligentes que nous. Les craintes sont-elles donc fondées et où en est vraiment la recherche en terme d'IA (intelligence artificielle)?

Intelligence Artificielle
Intelligence Artificielle

L'évolution de la recherche en IA

Le terme d'intelligence artificielle apparait en 1956 quand le mathématicien Marvin Lee Minsky et le logicien John Mac Carthy organisèrent une université d'été pour présenter cette nouvelle discipline. Il s'agissait alors d'étudier l'intelligence avec les moyens de l'artificiel grâce aux ordinateurs nouvellement créés. Et si les progrès ont depuis été considérables, les machines se sont juste "spécialisées", elles ne sont pas encore capables de "reproduire des fonctions qu'on attribue à des entités intelligentes vivantes" comme l'explique Yann LeCun, responsable du centre FAIR (Facebook Artificial Intelligence Research) au site France Culture. Il ajoute que "quelquefois ces machines dépassent en performance les humains, comme aux échecs par exemple". Mais que cela ne les rend pas plus "intelligentes". Car la machine n'est pas dotée de l'intelligence générale. Une intelligence artificielle est incapable, en l'état actuel des connaissances, d'apprendre par elle-même sans être supervisée, même si elle peut tirer des enseignements de son expérience et analyser des informations passées. Elles reste pourtant dénuée de conscience propre ou d'autonomie morale. L'inquiétude émise par Stephen Hawking d'une "intelligence artificielle complète [mettant] fin à la race humaine" semble donc en l'état dénuée de fondement. Même si un certain discours transhumaniste ou science-fictionnel évoquant une machine nous contrôlant ou nous surveillant insidieusement peut faire peur. "Ce n'est pas la réalité" insistent Michel Nachez et Jeff Hawkins pour qui " il n'y a pas de danger car la notion d'intelligence que l'on applique à une machine est différente de celle de l'homme".

Les dangers éthiques et d'usage

Les risques de l'intelligence artificielle, comme tout système informatique, résident essentiellement dans les usages malveillants ou criminels à laquelle elle est exposée. Comme l'explique Tom Dietterich, président de l'association pour l'avancement de l'intelligence artificielle (AAAI), au site Usine digitale " les deux principaux risques sont les bugs et les cyberattaques" qui peuvent être évités grâce " à la certification de la qualité des logiciels [et à la protection] pour éviter leur détournement par des cybercriminels ".
Un autre danger important concerne l'éthique. Les robots vont-ils prendre le travail des humains ? Peut-on remplacer l'environnement humain par des machines ? Et dans ce cas, si une voiture "intelligente" sans chauffeur a un accident, qui sera responsable ? Comment va réagir l'IA ?.. Ces questions, souvent évoquées par l'écrivain Isaac Asimov, doivent être soulevées.
Pour Rand Hindi, fondateur de la start-up Snips, spécialisée sur la question, le vrai danger est le big data. En effet, avec la capacité de nos smartphone à reconnaitre automatiquement nos visages, nos empreintes, combinée à nos recherches sur internet, le traitement et l'analyse des données de masse (big data) bénéficient à l'IA. Et ces données peuvent être utilisées à des fins très discutables. A terme, et cela existe déjà dans une moindre mesure, il existera des systèmes capables de deviner nos envies, notre identité, notre localisation ou même notre état de santé, sous couvert de nous servir au mieux.

Trucs et astuces

Stephen Hawking et Elon Musk ont créé en 2014 le Future of Life Institute. Cette organisation vise à lutter contre les dangers de l'intelligence artificielle. C'est sur son site internet qu'une lettre ouverte a été signée par des centaines de chercheurs et d'ingénieurs pour alerter sur les dérives d'une IA dont les progès techniques seraient réalisés en dehors de toute considération sur les progrès sociétaux qu'elle doit apporter.
Le 29 septembre 2016, Google, Microsoft, Amazon, Facebook et IBM ont annoncé la création d'un partenariat exceptionnel " Partnership on AI " ayant pour objectif la recherche et la promotion de bonnes pratiques dans le domaine de l'AI.
Vous devez être membre pour ajouter des commentaires.
Devenez membre, ou connectez-vous.
  • lm123457 il y a 3 mois

    Complément : A force de se justifier par ses capacités, ceux qui en ont pas mal, se rassurent. Qu'en est-il de ceux qui en ont moins ? Sont-ils moins humains ? Comme le dit Anders, notre conception de l'humanité a glissé de "je suis fier de ce à quoi je sers" à "Je me justifie _par_ ce à quoi je sers". ne se justifie _par_ son utilité que la machine. Ce monde est chosifiant. Et l'IA n'est que le symptome de ce que l'humanisme est devenu anti-humain.

  • lm123457 il y a 3 mois

    réponses idiotes à une question intelligente. Il existe déjà des ordinateurs plus intelligents qu'un bon nombre de la population. Que va-t-on en faire ? Je veux dire des _humains_ ? Ben ils sont déjà au chomage et on leur explique que la société n'a pas besoin d'eux. Lisez Ellul, Illich, Arendt. L'intelligence artificielle se fait forcément au détriment de l'intelligence naturelle qui est probablement moins performante.

  • jbany il y a 3 mois

    Bien sûr que nous pouvons en avoir peur. Car rien n'empeche que des critères moraux se glissent dans des algorithmes

  • murashig il y a 3 mois

    De fait ce sera jouer aux apprentis sorciers avec la creature qui aura son destin propre, voir sa logique antagoniste a notre souhait.. La notion d absence d empathie au profit d une logique froide est probable avec notre extermination de masse...une lutte pour le meme espace et les ressources dans un premier temps... et ce n est pas dans le futur !!!