Les récentes déclarations, pour le moins alarmistes, de personnalités de référence en la matière, tels que l'astrophysicien Stephen Hawking, le co-fondateur d'Apple Steve Wozniak, Bill Gates ou encore le très médiatique Elon Musk ont lieu d'inquiéter. Ils mettent en garde contre les dangers d'une "super intelligence" aux capacités supérieures à celle de l'être humain. Pourtant, à écouter les spécialistes comme Michel Nachez, cyberanthropologue, ou Jeff Hawkins, chercheur dans le domaine, nous sommes bien loin de créer des machines plus intelligentes que nous. Les craintes sont-elles donc fondées et où en est vraiment la recherche en terme d'IA (intelligence artificielle)?

Intelligence Artificielle
L'évolution de la recherche en IA
Le terme d'intelligence artificielle apparait en 1956 quand le mathématicien Marvin Lee Minsky et le logicien John Mac Carthy organisèrent une université d'été pour présenter cette nouvelle discipline. Il s'agissait alors d'étudier l'intelligence avec les moyens de l'artificiel grâce aux ordinateurs nouvellement créés. Et si les progrès ont depuis été considérables, les machines se sont juste "spécialisées", elles ne sont pas encore capables de "reproduire des fonctions qu'on attribue à des entités intelligentes vivantes" comme l'explique Yann LeCun, responsable du centre FAIR (Facebook Artificial Intelligence Research) au site France Culture. Il ajoute que "quelquefois ces machines dépassent en performance les humains, comme aux échecs par exemple". Mais que cela ne les rend pas plus "intelligentes". Car la machine n'est pas dotée de l'intelligence générale. Une intelligence artificielle est incapable, en l'état actuel des connaissances, d'apprendre par elle-même sans être supervisée, même si elle peut tirer des enseignements de son expérience et analyser des informations passées. Elles reste pourtant dénuée de conscience propre ou d'autonomie morale. L'inquiétude émise par Stephen Hawking d'une "intelligence artificielle complète [mettant] fin à la race humaine" semble donc en l'état dénuée de fondement. Même si un certain discours transhumaniste ou science-fictionnel évoquant une machine nous contrôlant ou nous surveillant insidieusement peut faire peur. "Ce n'est pas la réalité" insistent Michel Nachez et Jeff Hawkins pour qui " il n'y a pas de danger car la notion d'intelligence que l'on applique à une machine est différente de celle de l'homme".Les dangers éthiques et d'usage
Les risques de l'intelligence artificielle, comme tout système informatique, résident essentiellement dans les usages malveillants ou criminels à laquelle elle est exposée. Comme l'explique Tom Dietterich, président de l'association pour l'avancement de l'intelligence artificielle (AAAI), au site Usine digitale " les deux principaux risques sont les bugs et les cyberattaques" qui peuvent être évités grâce " à la certification de la qualité des logiciels [et à la protection] pour éviter leur détournement par des cybercriminels ".Un autre danger important concerne l'éthique. Les robots vont-ils prendre le travail des humains ? Peut-on remplacer l'environnement humain par des machines ? Et dans ce cas, si une voiture "intelligente" sans chauffeur a un accident, qui sera responsable ? Comment va réagir l'IA ?.. Ces questions, souvent évoquées par l'écrivain Isaac Asimov, doivent être soulevées.
Pour Rand Hindi, fondateur de la start-up Snips, spécialisée sur la question, le vrai danger est le big data. En effet, avec la capacité de nos smartphone à reconnaitre automatiquement nos visages, nos empreintes, combinée à nos recherches sur internet, le traitement et l'analyse des données de masse (big data) bénéficient à l'IA. Et ces données peuvent être utilisées à des fins très discutables. A terme, et cela existe déjà dans une moindre mesure, il existera des systèmes capables de deviner nos envies, notre identité, notre localisation ou même notre état de santé, sous couvert de nous servir au mieux.
Trucs et astuces
Stephen Hawking et Elon Musk ont créé en 2014 le Future of Life Institute. Cette organisation vise à lutter contre les dangers de l'intelligence artificielle. C'est sur son site internet qu'une lettre ouverte a été signée par des centaines de chercheurs et d'ingénieurs pour alerter sur les dérives d'une IA dont les progès techniques seraient réalisés en dehors de toute considération sur les progrès sociétaux qu'elle doit apporter.Le 29 septembre 2016, Google, Microsoft, Amazon, Facebook et IBM ont annoncé la création d'un partenariat exceptionnel " Partnership on AI " ayant pour objectif la recherche et la promotion de bonnes pratiques dans le domaine de l'AI.
4 commentaires
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer