[dossier] « Aucun emploi non complémentaire de l’IA n’existera en 2050 » : Laurent Alexandre part.1

IA

La révolution numérique va-t-elle tordre le cou à la fameuse destruction créatrice de Schumpeter ? L’avènement des plateformes numériques, les évolutions de la robotique et désormais le développement effréné de l’Intelligence Artificielle (IA) interrogent nos sociétés sur l’avenir du marché du travail et plus généralement sur la place des pays du vieux continent sur l’échiquier économique mondial.

Le 19 janvier dernier, Laurent Alexandre, faisait une intervention remarquée au Sénat sur les enjeux forts de l’IA et soulignait les efforts à mettre en œuvre pour tirer parti de cette révolution en cours plutôt que de la subir… et ainsi de cesser d’être « les idiots utiles de l’IA » ou encore « les colonies numériques de la Silicon Valley » ! Visionnée plus d’un million de fois sur Facebook en l’espace d’une semaine[1], cette intervention soulignait le rôle clé de notre système éducatif, et plus généralement de l’apprentissage tout au long de la vie pour relever les défis à venir.

Comment fonctionne l’IA, quelles sont ses applications et pourquoi menacent-t-elles le marché de l’emploi ? Retour sur cette science numérique relativement ancienne qui revient en force sur le devant de la scène numérique internationale avec la montée en puissance récente du deep-learning !

L’IA : une croissance exponentielle et un potentiel révolutionnaire !

« Je n’ai jamais vu une révolution aussi rapide, on est passé d’un système un peu obscur à un système utilisé par des millions de personnes en seulement 2 ans »[2] déclarait récemment Yann LeCun, pionnier du deep-learning, directeur du Fair (Facebook Artificial Intelligence Research) et titulaire d’une chaire Informatique et sciences numériques au collège de France.

Avec le retour en puissance du « deep learning » et des « réseaux de neurones », l’IA est devenue un trending topic dans les médias mais aussi dans les laboratoires de recherche et les publications scientifiques. 2016 était annoncée comme l’année de l’IA… 2017 et les années suivantes le seront également[3] ! Il suffit de jeter un coup d’œil à notre environnement technologique pour s’en apercevoir : les applications dans lesquelles l’IA est mise en jeu se sont multipliées. Autre signe de cette fulgurante ascension, les grands acteurs du numérique comme Google, Amazon, Facebook, Apple, Microsoft, IBM, Intel ou encore Nvidia investissent massivement dans l’intelligence artificielle[4],[5] et recrutent les experts du domaine pour diriger leurs équipes de recherche !

Cette révolution dans l’univers des technologies numériques déchaine les passions : la possibilité que l’intelligence logicielle dépasse un jour l’intelligence biologique, qu’elle prenne conscience d’elle-même, qu’elle nous prive ou nous libère du travail, qu’elle nous conduise sur la voie du développement ou du déclin fascine l’humanité et entretient à la fois espoirs et craintes…

Comment fonctionne cette nouvelle forme d’intelligence ? Quelles sont les menaces et les opportunités qui accompagnent son développement fulgurant ?

Qu’est ce que l’Intelligence Artificielle ?

Pour définir l’Intelligence Artificielle, encore faudrait-il d’abord savoir définir l’intelligence, vous dirait Yann LeCun ! Est-ce la faculté de percevoir, évoluer et interagir avec son environnement, la capacité d’apprendre et de s’adapter en toute situation, l’aptitude de prévoir l’avenir proche ou lointain, l’habileté à planifier un ensemble d’actions permettant d’atteindre un but ou encore la possibilité de ressentir des émotions, de faire preuve de créativité ? Scientifiques et philosophes peinent encore à en formaliser une définition consensuelle…

Si l’on voulait faire simple, on pourrait dire que l’IA est une science informatique qui ambitionne de rendre la machine intelligente, puisque cette dernière trouve ses origines dans les travaux d’Alan Turing, « père » de l’informatique, qui s’interrogeait sur le fait que la machine puisse penser. Marvin Lee Minsky, l’un des fondateurs de l’IA, en fournit une définition plus précise : « L’IA est un ensemble de programmes informatiques permettant aux machines d’accomplir des tâches normalement réalisées de manière plus satisfaisante par les humains car elles demandent la mise en jeu de processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire, le raisonnement critique ou encore le sens commun ».

L’IA est par conséquent un domaine de recherche extrêmement étendu ! A tel point que les équipes de recherche de l’Inria en ont récemment proposé[6] une typologie de structuration en sous-domaines. Elles ont notamment listé : le travail sur les connaissances, l’apprentissage automatique, le traitement du langage naturel, le traitement des signaux, la robotique, les sciences cognitives ou encore l’aide à la décision.

Domotique, loisirs, productivité, transports, économie, commerce, médecine, communication…, les applications relevant de l’IA se sont multipliées et se sont progressivement invitées dans nos vies sans que nous en ayons forcément conscience !

Une technologie presque invisible mais déjà très présente dans nos quotidiens

Au delà des évènements marquants qui ont placé l’IA sur le devant de la scène, à l’image de la victoire de Deep blue contre le champion du monde d’échec Gary Kasparov en 1997 ou plus récemment de la défaite du champion du monde du jeu de Go Lee Sedol face à Google DeepMind, l’intelligence artificielle est d’ores et déjà présente dans de nombreuses applications industrielles et grand public. À titre d’exemple, on peut citer les systèmes :

  • de reconnaissance faciale de Facebook[7] ou de description automatique du contenu des images de Google[8],
  • de reconnaissance vocale, notamment embarqués sur nos smartphones comme Siri, Cortana ou Google Now,
  • de traduction instantanée de Microsoft ou de Google
  • de conduite autonome de la Google car ou encore de la Tesla
  • de prédiction et d’assistance proposés par IBM Watson dans de nombreux domaines comme la médecine

Les progrès scientifiques qui ont permis de développer ces applications sont, pour la plupart, intimement liés à l’avènement du machine learning. Et plus particulièrement au retour en force, courant 2012, des architectures d’apprentissage profond ou deep-learning.

Et si pour devenir intelligente, la machine s’inspirait du cerveau humain et devenait capable d’apprendre de ses expériences ?! Réponse dans la prochaine partie, bonne lecture;)

Sources

[1] 10 choses à savoir sur Laurent Alexandre, gourou de l’IA
[2] Comment le deep learning révolutionne l’IA
[3] 2017, année de la grande bascule vers l’IA
[4] Les GAFAs en pleine course à l’IA
[5] GAFA, la bataille de l’IA fait rage
[6] Livre blanc : IA, défi actuels et l’action d’Inria
[7] Facebook can recognise you even if you’re not looking
[8] google algorithm for photography description