[dossier]« Aucun emploi non complémentaire de l’IA n’existera en 2050 » : Laurent Alexandre part.2

IA

Machine-learning, deep-learning et réseaux de neurones : l’apprentissage, un marqueur fort de l’intelligence ?

Si les applications impliquant l’IA se sont autant développées, c’est parce que l’apprentissage a fait son entrée dans l’univers des machines. Celle-ci est notamment liée à l’évolution marquée des neurosciences et des sciences cognitives qui considèrent l’apprentissage comme l’une des conditions fondamentales à l’intelligence : c’est notamment parce qu’un système est capable d’apprendre de ses expériences qu’il va pouvoir s’adapter à de nouvelles situations, améliorer ses performances ou développer de nouvelles compétences.

En effet, écrire un programme à la main pour rendre un système intelligent est une approche qui montre rapidement ses limites lorsque les conditions varient. Prenons l’exemple de la reconnaissance d’objets : comment permettre à la machine de reconnaître un objet dont les déclinaisons sont extrêmement nombreuses (une simple chaise existe sous de multiples formes, couleurs…) et de le détecter sur une image dans une multitudes de contextes différents ? C’est pour répondre à ce type de problématique que le machine learning a été imaginé. Son développement n’est pas récent, ce qui a changé en revanche, c’est le regain d’intérêt de la communauté scientifique pour le deep learning[1] qu’elle avait décidé d’abandonner dans les années 60 faute de résultats probants.[2].

Pour comprendre comment fonctionne le deep learning, il faut revenir sur la notion d’apprentissage machine dont les fondements datent des années 1950 et sont utilisés depuis longtemps par les acteurs du web (moteurs de recherche, systèmes de recommandation, reconnaissance d’images, etc.). Prenons un exemple simple : pour que la machine apprenne à reconnaître un chat sur des images, on lui soumet des millions d’images sur lesquelles les chats sont « taggés » à la main. Après cette phase dite d’entraînement ou d’apprentissage supervisé, si l’on soumet à la machine de nouvelles images non « taggées », elle sera capable de détecter correctement les images contenant un chat. On parle de capacité de généralisation.

« Classiquement, le machine learning imposait aux ingénieurs de construire à la main un extracteur de caractéristiques pour que le système soit capable de reconnaître un objet. Avec le deep learning, la machine apprend elle-même à le construire et plus impressionnant encore, ses performances sont bien meilleures ! », déclare souvent Yann LeCun lorsqu’il s’agit d’illustrer la différence entre les approches dites symbolistes, majoritairement utilisées jusqu’en 2012 et les approches connexionnistes (à laquelle appartient le deep learning), qui connaissent un vif succès depuis quelques années[3].

Le deep learning utilise également l’apprentissage supervisé, sa particularité repose sur « l’architecture interne de la machine » qui s’inspire (de manière symbolique) des réseaux neuronaux de notre cerveau. Yann Ollivier, spécialiste de l’IA au CNRS décrit ce système comme « une machine virtuelle composée de milliers d’unités ou neurones organisées en couches. Les neurones de chaque couche effectuent de petits calculs simples puis les résultats de chaque couche de neurones servent d’entrée à la couche suivante. C’est cette organisation par couche qui rend l’apprentissage profond ». Poursuivons avec l’exemple des images de chats. A chaque nouvelle couche, la machine affine la reconnaissance de l’image avec des concepts de plus en plus précis, un peu comme le fait notre cortex visuel : la première couche de neurones détecte la présence de lignes saillantes, la seconde va détecter que 2 de ces lignes forment un angle de 45°, la troisième va reconnaître un triangle caractéristique de l’oreille de chat et ainsi de suite. « À chaque étape, la machine gagne en compréhension avec des concepts de plus en plus précis. Les méthodes traditionnelles se contentaient de comparer les pixels entre eux alors que l’apprentissage profond se fonde sur des caractéristiques plus abstraites que des valeurs de pixels, qu’elle va elle même construire et ajuster. » précise Yann Ollivier. Le chercheur ajoute : « Il y a 15 ans, on pensait que c’était inaccessible, voire de la science-fiction […] depuis c’est le succès avec des performances spectaculaires comme la prédire la suite d’une phrase ou d’une vidéo ou encore d’identifier du sport dans une vidéo ! ».

Plus surprenant encore, le projet de Deep learning Google Brain a impressionné la communauté en étant capable de définir par lui même le concept de chat sans apprentissage supervisé ! La machine a analysé dix millions d’images choisies aléatoirement et non étiquetées durant 3 jours et est parvenue seule a ce résultat…

« Ça marche très bien, mais c’est un peu une boite noire. Le soucis c’est qu’on n’en saisit pas bien le fonctionnement… un peu comme l’alchimie au moyen-âge, ça reste très empirique » déclarait Emmanuel Mogenet, directeur du laboratoire de recherche de Google à Zurich. « Je ne croyais pas cela possible » indique également Stéphane Mallat, chercheur au département informatique de l’ENS. Ce dernier se dit émerveillé par les mystères mathématiques de ces systèmes « qui ne devraient pas marcher et qu’on ne comprend pas ». Il est particulièrement fasciné par la faculté de ces réseaux à extrapoler des espaces de paramètres gigantesques (mots, images…), ce que l’on pensait impossible jusqu’alors… « Ne pourrait-on pas apprendre la physique sans équation, après tout, l’anguille mesure le champ électrique pour se déplacer en inversant les équations de Maxwell, sans les connaître. ».

Cependant, le sentiment général de la communauté scientifique reste mitigé quand à l’impossibilité d’expliquer le fonctionnement et les résultats obtenus par ces systèmes[4],[5],[6] d’une part du fait que cela les rend compliqué à améliorer et d’autre part parce qu’elle rend cette technologie potentiellement incontrôlable…

Entre rêves et inquiétudes, l’IA fait débat

Ainsi, avec l’avènement du deep learning, l’IA connaît une croissance telle que ce sont désormais les infrastructures informatiques (puissance de calcul, mémoire…) qui limitent ses performances. Dès lors, les plus grands espoirs sont permis… Reste que l’IA est devenue une boite noire dont même les spécialistes ne savent expliquer le fonctionnement.  Entre fascination et craintes, cette science informatique soulève désormais plus que jamais de sérieux problèmes éthiques pour certains acteurs du domaine. A tel point que le 28 septembre 2016, IBM, Amazon, Google, Microsoft et Facebook annonçaient avoir conclu un accord de bonnes pratiques[7], notamment après que plus de 700 scientifiques et chefs d’entreprise (Elon Musk, Stephan Hawking…) aient exposé publiquement leur craintes quand aux risques de cette technologie en pleine effervescence[8].

A ce sujet, Yann LeCun se veut pragmatique : « malgré les déclarations de certaines personnalités, le scénario à la Terminator est immensément improbable […] Comprendre l’Intelligence est l’une des grandes questions de notre temps et aucune organisation, si puissante soit elle ne peut résoudre ce genre de problème en isolation […] la conception de machines intelligentes nécessitera la collaboration ouverte de la communauté de recherche entière. Dans ce contexte, les chances que l’IA élimine l’humanité de sa propre initiative est hautement improbable. En revanche, comme toute technologie, l’IA peut être utilisée au bénéfice de toute l’humanité ou au profit d’un petit nombre au dépend du plus grand nombre. L’émergence de l’IA sauvera incontestablement des vies, mais elle déplacera également un grand nombre de métiers […] la question pour nos sociétés est plutôt : comment former les travailleurs déplacés à de nouveaux métiers créés par les progrès technologiques. »

Eric Schmidt, président exécutif d’Alphabet, société mère de Google, partage ce point de vue : « il n’y a aucune raison de penser que les progrès réalisés dans le domaine de l’apprentissage automatique entraîneront à coup sûr une hausse du chômage […] nous pouvons agir dès maintenant pour préparer au mieux nos sociétés à ces changements technologiques et s’assurer qu’elles ne soient pas déstabilisées : cela passe notamment par l’ éducation au numérique et l’aide à la reconversion professionnelle. »

Laurent Alexandre partage ces convictions sur l’importance de l’apprentissage tout au long de la vie et la nécessité de préparer nos systèmes de formation initiale et continue à la généralisation de l’IA et à ses conséquences sur le marché du travail.

Nous reviendrons prochainement sur son intervention remarquée au Sénat…. Bonne Lecture 😉

Sources

[1] Warren McCulloch & Walter Pitts, A Logical Calculus of Ideas Immanent in Nervous Activity, 1943, Bulletin of Mathematical Biophysics 5:115-133.
[2] Marvin Minsky, Seymour Papert, Perceptrons : An Introduction to Computational Geometry, MIT Press, 1969, 268 p.
[3] http://image-net.org/challenges/LSVRC/2012/supervision.pdf
[4] L’IA va-t-elle rester impénétrable ?
[5] Can we open the black box of AI
[6] machine learning works great… mathematicians just dont know why ?
[7] IA les geants du web lancent un partenariat sur l’ethique
[8] Des scientifiques americains s’inquietent de l’evolution de l’intelligence artificielle