L’apprentissage profond

Au cours des derniers mois, beaucoup de choses ont été dites, écrites et publiées sur l’intelligence artificielle, et dans cette masse les faits côtoient le fantasme sans qu’on sache vraiment ce qui relève de l’une ou l’autre de ces catégories. C’est pourquoi, quitte à ne lire qu’un livre sur le sujet, autant choisir celui de Yann Le Cun, Quand la machine apprend, qui présente l’avantage certain d’être écrit par quelqu’un qui sait de quoi il parle, étant donné qu’il est le premier à avoir eu l’idée des réseaux convolutifs – l’architecture logique inspirée du fonctionnement des neurones du cerveau sur laquelle repose le deep learning, un changement de paradigme qui a permis aux IA d’atteindre les résultats que l’on constate aujourd’hui.

Yann Le Cun | Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond. Odile Jacob, 400 p., 22,90 €
Synapse stimulation pour Quand la machine apprend de Yann Le Cun
Synapse stimulation © CC BY 2.0/Michael Valenti/Flickr

Dès les premières pages de son livre, Yann Le Cun fait une mise au point : « Aujourd’hui, un système de deep learning n’est pas capable de raisonnement logique. [La machine] exécute sans avoir la moindre idée de ce qu’elle fait, et possède moins de sens commun qu’un chat de gouttière ». Il est important de le comprendre, et tout l’objet de cet ouvrage est de nous aider à saisir pourquoi cette affirmation est vraie, dans quelle mesure elle le sera à l’avenir, et de quoi l’on parle exactement lorsqu’on évoque les risques liés à « l’émergence des intelligences artificielles ». Après un résumé historique qui nous permet de suivre pas à pas l’évolution de la discipline, comment les idées sont venues aux trois ou quatre chercheurs qui ont créé celle-ci de toutes pièces, les impasses, les premiers succès, les deux longues traversées du désert, le retour en grâce et la reconnaissance actuelle, on entre dans le vif du sujet : comment ça marche ?

"
Rassurons les plus anxieux : aujourd’hui, les intelligences artificielles n’ont absolument aucune chance de prendre le contrôle de l’humanité ni de faire quoi que ce soit qui s’en approche de près ou de loin.

Autant l’annoncer d’emblée, le livre de Yann Le Cun est dense, très documenté, et même si chaque concept est expliqué avec pédagogie, il vaut mieux avoir un vernis de culture mathématique pour en tirer pleinement profit [1]. En effet, à l’inverse de la plupart des ouvrages de vulgarisation, Quand la machine apprend ne recourt aux métaphores qu’avec parcimonie ; chaque fois qu’il est possible de présenter une notion d’une façon plus scientifique, l’auteur ne s’en prive pas, et tant mieux ! Parce qu’ainsi nous sommes en mesure de comprendre comment, en pratique, la machine « voit » les données (une image, un son…), comment elle parvient à « interpréter » ce qui s’y trouve, comment on programme l’algorithme ou plutôt les algorithmes qui vont lui permettre d’apprendre à exécuter telle ou telle tâche. Outre la satisfaction intellectuelle qu’elle procure, cette compréhension du fonctionnement réel de ces IA ferme la porte à toute une série de fantasmes dérivés de 2001, l’Odyssée de l’espace, dont on saisit dès lors l’inanité intrinsèque. Rassurons les plus anxieux : aujourd’hui, les intelligences artificielles n’ont absolument aucune chance de prendre le contrôle de l’humanité ni de faire quoi que ce soit qui s’en approche de près ou de loin.

Contribuez à l’indépendance de notre espace critique

Pourquoi ? Parce qu’il leur manque une « représentation du monde », c’est-à-dire un ensemble de connaissances sous-jacentes qui nous semblent, à nous humains, tellement évidentes que nous n’avons même pas conscience de leur existence. Yann Le Cun donne un exemple très frappant de la chose dans le domaine de la compréhension du langage et de la traduction : la résolution du « schéma de Winograd ». Considérons les deux phrases suivantes : « la sculpture ne rentre pas dans la boîte parce qu’elle est trop grande » et « la sculpture ne rentre pas dans la boîte parce qu’elle est trop petite ». Dans la première, « elle » renvoie à la sculpture, et dans la seconde, à la boîte. Mais c’est votre représentation interne du monde qui vous a permis de le comprendre à la lecture, sans aucune ambiguïté. La machine, qui n’est pas dotée de ce « bon sens », n’a aucun critère pour trancher. Et il en va de même pour un milliard de choses. Quand vous lancez une balle à un enfant de huit ans, il tend le bras pour l’attraper, mais cela suppose que son cerveau est capable de prévoir la trajectoire de cette balle, c’est-à-dire de comprendre d’instinct la physique qui régit notre monde. Si la balle se mettait subitement à faire des zigzags, il serait stupéfait, parce que cela entrerait en contradiction avec sa représentation du monde. En revanche, si l’on veut enseigner à un robot à attraper une balle, il faut lui fournir les moyens de calculer la trajectoire d’un objet en fonction de son poids, des obstacles qu’il pourrait rencontrer (par exemple si vous la faites rebondir sur un mur en l’envoyant), de sa nature (une boule de pétanque ne rebondit pas comme une balle de tennis), etc. Bref, il faut fournir à la machine une représentation complète du monde si l’on veut qu’elle puisse interagir efficacement avec lui.

Illustration de synapse pour Yann Le Cun, Quand la machine apprend
Synapse (Rain drops on cobwebs) © CC BY 2.0/Mooganic/Flickr

Bien sûr, si l’on circonscrit sa sphère d’action à un environnement très délimité, on peut laisser la machine interagir avec cet environnement et apprendre d’elle-même les lois qui le régissent. C’est ce qui se produit dans le cas du jeu de go, ou des échecs. L’algorithme joue des millions de parties contre lui-même : au début, il choisit des coups au hasard, puis, au bout d’un certain nombre de millions d’essais infructueux, il apprend quelles sont les meilleures stratégies à adopter pour gagner une partie. C’est ce qu’on appelle « l’apprentissage par renforcement [2] ». Mais dans le monde réel, c’est une autre paire de manches. En effet, c’est une méthode qui ne fonctionne pas du tout dans le cas de la voiture autonome, par exemple. On ne peut pas lancer un véhicule dans les rues d’une ville et le laisser apprendre de ses erreurs jusqu’à maîtriser la conduite en milieu urbain, sous peine de provoquer les dégâts qu’on imagine. Il faut donc adopter d’autres stratégies, les chercheurs y travaillent, et, dans le cas de la conduite autonome, ils font des progrès. Il est assez probable que des véhicules autonomes puissent circuler dans quelques années. En revanche, dominer le monde et soumettre l’humanité à sa volonté reste encore loin de ce que les IA sont en mesure de faire. Pour l’instant, les chercheurs se concentrent sur des objectifs plus humbles, comme leur faire reconnaître un panneau « stop » quand il a été abîmé, ou qu’il est partiellement masqué. On est encore très loin d’une représentation globale du monde.

"
Les politiques doivent prendre le problème à bras-le-corps, et accompagner cette évolution technologique en investissant dans l’éducation, la formation continue, la recherche…

L’autre grande crainte, plus légitime, est sociale. En effet, et l’on commence déjà à le constater, des emplois qui semblaient autrefois à l’abri d’une quelconque automatisation sont à présent menacés. Le Cun aborde la question, et y répond en deux points. Premièrement, toutes les révolutions technologiques ont supprimé des emplois, certes, mais elles en ont créé d’autres. Aujourd’hui, par exemple, des millions de personnes gagnent leur vie en publiant des vidéos sur YouTube, un métier qui n’existait pas il y a vingt ans. Deuxièmement, l’argument précédent ne signifie pas qu’il faille laisser les choses suivre leur cours sans rien faire : les politiques, en particulier, doivent prendre le problème à bras-le-corps, et accompagner cette évolution technologique en investissant dans l’éducation, la formation continue, la recherche, en facilitant les passerelles entre l’université et l’industrie, etc. Il s’agit de réfléchir collectivement, en tant que société, à la façon de tirer le meilleur parti de ces gains de productivité et d’en faire un vecteur de progrès social. Par ailleurs, cette réflexion ne peut faire abstraction de l’établissement d’un cadre éthique dans lequel nos sociétés puissent se reconnaître. On comprend bien que le simple syntagme « armes autonomes » permet de lancer le débat.

Et ChatGPT, dans tout ça ? Eh bien, ce robot conversationnel, que Yann Le Cun qualifie de « bonne ingénierie […] pas révolutionnaire [3] », est davantage une mise en forme spectaculaire de certaines des idées développées par les chercheurs en matière de reconnaissance du langage que la naissance d’une intelligence non humaine et consciente. Si vous voyez un magicien tirer un lapin de son chapeau, cela n’entraîne pas nécessairement que ledit magicien a la faculté de créer des lapins à partir du néant. Quand la machine apprend permettra à chacun de s’en convaincre.


[1] En gros, il faut savoir ce qu’est une fonction et une dérivée. Des notions qu’on apprend en terminale scientifique, et que la plupart des lecteurs de ce genre de livres connaissent déjà.

[2] Cette méthode n’est pas la plus répandue en matière d’apprentissage profond. La plupart des algorithmes sont entraînés avec un « apprentissage supervisé », lequel « repose sur une architecture dont les paramètres s’ajustent progressivement pour approcher la tâche demandée ». « L’apprentissage par renforcement » consiste à entraîner la machine sans lui donner la réponse qu’on attend d’elle, mais en lui indiquant simplement si celle qu’elle fournit est correcte ou non. Dans un cas comme dans l’autre, des millions voire des milliards d’exemples (d’essais) sont nécessaires.

[3] Interview du 12 avril 2023 sur France Inter.


Cet article a été publié sur Mediapart.