Des machines intelligentes ? 

Reconnaissance de la parole, traduction automatique, identification des personnes, détection des pannes et des fraudes, diagnostic médical, régulation de la production d’électricité, prévention de la récidive, recommandations d’achat, ciblage publicitaire et politique, pilotage des robots sur les champs de batailles et dans les usines… Autant de domaines dans lesquels l’intelligence artificielle semble rivaliser avec l’intelligence humaine et même surpasser ses performances. Le rêve prométhéen des pionniers de l’IA – dont l’ambition était dès les années 1950 de produire des machines véritablement intelligentes – est-il en train de devenir réalité ? Ce n’est pas ce que pense Daniel Andler, mathématicien et philosophe français, spécialiste des sciences cognitives, qui a fait paraître en avril dernier une somme sur la question, intitulée : Intelligence artificielle, intelligence humaine : la double énigme.

Daniel Andler | Intelligence artificielle, intelligence humaine : la double énigme . Gallimard, 434 p., 25 €

Le livre de Daniel Andler propose une analyse approfondie des multiples facettes que recouvre le terme d’intelligence artificielle tout en réduisant le flou qui l’entoure. D’emblée, il nous alerte : ce terme est trop souvent utilisé soit de façon trop lâche, comme ensemble des techniques numériques – ce qu’Andler nomme « la numérisphère » –, soit de façon trop étroite comme se réduisant au Deep Learning (ou apprentissage profond). Or, il rappelle que le terme d’intelligence artificielle désigne avant tout une discipline institutionnelle apparue dans les années 1950 et visant à fabriquer des machines « intelligentes » ou – pour reprendre le terme que l’auteur privilégie – des « systèmes artificiels intelligents » (SAI). Mais l’expression « intelligence artificielle » est avant tout trompeuse parce qu’elle donne l’impression d’une unité intrinsèque de la discipline quand celle-ci n’est qu’une « myriade de SAI spécialisés ». La première partie de l’ouvrage retrace ainsi son histoire en en explorant méticuleusement les nombreux méandres, composés de succès et de « replis » successifs. 

Daniel Andler Intelligence artificielle, intelligence humaine : la double énigme
« Sweet Dreams », de David S. Soriano. Un exercice de « Deep learning », oeuvre fabriquée par l’IA © CC BY-SA 4.0/David S. Soriano/WikiCommons

L’IA est traversée dès l’origine par une dualité, dominée initialement par un courant qui n’est plus majoritaire aujourd’hui. Ce courant est celui de l’IA dite « classique », esquissé par Turing lui-même, puis développé par le « quatuor » fondateur : Allan Newell, Herbert Simon, Marvin Minsky et John McCarthy. Il cherche à reproduire les processus intellectuels dits « supérieurs », conçus comme un système de traitement de l’information ou de manipulation de symboles. Tout raisonnement est une suite d’inférences logiques, accomplie délibérément et consciemment, que l’on peut reproduire grâce à un algorithme.  

Les modèles « classiques » ou « symboliques » excellent dans l’application des règles spécifiques qu’on leur « inculque ». En témoigne l’un des premiers grands succès de cette approche, Deep Blue, un SAI « expert », qui maîtrise les règles du jeu d’échecs et parvient à battre le champion Kasparov en 1997. Cette approche donne aussi naissance aux premiers robots « autonomes », à l’instar du robot Pathfinder qui parcourt Mars et réalise et transmet des clichés. Les premiers succès de ces systèmes experts restent néanmoins mitigés. Ces derniers sont en effet très spécialisés, réduits à évoluer dans « des micro-mondes ». Leur fiabilité disparaît aussitôt que le contexte change. Ils sont en outre très coûteux. En parallèle du courant classique et à partir des années 1970, un autre courant, au départ subalterne, se déploie : le connexionnisme ou neurocalcul. Il vise, quant à lui, à reproduire les fonctions « inférieures » de l’esprit humain, c’est-à-dire les événements cérébraux non conscients qui sous-tendent la perception (et non plus le raisonnement conscient). Ce courant développe alors des réseaux de neurones artificiels, qui peuvent être multicouches (c’est-à-dire comporter plusieurs réseaux en parallèle) et que l’on « éduque » par rétropropagation. Ces réseaux sont des machines de reconnaissance statistique. Contrairement aux systèmes experts, ils n’ont pas besoin d’être « instruits » mais peuvent être « corrigés » en modifiant les poids entre les différentes unités du réseau. 

"
Le livre de Daniel Andler constitue une plongée passionnante dans les concepts et l’histoire de l’IA qui impressionne par son sens de la pédagogie, son érudition, son souci des distinctions et sa rigueur.

Le Deep Learning remplace à partir de 2012 l’appellation « réseaux de neurones ». Au départ minoritaire, le neurocalcul connaît ainsi le succès vingt ans après les premiers systèmes experts. L’algorithme AlphaZero maîtrise, par exemple, au plus haut niveau trois jeux (le go, les échecs et le shogi) sans avoir jamais eu accès aux règles ni à l’expertise humaine (répertoires de parties, de stratégies…) : il en a découvert lui-même les règles et s’est entraîné en jouant contre lui-même. Autre prouesse étonnante : le SAI AlphaFold a « résolu » le problème de repliement des protéines ! À partir de 2017, les modèles massifs de langage (comme GPT), de traduction automatique ou de créations d’images semblent avoir franchi un cap supplémentaire, dont l’écho s’est amplifié en 2022 par l’ouverture au public des chatbots. Andler nous apprend dans le chapitre 5 que le tournant de 2017 est lié à une hybridation des deux courants (symbolisme et neurocalcul). 

Aujourd’hui, l’IA est capable de traiter un nombre astronomique de données et de résoudre un grand nombre de problèmes, dont certains semblent inaccessibles à l’être humain. Elle est aussi devenue générative, c’est-à-dire capable de créer des objets nouveaux (comme des textes, des dialogues, des images, des scénarios, des chansons, des modèles de protéines, des molécules chimiques…). Est-elle pour autant devenue vraiment intelligente ? La réponse de Daniel Andler est sans équivoque : l’IA n’est pas intelligente et ne le sera sans doute jamais. 

Au cours de l’ouvrage, il revient longuement sur les faiblesses des SAI, qui semblent persister malgré leur sophistication croissante, et ce quel que soit le courant auquel ils appartiennent. La première limite des SAI réside dans leur « cécité sémantique ». Même s’ils semblent dépasser les performances humaines dans bien des domaines, les SAI n’ont pas accès au sens des symboles qu’ils manipulent. Autrement dit, ils ne comprennent pas ce qu’ils font. Pour preuve, il apparaît très facile de les piéger, et les humains ne s’en privent pas (en particulier avec les chatbots dernier modèle) ! Il suffit de faire pivoter une image, d’ajouter un élément insolite ou sans pertinence au sein d’un texte pour engendrer des erreurs colossales.  

La seconde limite concerne leurs défaillances, aussi monumentales qu’inattendues. On peut énumérer leurs causes (comme les biais pour les modèles de Deep Learning ou leur sous-spécification. Mais elles restent imprévisibles, en raison de l’opacité des systèmes. De façon générale – Andler l’affirme à plusieurs reprises –, le fonctionnement des ordinateurs reste énigmatique. Dans le cas d’un SAI, il est très difficile de déterminer ce dont il « est capable, et pourquoi il réussit ou non à faire ce qu’on attend de lui ». Une modification minime dans une image (même impossible à détecter pour un humain) suffit à produire une erreur dans un réseau pourtant entraîné à la reconnaître. La plupart du temps, lorsqu’un SAI se trompe, on n’a donc aucune idée de la raison pour laquelle il se trompe. Il en est de même pour ses succès. Ainsi, on ignore la façon dont les SAI d’apprentissage profond s’y prennent pour constituer leur base d’exemples.  

Daniel Andler Intelligence artificielle, intelligence humaine : la double énigme
Voiture autonome Waymo © CC BY-SA 4.0/Grendelkhan/WikiCommons

La troisième limite des SAI est leur incapacité à prendre en compte la richesse du contexte. Il s’agissait déjà du défaut majeur des systèmes experts, impossibles à extrapoler en dehors de la tâche spécifique pour laquelle ils avaient été conçus. Certes, les derniers modèles massifs de langage ont fait des avancées en la matière (en incorporant des techniques d’apprentissage symboliques) mais ils restent très spécialisés. Il leur manque des éléments essentiels pour pouvoir être pleinement sensibles au contexte et capables de s’adapter à la fluctuation des circonstances, comme le sens commun, le corps, la conscience ou encore la spontanéité et l’autonomie. Les voitures autopilotées illustrent bien la limitation intrinsèque des SAI : leur développement a pris un retard important au regard des prévisions faites par leurs partisans (qui prévoyaient leur présence généralisée sur les routes dès 2020). L’engouement à leur égard s’est révélé sans fondement : elles se révèlent incapables pour l’instant de prendre en compte pleinement le contexte et d’être véritablement « autonomes ». 

"
Il y a une contradiction qui semble indépassable entre le fait d’être humain, de connaître une situation en tant qu’humain, et le fait d’être artificiel.

La première partie a déjà esquissé la diversité des liens que l’IA peut entretenir avec l’intelligence humaine, dont elle cherche à s’écarter (Minsky et McCarthy), ou qu’elle cherche à mimer (Newell et Simon) ou encore à prolonger (l’intelligence augmentée), voire à surpasser (la super intelligence ou l’intelligence générale artificielle). Toujours est-il que la notion d’intelligence humaine n’est pas sans poser de problème. Et Andler lui consacre la seconde partie de son ouvrage. S’il présente plusieurs définitions de l’intelligence, il insiste sur le fait que l’intelligence est « insaisissable et polymorphe ». Il est alors peut-être plus facile de dire ce que l’intelligence humaine n’est pas. L’intelligence humaine ne saurait se réduire à une suite d’algorithmes, ni à une machine purement statistique, inductive et prédictive. Elle n’a pas besoin d’une somme astronomique d’exemples pour construire des catégories mais fait appel dans la plupart de ses tâches à des connaissances tacites (au sens commun), à l’intuition, à la perception, à l’imagination – notions qui restent impossibles à formaliser entièrement. Les SAI sont en fait dénués de ce qui caractérise en propre l’intelligence. Produit biologique qui a évolué depuis des millions d’années, l’intelligence est aussi présente chez les êtres vivants. L’approche écologique (d’Uexküll et de Gibson) permet à Andler de mettre en évidence la notion de milieu (Umwelt) et la relation que l’organisme vivant entretient avec lui et qui produit l’intelligence. Or, il apparaît impossible que l’environnement d’un SAI devienne un véritable milieu. 

Daniel Andler propose alors cette définition de l’intelligence : manière dont un animal fait face aux situations dans lesquelles il se trouve placé à tout moment de son existence. Il mobilise une distinction éclairante entre un problème et une situation. Le SAI résout des problèmes ; l’intelligence ne fait pas que cela : elle fait face à des situations. Elle  est « la capacité d’agir au mieux dans une situation ». Un problème est posé et peut être résolu ; une situation est concrète, c’est-à-dire singulière, située dans l’espace et le temps, vécue, personnelle. Une situation peut donner lieu à un problème seulement par élimination et idéalisation. Car elle est bien plus que cela :  elle est une production conjointe des circonstances et de l’agent.  

Ainsi, l’intelligence humaine ne se ramène pas à un répertoire de facultés spécialisées, comme le laisse penser l’IA (vision qu’elle partage avec les sciences cognitives). Andler va même plus loin : il est impossible à l’IA telle qu’on la connaît d’être considérée comme intelligente. Pis, il y a une contradiction qui semble indépassable entre le fait d’être humain, de connaître une situation en tant qu’humain, et le fait d’être artificiel. En fait, cette contradiction semble concerner aussi bien l’intelligence humaine que l’intelligence animale. C’est en réalité davantage des relations entre intelligence artificielle et intelligence naturelle qu’il est question dans cette seconde partie. 

Vouloir fabriquer des machines « intelligentes » est donc selon Andler incohérent et inutile. C’est aussi dangereux. On trouve dans l’ouvrage d’Andler plusieurs motifs d’inquiétude (bien qu’ils ne soient pas tous développés de la même manière) : 

  • Les défaillances de l’IA, imprévisibles, inexplicables et désastreuses sur le plan pratique ;
  • Les créations de productions artificielles dans l’espace public qui noient les productions humaines (les fameux Deepfakes) ;
  • Les productions de contenus toxiques que l’on a du mal à éliminer ;
  • L’absence de contrôle de l’IA, due à son comportement en partie aléatoire et incompréhensible pour nous. 

Pour toutes ces raisons, Andler préconise de revenir à une conception plus modeste de l’IA. Il formule un principe général de modération : nous ne devrions recourir aux SAI que lorsque nous sommes sûrs que les avantages ou bénéfices l’emportent sur les inconvénients, risques et dangers prévisibles. L’IA doit rester ce qu’elle est et être traitée comme telle : une simple « boîte à outils qui s’inscrit dans la continuité des processus d’automatisation et d’amplification des capacités humaines ». 

Daniel Andler Intelligence artificielle, intelligence humaine : la double énigme
Un exemple de « Deepfake » : Création d’une image par l’intelligence artificielle du Pape François portant une veste d’hiver © Domaine public

Mais qu’est-ce que cela signifie concrètement ? Bien que l’on puisse regretter que ce point ne soit pas davantage développé, on trouve tout de même quelques pistes dans les toutes dernières pages du livre : il s’agirait d’utiliser des SAI « aussi simples que possible, capables de rendre le service attendu ». Il faudrait en outre « éviter de donner aux SAI un habillage humanoïde », pour ne pas entretenir l’illusion qu’ils sont des collègues et non de simples instruments. Enfin, « nous ne devrions pas pour le moment leur confier des tâches qui requièrent de la sagesse ». 

Finalement, le livre de Daniel Andler constitue une plongée passionnante dans les concepts et l’histoire de l’IA qui impressionne par son sens de la pédagogie, son érudition, son souci des distinctions et sa rigueur. Sont présentés de façon systématique arguments, contre-arguments, limites des contre-arguments (à tel point que la position de l’auteur n’est pas toujours si claire, même si la nuance du propos reste toujours très appréciable). Le livre invite à la prudence et à la modération en montrant admirablement le décalage persistant entre la fragilité de la discipline académique qu’est l’intelligence artificielle et l’enthousiasme débordant du développement industriel et médiatique actuel.