Espace de libertés | Février 2020 (n° 486)

Du cerveau humain à la machine


Dossier

Si l’intelligence artificielle (IA) fait partie des sujets en vogue actuellement, certains chercheurs apportent un bémol à cet engouement, jusqu’à remettre en question son existence et sa capacité à révolutionner nos sociétés. Mais la question primordiale concerne finalement son influence effective sur notre vie quotidienne et le potentiel d’autonomisation de l’IA.


Certains experts affirment que nous sommes proches de la « singularité », le moment où les machines seront devenues à ce point plus intelligentes que nous qu’elles ne chercheront plus à nous consulter, et où nous, êtres humains complètement déboussolés, leur confieront des décisions essentielles pour notre avenir. D’autres spécialistes déclarent que l’expression « intelligence artificielle » à son stade actuel d’avancement n’est rien de plus que du battage médiatique. Qui a raison, qui a tort ? S’agit-il simplement d’une de ces questions de point de vue, de « verre à moitié vide ou à moitié plein ? », selon laquelle c’est le tempérament de celui qui s’exprime, morose ou enthousiaste, qui détermine son opinion ? Pour répondre à la question, examinons les faits.

Le cerveau humain pour modèle

Et commençons avec une brève histoire de l’IA. En 1957, Frank Rosenblatt met au point sur un ordinateur IBM le premier logiciel s’efforçant de mimer un réseau de neurones tel qu’il existe dans notre cerveau. Il l’appelle « Perceptron ». Ce logiciel permet de reconnaître un objet. Après une période d’apprentissage durant laquelle la machine dit si oui ou non une image représente, par exemple, un chien, et là où on la corrige en cas d’erreur, la machine cesser de se tromper.

En 1969, Marvin Minsky, membre du petit groupe qui en 1956, au Dartmouth College, avait inventé le terme d’« intelligence artificielle », et Seymour Papert, célèbre pour avoir inventé le langage de programmation Logo permettant aux enfants de se familiariser avec l’informatique, publient conjointement le livre Perceptrons, visant à prouver que ces réseaux de neurones artificiels sont sans avenir, car incapables de faire certaines opérations élémentaires (le « ou » exclusif : soit X, soit Y, mais pas les deux). La recherche sur ces outils s’interrompt. On parlera plus tard pour cette période d’« hiver de l’IA ». En 1986, un livre intitulé Parallel Distributed Processing (Traitement distribué parallèle), publié par David Rumelhart et James McClelland, relance la recherche sur les réseaux neuronaux. Les progrès dans l’usage de ceux-ci seront désormais constants. L’IA est véritablement lancée.

02

Ne s’était-il rien passé durant l’« hiver de l’IA » ? Si, mais elle progressait dans une autre voie, appelée « symbolique », mobilisant des méthodes statistiques essentiellement, la gestion de base de données ainsi que la logique formelle : un modèle de la logique humaine qui l’assimile à un objet mathématique (un « treillis orthomodulaire »).

Telle fut la grande surprise des années 1980-1990 : que la technique qui émergerait comme la plus efficace, ce n’était pas l’une des plus pointues du point de vue mathématique, mais la simulation d’un réseau neuronal comme celui que constitue notre cerveau, c’est-à-dire la solution que la nature avait découverte avec nous, « animaux pensants », comme l’approche pertinente pour produire de l’intelligence : la capacité à résoudre des énigmes et à ne pas s’arrêter devant l’obstacle mais à inventer alors des stratégies alternatives.

État des lieux actuel

Où en sommes-nous aujourd’hui ? Nous savons désormais combiner efficacement la simulation du fonctionnement du cerveau humain (en tirant parti de la capacité de l’ordinateur à représenter des objets où un très grand nombre d’éléments sont interconnectés) et les procédures symboliques (en tirant parti de la vitesse de l’ordinateur : de l’ordre du million de fois plus rapide que le cerveau humain). La robotique nous a remplacés d’abord dans le travail de force, ensuite dans les tâches réclamant une très grande précision, éventuellement à l’échelle microscopique ; l’IA nous remplace maintenant petit à petit dans le travail intellectuel.

Les objections à l’idée même que l’on pourrait produire de l’intelligence « artificielle » tombent l’une après l’autre devant la succession de nouveaux exemples de réalisations particulièrement spectaculaires. Les progrès les plus convaincants aux yeux du grand public sont bien sûr ceux portant sur des jeux familiers. Un exemple : le poker. En janvier 2017, le programme d’IA Libratus gagnait 1,7 million de dollars (heureusement fictifs) en battant quatre champions de poker incontestés. En juillet 2019, un nouveau logiciel, appelé « Pluribus », battait cette fois les meilleurs champions de poker dans des parties à six joueurs.

Objections rejetées

Conséquence de tels succès, les objections à l’intelligence artificielle que l’on trouve aujourd’hui se sont réduites à deux. La première consiste à dire que les programmes sont spécialisés et que, par exemple, l’IA qui gagne aux échecs ne peut pas… vous servir à boire. Ce qui a conduit un ingénieur facétieux à fabriquer un robot qui vous sert du café pendant qu’il vous bat aux échecs. La réponse globale à cette objection est bien entendu l’exemple du smartphone, ce mini-ordinateur qui combine une multitude de fonctions. Et rien n’interdit évidemment de faire à l’avenir exactement la même chose avec des applications d’IA, comme le GPS aujourd’hui, qui intègre repérage, navigation, calculs de distances et de temps, et commentaire vocal.

La deuxième objection consiste à affirmer qu’il manque toujours « quelque chose d’essentiel » à la machine, dont nous disposons nous, êtres humains, et qui lui fait encore défaut ou qui lui manquera toujours à elle, par exemple, la « conscience », l’ »intuition », l’ »émotion », etc.

Pour ce qui est de la conscience, ma formation de psychanalyste m’a convaincu que la quasi-totalité des tâches intelligentes que nous effectuons ne nécessitent pas la présence d’une conscience. Elle est une instance qui me semble en fait associée au mécanisme de la mémoire, à son inscription et à la remémoration, plutôt qu’à la prise de décision, à propos de laquelle il a été prouvé dès les années 1970 que son sentiment succède à l’acte posé plutôt qu’il ne le précède, soulignant le caractère illusoire du rôle de la conscience dans la décision.

Pour ce qui est de l’intuition et de sa nécessité, le jeu de go oriental nous offre une intéressante réponse. Les revues spécialisées insistaient jusqu’en 2016 sur le fait que le nombre de combinaisons possibles sur le goban, le tablier à 361 emplacements sur lequel le jeu se déroule, dépassait la capacité de calcul d’un ordinateur. Pour gagner au go, ainsi allait la rumeur, il fallait impérativement mobiliser une qualité propre à l’humain seul : l’intuition. Or, rien n’y fit : cette année-là, l’application AlphaGo battit les champions l’un après l’autre. Les programmeurs interrogés expliquèrent qu’ils n’avaient codé nulle part de l’« intuition » : celle-ci était apparue d’elle-même, comme une conséquence de l’apprentissage, un mystère qui n’en est pas un en réalité, puisque c’est exactement de cette manière-là que l’intuition apparaît précisément chez nous.

Une dynamique d’affects

Pour ce qui est de l’émotion dont la machine aurait un besoin impératif pour devenir « vraiment » intelligente, la réponse que je peux apporter à cette objection est aisée. Il se fait en effet qu’à l’époque où j’étais chercheur en IA, de 1987 à 1990, l’originalité du logiciel Anella1 que j’avais mis au point était précisément qu’il avait pour moteur une « dynamique d’affects ». Autrement dit, que c’était l’émotion qui guidait son comportement. Le logiciel, qui répondait aux questions de son utilisateur, assemblait les mots appartenant à son vocabulaire en fonction des valeurs d’affect associées à des paires de mots. Par exemple, quand on atteignait « pomme » en provenance de « poire », « pomme » avait une certaine valeur d’affect, mais une autre si l’on avait abouti à « pomme » à partir d’« Adam ». Ces valeurs étaient définies en fonction des réponses qu’Anella avait reçues auparavant de ses interlocuteurs, en évaluant l’intérêt de la personne pour le message qu’elle lui avait fourni. C’est cela qui lui permettait de juger comme pertinentes ou non, dans le contexte d’une conversation particulière, les informations qu’elle avait stockées en mémoire. Le simple fait de donner à la machine le moyen de simuler l’émotion créait une dynamique d’apprentissage et guidait une association entre les mots prononcés qui apparaissait logique, confirmant ce que les psychologues ont pu observer : que la logique émerge spontanément des associations que nous faisons entre les mots que nous prononçons, qu’elle n’est pas la mise en œuvre d’un calcul.

Pour l’émotion comme pour l’intuition ou la conscience, certains estiment que leur présence est indispensable mais irréalisable. Et la réponse est, pour l’intuition : on l’a déjà fait ! Pour l’émotion : si, cela a déjà été fait en IA, et ce, même à la fin des années 1980 ! On n’en a pas encore trouvé l’usage, ce qui est une autre question, mais on y reviendra certainement un jour ! Quant à la conscience, même nous, humains, n’en avons pas vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir consultés !

 


1 Anella est l’acronyme d’Associative Network with Emergent Logical and Learning Abilities, c’est-à-dire « réseau associatif à propriétés émergentes de logique et d’apprentissage ».