Pourquoi AlphaGo n’est pas de l’intelligence artificielle

Photo Jean-Christophe Baillie / Président et fondateur, Novaquark / March 29th, 2016

La culture est le catalyseur de l'intelligence. Une intelligence artificielle sans la capacité d'interagir culturellement ne serait rien de plus qu'une curiosité académique. Or la culture ne peut pas être codée dans une machine; elle doit être le résultat d'un processus d'apprentissage.

Préciser ce qui relève ou pas de l’intelligence artificielle (AI) est, dans une certaine mesure, une question de définition. Il est indéniable que, ces dernières années, les approches de deep learning comme AlphaGo, l’intelligence artificielle spécialiste du jeu de go qui a récemment battu le champion du monde Lee Sedol, ont réussi à résoudre des problèmes de calcul assez difficiles. Mais cela nous amènera-t-il à une AI au sens plein du terme, une machine douée d’une intelligence artificielle générale (artificial general intelligence machine, ou AGI machine) ? Pas tout à fait, et voici pourquoi.

L’une des questions-clés lors de la construction d’une AGI est qu’elle devra comprendre le monde par elle-même, développer sa propre signification interne pour tout ce qu’elle rencontrera, percevra, et fera. À défaut, vous vous retrouvez avec les programmes d’aujourd’hui, où l’essentiel du sens est fourni par le concepteur de l’application: a priori l’AI ne comprend pas ce qui se passe et elle est cantonnée à un étroit domaine d’expertise.

Le problème du sens est peut-être le problème le plus fondamental de l’AI et il n’a toujours pas été résolu. Un des premiers à l’avoir formulé fut Stevan Harnad, un spécialiste des sciences cognitives, dans un article de 1990 intitulé « The Symbol Grounding Problem » : le problème du fondement des symboles. Même si vous ne croyez pas que nous manipulons explicitement des symboles, ce qui est en effet discutable, le problème demeure : le lien de toute représentation existant à l’intérieur d’un système avec le monde réel.

Pour être plus précis, le problème du sens débouche sur quatre sous-problèmes:

1. Comment structurez-vous les informations que l’agent (humain ou AI) reçoit du monde?

2. Comment liez-vous au monde cette information structurée, ou, en prenant la définition ci-dessus, comment construisez-vous le « sens » pour l’agent?

3. Comment synchronisez-vous ce sens avec celui que perçoivent et élaborent les autres agents? (Sans quoi, il n’y a pas de communication possible et vous obtenez une forme isolée, incompréhensible, d’intelligence.)

4.  Pourquoi l’agent fera-t-il quelque chose plutôt que rien? Comment mettre tout cela en mouvement?

Le premier problème, à propos de la structuration de l’information, est très bien traité par les approches deep learning et autres algorithmes d’apprentissage non supervisé, comme celui utilisé dans le programme AlphaGo. Nous avons fait d’énormes progrès dans ce domaine, en partie grâce aux progrès récents en puissance de calcul et à l’utilisation des processeurs graphiques (Graphics Processing Unit, GPU), qui se prêtent particulièrement bien à la mise en parallèle du traitement de l’information. Ce que font ces algorithmes consiste à prendre un signal extrêmement redondant et s’exprimant dans un espace de grande dimension, pour le réduire à un signal de dimensionnalité faible, ce qui réduit la perte d’information au cours du processus. En d’autres termes, les algorithmes « capturent » ce qui est important dans le signal, du point de vue du traitement de l’information.

Le deuxième problème, sur le lien de l’information avec le monde réel et la création de « sens », est fondamentalement lié à la robotique. Parce que vous avez besoin d’un corps pour interagir avec le monde, et que vous avez besoin d’interagir avec le monde pour construire ce lien. Voilà pourquoi il n’y a pas d’AI sans robotique (même s’il peut y avoir de la très bonne robotique sans AI, mais c’est une autre histoire). Cette prise de conscience est souvent appelée, en anglais, « the embodiment problem », ce qu’on pourrait traduire par le problème de l’incorporation (l’embodiment est un concept issu de la psychologie cognitive). La plupart des chercheurs en IA conviennent à présent que l’intelligence et l’embodiment sont des questions étroitement associées. Chaque corps a une forme différente d’intelligence, ce que l’on observe très clairement dans le règne animal.

Cela commence par des choses simples : prendre conscience des différentes parties de votre corps, apprendre à les contrôler pour produire les effets désirés dans le monde que vous observez autour de vous, construire votre propre notion de l’espace, de la distance, de la couleur, etc. Cela a été étudié très précisément par des chercheurs comme J. Kevin O’Regan. Il ne s’agit cependant que d’une première étape, parce que devez ensuite construire des concepts de plus en plus abstraits, sur la base de ces structures sensorielles et motrices. Nous n’en sommes pas encore là, mais c’est l’état actuel de la recherche sur cette question.

Le troisième problème est fondamentalement la question de l’origine de la culture. Certains animaux ont développé une forme primitive de culture et même des compétences acquises qui se transmettent d’une génération à l’autre, mais cela reste très limité et seuls les humains ont atteint le seuil d’acquisition des connaissances en croissance exponentielle que nous appelons culture. La culture est le catalyseur essentiel de l’intelligence et une IA sans la capacité d’interagir culturellement ne serait rien de plus qu’une curiosité académique.

Un processus évolutif
Cependant, la culture ne peut pas être codée à la main dans une machine. Elle doit être le résultat d’un processus d’apprentissage. La meilleure façon d’essayer de comprendre ce processus est la psychologie du développement, avec les travaux de Jean Piaget et Michael Tomasello, qui ont étudié comment les enfants acquièrent des compétences culturelles. Cette approche a donné naissance à une nouvelle discipline, la « robotique développementale », qui prend l’enfant comme modèle.

550514705662144620

Cette approche est notamment illustrée par le fameux robot iCub (ci-dessus). Elle est aussi étroitement liée à l’étude de l’apprentissage des langues. Des chercheurs comme Luc Steels, parmi beaucoup d’autres, ont montré que nous pouvons voir l’acquisition du langage comme un processus évolutif : l’agent crée de nouvelles significations en interagissant avec le monde, il les utilise pour communiquer avec d’autres agents, et il sélectionne les structures les plus efficaces qui aident à communiquer (c’est-à-dire, la plupart du temps, pour obtenir des intentions communes). Après des centaines d’essais et d’erreurs – un peu comme dans l’évolution biologique – le système évolue pour aboutir au meilleur sens et à sa traduction syntaxique ou grammaticale.

Ce processus a été testé expérimentalement et il montre une ressemblance frappante avec la façon dont les langues naturelles évoluent et se développent. Fait intéressant, il rend compte de l’apprentissage instantané, quand un concept est acquis d’un seul coup – ce que les modèles statistiques comme le deep learning ne sont pas capables d’expliquer. Plusieurs laboratoires de recherche tentent maintenant d’aller plus loin dans l’acquisition de la grammaire, des gestes et des conventions culturelles plus complexes en utilisant cette approche, en particulier le AI Lab que j’ai fondé chez Aldebaran, la société de robotique française aujourd’hui intégrée au groupe Softbank et qui a créé les robots Nao, Romeo, et Pepper.

Enfin, le quatrième problème concerne ce qu’on appelle la «  motivation intrinsèque » : pourquoi l’agent fait quelque chose, plutôt que rien. Les exigences de survie ne suffisent pas à expliquer le comportement humain. Même parfaitement nourris et en sécurité, les humains ne restent pas inactifs jusqu’au retour de la faim. Ils explorent, ils essaient, et tout cela semble être entraîné par une sorte de curiosité intrinsèque. Des chercheurs comme Pierre-Yves Oudeyer ont montré que des formulations mathématiques simples de la curiosité, envisagée comme une expression de la tendance de l’agent à maximiser son rythme d’apprentissage, suffisent à rendre compte de certains comportements aussi complexes que surprenants (voir, par exemple, l’expérience Playground menée chez Sony CSL).

Il faut apparemment quelque chose de semblable au sein du système pour faire naître le désir de passer par les trois étapes précédentes : structurer les informations du monde, se connecter à son corps et créer du sens, puis sélectionner la communication la plus efficace pour créer une culture commune permettant la coopération. Tel est, à mon avis, le programme de l’AGI.

Les progrès rapides du deep learning et les récent succès de ce genre d’AI à des jeux complexes comme le go sont de très bonnes nouvelles, qui pourraient conduire à de nombreuses applications très utiles dans la recherche médicale, l’industrie, ou encore la préservation de l’environnement. Mais cela ne représente qu’une partie du problème. Je ne crois pas le deep learning soit la baguette magique qui nous offrira une véritable AI, dans le sens d’une machine capable d’apprendre à vivre dans le monde, à interagir naturellement avec nous, à comprendre en profondeur la complexité de nos émotions et de nos préjugés culturels, et finalement à nous aider à rendre le monde meilleur.

Note des éditeurs. Cet article est paru dans notre édition chinoise, publiée conjointement avec l’université Jiaotong de Shanghai, SJTU ParisTech Review.

References

Online

More on paristech review

By the author

  • Pourquoi AlphaGo n’est pas de l’intelligence artificielleon March 29th, 2016

www.paristechreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@paristechreview.com / Landline : +33 1 44 50 32 89