PARIS SCIENCES & LETTRES (PSL)
Merci ! Votre abonnement a bien été enregistré !
il y a un soucis. Merci de vérifier votre saisie.

Derrière la robotique développementale, des savoirs sur l’homme et l’animal

La recherche fondamentale menée sur les embryons, les fœtus et les bébés a connu depuis quelques décennies de profonds bouleversements, faisant émerger de nouveaux modèles de développement qui mettent en avant le caractère central de l’expérience. Ces modèles sont désormais incorporés dans différents dispositifs techniques, de l’intelligence artificielle à la robotique.

Monday
12
March 2018
read in english
read in english
Lire le résumé

Paris Innovation Review – La robotique d’une part, l’informatique d’autre part, ont longtemps suivi leur voie propre, celle des machines : il y avait quelques points communs avec l’humanité, mais la robotique puisait ses modèles dans la mécanique et, tout performants qu’ils soient, les systèmes informatiques étaient eux-mêmes très rudimentaires par rapport à la pensée humaine. Il semblerait que cela soit en train d’évoluer, avec l’apprentissage machine et les réseaux neuronaux par exemple. Comment se fait cette rencontre?

François Jouen – Plusieurs évolutions sont en cours, qui n’ont pas toutes les mêmes enjeux.

La première, c’est que les connaissances issues de la biologie sont de plus en plus mobilisées en robotique, tout simplement parce que l’évolution a offert des solutions splendides à tout ce qui touche au mouvement. Des roboticiens de Boston Dynamics ont ainsi travaillé à partir de l’autruche : un animal de 150 kilos, avec deux pattes, qui peut courir à 70 km/h pendant 30 minutes, sur n’importe quel terrain. Une performance remarquable ! C’est une question de répartition des masses corporelles : ce qu’on appelle le mass spring system. Cette technique aide les roboticiens à construire un robot dans lequel il n’y aucune intelligence, et cela marche très bien.

Autre évolution en cours, le développement de l’intelligence artificielle rencontre lui aussi les solutions du monde animal en général et humain en particulier. On parle beaucoup des réseaux de neurones, en effet, mais il y a d’autres exemples. Il y a quelques années, avec mon collègue Charles Tijus, nous avons travaillé sur un système d’identification des tumeurs dans une radiographie, avec l’ambition de développer un système plus intelligent et plus performant qu’un médecin ou qu’un chercheur. Pour ce faire nous avons enregistré l’activité oculaire de radiologues en train d’examiner des clichés. Ils sont très rapides. Notre but était de comprendre comment ils lisent une image. C’est le genre de travail qui est repris dans les systèmes d’intelligence artificielle. Ce que l’on apprend aujourd’hui sur la cognition humaine vient nourrir le développement de l’intelligence artificielle, qui n’en est pas une simple copie, mais qui n’y est pas étrangère non plus.

Cela m’amène à un point fondamental, la notion d’apprentissage. Les « systèmes » des hommes et des machines ne sont pas forcément les mêmes, mais l’homme est une formidable machine à apprendre. La compréhension de ses mécanismes d’apprentissage et de ses dynamiques de développement est essentielle pour nous aider à concevoir des systèmes apprenants.

Vous avez vous-même beaucoup travaillé sur les bébés. Pouvez-vous nous expliquer comment ces travaux sont mobilisables dans un autre contexte?

Le bébé est un très bon modèle d’apprentissage, qu’on peut étudier en temps réel. Avec ma collègue Michèle Molina de l’université de Caen, nous avons passé beaucoup de temps à mesurer l’activité de la main des bébés. Nous nous sommes intéressés au réflexe de grasping, qu’on utilise en neurologie pour mesurer l’intégrité du système nerveux central. Classiquement, on explique que c’est un réflexe archaïque contrôlé par des structures sous-corticales ; un réflexe dont la disparition est liée à la mise en place d’un contrôle cortical au cours du développement. Mais si c’est un simple réflexe, c’est quelque chose qui ne peut pas servir à l’apprentissage : chaque fois que j’introduirai un objet dans la main du bébé, j’obtiendrai une réaction, et voilà tout. Or ce réflexe de grasping, on l’utilise de façon permanente, y compris quand on est corticalisé.

Voilà donc un exemple qui oblige à penser en termes de développement, et à aller voir de plus près de quoi il retourne. Nous avons donc mené une série d’expérimentations. En introduisant des objets dans la main du bébé, on peut observer précisément l’activité développée par la main. Nous avons montré que le bébé traite différemment les textures, les formes. C’est un processus activement contrôlé par le bébé. Cela lui permet de travailler avec deux mains. Alors que tout le monde pensait que ce n’était pas possible, qu’il y avait un problème de transmission entre les hémisphères cérébraux, le bébé est tout à fait capable d’explorer un objet d’une texture et un objet d’une autre texture, avec les deux mains. C’est un système très simple, qui marche bien et se prête à la modélisation.

Ces travaux développementalistes ont été repris par des équipes japonaises et européennes pour construire des mains artificielles de robots. Ce qu’on a décrit en terme de propriétés fonctionnantes d’un système humain est directement utilisé par la robotique. C’est une bonne illustration des technologies cognitives.

Précisons: quand vous avez commencé ces travaux sur le bébé, votre horizon n’était pas la robotique.

Ces travaux sur la préhension, nous les avons commencés il y a 25 ans, et notre sujet c’était le bébé, pas les robots. Mais l’utilisation de ces travaux dans un autre contexte enrichit nos recherches et ouvre des perspectives. Sur les dix dernières années, la robotique développementale a connu un grand développement et elle mobilise à la fois des disciplines comme les nôtres et d’autres comme l’informatique.

Un point de contact, c’est la modélisation. Un programme spécifique de notre laboratoire est consacré à la simulation et la modélisation du développement sensorimoteur, et ces travaux nourrissent directement la robotique.Nous avons d’ailleurs dans le laboratoire des équipes de roboticiens, qui travaillent principalement sur des dispositifs pour les personnes handicapées. Et cela nous ramène à l’idée de développement, d’apprentissage. Nos collègues roboticiens se sont rendus compte que si on part de l’état de fonctionnement d’un adulte, on va construire un robot, mais ce robot ne sera pas adaptatif. D’où l’idée d’introduire dans le robot la dimension de développement.

Nous étudions des organismes en développement, des organismes immatures, dans lesquels le cerveau est en train de se construire, en s’alimentant des expériences environnementales qui sont fournies au bébé, et nous essayons d’en déduire les lois de fonctionnement, les principes qui régissent les apprentissages, avant de réfléchir à leur intégration dans des machines.

L’idée de développement est donc centrale ici. Pour l’explorer, une question naïve: comment se développe un être humain?

C’est une question qui a reçu plusieurs réponses au cours de l’histoire. Pendant les XIXe, XXe, et jusqu’au début du XXIe siècle, on a travaillé sur des modèles comme celui de Piaget, de Wallon ou le modèle psychanalytique, qui insistaient sur la construction de la personnalité. Ce sont des modèles inspirés de la science et des technologies de l’époque, suggérant un système dont le développement répond aux lois de la thermodynamique : action-réaction, conservation des acquis, transformation des acquis, mesure d’entropie, etc. Cette conception du développement induit une fin du développement qui se traduit par un processus d’équilibration.

L’essor de la génétique a renforcé cette conception des modèles développementaux notamment par l’idée qu’on a affaire à un modèle qui répond à une dynamique linéaire, ce qui signifie qu’on aura affaire à un modèle extrêmement prédictif. Dans ce cadre, le facteur explicatif est la maturation, et la maturation est sous contrôle génétique. Donc on a un système totalement déterminé, qui va se construire via la maturation et l’expression des gènes.

Or, depuis une trentaine d’années, cette idée d’une relation univoque entre ADN, ARN, protéines, structure et fonction est battue en brèche, avec l’essor de l’épigénétique. On travaille désormais sur des modèles où le développement s’apparente à un système complexe, un jeu d’interactions.

Quand on étudie un système complexe, on s’intéresse à d’autres choses. La première est de savoir quand se produit un changement d’état. Quand un enfant marche, par exemple, le jour d’avant il ne marchait pas, et le jour d’après il marche : c’est un changement de phase extrêmement important. La recherche s’intéresse à l’émergence de ces propriétés, à ces changements de phases, et aussi à la valeur critique epsilon qui fait basculer le système d’un état à un autre.

Ces changements de phase ont lieu avant et après la naissance, et l’embryologie a beaucoup progressé ces dernières années dans la compréhension de ce qui se passe in utero, quelques jours ou quelques semaines après la conception. Vincent Fleury a ainsi publié en 2016 une étude sur les phases très précoces du développement, avant la gastrulation. Il ressort de cette étude que ce sont les forces physiques exercées sur l’embryon en construction qui vont déterminer l’expression des gènes.

Dans le labo, nous travaillons sur des modèles de cette nature : comment les expériences environnementales modifient l’expression du gène, et, de cette façon, modifient la façon dont fonctionne le système nerveux central. Nous travaillons à modéliser ces changements d’état. Plus la recherche progresse, plus on s’aperçoit que le système nerveux central joue un rôle extrêmement précoce dans le développement du fœtus. Il y a des fonctionnements corticalisés dans le cortex sensorimoteur, autour de 21-22 semaines. On se rend compte aussi que les interactions entre le système nerveux en construction et l’environnement sont précoces.

Le développement du système nerveux central se fait en plusieurs phases, avec notamment la construction du cortex (neurogenèse), puis l’établissement des connexions entre neurones (synaptogenèse).

Sur les phases extrêmement précoces, les premières étapes de division cellulaire, c’est l’environnement physique qui intervient. Ensuite, il y a un embryon de système nerveux central : ce qui nous intéresse alors, c’est la façon dont le système en construction va traiter les effets de l’environnement qui sont liés à sa propre activité. Il y a une phase du développement – qui a été décrite par Jean-Pierre Bourgeois chez le singe, en microscopie – qui est en quelque sorte « en attente d’expérience ». Pour que le développement du fœtus se fasse correctement, les expériences doivent se produire.

On s’est ainsi aperçu que beaucoup de choses se passent in utero qui relèvent déjà d’un apprentissage et vont conditionner la synaptogenèse. Pendant longtemps on parlait de 100 millions de neurones à la naissance avec à peu près 10 à 1000 connexions par neurones, mais on arrive maintenant à des billions ou des trillions de neurones chez le nouveau-né. Ces neurones constituent un tissu très souple, malléable, avec une synaptogenèse sur l’ensemble du cerveau.

Beaucoup de choses se passent in utero qui relèvent déjà d’un apprentissage.

Ce n’est pas un champ vierge, parce qu’il y a des apprentissages prénataux, qui ont pour fonction de préparer ce que vous allez faire après la naissance. Il faut insister sur cette notion d’expérience, qui est vraiment capitale ici et qui commence pendant la période embryonnaire. On peut ainsi modifier les préférences alimentaires postnatales avec des expériences prénatales. Les envies des femmes enceintes, en fait, c’est de l’épigénétique : on expose le bébé aux fraises ! À la naissance, le cortex est équipé. Il y a une période de plasticité fantastique, pendant laquelle s’opère la construction des réseaux de neurones qui vont assurer les fonctions. Par exemple le langage : à la naissance, on est sensible aux sons de toutes les langues. C’est logique, parce que le système ne sait pas si vous allez naître aux États-Unis ou à Paris. En quelques semaines, on devient sensible uniquement aux sons de la langue maternelle, ou des langues maternelles. À trois mois à peu près, le cortex est totalement structuré comme le cortex adulte, avec un traitement par l’hémisphère gauche des sons de la langue. Si vous êtes exposé à une variabilité de locuteurs, l’effet peut se produire beaucoup plus tard au niveau de l’apprentissage de l’écriture.

Les travaux de Gilbert Gottlieb sur le caneton colvert montrent que l'orientation d'un animal vers le cri de ses congénères n'est pas biologiquement déterminée. Quand il n’y a pas de variabilité dans l’apprentissage prénatal de la spécificité des cris de l’espèce, cette spécificité est perdue après la naissance. Chez le bébé humain, c’est la même chose. Quand il y a une variabilité de locuteurs, les capacités de segmentation sont meilleures dans l’apprentissage de la langue parlée (pour parler, il faut des modifications physiologiques du larynx) et cela va avoir un effet au moment de l’entrée à l’école primaire : si la segmentation de la langue parlée est meilleure, l’apprentissage de la langue écrite est meilleur.

Comment se passent ces phénomènes ? C’est un vaste domaine de recherche. Gerald Edelman a proposé des modèles sur les mécanismes de sélection des groupes neuronaux qui rend bien compte de la succession des phases. Il a décrit ces mécanismes au niveau des territoires nerveux par les modifications biochimiques. Il y a des phénomènes intéressants, par exemple sur les mécanismes d’induction cellulaire : à un moment t du développement, des cellules se mettent à répondre à un signal émis par des cellules qui peuvent être très éloignées. On sait que si ces mécanismes ne se produisent pas à un moment précis, la fonction associée ne va pas se créer. Il y a une phase du développement du cerveau qui dépend de l’expérience. 

Ce qui est intéressant, c’est que pour qu’un système de sélection puisse s’exercer – et le développement est un système de sélection –, il faut qu’il y ait de la variabilité. C’est pour ça qu’on essaye de faire entrer ces idées dans les systèmes d’apprentissage automatiques.

Un point fascinant de ces systèmes d’apprentissage automatique, et en particulier des réseaux de neurones, c’est qu’on sait les fabriquer mais on ne sait pas exactement comment ils fonctionnent. Cela les rapproche du cerveau…

Oui, et ce d’autant plus que si l’on peut repérer, quand ces réseaux fonctionnent, l’activation de telle ou telle cellule, ce n’est pas programmé, et cela n’a pas grand chose à voir avec le hardware : la cellule qui s’active pourrait être située n’importe où.

Or c’est de plus en plus ainsi que l’on se représente le fonctionnement du cerveau. Il y a quelques années encore, on insistait beaucoup sur la spécialisation des différentes aires du cerveau. C’est lié à l’histoire de la neurologie, et au fait qu’après la Première Guerre mondiale, de nombreux patients avaient subi des traumas, des perforations, etc., dont résultaient des troubles moteurs qui étaient apparentables. De là est née l’idée de fonctions assurées par des structures portées par des aires cérébrales.

Quand j’étais étudiant, on apprenait ainsi que dans le système visuel, il y avait les récepteurs, la rétine, les voies, la transmission, etc., et que tout cela arrive sur la partie occipitale du cerveau. Or les singes ont plus d’une cinquantaine d’aires visuelles, réparties sur l’ensemble du cortex, et pas uniquement dans le cortex occipital : elles sont aussi dans le pariétal, dans le frontal, etc.

Dès les années 1980-90, Tania Singer a publié des travaux expliquant qu’on a bien des aires cérébrales, mais que de nombreuses fonctions sont assurées par plusieurs aires. On peut également avoir une redistribution des capacités si une zone a été endommagée – cette plasticité a été mise en évidence par de nombreux travaux.

Mais il y a plus. Une équipe de Parme a réalisé des travaux sur l’imagerie motrice et les neurones miroirs. Grâce à ces travaux, on sait qu’il y a entre le pariétal et le cortex moteur des connexions, qui sont des raccourcis très ingénieux du point de vue adaptatif. Dans le pariétal, qui est normalement un cortex d’intégration sensoriel, on a des neurones moteurs. Et dans le moteur ou le pré-moteur, on trouve des neurones sensoriels.

Tous ces éléments suggèrent un système massivement parallèle et distribué.

Nous retombons sur ce que nous disions tout à l’heure : l’embryogenèse amène à la construction du cortex, partagé par l’ensemble des membres d’une espèce, mais les structures du cortex vont être modifiées par la synaptogenèse.

Je vais vous donner un exemple de cette modification. En 1966, une équipe belge s’était intéressée au problème de la localisation auditive chez le bébé, et on avait eu la première démonstration que les bébés orientaient la tête dès la naissance. L’équipe belge a placé des bébés devant un écran semi-circulaire vide, derrière lequel il y avait des haut-parleurs, soit devant le bébé, soit à droite, soit à gauche, et qui diffusaient une voix de synthèse qui disaient « bébé, bébé ». Lorsque le son est à droite ou à gauche, la réponse est extrêmement complexe : une orientation de l’œil en direction de la source sonore, une rotation de la tête, mais aussi une déformation de la bouche en direction de la source. Cet ensemble de réactions est construit sur une structure du système visuel qui s’appelle le colliculus supérieur. Le colliculus supérieur était une structure peu étudiée jusqu’à ce que Stein et Meredith s’y intéressent. C’est une structure en couches sensorielles : une couche visuelle, une couche auditive, une couche tactile. Cela vous permet d’adresser un point dans l’espace par différents systèmes sensoriels et moteurs. L’équipe belge s’est rendue compte qu’il y avait deux types de bébés : des enfants qui font une réponse complète avec asymétrie de la bouche, que le son vienne de la gauche ou de la droite, et des enfants qui ne répondaient que d’un côté, quand le son venait de la droite. Ils se sont posés beaucoup de questions. On était dans ces modèles de dépendance/indépendance cognitive à l’égard du champ, basés sur des différences génétiques – on avait pas encore le séquençage du génome pour répondre à ce type de questions. Et en fait, c’est lié au mode d’alimentation ! Quand le bébé est allaité, la mère alterne le sein gauche et le sein droit. Quand le bébé est au biberon, la majorité des mères étant droitières, elles prennent le bébé avec le bras gauche et le biberon avec la main droite. Ils ont montré que quand la mesure est faite dans les 6 heures qui suivent la naissance (à l’époque, en Belgique, on attendait 12 ou 24 heures avant de nourrir les bébés), 100% des bébés ont la réponse à gauche et à droite. Il suffit de trois repas pour que ça se construise.

La représentation spatiale du bébé se construit sur la base d’un équipement hérité, mais qui va être modulé par l’expérience directe.

Pour résumer: l’environnement conditionne l’expérience, qui conditionne elle-même le développement.

Précisément. Même la neurogenèse, qui se produit pendant la période embryonnaire, est dépendante d’expériences, avec les mécanismes d’induction cellulaire. On sait que les fœtus ont des perceptions auditives. Elles sont filtrées : si vous mettez un micro à l’intérieur du placenta – cela a été fait par Jean-Pierre Lecanuet il y a quelques années – il ne reste que des basses fréquences. Mais cela permet de maintenir une activité dans les réseaux de neurones qu’on va utiliser après la naissance. Et s’il n’y a pas cette expérience, le développement prend du retard.

Si je fais un bébé artificiel et que je coupe toutes les entrées sensorielles, ce qui est le cas du prématuré – un prématuré est placé dans un incubateur, qui est une sorte de champ de réverbération, dans lequel le son n’est pas localisable, le son tourne, contrairement à ce qui se passe dans l’utérus –, on arrive à des situations totalement conflictuelles : un enfant peut voir un soignant qui s’occupe de lui et entendre quelqu’un qui parle, sans que ce soit le soignant qui soit en train de parler. Il y a une déstructuration des mécanismes d’intégration.

Je me suis beaucoup intéressé aux interactions visuo-vestibulaires : vous êtes dans le métro, et quand une nouvelle rame arrive, vous avez la sensation que vous êtes vous-mêmes en train de vous déplacer. C’est un conflit entre les entrées visuelles et les entrées vestibulaires, qui est lié à notre équipement biologique. Cela marche aussi chez les nouveau-nés. Si on fait défiler des flux visuels à un nouveau né, il y a une réaction posturale, comme chez l’adulte, et des réponses de décision – le bébé se dit « ce n’est pas moi qui bouge, c’est l’environnement » – qui permettent d’avoir un soi situé.

Une étudiante qui a soutenu sa thèse l’an dernier à Caen a étudié les réactions d’intégration visuo-vestibulaires, donc le mécanisme intégratif, sur d’anciens prématurés testés à l’âge de trois mois, en les comparant à d’autres enfants du même âge. On observe chez le prématuré une réaction en fonction du flux, donc on pense que tout va bien. Mais quand on considère la « constante de temps » – une métrique de physiologiste mesurant le temps nécessaire au système pour intégrer et donner la réponse adaptée (ici : « ce n’est pas moi qui bouge, c’est l’environnement »), on trouve une différence. Chez le bébé à terme, il y a une relation inversement proportionnelle, alors que chez l’ancien prématuré, vous n’avez pas du tout cette relation. Le mécanisme d’intégration visuo-vestibulaire, qui est lié à la façon dont fonctionne le système vestibulaire pour intégrer des informations visuelles et pour les comparer, ne marche pas.

D’après certains collègues, cela pourrait être dû au fait que dans l’incubateur, les flux optiques sont arrêtés. Quand on s’approche d’un bébé qui n’est pas prématuré, on crée un flux optique. Et le traitement des flux sensoriels est une fonction fondamentale à la fois chez le nouveau-né et le fœtus. Le fœtus traite les flux sensoriels.

Pour résumer ces remarques : chez le nouveau-né, de nombreux comportements qu’on considérait comme innés ne le sont pas. Ils ont été construits auparavant. Chez le fœtus de 22 semaines, quand le pouce s’approche de la bouche, le fœtus ouvre la bouche. Si le pouce s’approche d’une autre partie du corps, le fœtus n’ouvre pas la bouche. Les travaux de Gottlieb permettent de réfléchir à ce phénomène : des systèmes sensoriels se développent alors qu’ils ne sont pas encore fonctionnels, ils doivent construire leur propre développement intra-utéral, se préparer au développement post-natal. Le système en développement va intégrer, sinon les effets de l’environnement, en tout cas ceux qui sont liés à sa propre activité. C’est déjà un apprentissage.

On essaie aujourd’hui de mettre ces modèles dans les dispositifs techniques qui ne sont plus de simples systèmes à l’équilibre, mais des systèmes apprenants.

Toutes ces découvertes ont des conséquences pour notre système de représentations. Avec Michèle Molina, nous explorons l’idée qu’il n’y a pas de rupture liée à la naissance. Il n’y a pas de rupture épistémique : l’apprentissage commence avant la naissance et se poursuit après.

Tous ces exemples, qui pointent in utero et après la naissance le caractère central de l’expérience, contribuent à l’élaboration de nouveaux modèles de développement. Ce sont ces modèles qu’on essaie aujourd’hui de mettre dans les dispositifs techniques qui ne sont plus de simples systèmes « à l’équilibre », procédant de cette discipline de la physique qu’on appelle justement l’automatique, mais des systèmes apprenants.

Cela vaut évidemment pour l’intelligence artificielle. Le deep learning et l’informatique neuronale en offrent aujourd’hui l’illustration la plus évidente. Chacun sait désormais qu’on doit éduquer les réseaux de neurones de l’intelligence artificielle, mais on sait moins qu’ils apprennent davantage à la manière des bébés que des enfants des écoles.

La robotique est engagée sur la même voie. Un système qui apprend aura des qualités qui dépassent celles d’un simple automate. Le bébé qui apprend à marcher n’est pas qu’une source d’inspiration : c’est une réserve de connaissances dont nous sommes loin d’avoir épuisé le potentiel. Nous commençons à peine.

François Jouen
Directeur d’études, Laboratoire Cognitions humaine et artificielle, EPHE - PSL