PARIS SCIENCES & LETTRES (PSL)
Merci ! Votre abonnement a bien été enregistré !
il y a un soucis. Merci de vérifier votre saisie.

Devons-nous craindre l'intelligence artificielle?

Le développement d'une intelligence pleinement artificielle pourrait signifier la fin de la race humaine, s’est récemment inquiété le célèbre physicien britannique Stephen Hawking. D’autres offrent une vision se voulant plus optimiste, comme l’ingénieur Raymond Kurzweil qui assure que nous pourrons bientôt télécharger nos consciences sur des machines. C’est cette rupture brutale censée transformer l’humanité, qualifiée de “Singularité technologique”, que réfute le chercheur Jean-Gabriel Ganascia dans son livre Le Mythe de la Singularité (Seuil, 2017). Selon lui, s’il y a lieu de s’inquiéter de l’intelligence artificielle, ce n’est pas à cause des dangers qu’elle fait prétendument courir à l’humanité mais plutôt en raison de ses applications actuelles dans nos sociétés.

Tuesday
6
June 2017
read in english
read in english
Lire le résumé

Paris Innovation Review  Dans votre livre Le Mythe de la Singularité, vous faites la distinction entre l’intelligence artificielle en tant que discipline scientifique et l’intelligence artificielle forte sur laquelle se basent les avocats de la Singularité technologique. En quoi cette différence est-elle importante ?

Jean-Gabriel Ganascia — Le terme d’intelligence artificielle a été introduit en 1955 par des scientifiques qui souhaitaient utiliser ces machines tout à fait extraordinaires pour l’époque qu’étaient les ordinateurs — le premier ordinateur électronique a été construit en 1946 — pour comprendre l’intelligence. Il s’agissait de décomposer l’intelligence en processus élémentaires et de simuler chacun d’eux sur une machine. L’horizon de cette discipline est donc la simulation de toutes les fonctions cognitives avec deux objectifs : mieux comprendre l’intelligence et utiliser ces fonctionnalités simulées sur des machines pour des applications pratiques (reconnaissance des visages, reconnaissance des formes en général, compréhension du langage, démonstration automatique de théorèmes, simulation du raisonnement, etc.). Cette discipline scientifique n’a pas pour objectif de reconstituer une entité qui serait intelligente.

À l’inverse, l’intelligence artificielle forte est une approche philosophique qui envisage la fabrication d’une entité qui serait mue par une intelligence. Cela fait écho à une idée ancienne dans l’imaginaire humain selon laquelle on pourrait reproduire par le savoir une espèce de double de nous-même, soit positif puisqu’il pourrait nous aider, soit maléfique s’il venait à nous remplacer.

L’intelligence artificielle forte n’a donc aucun fondement scientifique ?

C’est ce que je défends. Les arguments déployés pour justifier l’intelligence artificielle forte se nourrissent de la science-fiction et sont fallacieux. Les tenants de la Singularité technologique se basent sur la loi de Moore, dont la validité à terme peut être mise en doute, et sur une forme hyperbolique d’apprentissage automatique qui n’existe pas. Ils prétendent que cet apprentissage va rendre les machines autonomes, pas seulement au sens technologique mais aussi au sens philosophique, c’est-à-dire qu’elles seront dotées de la capacité de choisir leurs propres objectifs en fonction de leurs propres intérêts. Ils laissent donc entendre que l’autonomie technologique mènerait à une autonomie philosophique et que les robots auraient tout d’un coup une volonté propre dissociée de la nôtre. Je suis un scientifique donc je ne dis pas que c’est impossible. Mais l’évolution actuelle des techniques ne permet pas d’imaginer ce genre de développement.

Ne confond-t-on pas parfois l’intelligence avec la conscience ?

Tout à fait. La conscience est une notion complexe, que l’on peut envisager sous au moins trois aspects. Premièrement, une personne consciente est quelqu’un doué d’intention. Il y a des machines auxquelles on attribue, par une sorte de projection, une intention. Ce sont des systèmes dits intentionnels. C’est utilisé en intelligence artificielle pour les interfaces de machines : on essaye de leur donner non pas des émotions mais tous les traits extérieurs qui font que leur comportement mime celui d’une entité qui serait affectée par ces émotions. C’est l’affective computing.

Deuxièmement, quelqu’un qui est conscient est capable de se voir lui-même, de se représenter en train d’agir. Peut-on faire des machines douées de réflexion ? C’est moins facile mais c’est possible. Il existe des machines capables de regarder leur comportement et de s’auto-corriger. Troisièmement, être conscient signifie ressentir la douleur, avoir la sensation d’écrire, etc. Là, on est très démuni. Cet aspect fait l’objet de travaux passionnants en sciences cognitives mais reste un peu un mystère. On voit bien là que la conscience est intimement liée au vivant et aux besoins du vivant. Et ce n’est pas en augmentant les capacités de calculs des processeurs que l’on ira plus loin dans l’investigation de cette forme de conscience.

Vous réfutez d’ailleurs l’hypothèse selon laquelle la loi de Moore se poursuivrait indéfiniment. Pourquoi estimez-vous qu’elle va perdre sa validité ?

La loi de Moore est une loi d’observation selon laquelle la capacité de calcul des machines et leur capacité à stocker de l’information double à intervalles réguliers, tous les deux ans ou tous les 18 mois. C’est une loi observée depuis 1959 et formulée en 1964 par Gordon Moore, un ingénieur qui a cofondé la société Intel. Elle est liée à la miniaturisation, qui permet de doubler le nombre de composants électroniques à intervalles réguliers. Les partisans de la Singularité extrapolent à partir de cette loi alors que dans le domaine physique, il n’y a rien d’infini. Les processeurs sont pour l’instant conçus avec les technologies du silicium. La taille des composants ne cesse de diminuer mais si on continue, à un moment donné, on va être en dessous de la molécule du silicium ! C’est ce qu’on appelle le “mur du silicium”. Certes, il est possible d’imaginer l’utilisation d’autres matériaux qui permettront de poursuivre l’amélioration du rythme de calcul des processeurs mais pour l’instant il n’y a rien de tel. Certains évoquent aussi le calcul quantique mais ce n’est pas demain qu’on aura un ordinateur quantique sur le coin de notre bureau. En l’état actuel des choses, nous n’avons donc aucune assurance de la poursuite de la loi de Moore dans les 10-15 prochaines années. Déjà en 2016 il a été observé un tassement du rythme de croissance des capacités des processeurs.

Vous pointez aussi les limites des techniques d’apprentissage automatique qui mèneraient un jour les machines à nous dépasser selon les partisans de la Singularité…

Les techniques d’apprentissage machine ont deux limites. D’une part, elles ne fonctionnent qu’avec énormément d’exemples, qui doivent être annotés. Cela coûte cher en professeurs ! Par exemple, avant qu’une machine ne puisse reconnaître un visage sur une photo, il faut lui donner des millions de visages et préciser à chaque fois l’individu dont il s’agit. La deuxième limite porte sur l’incapacité pour une machine d’apprendre d’elle-même de nouvelles notions et de nouveaux concepts pour restructurer l’ensemble des connaissances à partir desquelles elle se représente le monde. C’est ainsi que la connaissance humaine a évolué, grâce à de grandes ruptures au moment des révolutions scientifiques. Mais pour l’instant, les machines ne peuvent pas faire de même.

Il ne s’agit pas de nier les succès de l’intelligence artificielle qui sont innombrables et liés au type de société dans laquelle nous sommes. Avec l’utilisation du web, l’ensemble de nos échanges sont numérisés. D’autre part, il y a des capteurs qui permettent de numériser tout un tas d’observations. Toute l’économie contemporaine est fondée sur l’exploitation des grandes masses de données ainsi générées. Cela occasionne le développement de systèmes de prédiction qui sont utilisés pour prendre des décisions, ce qui n’est pas sans effets secondaires pernicieux.

Alors comment encadrer cette intelligence artificielle si présente dans nos vies quotidiennes ?

Deux aspects éthiques me semblent essentiels aujourd’hui. Il y a tout d’abord la question de la responsabilité. Un dispositif qui est autonome au sens technologique, c’est-à-dire qui prend des décisions sans présence humaine, et qui apprend sur de très grandes quantités de données, peut devenir en partie imprévisible. Le Parlement européen a voté une résolution sur la personnalité juridique des robots qui, à mon sens, ne règle aucun problème. Cela peut permettre d’indemniser des victimes mais cela ne vaut que pour le civil et surtout cela conduit à faire l’économie de l’enquête. S’il y a un accident, il est important de comprendre quelles en sont les causes pour améliorer la machine et empêcher que cela ne se reproduise. Il faut par ailleurs pouvoir limiter les actions de ces systèmes afin de s’assurer qu’ils ne fassent rien qui passerait outre un certain nombre de commandements. Il faut donc faire intervenir des valeurs morales humaines dans la programmation de ces dispositifs.

Il y a ensuite le problème posé par l’utilisation massive et excessive des systèmes prédictifs dans nos sociétés. Je recommande sur ce sujet le livre de Cathy O’Neil paru en 2016, Weapons of Math Destruction. L’auteur montre que toutes ces techniques d’apprentissage automatique, qui ont des aspects très positifs, peuvent avoir un rôle extrêmement pernicieux si elles sont mal utilisées. Elle montre à quel point c’est dramatique aux États-Unis, où dans certains États ont établi les peines selon une probabilité de récidive calculée à partir d’indicateurs tout à fait discutables. Il faut que nos sociétés prennent conscience de ce que l’on ne peut pas déléguer toutes les décisions aux machines. On commet une erreur en pensant que si c’est une machine qui décide, c’est neutre.

Il y a évidemment d’autres aspects éthiques, comme celui de la protection des données personnelles. Sur cette question, on craint beaucoup la façon dont l’État central peut utiliser nos données personnelles mais il me semble que dans nos démocraties, l’État est plus protecteur qu’autre chose. En revanche, on peut s’inquiéter de l’utilisation que font de nos données certaines grandes sociétés du web.

Ces dernières sont parmi les principaux promoteurs de la Singularité technologique. Pourquoi cette attitude de “pompier pyromane” ainsi que vous la qualifiez dans votre livre ?

On peut en effet se demander pourquoi ces grandes sociétés donnent crédit à ces discours complètement fantasques. Différents facteurs entrent en considération mais je pense que le plus important est qu’elles agitent une grande frayeur pour masquer les vrais dangers. Aujourd’hui, il n’est pas question de gommer de l’information pour la soustraire aux regards comme cela a pu être le cas dans le monde stalinien mais plutôt de rajouter de l’information fausse pour détourner l’attention. Cette crainte d’avoir des machines qui prennent le pouvoir masque une réalité sociale et politique qui me semble totalement transfigurée par l’utilisation des technologies contemporaines. Le principe sur lequel se fondait l’organisation politique et en particulier la notion d’État est remis en cause par le fait qu’avec le web, il n’y a plus de coextension entre l’État et le territoire. Il me semble que ces grands acteurs du web ont des ambitions relevant de l’ordre politique et sont dans une forme de rivalité avec les États en voulant assumer un certain nombre de fonctions qui leur étaient jusqu’ici dévolues.

Jean Gabriel Ganascia
Professeur à l'université Pierre et Marie Curie, chercheur en intelligence artificielle, président du comité d'éthique du CNRS