Faut-il réguler l’intelligence artificielle?

Photo Jia Kai & Tao Tong / Visiting Scholar, Université de California à Davis & Cofondateur de Komolstar / May 25th, 2017

L’année 2016 a vu l’une des plus impressionnantes percées technologiques : l’intelligence artificielle du robot AlphaGo a battu le champion du monde en titre, Lee SeDol, sur un score de 4 à 1. Cette performance remarquable a été saluée comme un nouveau jalon dans le développement de l’intelligence artificielle au cours de ses plus de soixante années d’histoire. Mais l’euphorie a rapidement cédé la place aux doutes et aux inquiétudes : les robots vont-ils un jour remplacer les hommes ? L’intelligence artificielle représente-t-elle, in fine, un danger pour l’espèce humaine ? Dans une certaine mesure, ces inquiétudes sont justifiées. Ainsi, les appels au durcissement de la réglementation sur le développement de l’IA se multiplient, ce qui n’est pas sans rappeler les alertes sur la recherche génétique il y a plus d’une décennie. Toutefois, sur le fonds, il s’agit de mettre en place des réglementations efficaces, sans imposer de restrictions trop agressives sur une réalité dont la menace n’est, pour l’heure, que de l’ordre du fantasme. D’ailleurs, le dilemme sur la réglementation ne se réduit pas à un simple bilan des avantages et des inconvénients de cette technologie. Il s’agit de comprendre puis de contenir les menaces potentielles qui peuvent découler du développement de l’intelligence artificielle. Cette menace prend-elle la forme d’un « remplacement de l’être humain » ? Si une telle menace était avérée, le seul choix rationnel consisterait à interdire la R&D sur cette technologie. Cependant, est-il juste de tuer cette technologie dans l’œuf alors que des domaines aussi épineux sur le plan éthique que l’ingénierie génétique ont encore libre cours ? L’intelligence artificielle envahit déjà nos vies : elle est utilisée dans les moteurs de recherche, les réseaux sociaux et la communication des informations. Sa popularité nous incite à réévaluer les inquiétudes qu’elle suscite. Au-delà des inquiétudes, quelles menaces représente véritablement l’intelligence artificielle ? Ce n’est qu’en apportant une réponse éclairée à cette question que nous ne trouverons une réglementation juste et efficace.

En octobre 2016, Stephen Hawking a déclaré que l’intelligence artificielle pouvait détruire la culture humaine. Elle pourrait être « le meilleur mais également le pire de l’histoire de l’humanité », selon les propos tenus lors de sa conférence inaugurale au Leverhulm Center for the Future of Intelligence de l’université de Cambridge. Stephen Hawking n’en est pas à sa première mise en garde. Il a exprimé des positions similaires dans un entretien accordé à la BBC, en 2014. Par la suite, Hawking a été très actif dans la mise en œuvre des réglementations nécessaires pour encadrer la recherche sur l’IA. La création du Leverhulme Center répond en grande partie au besoin de faire face aux risques de l’IA.

Les inquiétudes suscitées par l’intelligence artificielle

Hawking n’est pas le seul à avoir exprimé son inquiétude. Elon Musk, le fondateur de Tesla et de SpaceX a alerté à de nombreuses reprises des dangers de l’IA. Dans le cadre de l’AeroAstro Centennial Symposium organisé par le MIT, il a déclaré que l’IA pouvait faire peser un grand risque sur l’existence humaine. Deux années plus tard, à la Global Code Conference, il a de nouveau prévenu que les hommes pourraient tomber sous le joug de l’intelligence artificielle. Suite à ces avertissements, 892 chercheurs en intelligence artificielle et 1445 experts ont cosigné et publié les 23 principes Asilomar de l’IA pour éviter toute dérive dans le développement et l’application de l’intelligence artificielle.

Ces inquiétudes ne proviennent pas uniquement de la perspective que l’intelligence artificielle gouverne, voire remplace, l’espèce humaine. Les détracteurs de l’IA pensent également que celle-ci détruit des emplois et aggrave les différences salariales. Selon l’historien israélien Yuval Noah, auteur d’Homo Deus: A Brief History of Tomorrow (« Homo Deus : Une brève histoire de l’avenir »), l’intelligence artificielle provoquera toute une série de problèmes sociaux et économiques, y compris du chômage de masse, et nous plongera dans une ère d’inégalités exacerbées, où des élites en petit nombre détiendront des « superpouvoirs » face à une majorité précaire.

D’un autre côté, certains pensent que ces perspectives sont bien trop pessimistes. Mark Zuckerberg a comparé l’intelligence artificielle à l’invention de l’aviation : il y a deux siècles, si nos ancêtres avaient redouté les chutes et les pannes, nous n’aurions jamais connu les avions aujourd’hui. L’histoire nous montre que toutes les technologies révolutionnaires, qu’il s’agisse d’énergie nucléaire ou d’ingénierie génétique, sont parvenues à maturité en surmontant les inquiétudes et les doutes qu’elles suscitaient initialement. Nos sociétés et notre espèce n’ont pas été précipitées dans le chaos et la destruction pour autant ! Voilà un argument raisonnable qui laisse à penser que tout le bruit autour de l’IA n’est que pure cacophonie.

Cependant, il est vrai que l’intelligence artificielle comporte également de grands risques et les législateurs doivent contrôler son développement. Les réglementations adoptées unanimement par la communauté internationale il y a une décennie ont permis de maîtriser les risques posés par l’ingénierie génétique. Après que l’OCDE ait forgé le concept de « société de la connaissance » dans les années 1960, la technologie a été reconnue comme l’un des plus importants facteurs de compétitivité nationale, au même titre que les ressources naturelles et la population. Les décideurs politiques du monde entier doivent examiner avec attention comment accompagner le développement de l’IA. Le débat actuel ne porte pas sur la pertinence des réglementations mais plutôt sur leur contenu et leur portée.

Les positions de Hawking, Musk ou Noah se contentent de dresser un portrait des menaces posées par l’IA, sans véritable justification scientifique. Impossible d’y trouver une analyse équilibrée. Or, pour apporter des propositions utiles aux décideurs politiques, nous devons tout d’abord comprendre les principes, les possibilités, la valeur potentielle et les risques de l’IA. Tel est le but de cet article.

Au cœur des algorithmes : des données et des règles

L’IA et ses algorithmes sont désormais connus par de nombreuses personnes depuis leur essor en 2016 : les recommandations de films sur Internet s’ajustent automatiquement à vos goûts ; la reconnaissance faciale dans une station de train peut automatiquement vérifier si vous disposez d’un billet valide ; vous pouvez demander une consultation médicale depuis votre smartphone ; vos informations génétiques ont été transmises au système sanitaire afin de préparer des médicaments personnalisés pour soigner votre maladie. Les moteurs de recherche, les réseaux sociaux et les logiciels de chat que nous utilisons au quotidien sont tous des manifestations de la manière dont l’IA s’infiltre dans nos vies. Mais si les appareils informatiques « consomment » de grandes quantités de données, ils fournissent également toutes sortes d’informations, de produits et de services pertinents.

Comment cela se passe-t-il ? Les algorithmes basés sur l’IA continueront-ils à croître et à s’affranchir du contrôle humain ? Examinons-les de plus près pour répondre à ces questions.

Le but de l’IA est d’atteindre une capacité de réflexion équivalente à celle d’un être humain. Pour ce faire, la machine doit pouvoir apprendre par elle-même, ce qui explique pourquoi, dans certains cas, nous assimilons le machine-learning à une intelligence artificielle. Le machine-learning est un processus par lequel une machine dotée d’un ensemble d’algorithmes et de données propose un modèle, auquel elle ajoute des jugements et des analyses. Mais l’algorithme de machine-learning est différent des algorithmes traditionnels. Par nature, un algorithme est une série de commandes exécutée par l’ordinateur. Les algorithmes conventionnels prescrivent des actions précises en fonction de conditions déterminées. Les algorithmes de machine-learning permettent aux robots de changer ces règles en fonction de l’historique des données. Prenons l’exemple de la marche : les programmeurs doivent définir chaque pas en utilisant un algorithme conventionnel. En permettant à une machine d’analyser et d’apprendre comment les êtres humains marchent, celle-ci pourra faire face par elle-même à tout scénario imprévu.

Bien évidemment, cet exemple ne décrit le machine-learning qu’à un niveau très basique. C’est seulement en examinant les procédures en profondeur que nous pourrons véritablement comprendre comment elles affecteront la société. Compte tenu des technologies existantes, les algorithmes de machine-learning peuvent être classées en 5 écoles : symbolisme, connexionnisme, évolutionnisme, analogisme et bayésianisme. Chaque école se fonde sur des logiques et des philosophies d’apprentissage différentes.

Les tenants de l’école symboliste pensent que toutes les informations peuvent être simplifiées en symboles, ce qui rend les procédures d’apprentissage aussi simples que l’induction basée sur des données et des hypothèses. À partir de données (faits) et de connaissances (hypothèses), l’école symboliste programme la machine selon une formule pour émettre des hypothèses, vérifier les données, émettre de nouvelles hypothèses et induire de nouvelles règles pour émettre des jugements dans le nouvel environnement. Sa réussite dépend de la complétude des données et de la fiabilité des conditions prédéterminées. En d’autres mots, l’absence de données ou des conditions préétablies irrationnelles, auront un impact sur le résultat de l’apprentissage. Un exemple typique est celui de la « dinde de Russell ». Après avoir été nourrie à 9 h pendant 10 jours de suite, une dinde pensera qu’elle sera nourrie à cette heure-là, tous les jours. Cependant, 10 jours est une période de temps trop courte (données incomplètes) pour arriver à une telle conclusion (émettre des règles après 10 jours d’accumulation de données = conditions préétablies non raisonnables). Et le matin du jour de Thanksgiving, la dinde sera abattue au lieu d’être nourrie.

Le problème posé par les données et les conditions préétablies n’est pas exclusif à l’école symboliste. Il s’agit d’un problème commun à toutes les écoles. Le connexionisme simule la manière dont le cerveau humain acquiert des connaissances. Il ajuste automatiquement le poids de chaque nœud par un réseau de neurones et propage des algorithmes qui reproduisent la capacité d’apprentissage. Encore une fois, le système repose fondamentalement sur la complétude des données et la fiabilité des conditions prédéfinies. L’évolutionnisme estime que l’apprentissage machine dépend des interactions et des expérimentations sur différents ensembles de règles orientés par des objectifs. Il s’agit de trouver l’ensemble de règles qui s’ajuste au mieux aux données de test : une autre preuve, s’il en fallait, de l’importance des données et des conditions prédéfinies. L’analogisme suit la même logique. Il prétend que la machine peut prendre une décision raisonnable en fonction de la similarité rencontrée avec l’analyse des données existantes. Il est juste de dire que la complétude des groupes de données et le paramétrage par défaut de la similarité des différents scénarios jouent un rôle crucial dans l’apprentissage machine. Comparé aux quatre écoles dont nous avons parlé précédemment, le bayésianisme présente moins d’exigences en termes de couverture du groupe de données, car son avantage provient de la capacité d’apprendre et d’explorer les aléas à venir. Les machines basées sur le paradigme bayésien testent l’hypothèse précédente et vérifient sa crédibilité en fonction des nouvelles données saisies. Même ainsi, le résultat est toujours soumis aux données et aux règles choisies au préalable par les machines. En d’autres termes, la complétude des données et des conditions prédéfinies sont toujours des facteurs dominants, même lorsqu’il s’agit de machines qui adoptent la manière bayésienne d’apprendre.

En fait, malgré les différences d’écoles, tous les types d’algorithmes s’organisent autour de trois axes : expression, évaluation et optimisation. En théorie, les machines ont la capacité de s’auto-améliorer à l’infini et d’accroître leur capacité d’apprentissage pour, en définitive, apprendre tout et n’importe quoi. Mais toutes les donnés, méthodes et principes utilisés dans leur évaluation sont fournis et déterminés par des êtres humains. Ainsi, il leur est impossible de remplacer les hommes, même si les machines peuvent évoluer et se complexifier au point où elles deviendront difficilement compréhensibles pour les hommes.

Règlementation sur l’intelligence artificielle: les véritables défis

Dans un entretien accordé au magazine Wired, Barack Obama notait que l’IA en était encore à ses premiers balbutiements. Ainsi, une réglementation trop stricte ne serait ni nécessaire, ni souhaitable. En revanche, il a défendu la nécessité d’augmenter les investissements en R&D pour aider le transfert entre recherche fondamentale et applicative. Ses remarques sont cohérentes avec les avis prédominants qui critiquent la faible efficacité des réglementations et l’esprit conservateur des régulateurs. Si nous partageons tout à fait ce rejet, nous croyons en revanche que le développement de l’IA doit être soumis à une réglementation. Dans leurs 23 Principes de l’intelligence artificielle, des personnalités telles que Hawking et Musk ont appelé à remettre le développement de l’IA dans le droit chemin. Nous partageons cette position dans cet article, mais pas seulement pour la raison que l’humanité sera un jour remplacée par les machines.

Pour répondre à la question du pourquoi et comment réguler l’IA, on trouvera quelques pistes dans la deuxième partie de cet essai, autour des différents concepts de machine learning. Les règles de traitement des données revêtent une importance capitale dans les algorithmes. Ainsi, la gouvernance des données se trouve au cœur de la réglementation sur l’IA.

Les données que nous fournirons aux machines détermineront leur capacité à générer des résultats d’apprentissage correspondants. D’où viennent ces données et comment les machines les utilisent-elles ? L’apport de données incomplètes conduit à des erreurs d’apprentissage, comme dans l’exemple de la dinde de Russell. Mais la collecte généralisée des données suscite également des inquiétudes quant à la protection de la vie privée et aux conflits d’intérêts. Ainsi, la réglementation sur l’utilisation des données est une condition préalable pour la mise en œuvre de la règlementation sur l’IA. Sur la base de la protection des droits de données privées, nous devrions réglementer et encourager le partage et l’application des données, pour mieux canaliser le développement de l’IA.

Nous devons également penser à qui créera les règles pour l’optimisation des machines et selon quelles procédures. L’IA véhicule de véritables menaces, même si nous avons tendance à les dramatiser excessivement, compte tenu de son stade de développement actuel. La main invisible de l’IA transforme nos vies en profondeur. Les règles d’optimisation des machines doivent être suffisamment codifiées et surveillées pour éviter les abus. Le problème est identique à celui qui entoure Facebook : comment garantir que le fil d’actualités sera objectif, sans préférence envers un groupe d’intérêts particulier ? Compte tenu du nombre croissant de personnes qui souscrivent à des nouvelles personnalisées, l’IA est désormais capable d’influencer une élection présidentielle. C’est pourquoi nous pensons que des concepts tels que la transparence et l’open source doivent être intégrés dans la mise en œuvre des réglementations sur l’IA.

L’IA a mis 60 ans à effectuer un bond en avant dans ses applications, après le développement d’Internet, du big data et du machine learning. On peut prédire sans risque qu’elle jouera un rôle encore plus important à l’avenir. Aucune raison de paniquer face à l’imminence d’un tel scénario mais nous devons exercer une vigilance accrue. La réglementation sur l’IA et l’imposition de mesures appropriées pour atteindre cet objectif doivent figurer au centre de nos programmes politiques. Dans cet article, nous espérons répondre à une inquiétude « générale » concernant l’IA par une analyse ciblée des politiques de réglementation. Un examen plus détaillé de ces politiques outrepasse la portée de cet article. Une discussion plus approfondie pourra être engagée dans des articles ultérieurs si nous devions recevoir une attention accrue de la part des chercheurs et des professionnels du secteur.

References

BOOKS
Online

More on paris innovation review

By the author

  • Faut-il réguler l’intelligence artificielle?on May 25th, 2017

www.parisinnovationreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@parisinnovationreview.com / Landline : +33 1 44 50 32 89