PARIS SCIENCES & LETTRES (PSL)
Merci ! Votre abonnement a bien été enregistré !
il y a un soucis. Merci de vérifier votre saisie.

Transformation numérique: une question de renouvellement des métiers

Pas de travail sans outils de travail. Il est impossible de repenser et de transformer un métier (ses processus, ses indicateurs de performance, ses méthodes…) sans repenser et transformer ses outils sous-jacents. Cette dualité bien connue en sciences de gestion redevient fondamentale alors que, sous la pression créée par le big data, le focus de l’innovation s’éclipse peu à peu des produits vers les processus. Or le métier est démuni pour penser sa propre transformation à travers les données. Comment sortir de ce piège?

Monday
22
January 2018
read in english
read in english
Lire le résumé

La massification des données ouvre la voie pour un nouveau domaine de compétitivité qui, à la fois, menace les entreprises et offre un potentiel d’innovation important. Cependant, les entreprises dont le cœur du métier n’est pas les NTICS doivent entamer des programmes de transformations profondes pour valoriser leurs données afin d’obtenir un avantage concurrentiel. Depuis de nombreuses années, et à travers un réseau de partenaires industriels, le Centre de gestion scientifique mène des travaux qui cherchent, d’une part, à clarifier les clés de réussite d’une transformation par les données et l’intelligence artificielle (obstacles récurrents, facteurs d’inertie, risques...), et d’autre part, à fournir les méthodologies de transformation par l’IA et des démarches pour intégrer et industrialiser le processus de développement des modèles prédictifs. Le papier restitue la vague des big data dans son contexte historique et fait le lien avec la transformation digitale. Ensuite, il cherche à éclairer les raisons des difficultés rencontrées par de nombreuses entreprises. Puis, il avance des hypothèses explicatives qui offrent aussi l’intérêt de pointer vers les solutions possibles.

Le tsunami du big data déferle sur tous les secteurs. Alors que le concept (et ses associés tels que la nouvelle IA, les data sciences et le prédictive analytics) continue à causer à la fois l’extase et l’effroi, un nombre croissant d’experts (et de non-experts) affirment avec certitude : aucune entreprise ne sera épargnée par la révolution des données.

Soit. Cependant, de telles prophéties n’expliquent en rien comment la transformation aura lieu. Je ne suis au courant d’aucun travail qui souligne les difficultés considérables que les entreprises sont déjà en train de rencontrer dans leurs efforts de transformation digitale par l’IA et les données. Prenons, par exemple, un thème à la mode qui suscite actuellement beaucoup d’intérêt - la maintenance prédictive - et imaginons la situation dans laquelle un responsable de maintenance lambda va se retrouver face à ces turbulences. Sa fiche de poste inclut habituellement l’élaboration du planning de maintenance, suivi de l’exécution du planning, management des équipes d’intervention et gestion des aléas. Force est de constater que, dans beaucoup d’industries et d’entreprises, c’est une position loin d’être confortable, avec des urgences et des aléas difficiles à maîtriser, des effectifs et des ressources inadéquates et des outils de travail (e.g. GMAO) devenus obsolètes il y a longtemps, abandonnés au profit des simples fichiers Excel et des supports en papier.

Ces responsables se retrouvent désormais au premier rang des efforts de transformations ; ils  sont impliqués par leurs hiérarchies dans des projets de valorisation des données, sollicités par de nombreuses boites de conseil et de startups, entendent quotidiennement un vocabulaire qui n’est pas le leur (deep learning…), se sentent menacés face au risque de perte de contrôle et frustrés par l’incompréhension des autres vis à vis de leurs activités, et par leur propre incompréhension des technologies qu’ils sont censés manipuler dans un avenir proche. Peut-on parier sur leurs capacités à mener à bien cette transformation et avec grande efficacité ?

En effet, dans les deux douzaines de projets big data où j’ai été impliqué ces dernières années, j’ai pu constater un taux de mortalité très élevés. De la maintenance industrielle à la supply chain, de l’assurance au droit, de l’aéronautique au transport et mobilité, les difficultés sont les mêmes – et n’ont rien à voir avec la data science. Etant le seul élément commun à ces projets, on pourrait faire l’hypothèse que je suis le facteur explicatif de ces échecs. Dans ce qui suit, je chercherai à élaborer une hypothèse alternative.

D’où vient la difficulté?

‍Figure 1. Les vagues de compétition et de transformation industrielle

Pour comprendre la nature de la difficulté, il faudrait tout d’abord situer la vague des big data dans son contexte historique, ce que fait la Figure 1.

Tout d’abord, ce n’est pas la première vague dans le genre.

À partir des années 50 et jusqu’à la fin des années 80, une première vague de rationalisation centrée sur les statistiques et la recherche opérationnelle avait causé des mouvements très similaires à ceux qu’on observe aujourd’hui. Ainsi, dans un texte intitulé “Management in the 80s”, Leavitt et Whisler décrivent déjà l’évolution de la gestion qui fait de plus en plus usage des « techniques pour traiter de larges quantités de données » par des « modèles mathématiques et statistiques » qui permettront une « pensée d’ordre supérieure par les machines ».  Ce qui est très étonnant concernant leur texte, c’est qu’il soit écrit en 1959 ! Déjà dans les années 50, on retrouve donc exactement le même rêve : une meilleure manière de gérer grâce à des informations permettant une meilleure prise de décisions dans les opérations.

Certes, on pourrait objecter que c’est différent aujourd’hui. Mis à part la quantité et la disponibilité des données et de meilleurs systèmes et algorithmes, il y a une dimension stratégique qui s’est ajoutée entre temps. Par exemple, la certitude que la compétition va y aller force la main des dirigeants et les oblige à prendre le sujet au sérieux. Cependant, aucun de ces aspects ne pointe vers un changement de nature : le phénomène reste similaire, si ce n’est l’effet d’échelle – certes important – qui s’ajoute. Il serait donc instructif de regarder à quel point les entreprises ont pu réussir à tirer parti de la première vague pour améliorer leur compétitivité.

L’histoire nous montre que de très grands programmes de recherche ont été lancés dans l’académie et que les entreprises se sont dépêchées de monter des départements de statistiques et de recherche opérationnelle en interne, recrutant les meilleurs spécialistes de l’époque. Cependant, malgré des avancées scientifiques et techniques impressionnantes, il est apparu sur une période de 30 années qu’une grande majorité des projets de recherche opérationnelle lancés n’aboutissaient pas aux résultats escomptés. Ackoff, dans un texte qui date de 1979 - avant donc qu’on puisse accéder au management des années 80 dont rêvaient Leavit et Whisler – annonce que la « recherche opérationnelle est morte même si elle n’a pas encore été enterrée ». Le papier, qui fait partie de nombreux travaux sur la crise de la recherche opérationnelle des années 80, cite plusieurs raisons fondamentales dont la plus importante est d’ores et déjà très visible dans les projets de big data d’aujourd’hui : un décalage sévère entre la substance technique de la RO (algorithmes, critère de performance technique…) et le contexte d’appropriation et d’usage organisationnel de ces outils. À l’époque, comme aujourd’hui, les experts de big data ignorent très souvent les questions organisationnelles (même s’ils ont été recrutés par l’organisation où ils interviennent), et les entreprises n’ont pas les connaissances nécessaires pour organiser l’insertion de l’outil dans le travail de tous les jours.

‍Figure 2. La transformation digitale – des produits ou des processus?

Un dialogue de sourds s’ensuit très fréquemment de cette confrontation, où les parties engagées ne maîtrisent pas le langage, les priorités et les finalités de l’autre.

Une question de renouvellement des métiers

Dans l’industrie traditionnelle, les données sont générées par un processus métier.

Pour une entreprise, pour bien cerner les enjeux de la valorisation des données, la première chose à comprendre, c’est la nature du lien entre la proposition de valeur de celle-ci et les données qu’elle est capable de générer ; Figure 2. En effet, pour les entreprises qui se trouvent dans la partie gauche de la Figure 2, les données sont au cœur de leurs propositions de valeur : l’entreprise existe parce qu’elle a été capable de développer les compétences et les technologies nécessaires pour la valorisation de ces données – et il n’est pas question d’une transformation digitale de ces entreprises ; elles sont « nées dedans » (digital-born). Par contraste, les entreprises qui sont dans la partie droite – l’industrie traditionnelle dont la naissance ne dépendait pas des technologies de l’information – la proposition de valeur est basée le plus souvent sur des objets plus tangibles (produits, infrastructure…). Concrètement, cela implique que ni les données ni leurs traitements sont au cœur d’un produit ou de compétence clé : au mieux, c’est un produit dérivé et non pas essentiel, très souvent inexploité – correspondant à un effet secondaire ni désiré ni indésirable, ignoré dans les considérations de valeur et de compétitivité.

Ce caractère orphelin des données rend impossible qu’un datascientist soit opérationnel immédiatement et de manière indépendante de l’organisation : la détermination de la valeur de ces données (c.à.d. la cible de prédiction et les gains que cette information peut procurer) n’est pas dans son savoir, son expérience. Dans un tel processus, il sera au mieux un accompagnateur, mais pas le chef d’orchestre. Pour repérer le chef d’orchestre, il suffit de se poser la question : à qui appartient le processus qui génère ces données ?

La réponse, sans aucune exception, va pointer vers un métier.

Dualité « outil de travail » et « processus métier »

Pour avancer en évitant les pièges pourtant bien connus depuis plus d’un demi-siècle, il faudrait tout d’abord élargir le cadre restrictif qu’offre le concept de big data et considérer plutôt comme notion-clé la transformation digitale.

Du big data avec les infrastructures et les algorithmes les plus sophistiqués à la numérisation des supports papiers les plus simples, la quête est identique et elle a été la même depuis 70 ans maintenant : le renouvellement et la gestion des systèmes d’information - en tenant compte de la dualité fondamentale entre « outils » et « travail ». En effet, pas de travail sans outils de travail. Et la réorganisation du travail nécessite la reconception des outils de travail. Il est impossible de repenser et de transformer un métier (ses processus, ses indicateurs de performance, ses méthodes…) sans repenser et transformer ses outils sous-jacents. Cette dualité bien connue en sciences de gestion redevient fondamentale alors que, sous la pression créée par le big data, le focus de l’innovation s’éclipse peu à peu des produits vers les processus.

Le métier démuni et handicapé pour penser sa propre transformation à travers les données

Il n’y a que le métier qui pourrait maîtriser l’intime dualité entre les processus d’un travail et de ses outils. Il n’y a que le métier qui peut penser sa propre transformation. À noter que cette proposition est générale et s’étend au-delà de la question des données ou de l’IA. Cependant, comme on l’a vu, la puissance transformatrice des modèles formels de rationalité (l’intelligence artificielle, la recherche opérationnelle…), et de manière plus générale, des nouvelles technologies d’information et de communication ont été constantes depuis plusieurs décennies. On pourrait s’attendre donc à ce que le métier z l’habitude et qu’il dispose déjà des clés de telles transformations (méthodes, approches, expériences, bonnes pratiques, culture…).

La réalité, c’est que le métier est démuni ; il est le plus souvent incapable de concevoir la valeur de ses données, incapable aussi de mettre en place les dispositifs qui vont permettre de concevoir les outils ou les systèmes adaptés pour accéder à cette valeur, incapable de gérer une relation de type client-fournisseur pour l’implémentation de ces outils – car il ne sait pas écrire (ni penser) le cahier des charge de ces outils. En somme, le métier part avec un handicap, car il ne sait guère envisager la transformation de ses processus et outils de travail.

Une raison très fondamentale que j’ai pu observer systématiquement, c’est que les métiers sont sur-calibrés pour l’exécution (sans doute dans un souci d’efficacité). Cela fait longtemps que la reconception des processus métiers n’a pas été un enjeu. Par conséquence, et au fil du temps, l’intelligence processuelle des métiers a disparu : s’ils ont des difficultés aujourd’hui pour adopter et exploiter les nouveaux outils IA, ce n’est – en tout cas pas seulement – dû à leurs incompétences en ce qui concerne les sciences de données. C’est parce que les métiers ne maîtrisent plus la rationalité (raisonnements, modèles théoriques – voire même la raison d’être) qui a conduit aux processus qu’ils exécutent ad infinitum dans leur quotidien. À tel point qu’il devient intéressant de s’interroger sur la question suivante : lequel des deux est plus automate, l’IA moderne ou les métiers contemporains ?

Akin Kazakci
Chercheur, Centre de gestion scientifique, Mines ParisTech - PSL