L’Intelligence Artificielle (IA) déferle sur nos entreprises, et avec elle, une douce panique s’installe dans les étages managériaux. La promesse (ou la menace, c’est selon) d’une IA capable de trier les CV, prédire les ventes, voire de détecter les signaux de désengagement des salariés, fait frémir. La tentation est grande pour certains managers de se muer en simple surveillant de l’adoption de ces nouveaux outils. Un flicage numérique qui, soyons clairs, tue l’initiative et transforme le potentiel révolutionnaire de l’IA en un simple outil de contrôle supplémentaire. Triste perspective.
Et si la véritable révolution n’était pas l’IA technologique elle-même, mais ce qu’elle nous oblige à devenir ? Si, face à cette intelligence qui automatise, analyse et prédit, la seule issue pour le manager était de (re)devenir profondément… humain ? C’est ici qu’intervient l’autre AI, celle qui ne carbure pas aux algorithmes mais aux aspirations : l’Appreciative Inquiry.
Portrait d’une bureaucratie numérique
L’IA (Intelligence Artificielle) excelle à reproduire, optimiser, automatiser. Mais elle échoue lamentablement face à l’intuition d’un commercial qui sent le moment parfait pour conclure, la créativité d’un designer qui trouve l’angle inattendu, ou l’empathie d’un manager qui désamorce une crise d’équipe d’un simple regard. Ces talents, ces moments où l’expertise transcende la technique, constituent un rempart contre la standardisation algorithmique. L’Appreciative Inquiry (AI) offre une méthode efficace pour les identifier, les cultiver et les valoriser.
Cette démarche, née dans les années 80 grâce aux travaux de David Cooperrider, propose un renversement copernicien : au lieu de se focaliser sur les problèmes à résoudre (ce que l’IA technologique pourrait d’ailleurs faire avec une efficacité redoutable) elle nous invite à identifier, amplifier et construire sur les forces, les réussites et le “noyau positif” de l’organisation et des individus. En somme, un antidote puissant à la culture du déficit que l’IA risque d’exacerber. En effet, l’une des promesses de l’IA ? Nous permettre d’en “faire toujours plus”. En creux : “Vous n’en faites pas assez”. Assez décourageant, n’est-ce pas ? Le manager “traditionnel”, face à l’arrivée de l’IA, pourrait donc instinctivement chercher à combler les “écarts” de compétences, à s’assurer que chacun “utilise correctement” l’outil, bref, à manager la transformation comme un problème à résoudre.
L’Appreciative Inquiry (AI), elle, propose une tout autre partition. Elle invite le manager à changer de posture, à devenir un “explorateur de zones de génie”, ces talents que l’IA ne pourra jamais totalement répliquer : la créativité disruptive, l’intelligence émotionnelle, le jugement éthique en situation complexe, la capacité à générer une vision inspirante.
L’IA, ou la bureaucratie augmentée
L’intelligence artificielle, présentée comme la solution à tous les maux, agit en réalité comme un puissant accélérateur de cette dérive bureaucratique. Son appétit pour des données massives et parfaitement structurées fournit le prétexte idéal à une standardisation à outrance. Loin de libérer l’humain, l’IA perfectionne sa cage.
Quatre phénomènes l’illustrent :
- Le dogme de la donnée de qualité. Pour entraîner une IA, il faut des données “propres”. Cette exigence crée une charge de travail bureaucratique immense. Les équipes, en première ligne, passent un temps considérable à nettoyer et étiqueter des informations, souvent sans en comprendre la finalité. S’instaure alors un dialogue de sourds : le management exige des données parfaites, tandis que les équipes savent que cette perfection est un mythe. Des données incomplètes en entrée produisent des décisions absurdes en sortie, discréditant un système déjà perçu comme illégitime.
- La “boîte noire” comme autorité suprême. Un algorithme de deep learning prend des décisions sans qu’un humain puisse en expliquer le raisonnement. C’est le fantasme ultime du bureaucrate : une règle opaque, incontestable, une décision de justice sans appel. L’humain n’est plus soumis à l’arbitraire d’un manager, mais à l’infaillibilité supposée d’une machine.
- La collecte de données comme nouveau taylorisme. L’appétit de l’IA pour les données transforme des métiers intellectuels en travail à la chaîne. C’est un “taylorisme numérique” où des tâches complexes sont décomposées en micro-opérations de saisie et de validation. Le but n’est plus de réfléchir, mais d’alimenter la machine le plus efficacement possible.
- L’industrialisation des biais. Une bureaucratie est par nature conservatrice. Une IA entraînée sur les données du passé ne fait que reproduire, et amplifier, les schémas existants. L’algorithme d’octroi de crédit qui pénalise un code postal sur la base de statistiques historiques ne fait pas que se tromper ; il industrialise une discrimination, la légitimant sous le vernis de l’objectivité technologique.
Les racines de l’échec : le mirage du contrôle
Si cette bureaucratie numérique est si manifestement dysfonctionnelle, pourquoi les entreprises s’y engouffrent-elles avec une telle ferveur ? Parce qu’elle répond à une angoisse fondamentale du management moderne : le besoin de contrôle et l’aversion au risque. Un tableau de bord donne l’illusion de piloter une réalité complexe depuis un cockpit sécurisé. Une décision justifiée par “les chiffres” est une décision confortable, qui protège le décideur. “Ce n’est pas moi qui ai décidé, c’est la data”.
Cette approche se dote même de son propre langage technocratique – KPI, ROI, analytics – qui crée une nouvelle ligne de fracture entre ceux qui le maîtrisent (le management, les experts data) et ceux qui le subissent (les équipes opérationnelles). Le constat de l’échec est pourtant documenté. Quand le cabinet Gartner estime que 85% des projets Big Data échouent, il ne pointe pas une défaillance des algorithmes, mais bien l’oubli de la dimension humaine. Il certifie l’échec d’un système qui traite l’humain comme une ressource au service de la procédure, et non comme sa finalité.
Sortir de l’impasse : de l’acculturation subie à la construction partagée
Face à la résistance passive des équipes, la réponse pavlovienne des entreprises est le plan d'”acculturation”. Le terme est révélateur : il s’agit d’inculquer une culture, de la faire descendre du haut vers le bas. Dans la réalité, cela se traduit par des modules de e-learning que les salariés cliquent en faisant autre chose, ou par des séminaires animés par des consultants hors-sol. C’est une procédure de plus, un exercice de conformité qui rate sa cible car il ne donne ni le sens, ni le pouvoir d’agir.
Les organisations qui réussissent sont celles qui remplacent cette acculturation de façade par une construction partagée. L’exemple de l’escape game de Danone est parlant. Il ne s’agit pas d’une formation descendante, mais d’une expérience collaborative où les équipes s’approprient la donnée pour résoudre un problème ludique. La nuance est fondamentale : la donnée devient un allié et non une contrainte.
La solution n’est pas technologique, elle est politique et culturelle. Elle implique des actions concrètes :
- Instaurer une gouvernance réellement partagée, via des comités mixtes où les équipes métiers définissent, avec les experts data, les indicateurs qui ont du sens pour eux.
- Valoriser explicitement la connaissance de terrain, en instituant que toute décision majeure s’appuie sur des données chiffrées et sur un débriefing qualitatif avec les personnes concernées.
- Commencer par les problèmes, pas par les données. La question ne doit jamais être “que peut-on faire de ces données ?”, mais “quel est notre principal problème, et comment la donnée peut-elle nous aider à y voir plus clair ?”.
La donnée n’est qu’un outil. Le jour où elle devient une idéologie, une fin en soi, elle crée un système qui broie le sens, l’initiative et l’engagement. La vraie transformation ne consiste pas à devenir data-driven, mais à faire de la donnée un levier d’intelligence collective. Car derrière chaque dataset, il y a des femmes et des hommes. C’est peut-être cela, la seule métrique qui vaille.
