Il y a un réflexe que je croise souvent dans mes accompagnements. Une équipe ralentit. Un service grince. Une chaîne de décision se complique. La qualité devient irrégulière. Les retards s’installent. Les tensions montent. Et, très vite, le même mouvement se produit : on cherche l’outil.
- Un outil pour “rattraper”.
- Un outil pour “fluidifier”.
- Un outil pour “réparer”.
Un outil pour “automatiser ce qui dysfonctionne”. Pendant longtemps, l’outil miracle a changé de nom : ERP, CRM, lean, ticketing, RPA… Aujourd’hui, l’outil miracle s’appelle Intelligence Artificielle.
Et je comprends la tentation. L’IA impressionne. Elle écrit vite. Elle synthétise proprement. Elle propose des plans. Elle répond avec assurance. Elle donne l’impression de remettre de l’ordre. Comme si la confusion n’était qu’un défaut de mise en forme. Comme si un système humain pouvait être corrigé en appliquant une couche de technologie. Sauf que l’IA n’est pas un correctif. L’IA est un multiplicateur. Et un multiplicateur ne “répare” rien : il amplifie ce qui est déjà là.
C’est précisément ce qui m’a frappé ces derniers mois, à la lecture des prises de position de deux figures qui, chacune à leur manière, racontent la même histoire : l’IA est un partenaire de l’intelligence humaine… mais elle n’excuse pas l’absence de système. D’un côté, Hosni Zaouali (Hoss), CEO de Voilà Learning, Guest Lecturer à Stanford (Department of Management) qui insiste sur l’idée d’une IA au service de l’humain, amplifiant le potentiel plutôt que le substituant. De l’autre, Ethan Mollick, professeur à Wharton, qui explore avec rigueur ce que l’IA change réellement dans le travail : la nature de l’expertise, la manière d’apprendre, les nouveaux risques, et la façon dont l’organisation doit se reconfigurer.
À force de croiser leurs idées avec ce que j’observe sur le terrain, une conviction s’est solidifiée : L’IA ne doit pas servir à compenser la médiocrité. Elle doit servir à propulser l’excellence. Et cela a une conséquence très directe : l’intégration de l’IA n’est pas d’abord une aventure technique. C’est une transformation d’organisation.
Le piège : automatiser des défaillances au lieu de soigner un système
Prenons un cas presque caricatural… Une entreprise juge son service client “médiocre” : délais longs, réponses inadaptées, escalades mal gérées, irritants répétés. La décision tombe : “On va remplacer le niveau 1 par une IA conversationnelle. Ça ira plus vite. Et ça coûtera moins cher.” Dans certains déploiements orientés “remplacement”, on observe des chutes nettes de satisfaction. Hosni mentionne un exemple à -40%. Et ce type de résultat n’a rien de mystérieux. L’erreur est dans le diagnostic.
Le service n’était pas médiocre parce qu’il était lent. Il était médiocre parce qu’il était à côté du besoin : manque de pertinence, absence d’écoute, réponses génériques, parcours client incompris, connaissance interne éparpillée, zones grises non traitées. Bref : un système qui ne sait pas produire de la qualité de façon régulière. Et que fait l’IA, dans ce cas ? Elle automatise. Elle accélère. Elle standardise. Elle industrialise. Elle répond plus vite, certes. Mais elle répond à côté plus vite. À grande échelle.
L’entreprise voulait résoudre un problème humain par une machine. Elle a simplement transformé un dysfonctionnement en process industriel. Elle n’a pas corrigé la source : elle a multiplié l’effet. C’est là qu’une phrase devient centrale, parce qu’elle dit tout : On ne doit pas automatiser l’inefficience.
Avant de “brancher” l’IA, il faut regarder le réel : cartographier le processus, clarifier les critères de qualité, comprendre les motifs de contact, identifier les cas limites, repérer les zones où l’empathie n’est pas un bonus mais une condition de réussite. Il faut parfois “réparer à la main”. Pas par nostalgie de l’humain. Mais parce qu’un système malade ne guérit pas en accélérant.
Ce que les études racontent (et ce qu’elles ne racontent pas)
À ce stade, on pourrait se contenter d’opinions. Mais les travaux récents sur l’IA au travail sont précieux : ils donnent des repères là où l’intuition est souvent trompeuse.
La frontière irrégulière : l’IA est brillante… mais pas partout
L’étude menée avec des consultants (Harvard Business School / BCG) est devenue célèbre pour une raison simple : elle montre des gains impressionnants, mais non uniformes. L’IA peut améliorer la performance sur certaines tâches… et la dégrader sur d’autres, parfois “voisines”. C’est ce que les auteurs appellent une frontière technologique irrégulière (Jagged Frontier). À l’intérieur de cette frontière, l’IA est une alliée redoutable. Hors frontière, elle devient un danger discret : elle produit du plausible, avec une forme impeccable, parfois sur des prémisses fausses.
Le vrai piège n’est donc pas “l’IA se trompe”. Le vrai piège, c’est la surconfiance. Quand une équipe n’a pas de routines de vérification, l’IA devient un générateur d’artefacts séduisants : des synthèses, des mails, des analyses… qui passent le test de la fluidité, mais pas toujours celui de la réalité. Et plus c’est fluide, plus c’est crédible.
Les équipes qui réussissent ne “croient” pas l’IA. Elles l’utilisent comme un accélérateur d’options. Elles multiplient les idées. Puis elles font ce que l’organisation doit toujours faire : arbitrer, vérifier, décider. Elles installent du human-in-the-loop non pas comme un slogan, mais comme une routine : contrôle, critique, responsabilité. Et ce point est essentiel : ici, l’expertise humaine n’est pas remplacée. Elle est repositionnée. L’expert devient éditeur. L’expert devient garant. L’expert devient celui qui sait reconnaître la frontière et savoir quand l’IA sort de route.
La diffusion de l’expertise : quand l’IA élève les novices… grâce aux meilleurs
Une autre étude majeure (Brynjolfsson, Li, Raymond, souvent citée via NBER) a analysé l’usage d’un assistant IA sur plusieurs milliers d’agents de support. Un résultat marque : les gains sont particulièrement forts pour les profils les moins expérimentés, tandis que l’impact sur les experts est plus faible en “vitesse pure”. Ce résultat est souvent mal interprété. On pourrait croire : “Donc l’expert devient inutile.” En réalité, c’est l’inverse.
L’IA fonctionne parce qu’elle capture et redistribue une partie de l’expertise tacite des meilleurs. Les réponses, les formulations, les raisonnements, les enchaînements : l’outil apprend sur ce que les experts ont produit, puis il le rend accessible aux novices. Il accélère la montée en compétence, il réduit l’écart, il évite certaines erreurs classiques. C’est un progrès immense. Et c’est aussi un piège systémique. Parce que si l’organisation, fascinée par les gains rapides des juniors, décide de remplacer ses experts coûteux par des juniors “augmentés”, elle coupe la source même de son intelligence. Les experts restent essentiels pour traiter ce que l’IA traite mal : les cas inédits, les exceptions, les situations ambiguës, les “edge cases” qui n’existent pas encore dans les données. Ce sont eux qui inventent la réponse avant qu’elle ne devienne un standard. Sans eux, le modèle s’atrophie, et l’innovation ralentit. Autrement dit : l’IA peut diffuser l’excellence… mais seulement si l’excellence continue d’exister.
L’effet “lissage” : relever le plancher peut réduire la diversité
Enfin, plusieurs travaux récents convergent sur une observation plus subtile : l’IA est très forte pour améliorer la “moyenne”, mais elle peut aussi produire un effet de standardisation. Ce n’est pas nécessairement négatif. Dans beaucoup d’organisations, standardiser certains écrits est un gain : mails plus clairs, comptes-rendus mieux structurés, réponses plus cohérentes, documents plus exploitables.
Le problème apparaît quand l’organisation confond qualité et conformité. Dans une équipe performante, on ne cherche pas seulement le “correct”. On cherche parfois le “différent”. L’angle inattendu. L’idée de rupture. La formulation qui change le problème. Le raisonnement qui ouvre une voie. Et là, un enjeu apparaît : si tout le monde s’appuie sur les mêmes modèles, les mêmes suggestions, les mêmes “bonnes pratiques”, on peut converger vers des productions plus semblables. L’IA relève le plancher… mais elle peut aussi abaisser le plafond si l’organisation n’encourage plus l’exploration et la dissonance.
Ce qui fait la différence, encore une fois, c’est l’intention humaine. Un expert ne demande pas “écris-moi un texte”. Il impose une contrainte. Il force un point de vue. Il cherche volontairement l’objection. Il demande des hypothèses opposées. Il fait sortir l’IA des sentiers battus. Et ce geste-là… n’est pas un prompt. C’est une compétence.
La vraie question : pourquoi certains déploiements créent de la valeur… et d’autres industrialisent le chaos
Si tu regardes bien, tous ces éléments racontent la même chose :
- L’IA crée de la valeur quand elle s’insère dans un système sain.
- L’IA crée du risque quand elle masque un système malade.
- L’IA crée de la performance quand elle augmente l’expertise.
- L’IA crée du bruit quand elle remplace la responsabilité.
Ce n’est donc pas une question d’outil. C’est une question d’organisation.
Et c’est ici que la posture change : intégrer l’IA, ce n’est pas “déployer une solution”. C’est rendre l’organisation capable de l’utiliser sans se tromper de combat.
Une séquence simple : Comprendre, Réparer, Augmenter
Dans mon métier de coach d’équipe (et plus largement de coach d’organisation), j’ai fini par voir une séquence qui revient presque toujours quand on veut éviter les contresens.
1) Comprendre (le diagnostic)
- Avant l’IA : comprendre ce qui dysfonctionne vraiment.
- Est-ce un problème de compétence ? de charge ? de coordination ? de priorisation ? de qualité de décision ? de flux de travail ? de dépendances ? de responsabilités floues ? d’objectifs contradictoires ?
- Si le processus est absurde, l’IA exécutera l’absurdité plus vite.
- Si la décision est confuse, l’IA produira du texte propre sur une confusion.
- Si la connaissance est éparpillée, l’IA donnera des réponses cohérentes à partir d’un contexte instable.
- C’est pour cela que je parle souvent de “dette organisationnelle” avant la dette technologique. Tant que cette dette n’est pas visible, l’IA devient un maquillage.
2) Réparer (le travail humain)
Ensuite vient le temps du management et du coaching. Rétablir des standards. Clarifier la définition de “qualité”. Réduire les zones grises. Installer des routines de revue. Recréer de la communication. Réaligner les objectifs. Donner un sens partagé. Refaire circuler l’information. Assainir le service.
On ne digitalise pas le chaos. Et ce moment est contre-intuitif pour beaucoup de dirigeants : il semble “lent” parce qu’il ne ressemble pas à un projet. Mais c’est là que se construit la condition du ROI. Sans ce socle, l’IA est une course… dans la mauvaise direction.
3) Augmenter (le levier)
Une fois le socle solide, l’IA devient pertinente, presque évidente. On l’utilise pour enlever des tâches répétitives, accélérer la préparation, structurer des informations, explorer des options, améliorer la rédaction, réduire les frictions.
Et surtout : on équipe les champions. Non pour créer une caste. Mais pour créer un effet d’entraînement. Les personnes les plus performantes sont souvent celles qui savent poser les bonnes questions, tester les hypothèses, vérifier la qualité, repérer l’erreur, explorer l’inattendu. Quand tu les augmentes, elles peuvent produire des standards, des patterns, des exemples. Elles peuvent transformer l’IA en savoir collectif. Elles peuvent, en quelque sorte, tirer l’organisation vers le haut.
Et ensuite seulement, tu élargis. En rendant visibles les bonnes pratiques. En installant des routines. En créant une culture du doute sain. En construisant un usage collectif — plutôt qu’une somme d’usages individuels.
Ce que l’IA multiplie… c’est vous
L’IA n’est pas un outil de sauvetage pour organisations défaillantes. C’est un multiplicateur de force.
- Si vous multipliez zéro par l’IA, vous obtenez toujours zéro.
- Si vous multipliez une organisation confuse par l’IA, vous obtenez une confusion plus rapide.
- Si vous multipliez l’excellence et la compétence par l’IA, vous obtenez une avance.
Et c’est là, je crois, l’essentiel pour un manager ou un CEO : Vous n’avez pas seulement besoin d’une technologie. Vous avez besoin d’une organisation capable de l’exploiter. Ce qui manque le plus, ce n’est pas un outil. C’est la capacité à diagnostiquer le réel, à assainir les routines, à clarifier les responsabilités, à installer la vérification, à protéger l’apprentissage, à transformer l’IA en valeur. C’est exactement le terrain du coaching : pas “accompagner à côté”, mais aider l’organisation à devenir capable d’apprendre et de se reconfigurer. L’IA ne vous demandera pas si vos processus sont prêts. Elle avancera. La question est simple : qu’est-ce qu’elle va amplifier chez vous