L’avènement du « travail numérique »
En avril 2025, Microsoft publiait son Work Trend Index 2025, que 82 % des dirigeants comptent déployer du « travail numérique » (agents IA) pour accroître leurs capacités dans les 12–18 mois à venir, il ne s’agit pas d’un simple chiffre : c’est un signal que l’IA va bientôt saturer tous les étages de nos organisations.
Derrière ce mouvement se dessine la trajectoire Microsoft décrivant l’émergence de la « Frontier Firm » en 3 phases :
- D’abord, l’assistant IA comme copilote individuel, digérant de plus en plus de taches pour soulager l’employé.
- Ensuite, des agents numériques intégrés aux équipes, assumant des tâches spécialisées sous supervision humaine. Le fameux « collaborateur augmenté » comme j’ai déjà pu entendre.
- Enfin, des processus confiés en quasi-autonomie aux agents, avec des humains n’intervenant qu’en cas d’exception.
Ce que nous dit Microsoft c’est qu’à chaque étape, la peur d’être « dépouillé » de sa propre fonction grandit (ils avancent que 80 % des collaborateurs avouent manquer de temps ou d’énergie pour accomplir leurs missions.
Tandis que 53 % des dirigeants reconnaissent que leur productivité doit encore augmenter impérativement.
Alors ? Que nous inspire ce constat de Microsoft ?
Choc et mobilisation (leçons de Kotter)
Sans un véritable élan, l’IA se transforme en épée de Damoclès plutôt qu’en levier : John Kotter, connu et reconnu pour ses travaux sur le Leadership et le Changement, a démontré que 70 % des initiatives de transformation échouent faute d’un sentiment d’urgence suffisamment partagé (Harvard Business Review, 1995).
Dans la banque et l’assurance, l’urgence est souvent vécue comme un diktat : réglementation plus stricte (AI Act, RGPD, LCB/FT, etc…), fintechs voraces, attentes Client dopées au numérique.
Un spécialiste du changement nous recommanderait de canaliser cette pression pour construire un mouvement positif. Il nous dirait qu’il faut transformer la prise de conscience en moteur collectif :
- Confronter les équipes à la réalité et les laisser eux-mêmes faire des constats. Par exemple, leurs montrer concrètement, chiffres à l’appui, ce qu’on perd à ne pas agir (ex. : parts de marché captées par des robot-conseillers, délais de traitement explosés, …)
- Unir une coalition de « sponsors » (direction générale, DSI, métiers, conformité, RH) prête à franchir les paliers d’adoption IA et garantir une adhésion comprise et désirée.
- Générer des succès rapides : lancer des pilotes comme, par exemple, un outil de détection de fraude avec un agent IA en 30 jours, en mesurer l’impact éthique de la chose (éthique dans le cadre RSE, maintien des emplois, etc..) et communiquer sur les gains constatés.
Tout le principe de la démarche (et c’est un des principes majeurs de mon activité de Coach d’Equipe) pour tenter d’avoir l’adhésion, il ne faut pas convaincre mais expliquer.
3 avenirs contrastés
La planification de scénarios aide à explorer des futurs contrastés.
Pour nos banque et assurance, 3 trajectoires méritent d’être confrontées :
- Un rattrapage timide : L’entreprise reste figée dans la phase 1 et stagne lors de l’adoption des agents. Les équipes sont désillusionnées et craignent de perdre leur place. Les méchantes fintechs, qui pivotent plus vite que leurs ombres, émergent alors comme les nouveaux conquérants de la clientèle digitale et c’est la fin des haricots. Gros contraste mais potentiellement possible à long terme.
- Une accélération maîtrisée : Les phases 1 à 3 sont pilotées de manière agile (« Test and Learn ») avec un comité IA, des indicateurs pertinents et un programme de formation continue. Les agents IA deviennent alors des alliés de chaque ligne métier et la conduite du changement fait que la fameuse adhésion dont nous parlions arrive à se faire. Conclusion : délais de traitement des dossiers réduits, satisfaction client renforcée, satisfaction salarié grandissant par un accompagnement et un changement de la pénibilité de certains postes, tout en maintenant la confiance réglementaire.
OK, vous allez me dire « on prend le scénario 2, tout est bien qui fini bien et il faut juste conduire le changement. Merci pour la leçon » .
En effet, mais c’est à partir du 2e scénario que je vais vous en pondre un 3e. Ma fille pourrait vous le nommer « la prise de confiance » !
J’intègre la fameuse phase 4 dont personne ne voudra vous parler. Celle que tous les GAFAM / NATU / BATIX (et rajoutez les lettres qui vous plairont) ont en visibilité et vont tenter d’éviter.
- La Souveraineté de l’agent :
- Au-delà des frontières de l’entreprise, des agents interconnectés de banques, d’assurances et de prestataires négocient en temps réel contrats de réassurance, ajustements de tarification ou décisions de crédit, sans intervention humaine. Un « Agent Patron » ultra-prédictif émerge : capable d’allouer les ressources financières, de piloter les fusions-acquisitions et d’anticiper les chocs économiques mieux que tout dirigeant humain — rendant alors ce dernier superflu, victime de la machine qu’il a créée.
- Et si la vision « Terminator » vous semble trop tirée par les cheveux, alors je vous propose celle du dirigeant/manager, tellement dépendant à ses prédictions IA et/ou les travaux automatisés, qu’il en devient obsolète, tout simplement parce qu’il est tellement humain avec ses faiblesses et ses faiblesses (Il n’y a pas d’erreur dans mon écrit. Plus de force.) ou qu’il ne sert pas assez la société pour laquelle il travaille, puisqu’il a des émotions, ambitions personnelles, doutes et qu’il gène l’Agent Patron par son inertie.
Ce dernier scénario critique, n’est pas signé par l’équipe de James Cameron mais est directement inspiré des travaux de Paul Schoemaker, un grand expert du Management Stratégique et de la Prise de décision.
Et l’exercice (qui peut sembler simpliste et délirant) que je viens de vous proposer est basé sur sa technique de “scenario planning”. Pour ce faire, identifiez les tendances et les incertitudes fondamentales, élaborez une série de scénarios qui permettront de compenser des erreurs décisionnelles courantes et évitez un excès de confiance et une vision étroite.
Je peux reconnaitre que cette phase 4 va loin, mais j’ai travaillé avec des tendances que j’ai identifiées et j’ai élargi ma vision d’un point de vue critique.
Les fameuses tendances sont nombreuses : des plateformes multi-agent chez de grands éditeurs, des négociations automatiques de contrats en blockchain, des oracles météo ajustant les polices d’assurance « on the fly ».
Long paragraphe pour vous laisser entrevoir que l’enjeu de l’IA est de taille.
Dans mon scénario : qui gardera les commandes lorsqu’un agent pourra arbitrer des milliards d’euros en quelques millisecondes ? Et d’autant plus si les fameux « pilotes » de la Phase 1 laissent entrevoir des millions de gains potentiels ?
Gérer la dépendance avant qu’elle ne devienne servitude
Pour éviter que l’IA ne dévore son pilote, plusieurs garde-fous sont à intégrer dans le cœur opérationnel :
- Gouvernance augmentée. Créer un conseil d’éthique IA indépendant (experts juridiques, sociologues, représentants métiers) afin de superviser les algorithmes « à haut risque » et de garantir qu’aucun agent ne franchisse les limites programmées.
- Validation systématique. Instaurer une règle : toute décision automatisée au-delà d’un seuil financier ou de risque doit être revue par un comité humain.
- Transparence et explicabilité. Former les dirigeants non seulement à utiliser l’IA, mais à comprendre ses logiques internes, afin de détecter rapidement toute dérive ou comportement anormal.
- Backcasting inversé. Organiser des ateliers où l’on imagine que l’Agent Patron a pris le pouvoir, puis travailler à rebours pour identifier les mécanismes humains et techniques qui lui rendraient l’accès impossible (kill-switch légaux, redondance de décision).
Orchestration et IA, un nouveau ballet
Au lieu de songer à contenir l’IA, il s’agit de l’orchestrer en lui associant dès sa construction des principes adaptés :
- Prototypes transparents : développer des maquettes d’agent avec modes démo (explications pas à pas des décisions) pour que les PO et les métiers comprennent exactement comment l’IA raisonne.
- Critères d’acceptation responsives : ajouter aux classiques « done » des critères IA (niveau de confiance minimal, taux d’erreurs acceptable, explicabilité minimale) qui conditionnent la mise en sprint suivant. Lors des revues de sprint, ajouter un « bilan agent » : vérifier le comportement de l’IA, signaler toute altération de performance ou d’objectifs.
- Prévoir des sprints éthiques tous les deux cycles, dédiés à la revue de conformité (RGPD, AI Act) et à l’audit interne des processus automatisés.
- Mesurer régulièrement le climat humain-IA : enquêtes de confiance, indicateurs de corrections apportées à l’IA, nombre d’interventions manuelles sur workflows automatisés.
- Plutôt que de laisser chaque équipe valide seule son agent, instaurer des revues croisées : deux équipes viennent challenger mutuellement leurs agents sur des cas d’usage réels, pour détecter biais, comportements indésirables ou angles morts.
- Créer un rôle de « Contrôleur de confiance » au sein de chaque équipe : son unique mission est d’évaluer la fiabilité de l’agent à chaque incrément, de la version bêta à la prod, en rédigeant un rapport synthétique à chaque fin de sprint.
- Inspiré du Chaos Engineering, organiser des sessions où l’on saboté délibérément des composants (jeux de données corrompus, modèles amputés, réponses hors-norme) pour tester la résilience des workflows et la capacité des équipes à détecter et corriger.
- Signer un accord formel (au niveau comex) précisant que tout agent IA aux performances critiques devra être doté d’un kill-switch opérationnel : un mécanisme simple (bouton, commande) pour stopper immédiatement l’agent en cas d’écart majeur par rapport aux objectifs métier.
La véritable urgence d’une vigilance collective
Au terme de ce parcours, il apparaît que l’introduction massive de l’IA dans les métiers de la finance et de l’assurance n’est pas une fatalité abstraite, mais une dynamique puissante qui façonne déjà nos organisations et leurs collaborateurs.
Plus qu’un défi technologique, c’est une véritable question de souveraineté qui se pose. Comment conserver l’initiative humaine à l’heure où des agents IA, conçus pour optimiser chaque micro-décision, semblent promis à devenir les nouveaux capitaines des processus stratégiques ?
Nous avons vu comment, en insufflant un sentiment d’urgence maîtrisé, en explorant des scénarios et en déployant une gouvernance hybride, il est possible de transformer la défiance en moteur de progrès et de pouvoir garder notre pouvoir de jugement humain sur cette IA surhumaine.
Mais cette trajectoire soulève désormais d’autres questionnements, au-delà du périmètre purement opérationnel :
- Quid de l’identité professionnelle ? Si l’IA assume une part croissante des tâches analytiques et décisionnelles, comment redéfinir le rôle du conseiller bancaire ou de l’expert en sinistres ?
- Quel modèle de leadership ? La cohabitation avec un Agent Patron imposera-t-elle de nouveaux styles de management, centrés sur la coordination et l’arbitrage éthique et une nouvelle forme de leadership plutôt que sur la simple prise de décision ?
- Comment repenser la formation continue ? Au-delà des compétences techniques, il faudra développer une littératie algorithmique et une capacité à naviguer dans des troublantes zones d’incertitude.
- Quelle régulation de demain ? Nos sociétés doivent-elles envisager la création d’une « Haute Autorité des IA » sectorielle, chargée de veiller à l’équilibre entre innovation, transparence et protection des acteurs ?
Autant de questions systémiques qui vont en amener d’autre et qui appellent à une réflexion collective et pluridisciplinaire.
La réussite de cette nouvelle transition ne repose pas seulement sur la robustesse des algorithmes ou la fermeté des garde-fous, mais sur notre aptitude à inventer une nouvelle architecture sociale du travail, où l’intelligence artificielle et l’intelligence humaine cohabitent et se renforcent mutuellement. C’est à cette condition que les entreprises pourront non seulement préserver leur pertinence économique, mais aussi réaffirmer leur rôle de garants de confiance dans un monde encore plus gouverné par la donnée et les algorithmes.