Le groupe Maersk, numéro un mondial du transport maritime, s’est longtemps demandé quel indicateur portuaire suivre en priorité. Ses responsables penchaient pour la vitesse — plus de rotations, plus de chiffre d’affaires. Ses analystes, armés d’un modèle d’IA, sont arrivés à la conclusion inverse : ralentir le rythme permet d’absorber les imprévus sans désorganiser la chaîne logistique mondiale, et améliore les performances globales du système. L’histoire, racontée par François Candelon (partner Value Creation chez Seven2) dans sa dernière chronique, illustre ce que l’IA bien outillée apporte réellement : elle ne répond pas à la question qu’on se pose — elle remet en cause la question elle-même.
Or ce type de bénéfice, à l’échelle d’une organisation, très peu d’entreprises le captent. Trois chiffres, publiés à quelques semaines d’intervalle, racontent tous la même histoire.
- 72 % des organisations mondiales ont intégré l’IA dans leurs opérations en 2024, contre 55 % trois ans plus tôt (McKinsey, State of AI early 2024). Côté TPE-PME françaises, l’adoption de l’IA générative a doublé en un an pour atteindre 31 % (baromètre France Num 2024).
- Mais selon une étude du MIT, 95 % des organisations ayant investi dans l’IA n’ont constaté aucun impact mesurable sur leurs profits. Mick Levy (Orange Business) le dit sans détour dans le dernier Courrier Cadres : 80 % des projets IA ne passent pas à l’échelle.
- Dans le même temps, l’engagement managérial s’effondre : – 9 points en trois ans au niveau mondial, et seulement 16 % de managers européens réellement engagés (Gallup).
De quoi vendre une conférence anxiogène. Mis bout à bout, ces chiffres disent pourtant quelque chose de beaucoup plus opérationnel.
Le blocage n’est plus technologique
Laure Girardot le résume dans son enquête : « C’est la culture qui est le principal blocage. » Derrière, trois frictions bien identifiées.
1. Le shadow AI et l’AI-shaming. L’IA entre dans les entreprises par les collaborateurs, en dehors de tout cadre officiel — c’est le constat du LaborIA, laboratoire de recherche-action piloté par le ministère du Travail et l’Inria. D’où un phénomène devenu banal : l’« AI-shaming », ces salariés qui utilisent ChatGPT mais n’osent pas le dire. Résultat : la capitalisation des usages réels est bloquée, et les angles morts (sécurité, fiabilité, hallucinations, biais, manque de contextualisation) restent invisibles pour la direction. À cela s’ajoute une fracture générationnelle. Comme le souligne Mick Levy, dire aujourd’hui « chez nous, pas d’IA », c’est comme dire en 2000 « chez nous, pas d’Internet ni d’Excel ». Ce qui est en jeu, ce ne sont pas seulement des outils : ce sont des mentalités, des processus et des rôles.
2. Le manager comme point aveugle. Marie Lacroix et Gaëtan de Lavilléon (cofondateurs de Cog’X, docteurs en neurosciences) démontrent que les salariés dont le manager porte activement la transformation sont près de neuf fois plus susceptibles de considérer que l’IA a changé leur façon de travailler. Sans engagement managérial, l’IA reste un levier individuel — jamais collectif. Or deux mécanismes cognitifs expliquent le décrochage silencieux des managers. Le premier est l’érosion du sentiment d’auto-efficacité : or la plupart des managers n’ont ni le temps ni les conditions pour se former à l’IA, et ce sentiment d’efficacité perçue est l’un des moteurs les plus solides de la motivation. Quand il vacille, la réponse n’est pas une résistance ouverte — c’est un retrait silencieux. Le second est le niveau de stress vécu : Gallup montre que les leaders vivent davantage de stress et de colère que les collaborateurs qu’ils encadrent. Porter une transformation qui fragilise leur propre sentiment de maîtrise devient alors le dernier des arbitrages.
3. Le pilotage absent. On déploie sans mesurer qui utilise, à quelle fréquence, pour quel usage. Chez Orange ou chez BPCE, ces indicateurs sont suivis finement — ce n’est pas du reporting pour le reporting : c’est la condition pour détecter les points de blocage, repérer les services pionniers et ajuster les actions d’accompagnement. Sans instrumentation, l’IA retombe en simple effet de mode.
Ce que ça change côté direction générale et financière
Pour un DAF — et je parle ici du terrain — cela se traduit par quatre arbitrages très concrets, qui ne relèvent plus de la seule DSI.
Un cadre souverain et sécurisé. Des plateformes maison comme Dinootoo chez Orange ou AXA Secure GPT permettent d’interroger plusieurs modèles (OpenAI, Mistral, Google…) dans un environnement maîtrisé. Ce n’est pas un gadget IT : c’est la condition pour sortir du shadow AI, respecter les régulations et protéger les données sensibles — sujet au cœur du secret des affaires et, dès août 2026, de la pleine applicabilité de l’AI Act.
Une gouvernance hybride DSI + Chief Data & AI Officer, pensée pour aligner cas d’usage, RH, enjeux éthiques et performance métier. François Candelon le démontre sur les KPI : les entreprises qui utilisent l’IA pour hiérarchiser leurs indicateurs constatent une meilleure coordination inter-métiers. Pernod Ricard a su concilier marge et parts de marché — objectifs longtemps cloisonnés entre la finance et le marketing. Sanofi, avec son application Plai, a fait la démonstration qu’un outil partageant les KPI entre toutes les équipes multiplie par cinq l’alignement et par trois la capacité à réagir avec agilité.
Une intégration dans les référentiels de performance. L’IA doit figurer dans les fiches de poste, comme la maîtrise du pack Office en son temps. Et plus fort : dans les variables de performance de certaines fonctions. Sans cela, elle reste une compétence « en prime » — pas un levier stratégique.
Un dialogue social assumé. Mick Levy insiste sur ce point trop souvent esquivé : « Les syndicats ont un rôle d’animation à jouer, pas de barrage. » La MAIF a par exemple ouvert une consultation interne sur l’usage de l’IA — peu importe la perfection des résultats, c’est la démarche collaborative qui construit l’appropriation.
Ce que ça change côté manager
C’est probablement le sujet le plus inconfortable. Former les managers à utiliser l’IA ne suffit pas — cela revient à leur demander de produire mieux avec moins. Il faut les former à réorganiser le travail collectif autour de l’IA : réallouer le temps libéré, arbitrer ce qu’on ne confie pas à la machine, protéger les priorités, organiser l’entraide entre pairs. Cog’X rappelle que ce cercle vicieux — stress, érosion de l’efficacité perçue, retrait — peut s’inverser : un manager qui s’empare de l’IA peut réinvestir le temps libéré dans ce qui nourrit réellement son rôle, l’accompagnement, le feedback, l’innovation collective.
Cela suppose une vérité assez rare en COMEX : l’engagement d’un manager n’est pas une variable de caractère. C’est une variable d’organisation. Le remède n’est pas un plan de formation de plus ; ce sont des décisions sur le temps, les priorités et l’entraide — à la main des directions. Les initiatives à grande échelle — 700 000 Français déjà en parcours de formation, objectif d’un million d’ici 2027 via des programmes comme GenIAles (Microsoft × Simplon), learning expeditions de Danone, Cafés IA et semaine de l’IA lancée au printemps 2026 — ne sont utiles qu’à cette condition : être articulées à une réorganisation locale du travail.
La bonne question
La question n’est plus adopte-t-on l’IA ? — la réponse est tranchée, elle est déjà là, portée par les collaborateurs. La question est : notre culture et notre gouvernance sont-elles capables d’en faire un levier collectif, mesurable et partagé ?
L’écart se creuse moins entre les entreprises qui ont de l’IA et celles qui n’en ont pas, qu’entre celles qui ont structuré leur culture IA et celles qui la subissent.
#IA #CultureIA #Management #DAFdeTransition #Gouvernance
Sources : Courrier Cadres, cahier spécial IA janvier-février 2026 (enquête de Laure Girardot, avec Mick Levy d’Orange Business, Mélusine Blondel de La Mednum, Corine de Bilbao) ; François Candelon, partner Value Creation chez Seven2 ; Marie Lacroix & Gaëtan de Lavilléon, cofondateurs de Cog’X ; études McKinsey, MIT, Gallup, France Num, LaborIA.
Robin Sauzet — DAF de transition, concepteur de CoDIR-IA