Cet article est tiré de la conférence FORWARD 2026, avec Amélie Richardson, Chief People Officer -Mirakl, et Olivier Ruton, Head of Digital Learning - Servier.
Ni Mirakl ni Servier ne présentent l’IA comme une compétence technique à certifier. Le point central n’est pas “savoir utiliser ChatGPT”. Le point central est plutôt de savoir exercer un jugement managérial dans un environnement où la production est augmentée. Et ce déplacement est fondamental.
Chez Mirakl, l’IA est largement utilisée. Les managers eux-mêmes l’utilisent pour structurer des feedbacks ou clarifier des messages sensibles. Mais un choix fort a été fait : les managers ne sont pas évalués sur leur usage de l’IA. Ils sont évalués sur :
Autrement dit : l’IA est un levier. Elle n’est pas un critère en soi. Amélie Richardson le dit clairement : le cadre repose sur un principe de responsabilisation individuelle. Il n’y a pas de logique de contrôle centralisé des usages. Il n’y a pas de reporting sur le nombre de prompts. Ce qui compte, c’est le discernement et ce que l’on accomplit grâce à l’outil.
Un exemple concret : les agents internes
Mirakl a développé des agents internes connectés aux documents de l’entreprise. Un des usages mentionnés concerne la production ou la mise à jour de fiches de poste à partir de modèles existants. L’agent peut générer une première version structurée. Mais le manager est responsable de vérifier l’adéquation au besoin réel, d’ajuster en fonction du contexte d’équipe ou encore de challenger la pertinence des formulations. L’IA structure mais c’est le manager qui valide, corrige, décide.
Si le manager accepte passivement la production générée, la qualité baisse. S’il la challenge, la qualité monte. La compétence n’est donc pas la capacité à générer un texte. C’est la capacité à juger ce texte.
Chez Servier, le déploiement a commencé par un socle commun en e-learning. Mais très vite, Olivier Ruton repositionne le sujet : l’IA n’est pas d’abord un outil. C’est une compétence managériale à intégrer. Et cette compétence est explicitement nommée : l’esprit critique. Un point très clair est rappelé : l’IA est générative, pas créative.
Cela signifie que la qualité dépend directement :
Un exemple concret : la préparation d’entretien
Lorsqu’un manager prépare un entretien de performance, l’IA peut l’aider à structurer les points factuels, organiser un argumentaire, identifier des axes d’amélioration ou encore repérer des biais possibles dans son analyse.
Mais Olivier insiste : l’IA peut aussi renforcer un biais de confirmation si le manager ne prend pas de recul. Un manager convaincu qu’un collaborateur “n’est pas au niveau” peut inconsciemment orienter son prompt pour confirmer cette intuition. L’IA produira alors un argumentaire cohérent mais biaisé.
La vigilance doit venir du manager. L’outil amplifie mais il ne corrige pas le biais humain par défaut.
Section à mettre sur fond différent pour la faire ressortir :
Les retours de Mirakl et Servier convergent vers une même conclusion : former à l’outil ne suffit pas. Il faut former au jugement.
Cela signifie :
Le risque n’est pas que les managers utilisent l’IA. Le risque est qu’ils cessent d’exercer leur jugement. Et dans les deux organisations, la ligne est claire : l’IA est un accélérateur mais le discernement doit rester profondément humain.
Pour aller plus loin, découvrez l'intégralité des retours d'Amélie Richardson, Chief People Officer - Mirakl, et Olivier Ruton, Head of Digital Learning - Servier, lors de FORWARD 2026.
Cet article est tiré de la conférence FORWARD 2026, avec Amélie Richardson, Chief People Officer -Mirakl, et Olivier Ruton, Head of Digital Learning - Servier.
Ni Mirakl ni Servier ne présentent l’IA comme une compétence technique à certifier. Le point central n’est pas “savoir utiliser ChatGPT”. Le point central est plutôt de savoir exercer un jugement managérial dans un environnement où la production est augmentée. Et ce déplacement est fondamental.
Chez Mirakl, l’IA est largement utilisée. Les managers eux-mêmes l’utilisent pour structurer des feedbacks ou clarifier des messages sensibles. Mais un choix fort a été fait : les managers ne sont pas évalués sur leur usage de l’IA. Ils sont évalués sur :
Autrement dit : l’IA est un levier. Elle n’est pas un critère en soi. Amélie Richardson le dit clairement : le cadre repose sur un principe de responsabilisation individuelle. Il n’y a pas de logique de contrôle centralisé des usages. Il n’y a pas de reporting sur le nombre de prompts. Ce qui compte, c’est le discernement et ce que l’on accomplit grâce à l’outil.
Un exemple concret : les agents internes
Mirakl a développé des agents internes connectés aux documents de l’entreprise. Un des usages mentionnés concerne la production ou la mise à jour de fiches de poste à partir de modèles existants. L’agent peut générer une première version structurée. Mais le manager est responsable de vérifier l’adéquation au besoin réel, d’ajuster en fonction du contexte d’équipe ou encore de challenger la pertinence des formulations. L’IA structure mais c’est le manager qui valide, corrige, décide.
Si le manager accepte passivement la production générée, la qualité baisse. S’il la challenge, la qualité monte. La compétence n’est donc pas la capacité à générer un texte. C’est la capacité à juger ce texte.
Chez Servier, le déploiement a commencé par un socle commun en e-learning. Mais très vite, Olivier Ruton repositionne le sujet : l’IA n’est pas d’abord un outil. C’est une compétence managériale à intégrer. Et cette compétence est explicitement nommée : l’esprit critique. Un point très clair est rappelé : l’IA est générative, pas créative.
Cela signifie que la qualité dépend directement :
Un exemple concret : la préparation d’entretien
Lorsqu’un manager prépare un entretien de performance, l’IA peut l’aider à structurer les points factuels, organiser un argumentaire, identifier des axes d’amélioration ou encore repérer des biais possibles dans son analyse.
Mais Olivier insiste : l’IA peut aussi renforcer un biais de confirmation si le manager ne prend pas de recul. Un manager convaincu qu’un collaborateur “n’est pas au niveau” peut inconsciemment orienter son prompt pour confirmer cette intuition. L’IA produira alors un argumentaire cohérent mais biaisé.
La vigilance doit venir du manager. L’outil amplifie mais il ne corrige pas le biais humain par défaut.
Section à mettre sur fond différent pour la faire ressortir :
Les retours de Mirakl et Servier convergent vers une même conclusion : former à l’outil ne suffit pas. Il faut former au jugement.
Cela signifie :
Le risque n’est pas que les managers utilisent l’IA. Le risque est qu’ils cessent d’exercer leur jugement. Et dans les deux organisations, la ligne est claire : l’IA est un accélérateur mais le discernement doit rester profondément humain.
Pour aller plus loin, découvrez l'intégralité des retours d'Amélie Richardson, Chief People Officer - Mirakl, et Olivier Ruton, Head of Digital Learning - Servier, lors de FORWARD 2026.
Découvrez tous nos parcours et workshops pour adresser les challenges de management et leadership les plus critiques.