La formation représente un investissement généralement coûteux : aux frais pédagogiques s’ajoutent le temps de travail que l’apprenant doit consacrer au stage, ainsi que les coûts d’organisation et de suivi. Il paraît donc assez naturel que la mesure de son efficacité réelle, c’est-à-dire sa traduction par un changement dans la pratique professionnelle du bénéficiaire, fasse l’objet d’un soin particulier. Mais la problématique de l’évaluation de la formation n’est pas simple : la réussite d’une action de formation ne se mesure pas aussi facilement que celle d’une opération commerciale, et par ailleurs toutes les formations ne s’évaluent pas de la même façon… Comment passer des paroles aux actes, et traduire cette complexité en procédures opérationnelles pragmatiques et efficaces ?
Comme nous l’avons déjà souvent évoqué sur ce blog, l’évaluation de la formation a été théorisée dès la fin des années 1950 par l’Américain Donald Kirkpatrick, auteur du modèle qui porte son nom. Celui-ci compte 4 niveaux : la réaction (avez-vous aimé la formation ?), les apprentissages (qu’avez-vous appris ?), les comportements (que faites-vous différemment grâce à la formation ?), les objectifs RH (en quoi l’entreprise en a bénéficié ?). Les deux premiers niveaux se pratiquent habituellement « à chaud », c’est-à-dire à l’issue de la session de formation. Les deux derniers relèvent de l’évaluation dite « à froid », et peuvent se tenir plusieurs mois après le stage.
L’évaluation à froid consiste ainsi à établir dans quelle mesure le salarié a modifié sa pratique à l’issue de la formation ; ainsi qu’à essayer de calculer le « retour sur attentes » de la formation vis-à-vis de l’entreprise ou du service.
L’enquête Fefaur/Talentsoft que nous commentions en octobre dernier dans cet article le rappelait de nouveau : si l’évaluation à froid est volontiers reconnue comme essentielle, elle reste relativement pratiquée. Dans la moitié des entreprises interrogées, l’évaluation du transfert en situation de travail des connaissances acquises n’a lieu que pour moins de 30% des actions. Si on se tourne vers la mesure de l’impact de la formation sur la performance opérationnelle du salarié, on monte à près des deux tiers des entreprises, et à près de 7 entreprises sur 10 pour la mesure du retour sur attentes.
En clair, plus on monte dans les « niveaux » du modèle de Kirkpatrick, c’est-à-dire plus on s’intéresse aux bénéfices opérationnels concrets à moyen et long terme de la formation, moins la pratique est répandue. Les autres données contenues dans l’étude vont dans le même sens.
Le phénomène n’est pas une exception française : dans son ouvrage L’évaluation de la formation, Jonathan Pottiez signale que le même phénomène en Amérique du Nord, avec des pourcentages plus faibles encore. Ceux-ci s’expliquent peut-être, cependant, par une meilleure connaissance des exigences de l’évaluation : il n’est pas rare, selon l’auteur, que des responsables formation considèrent avoir « évalué à froid » parce qu’ils ont posé une question sur la formation suivie lors de l’entretien annuel, ou encore parce qu’ils ont réalisé l’évaluation à chaud avec retard…
Comment s’explique ce moindre recours à une pratique pourtant reconnue comme inhérente à une juste mesure de la pertinence de l’investissement formation ?
En 2004, selon une étude citée dans l’ouvrage de Jonathan Pottiez, près des deux tiers des entreprises européennes estimaient que le sujet n’était pas prioritaire, ou n’avaient pas de temps à y consacrer. Les mentalités ont sans doute évolué depuis : dans l’étude Fefaur/Talentsoft de 2017, les responsables interrogés pointent plutôt le manque d’implication des acteurs et la difficulté de l’exercice ; mais ils sont encore 47,5% à invoquer le manque de temps et de moyens. Pourquoi cette désaffection ?
Une première réponse est que toute formation ne se prête pas nécessairement à une évaluation à froid. Une formation à une technique simple, comme un logiciel bureautique ou une formation obligatoire à la conduite d’un engin de chantier, ne requiert pas forcément que l’on déploie une ingénierie complexe d’évaluation personnalisée sur une longue période.
Un second axe d’explication est que, tout simplement, l’évaluation à froid n’est pas un exercice aisé. Elle suppose que plusieurs conditions soient remplies :
Comment parvenir à mettre en place des processus qui permettent de valider ces trois points de manière pragmatique et réaliste ?
Pour évaluer de façon systématique l’impact à long terme des formations (sur le comportement et le travail de l’apprenant comme sur la performance de l’entreprise), l’aide d’un outil informatique de gestion sera certainement précieuse. L’expérience de RHEXIS montre cependant qu’informatiser ne suffit pas, du fait notamment de la grande diversité des situations de formation qui se rencontrent dans l’entreprise. Deux cas de figure peuvent se rencontrer :
En effet, dans le cas de formations prévues pour une population limitée, ou pour des actions ciblées sur des personnes précises, il devient plus difficile de trouver le temps et les ressources pour assurer une évaluation dans la durée. C’est dans ce contexte que l’on prend conscience de ce fait d’expérience : l’évaluation à froid, à la différence de l’évaluation à chaud, requiert un processus organisationnel.
Reprenons les trois conditions énumérées ci-dessus :
La réponse passe, selon nous, par un outillage informatique pertinent mis au service de procédures adaptées.
Là encore, deux cas sont à envisager.
Le premier est celui dans lequel les objectifs de formation sont facilement identifiables en amont, avec des indicateurs définis. C’est le cas en particulier, le plus souvent, des grands programmes de formation décidés par la direction pour une vaste population ; mais cela peut se présenter également pour des programmes plus restreints et plus ponctuels, en fonction de la nature de la formation.
Dans cette situation, l’outil informatique peut aisément accompagner le suivi de l’évaluation à froid, en définissant et en implémentant un calendrier de suivi pour chaque apprenant et chaque indicateur.
Dans le cas de formations ponctuelles et variées pour des publics divers et nombreux, le suivi peut devenir plus problématique. Il est possible cependant d’intégrer l’évaluation à froid dans le processus :
Le suivi informatisé de la formation intègre ainsi la notion d’objectifs à définir et à suivre pour chaque action de formation. Cette architecture simple suppose une appropriation par les acteurs – responsable formation, managers, collaborateurs – qui peuvent disposer de droits d’accès différenciés.
C’est une approche de ce type que nous avons choisie pour proposer un suivi de l’évaluation dans notre outil RHEBUS. Ce n’est pas la seule possible, mais elle présente l’avantage d’être pragmatique et opérationnelle. L’outil ne se substitue pas à une nécessaire démarche d’organisation, mais elle lui vient en appui et permet au responsable formation de la déployer. A condition que les conditions soient propices, ce qui suppose une direction bien disposée, qu’il faudra parfois convaincre et convertir !
Crédit illustration : fotolia/ weyo
Si vous souhaitez vous inscrire à la newsletter mensuelle du blog MANAGEMENT DE LA FORMATION : rendez-vous ici.
Découvrez le site RHEXIS, l’externalisation au service de la gestion de votre formation.
Retrouvez les articles qui peuvent vous intéresser sur des thèmes proches :
Une étude et une infographie Apave apportent un éclairage bienvenu sur l'état de l'externalisation de…
La création de France VAE rationnalise l'accès à la validation des acquis de l'expérience. Pour…
Le social learning désigne l'ensemble des méthodes et processus par lesquels nous apprenons en interaction…
Intelligence artificielle générative, digital, reste à charge du CPF, France VAE... Tour d'horizon de l'actualité…
L'entretien annuel d'évaluation est un acte de management qui rythme la vie des collaborateurs et…
La négociation entamée par les partenaires sociaux autour de Pacte de la vie au travail…