
Les 3 grands risques de l’IA pour la formation continue des salariés
L'IA générative transforme la formation, mais le processus n'est pas sans danger. Un tour du côté obscur de l'IA dans le développement des compétences.
Les apports de l’IA à la formation font assez largement consensus : individualisation, création de contenu facilitée, évaluation, interactivité… Beaucoup estiment qu’avec le temps, les inconvénients des outils IA sont de plus en plus maîtrisés, et les usages s’affinent et gagnent en puissance. Pourtant, une étude récente nous apprend que le taux de fausses réponses des outils d’IA générative aurait doublé en un an… Le meilleur des mondes IA n’est donc pas encore garanti, et nous évoquerons ici la face sombre de l’intelligence artificielle appliquée à la formation des collaborateurs. Nous les avons réunis en 3 grands risques : le risque contenu, le risque social, et le risque compétences.
L’intelligence artificielle, en particulier l’IA générative, révolutionne le monde de la formation, et il est possible que nous n’ayons encore rien vu.
- Elle intervient dans la création de contenus, en répondant aux questions du concepteur, en accompagnant sa recherche, en proposant des quiz et des exercices, en créant des visuels, en mettant en forme des présentations…
- Elle peut optimiser la personnalisation et l’efficacité de la prestation, en individualisant le contenu, mais aussi en permettant le développement rapide d’agents conversationnels dédiés capables de répondre aux questions de l’apprenant et d’adapter en temps réel le cursus, sans affect, jugement ni feedback négatif ;
- Elle accélère et affine l’évaluation des compétences et la notation des examens ;
- Elle peut s’incarner dans des avatars qui viennent assister, voire remplacer le formateur dans certains contextes, et emmener l’apprenant dans des mises en situation …
La fusion de l’IA, de la réalité virtuelle et des progrès de la neuropédagogie pourraient bouleverser totalement le monde de l’éducation et de la formation continue dans les années qui viennent. Mais cette destination est loin d’être atteinte, et le chemin est semé d’embûches. Dans la suite de cet article, nous proposons de voir, résolument, le verre à moitié vide.
1. Le risque contenu
C’est sans doute le plus facile à détecter, mais pas forcément le plus aisé à maîtriser.
Les hallucinations
Les fameuses « hallucinations » sont le premier risque qui vient à l’esprit. Il s’agit de ces réponses que les LLM (« large language models » derrière les agents conversationnels intelligents) peuvent présenter d’un ton assuré, comme si elles étaient absolument vraies, alors qu’elles ne sont que les plus probables au vu des données dont ils disposent. Bien sûr, il y a des moyens de limiter ce risque :
- Avec la pratique, l’utilisateur apprend à discerner les sujets sur lesquels l’IA est fiable (par exemple le contenu descriptif d’une loi) et ceux sur lesquels ses réponses sont douteuses (par exemple un cas d’application).
- La pratique apprend aussi à mieux prompter, à demander des précisions, à raffiner les réponses. Un « truc » tout simple consiste à dire explicitement au chatbot « dis si tu ne sais pas ».
- Les outils eux-mêmes évoluent, et on voir apparaître notamment des interfaces comme Perplexity, à mi-chemin entre moteurs de recherche et IA générative, qui donnent systématiquement les sources en ligne de leurs affirmations.
Pour autant, le risque demeure réel. Il semble même qu’il s’accroisse, au moins provisoirement : la startup NewsGuard vient de publier son étude annuelle sur la propension à aux réponses fausses des 10 principaux outils d’IA générative. Selon l’enquête, le taux de réponses erronées aurait doublé en un an, passant de 18% à 35%. Et Perplexity, justement, est l’un des plus mauvais élèves (47% de fausses réponses). En cause, notamment : l’interdiction de plus en plus stricte intimée à ces agents de, tout simplement, ne pas répondre.
Les biais algorithmiques
Un autre risque est plus difficile à détecter : le biais algorithmique. Il survient lorsque la machine reproduit un biais ou un préjugé présent dans la base de données. Pour contrer cet inconvénient, les concepteurs des LLM introduisent des règles visant à assurer le respect de certains principes, comme l’équité, l’égalité, la neutralité. Mais ces règles mêmes sont sujettes à interprétations, et les outils sont très sensibles à leur modification. C’est ainsi que Grok, le chatbot intelligent associé au réseau X, était devenu ouvertement nazi après avoir reçu pour consigne de ne pas trop se préoccuper du « politiquement correct ».
Les concepteurs de LLM travaillent dur sur la limitation de ces risques, mais ils ne disparaîtront probablement pas totalement. Les formateurs qui utilisent ces outils pour construire leurs formations en sont en général bien conscients, et ils développent des stratégies pour les éviter. Mais dès lors que l’on met à disposition des apprenants eux-mêmes des agents conversationnels dédiés, il est indispensable de redoubler de vigilance dans la définition des bases de données, dans l’entraînement des agents et dans la fixation des règles de ces agents. Et en définitive, il n’y a pas vraiment d’alternative à une formation en amont de l’ensemble des apprenants à l’usage de l’IA et à ses limites.
2. Le risque social
L’IA apparaît aussi comme la technologie la mieux à même de tenir les promesses du e-learning. Celles-ci sont déjà anciennes, et au moins au nombre de 2 : individualisation des parcours et formation en autonomie. Mais cette réussite contient en germe un nouveau risque : celui de se retrouver « enfermé » dans une formation digitale, à la merci d’une IA qui peut ne pas saisir complètement les besoins et les envies de l’apprenant, et coupé de toute interaction humaine. Ce risque d’isolement peut entraîner démotivation et désengagement – même si la qualité de l’interactivité avec l’IA vise précisément à lutter contre cet inconvénient des formations à distance.
Autre risque que l’on peut rapporter au social : la confidentialité des données. Pour que la confiance s’installe entre l’IA et son utilisateur, il faut que ce dernier se sente en sécurité et soit sûr que ses réponses restent confidentielles. Mais pour s’améliorer, l’IA a besoin d’accumuler des données nouvelles. La contradiction entre ces deux nécessités doit être résolue pour permettre à la formation via l’IA de prospérer. Pour un responsable formation et RH, c’est un sujet particulièrement délicat.
Il y a des solutions techniques, organisationnelles, juridiques à ces difficultés. Pour le risque d’isolement, il faut veiller à la fois aux qualités d’ouverture des IA conversationnelles utilisées et à ménager des temps de présentiel ou au moins de relation humaine dans les parcours. Pour le risque de confidentialité, il y a des moyens juridico-techniques de concilier confidentialité et performance des IA. Mais ces risques n’en représentent pas moins des freins mentaux, organisationnels et financiers à l’adoption de formations utilisant l’IA.
3. Le risque compétences
Le risque le plus inquiétant reste la perte de compétences. Il est de deux ordres.
Le risque d’évaluation faussée
Ce danger est particulièrement manifeste dans la formation initiale, mais il n’y a pas de raison qu’on ne le rencontre pas également en formation continue, surtout lorsqu’il y a des enjeux importants de certification. Il s’agit, tout simplement, de la propension croissante des apprenants – en particulier élèves et étudiants – à recourir à l’IA pour répondre aux questions qui leur sont posées pour les évaluer.
Selon une étude britannique de février 2025, la part des étudiants qui utilisent l’IA est passée en un an de 66% à 92%. Même si la plupart des usages déclarés concernent l’explication de concepts et le résumé de textes complexes, un bon quart au moins admet s’en servir pour rédiger des devoirs. Cette pratique place les enseignants et formateurs dans une situation très difficile. Les outils de détection de l’usage de l’IA, en outre, ne sont pas fiables, comme l’ont confirmé de nombreuses études (notamment celle-ci). Le risque existe donc de voir l’écart s’agrandir entre des apprenants qui passeront à côté des enseignements d’une part, et d’autres qui au contraire sauront utiliser l’IA pour accroître leur rapidité d’apprentissage. Mais l’évaluation faussée fait aussi peser une menace de dépréciation des diplômes et certifications.
Le risque de déqualification
On sort ici du champ de l’IA appliquée à la formation, pour aller vers les conséquences de l’IA sur les savoirs et les savoir-faire des individus dans l’entreprise. L’une des promesses de l’IA, en effet, est l’automatisation des tâches les moins intéressantes. Mais le fait de ne plus maîtriser certains processus fondamentaux du métier peut avoir des conséquences très négatives, aussi bien pour la satisfaction au travail que pour la performance des salariés et de leurs entreprises.
Bien sûr, c’est le lot de toute automatisation et la contrepartie des gains de productivité : dans l’ensemble, nous ne savons plus couramment faire du feu avec des bouts de bois, filer la laine au fuseau ou établir nos fiches de paie à la main. Mais il se peut que l’IA s’attaque à des couches de compétences plus « humaines » et plus essentielles. Parmi les études citées par cet article consacré au sujet, cette publication de l’université Cornell met en évidence les effets pervers de l’IA dans le métier d’UX designer. Les auteurs évoquent les risques de « de-skilling », ou déqualification, liés au fait que les collaborateurs passent d’un rôle actif dans la production à un simple rôle de contrôle a priori. Ce rôle peut 1) s’avérer peu satisfaisant et 2) ne plus être assumé en connaissance de cause, si la tâche évaluée n’est plus maîtrisée. « Plus l’IA assumera la responsabilité de taches fondamentales du design, moins les designers seront exposés aux processus cognitifs qui sous-tendent leur métier ».
Le président d’OpenAI, l’entreprise derrière ChatGPT, a après tout lui-même reconnu pas plus tard qu’en juin dernier que l’IA n’était intrinsèquement pas une technologie de confiance, et qu’il fallait s’y résoudre (« it should be the tech that you don’t trust that much »). Cela fait partie intégrante de l’outil. Il ne s’agit pas, bien entendu, de dissuader le recours à l’IA, ni d’annoncer des lendemains qui déchantent en matière de formation assistée par intelligence artificielle. Mais ces différents risques doivent bien être présents à notre esprit lorsque nous nous lançons dans l’adoption de nouveaux usages et de nouveaux outils. L’objectif est d’éviter les mauvais usages et de mettre en place des stratégies pour tirer le meilleur d’une technologie qui, sans aucun doute, n’a pas fini de révolutionner les apprentissages en général et la formation des salariés en particulier.
Crédit photo : Shutterstock
Si vous souhaitez vous inscrire à la newsletter mensuelle du blog MANAGEMENT DE LA FORMATION : rendez-vous ici.
Découvrez le site RHEXIS, l’externalisation au service de la gestion de votre formation.