Contenu du cours
2 : Facteur de Risque #1 – Intensification et Technostress.
Nous entrons dans le vif du sujet avec le premier grand facteur de risque : la surcharge.
0/3
3 : Facteur de Risque #2 – Perte de Sens et Déshumanisation.
Nous abordons maintenant une dimension plus psychologique et subtile, mais tout aussi dévastatrice : le sentiment de devenir un "robot" au service du robot.
0/3
4 : Facteur de Risque #3 – Autonomie et Management Algorithmique.
C'est ici que se joue la notion d'autonomie. Si l'IA décide de comment je travaille, je ne suis plus un professionnel, je suis un exécutant.
0/3
5 : Facteur de Risque #4 – Insécurité de l’emploi et Changement
Nous abordons ici la peur viscérale : celle de ne plus être utile, d'être dépassé ou remplacé.
0/3
6 : Le Cadre Légal et le Rôle du CSE.
C'est ici que les Élus du CSE et les RH apprennent les règles du jeu pour ne pas subir l'IA, mais l'encadrer.
0/3
7 : Prévention Primaire – Agir à la source (Conception).
C'est le moment "solution". Nous ne sommes plus dans le constat des dégâts, mais dans la construction d'un système sain.
0/3
8 : Prévention Secondaire – Former et Outiller.
La prévention secondaire, c'est l'équipement individuel. Si on ne peut pas totalement supprimer la vague (l'IA), on doit apprendre aux salariés à surfer pour ne pas se noyer. La compétence est le meilleur anti-stress.
0/3
9 : Prévention Tertiaire – Gérer les crises
Ici, nous sommes dans le "curatif". Le mal a été fait (ou menace d'être fait), il faut soigner les blessures psychologiques et empêcher la contagion.
0/3
10 : Synthèse et Plan d’Action
C'est la dernière ligne droite. Nous bouclons ce parcours avec le Module 10, conçu pour être ultra-opérationnel. L'apprenant doit repartir avec une feuille de route claire et un sentiment d'achèvement positif.
0/3
IA et Qualité de Vie au Travail : Maîtriser les Nouveaux Risques Psychosociaux (RPS)

3.1 La dévaluation du travail humain

Quand l’algorithme s’approprie les victoires et laisse les échecs aux humains.

🏢

Fil Rouge : La prime de fin d’année

Réunion commerciale. Le Directeur félicite l’équipe : “Grâce à Cortex, nous avons signé 20% de contrats en plus !”. Il montre un graph. Enzo se sent transparent. Avant, quand il résolvait un problème, le client lui disait “Merci Enzo”. Aujourd’hui, l’IA envoie les confirmations automatiques, les codes promo et les “Joyeux Anniversaire”. Enzo, lui, ne reçoit plus que les appels des clients hurlants quand l’IA s’est trompée. Il murmure à Chloé : “Je suis devenu la poubelle de l’algorithme.”

Le Taylorisme Numérique

Au début du 20ème siècle, Taylor a séparé la conception de l’exécution. L’IA pousse cette logique à l’extrême : elle sépare la tâche gratifiante (création, succès, relation fluide) de la tâche ingrate (gestion d’erreur, conflit).

Cela crée un risque psychosocial majeur : la perte de sens.

  • Invisibilisation : Le travail de l’humain ne se voit que quand ça va mal (réparer les bugs).
  • Perte du sentiment d’accomplissement : On ne voit plus le “produit fini”, on ne fait que de la maintenance de flux.
  • Déclassement ressenti : L’expert a l’impression de devenir l’assistant de la machine.
Employé déprimé devant ordinateur

Travailler sans reconnaissance positive mène au désengagement.

❌ LE MYTHE

“L’IA valorise l’humain en lui laissant les tâches à haute valeur ajoutée.”

✅ LA RÉALITÉ

Souvent, “valeur ajoutée” signifie en réalité “problèmes complexes et stressants”. Sans les petites victoires du quotidien (un dossier facile bouclé en 10 min), la charge mentale devient insupportable.

À retenir

Pour prévenir ce risque, le management doit réinventer les rituels de reconnaissance et s’assurer que l’IA ne confisque pas la paternité du travail bien fait.