Contenu du cours
2 : Facteur de Risque #1 – Intensification et Technostress.
Nous entrons dans le vif du sujet avec le premier grand facteur de risque : la surcharge.
0/3
3 : Facteur de Risque #2 – Perte de Sens et Déshumanisation.
Nous abordons maintenant une dimension plus psychologique et subtile, mais tout aussi dévastatrice : le sentiment de devenir un "robot" au service du robot.
0/3
4 : Facteur de Risque #3 – Autonomie et Management Algorithmique.
C'est ici que se joue la notion d'autonomie. Si l'IA décide de comment je travaille, je ne suis plus un professionnel, je suis un exécutant.
0/3
5 : Facteur de Risque #4 – Insécurité de l’emploi et Changement
Nous abordons ici la peur viscérale : celle de ne plus être utile, d'être dépassé ou remplacé.
0/3
6 : Le Cadre Légal et le Rôle du CSE.
C'est ici que les Élus du CSE et les RH apprennent les règles du jeu pour ne pas subir l'IA, mais l'encadrer.
0/3
7 : Prévention Primaire – Agir à la source (Conception).
C'est le moment "solution". Nous ne sommes plus dans le constat des dégâts, mais dans la construction d'un système sain.
0/3
8 : Prévention Secondaire – Former et Outiller.
La prévention secondaire, c'est l'équipement individuel. Si on ne peut pas totalement supprimer la vague (l'IA), on doit apprendre aux salariés à surfer pour ne pas se noyer. La compétence est le meilleur anti-stress.
0/3
9 : Prévention Tertiaire – Gérer les crises
Ici, nous sommes dans le "curatif". Le mal a été fait (ou menace d'être fait), il faut soigner les blessures psychologiques et empêcher la contagion.
0/3
10 : Synthèse et Plan d’Action
C'est la dernière ligne droite. Nous bouclons ce parcours avec le Module 10, conçu pour être ultra-opérationnel. L'apprenant doit repartir avec une feuille de route claire et un sentiment d'achèvement positif.
0/3
IA et Qualité de Vie au Travail : Maîtriser les Nouveaux Risques Psychosociaux (RPS)

3.3 Le Conflit de Valeurs (Souffrance Éthique)

Devoir agir contre son jugement professionnel à cause de la Data.

🏢

Fil Rouge : L’incident de l’école

Un chauffeur, Karim, remonte un incident grave. Pour gagner 4 minutes sur une livraison, l’IA Cortex lui a ordonné d’emprunter une ruelle étroite devant une école primaire à 16h30 (heure de sortie). Karim savait que c’était dangereux, mais la consigne était : “Suivez le GPS Cortex, tout écart sera pénalisé sur la prime.” Il l’a fait, a failli accrocher un vélo, et rentre tremblant de colère. “On me demande de mettre des gosses en danger pour des stats ?”

La qualité empêchée

Le conflit de valeurs survient quand le travailleur doit agir d’une manière qu’il réprouve moralement ou professionnellement.

L’IA, optimisée pour des chiffres (rentabilité, vitesse), manque souvent de :

  • Bon sens contextuel (ex: l’école à 16h30).
  • Nuance éthique (ex: refuser un crédit à un client fidèle à cause d’un score obscur).

Pour le salarié, être forcé d’appliquer une décision “stupide” ou “injuste” de l’IA provoque une souffrance éthique profonde, terreau du Burn-out.

Choix difficile direction

Dilemme : Obéir à la machine ou à sa conscience ?

🤔 Question Flash : Droit d’alerte

Karim pouvait-il refuser l’itinéraire de l’IA ?

👁️ Voir la réponse
OUI. C’est le Droit de Retrait (si danger grave et imminent) ou à minima l’usage de son autonomie professionnelle. Le problème, c’est que l’organisation du travail (la prime liée au respect de l’IA) l’a dissuadé de le faire. C’est là que réside la faute de l’employeur : avoir créé un système coercitif.

À retenir

L’IA ne doit jamais avoir le “dernier mot” sur l’humain, surtout sur des sujets de sécurité ou d’éthique. C’est le principe du “Human-in-the-loop” (l’humain dans la boucle) que nous verrons dans les solutions.