Contenu du cours
2 : Facteur de Risque #1 – Intensification et Technostress.
Nous entrons dans le vif du sujet avec le premier grand facteur de risque : la surcharge.
0/3
3 : Facteur de Risque #2 – Perte de Sens et Déshumanisation.
Nous abordons maintenant une dimension plus psychologique et subtile, mais tout aussi dévastatrice : le sentiment de devenir un "robot" au service du robot.
0/3
4 : Facteur de Risque #3 – Autonomie et Management Algorithmique.
C'est ici que se joue la notion d'autonomie. Si l'IA décide de comment je travaille, je ne suis plus un professionnel, je suis un exécutant.
0/3
5 : Facteur de Risque #4 – Insécurité de l’emploi et Changement
Nous abordons ici la peur viscérale : celle de ne plus être utile, d'être dépassé ou remplacé.
0/3
6 : Le Cadre Légal et le Rôle du CSE.
C'est ici que les Élus du CSE et les RH apprennent les règles du jeu pour ne pas subir l'IA, mais l'encadrer.
0/3
7 : Prévention Primaire – Agir à la source (Conception).
C'est le moment "solution". Nous ne sommes plus dans le constat des dégâts, mais dans la construction d'un système sain.
0/3
8 : Prévention Secondaire – Former et Outiller.
La prévention secondaire, c'est l'équipement individuel. Si on ne peut pas totalement supprimer la vague (l'IA), on doit apprendre aux salariés à surfer pour ne pas se noyer. La compétence est le meilleur anti-stress.
0/3
9 : Prévention Tertiaire – Gérer les crises
Ici, nous sommes dans le "curatif". Le mal a été fait (ou menace d'être fait), il faut soigner les blessures psychologiques et empêcher la contagion.
0/3
10 : Synthèse et Plan d’Action
C'est la dernière ligne droite. Nous bouclons ce parcours avec le Module 10, conçu pour être ultra-opérationnel. L'apprenant doit repartir avec une feuille de route claire et un sentiment d'achèvement positif.
0/3
IA et Qualité de Vie au Travail : Maîtriser les Nouveaux Risques Psychosociaux (RPS)

7.1 Redonner le pouvoir à l’Humain

Le principe fondamental : l’IA propose, l’Humain dispose.

🏢

Fil Rouge : Le bouton “Débrayage”

Suite à l’expertise demandée par le CSE, la direction a accepté une modification cruciale de “Cortex”. Désormais, sur la tablette des chauffeurs, il y a un bouton : “Ignorer l’itinéraire IA”. Karim l’utilise pour la première fois quand l’IA veut l’envoyer dans une zone inondée. Il appuie, contourne, et l’IA recalcule sans le pénaliser. Karim sourit : “Ah, enfin ! C’est moi qui conduis, pas la machine.”

Concevoir pour l’autonomie

La prévention primaire consiste à éliminer le risque à la racine. Pour l’IA, cela signifie intégrer le principe “Human-in-the-loop” (HITL) dès la conception ou le paramétrage.

Concrètement :

  • Droit de veto : Le salarié doit toujours pouvoir techniquement outrepasser une décision algorithmique (surtout en cas de sécurité ou d’éthique).
  • Explicabilité : L’outil doit afficher “pourquoi” il suggère cela (ex: “Itinéraire bis suggéré car accident sur A6”).
  • Ergonomie cognitive : L’interface ne doit pas saturer l’utilisateur d’alertes inutiles.
Collaboration Homme Machine

L’IA devient un copilote, pas un commandant de bord.

❌ LE MYTHE

“Si on laisse le choix à l’humain, il n’écoutera jamais l’IA et on perdra en productivité.”

✅ LA RÉALITÉ

Faux. Les études montrent que l’humain suit l’IA quand elle est pertinente. Mais lui laisser la possibilité de dire “non” réduit drastiquement son stress et augmente son engagement (et donc sa performance durable).

À retenir

Un bon système d’IA est un système qui admet qu’il peut avoir tort et qui laisse la main à l’expert humain en cas de doute.