La grille de lecture des risques
Pour prouver qu’il y a souffrance, il faut les bons mots. Utilisons le modèle de référence (Gollac) pour scanner l’IA.
Mise en situation : “Tu es en retard de 12 secondes”
Mardi, 10h30. Théo, au service client, voit une pop-up rouge clignoter sur son écran : “Attention, votre temps moyen de résolution dépasse la prédiction de l’IA (+12s). Accélérez.”
Son cœur s’emballe. Il bâcle la réponse au client pour rattraper son retard. Il vient de subir deux facteurs de RPS simultanés : une intensité imposée et un conflit de qualité (mal faire son travail pour satisfaire la machine).
🎭 Scène : Dialogue de sourds au CSE
“Karim, je ne vois pas le problème de sécurité. Les chaises sont ergonomiques, les écrans sont neufs. Il n’y a pas de risque physique avec ce logiciel.”
“Le risque n’est pas dans l’écran, il est dans l’algorithme ! C’est l’organisation du travail qui est malade. Regarde la classification Gollac, on coche 4 cases sur 6 !”
🔍 Le Radar Gollac x IA
Outil de diagnostic
L’IA travaille à la vitesse de la lumière. Si l’humain doit suivre le rythme des notifications ou des tickets générés automatiquement, il est en surchauffe permanente.
C’est le risque majeur. L’IA dit “quoi faire” et “comment le faire”. Le salarié perd sa marge de manœuvre et devient un exécutant de la machine.
On interagit plus avec l’écran qu’avec les collègues. L’IA peut aussi “fliquer” et créer de la concurrence entre salariés (comparaison des scores).
L’éthique blessée : devoir suivre une recommandation absurde de l’IA ou mentir à un client parce que “l’ordinateur l’a dit”.
À retenir
Pour mettre à jour votre DUERP (Document Unique), ne créez pas une ligne vague “Stress informatique”.
Utilisez ces catégories précises : “Intensification du rythme par guidage algorithmique” ou “Perte d’autonomie procédurale”. C’est juridiquement beaucoup plus solide.