L’éthique vs L’Algorithme
Le pire des stress n’est pas la surcharge, c’est de devoir bâcler son travail. Quand l’IA impose la quantité au détriment de la qualité.
Mise en situation : “Désolé Madame, je dois raccrocher”
Théo est en ligne avec Mme Durand, 82 ans, perdue dans sa commande. L’empathie de Théo lui dicte de prendre 5 minutes pour la rassurer.
Mais sur son écran, la jauge “Productivité Horaire” de l’IA vire au rouge écarlate. Une notification apparaît : “Temps d’appel critique. Clôturez immédiatement.”
Pour ne pas perdre sa prime, Théo coupe la parole à la dame : “Écoutez, je vous envoie un mail, au revoir.” Il raccroche.
Le résultat : Il a obéi à l’IA, mais il se sent “sale”. Il a honte de son travail.
Ce concept (développé par le psychologue Yves Clot) explique que la santé mentale se dégrade quand le travailleur ne peut pas se reconnaître dans ce qu’il fait.
L’IA accentue ce phénomène par deux mécanismes :
- L’abstraction des chiffres : L’algorithme ne voit que la durée (KPI), pas la satisfaction réelle du client ni la complexité humaine.
- La standardisation forcée : L’IA pousse à traiter tous les cas de la même façon (moyenne statistique), niant les cas particuliers qui demandent du soin.
Le salarié est alors coincé dans un Conflit de Valeurs : il doit choisir entre ses propres critères du “beau travail” et les critères de la machine.
Le “ni fait ni à faire” rend malade.
À force de devoir “mal travailler” pour satisfaire l’algorithme, le salarié finit par se désinvestir psychologiquement pour se protéger.
“De toute façon, on me demande du chiffre, pas de la qualité. Alors je m’en fous.”
C’est la porte ouverte au cynisme, à la baisse de qualité de service, et finalement au départ des meilleurs éléments.
🤔 Question Flash : La ruse de Théo
Pour pouvoir bien traiter le dossier de Mme Durand sans être pénalisé par l’IA, Théo décide de mettre son téléphone en mode “Pause administrative” (censé être pour les réunions) pendant qu’il lui parle. Que révèle ce comportement ?
👁️ Voir l’analyse
Théo est obligé de “tricher” avec le système pour faire du bon travail. C’est un signe clinique majeur de souffrance éthique.
L’outil est devenu un obstacle à la qualité, au lieu d’être un support. Le CSE doit pointer cette incohérence : l’organisation pousse les salariés à la faute pour bien faire leur job.
À retenir
Lors des consultations CSE sur l’IA, posez la question des critères de performance.
Si l’IA ne mesure que la vitesse, elle va détruire le sens du travail. Demandez l’intégration d’indicateurs de qualité (satisfaction client, résolution au premier appel) qui valorisent le travail humain bien fait.