3.1 La dévaluation du travail humain
Quand l’algorithme s’approprie les victoires et laisse les échecs aux humains.
Fil Rouge : La prime de fin d’année
Réunion commerciale. Le Directeur félicite l’équipe : “Grâce à Cortex, nous avons signé 20% de contrats en plus !”. Il montre un graph. Enzo se sent transparent. Avant, quand il résolvait un problème, le client lui disait “Merci Enzo”. Aujourd’hui, l’IA envoie les confirmations automatiques, les codes promo et les “Joyeux Anniversaire”. Enzo, lui, ne reçoit plus que les appels des clients hurlants quand l’IA s’est trompée. Il murmure à Chloé : “Je suis devenu la poubelle de l’algorithme.”
Le Taylorisme Numérique
Au début du 20ème siècle, Taylor a séparé la conception de l’exécution. L’IA pousse cette logique à l’extrême : elle sépare la tâche gratifiante (création, succès, relation fluide) de la tâche ingrate (gestion d’erreur, conflit).
Cela crée un risque psychosocial majeur : la perte de sens.
- Invisibilisation : Le travail de l’humain ne se voit que quand ça va mal (réparer les bugs).
- Perte du sentiment d’accomplissement : On ne voit plus le “produit fini”, on ne fait que de la maintenance de flux.
- Déclassement ressenti : L’expert a l’impression de devenir l’assistant de la machine.
Travailler sans reconnaissance positive mène au désengagement.
“L’IA valorise l’humain en lui laissant les tâches à haute valeur ajoutée.”
Souvent, “valeur ajoutée” signifie en réalité “problèmes complexes et stressants”. Sans les petites victoires du quotidien (un dossier facile bouclé en 10 min), la charge mentale devient insupportable.
À retenir
Pour prévenir ce risque, le management doit réinventer les rituels de reconnaissance et s’assurer que l’IA ne confisque pas la paternité du travail bien fait.