3.3 Le Conflit de Valeurs (Souffrance Éthique)
Devoir agir contre son jugement professionnel à cause de la Data.
Fil Rouge : L’incident de l’école
Un chauffeur, Karim, remonte un incident grave. Pour gagner 4 minutes sur une livraison, l’IA Cortex lui a ordonné d’emprunter une ruelle étroite devant une école primaire à 16h30 (heure de sortie). Karim savait que c’était dangereux, mais la consigne était : “Suivez le GPS Cortex, tout écart sera pénalisé sur la prime.” Il l’a fait, a failli accrocher un vélo, et rentre tremblant de colère. “On me demande de mettre des gosses en danger pour des stats ?”
La qualité empêchée
Le conflit de valeurs survient quand le travailleur doit agir d’une manière qu’il réprouve moralement ou professionnellement.
L’IA, optimisée pour des chiffres (rentabilité, vitesse), manque souvent de :
- Bon sens contextuel (ex: l’école à 16h30).
- Nuance éthique (ex: refuser un crédit à un client fidèle à cause d’un score obscur).
Pour le salarié, être forcé d’appliquer une décision “stupide” ou “injuste” de l’IA provoque une souffrance éthique profonde, terreau du Burn-out.
Dilemme : Obéir à la machine ou à sa conscience ?
🤔 Question Flash : Droit d’alerte
Karim pouvait-il refuser l’itinéraire de l’IA ?
👁️ Voir la réponse
À retenir
L’IA ne doit jamais avoir le “dernier mot” sur l’humain, surtout sur des sujets de sécurité ou d’éthique. C’est le principe du “Human-in-the-loop” (l’humain dans la boucle) que nous verrons dans les solutions.