7.1 Redonner le pouvoir à l’Humain
Le principe fondamental : l’IA propose, l’Humain dispose.
Fil Rouge : Le bouton “Débrayage”
Suite à l’expertise demandée par le CSE, la direction a accepté une modification cruciale de “Cortex”. Désormais, sur la tablette des chauffeurs, il y a un bouton : “Ignorer l’itinéraire IA”. Karim l’utilise pour la première fois quand l’IA veut l’envoyer dans une zone inondée. Il appuie, contourne, et l’IA recalcule sans le pénaliser. Karim sourit : “Ah, enfin ! C’est moi qui conduis, pas la machine.”
Concevoir pour l’autonomie
La prévention primaire consiste à éliminer le risque à la racine. Pour l’IA, cela signifie intégrer le principe “Human-in-the-loop” (HITL) dès la conception ou le paramétrage.
Concrètement :
- Droit de veto : Le salarié doit toujours pouvoir techniquement outrepasser une décision algorithmique (surtout en cas de sécurité ou d’éthique).
- Explicabilité : L’outil doit afficher “pourquoi” il suggère cela (ex: “Itinéraire bis suggéré car accident sur A6”).
- Ergonomie cognitive : L’interface ne doit pas saturer l’utilisateur d’alertes inutiles.
L’IA devient un copilote, pas un commandant de bord.
“Si on laisse le choix à l’humain, il n’écoutera jamais l’IA et on perdra en productivité.”
Faux. Les études montrent que l’humain suit l’IA quand elle est pertinente. Mais lui laisser la possibilité de dire “non” réduit drastiquement son stress et augmente son engagement (et donc sa performance durable).
À retenir
Un bon système d’IA est un système qui admet qu’il peut avoir tort et qui laisse la main à l’expert humain en cas de doute.