
Un manager doit-il encore décider ? (l’IA change tout)
Audio Summary
AI Summary
Dans cet épisode, il est question de deux tabous concernant la prise de décision : la nécessité pour un dirigeant de toujours être celui qui décide, et la possibilité de confier cette tâche à une machine. Olivier Siboni, co-auteur du livre "Le Pouvoir de décider" avec Éric Azan, est l'invité pour discuter de ces sujets.
Dès les années 1950, des chercheurs comme Paul Meehl ont démontré que les algorithmes surpassent les humains dans la prise de décisions en situation d'incertitude. Que ce soit pour des diagnostics médicaux, des admissions universitaires ou des pronostics de récidive, des algorithmes rudimentaires de l'époque se sont avérés plus efficaces. Pourtant, les décideurs continuent de préférer leur propre jugement. Deux raisons principales expliquent cela : d'abord, on oublie que chaque décision implique une évaluation de probabilités, domaine où les algorithmes excellent. Ensuite, les algorithmes de l'époque n'étaient pas suffisamment meilleurs pour justifier la délégation complète de la décision, la satisfaction personnelle de décider soi-même ayant son poids. L'arrivée de l'IA moderne, avec ses performances accrues, remet cette question au premier plan.
Une objection courante à l'IA concerne ses "hallucinations", c'est-à-dire ses erreurs formulées avec assurance. Olivier Siboni établit un parallèle avec les systèmes de pensée humains, distinguant le système 1 (intuitif, rapide, sans effort) et le système 2 (conscient, lent, exigeant). Les premières IA, dites symboliques, fonctionnaient sur des règles, à la manière du système 2. Elles étaient fiables et leurs erreurs identifiables, mais limitées face à la complexité du monde, comme une voiture autonome qui s'arrêterait devant un panneau stop sur un sac à dos d'enfant. Les IA modernes, comme ChatGPT ou Claude, s'apparentent davantage au système 1. Elles traitent d'énormes volumes de données pour identifier des motifs et faire des rapprochements, ce qui les rend étonnamment "humaines". Leurs "hallucinations" sont comparables à des réponses inventées par un élève qui n'a pas appris sa leçon mais s'exprime avec aplomb. Ces IA, comme notre système 1, sont sujettes aux biais cognitifs. Pour identifier leurs erreurs, il faut activer notre système 2, ce qui n'est pas automatique. C'est pourquoi il est crucial de vérifier les informations fournies par les IA.
Le livre propose une "carte des décisions artificielles" structurée autour de deux axes : le possible et le souhaitable. Cette carte délimite les "territoires conquis" où l'IA est à la fois possible et souhaitable, les zones de "tentation", de "codécision" et les "zones interdites".
Les **territoires conquis** sont les domaines où l'IA surpasse clairement l'humain, comme la lecture de radios médicales, l'optimisation logistique ou le trading algorithmique. Dans ces cas, la responsabilité du manager est de déléguer la décision à l'IA, sans chercher à la corriger, car cela dégraderait sa performance. Il est impératif d'être exigeant sur la validation de l'outil IA par des tests rigoureux et indépendants, plutôt que de se fier aux dires du fournisseur.
La **zone de la tentation** concerne les décisions stratégiques ou de recrutement, où les objectifs sont multiples et complexes, rendant difficile la programmation d'une IA. Confier la décision à une IA dans ces cas, c'est lui laisser choisir les finalités, ce qui est une prérogative humaine essentielle que le manager ne doit pas déléguer.
La **zone de la codécision** est la meilleure utilisation des IA génératives comme ChatGPT. Plutôt que de demander à l'IA quelle décision prendre, on lui demande de nous aider à réfléchir : quels critères considérer, quelles informations collecter, quels scénarios envisager, quels risques anticiper. L'IA devient alors un "sparring partner" qui enrichit la réflexion, jouant un rôle similaire à celui de collaborateurs ayant un temps infini et une information complète. L'IA apporte un "boost extraordinaire de méthode et de collectif", permettant de pallier les angles morts et les biais humains. Il est crucial de "briefer" l'IA pour qu'elle joue ce rôle critique plutôt que de se contenter de "brosser dans le sens du poil".
Une autre question abordée est celle de la confiance dans l'IA. De même que nous faisons confiance à des balances électroniques ou des avions sans comprendre leur fonctionnement, nous devons pouvoir faire confiance à des IA si elles ont été testées et validées par des autorités indépendantes. Cette infrastructure de la confiance est encore balbutiante pour les IA décisionnelles.
Concernant la responsabilité humaine, l'idée que "risquer sa peau" ("skin in the game") conduit à de meilleures décisions est discutée. Si un humain prend une décision et en assume les conséquences, il est motivé à la faire réussir. Cependant, certaines décisions sont des prévisions sur lesquelles l'humain n'a pas de contrôle. Dans ces cas, il faut privilégier la meilleure décision possible, quelle que soit sa source. Pour les décisions où l'exécution est clé, le manager doit en assumer la responsabilité. C'est précisément cette responsabilité qui doit le pousser à utiliser la meilleure méthode disponible, y compris l'IA, si elle est plus performante. Ne pas expliquer aux collaborateurs comment l'IA est utilisée, ou les forcer à l'utiliser sans comprendre, peut mener à une déresponsabilisation et à de moins bonnes décisions. L'IA doit être au service d'un humain responsable.
Le troisième frein à l'adoption de l'IA est la question des biais. Les IA peuvent présenter des biais sexistes ou racistes, souvent parce qu'elles sont entraînées sur des données issues de décisions humaines déjà biaisées. L'exemple de l'algorithme Compass, utilisé par des juges américains, montre qu'une IA peut être perçue comme biaisée selon la définition du biais utilisée. Ce constat complexe révèle que notre intuition du biais est souvent insuffisante. La solution n'est pas de renoncer aux algorithmes, mais de définir courageusement les biais que nous voulons combattre et de mettre l'IA au service de cette lutte. L'IA nous force ainsi à clarifier nos valeurs et ce que nous considérons comme une "bonne décision".
En conclusion, trois conseils pratiques sont donnés aux managers :
1. Ne jamais demander à une IA générative quelle décision prendre directement, car sa variabilité de réponse en fait un mauvais outil décisionnel dans ce contexte.
2. Être extrêmement exigeant sur la qualité et la validation des outils IA avant de les utiliser pour des décisions. Mettre en place des protocoles de test rigoureux.
3. Utiliser l'IA comme un miroir pour s'interroger sur la qualité de ses propres décisions et sur les objectifs que l'on poursuit. Cette démarche, même si l'on ne délègue pas la décision à l'IA, est un progrès en soi.
Enfin, le livre soulève la question des "zones interdites" où, même si l'IA pourrait prendre de meilleures décisions, des raisons de principe poussent à confier la décision à un humain. L'exemple de la justice pénale illustre que le processus de décision, le "chemin", peut être plus important que le résultat seul. La justice doit non seulement rendre un verdict, mais aussi "montrer que la justice est rendue", ce qui nécessite une implication humaine. La détermination de ces zones interdites est un débat démocratique essentiel sur la société que nous souhaitons construire, au-delà des préférences éthiques individuelles des développeurs d'IA.