Par Francis Jubert
Faut-il encore décider ? La décision humaine à l’ère de l’intelligence artificielle: Éric Hazan et Olivier Sibony (Odile Jacob, 2025, 272 p.)
Avec “Faut-il encore décider ? La décision humaine à l’ère de l’intelligence artificielle”, Éric Hazan et Olivier Sibony signent un essai salubre sur un sujet trop souvent abandonné aux ingénieurs ou aux moralistes de circonstance.
Faut-il encore décider ? Cette interrogation d’Éric Hazan et Olivier Sibony, deux anciens McKinsey rompus aux arcanes de la décision stratégique, frappe comme un couperet : nous sommes entrés dans un âge où la machine décide souvent mieux que l’homme. Diagnostic médical, recrutement, arbitrage judiciaire : partout, l’algorithme excelle. Mais qui arbitrera lorsque l’expert humain et l’intelligence artificielle divergent ?
Mais le livre ne se laisse pas enfermer dans une opposition paresseuse entre « hommes » et « machines ». « Ceci n’est pas un livre sur l’IA, c’est un livre sur la décision », préviennent les auteurs. Leur question n’est pas de savoir si l’algorithme est performant – il l’est souvent – mais ce qui se joue lorsque l’algorithme et l’expert humain ne sont pas d’accord. Qui doit avoir le dernier mot, et au nom de quoi ? Que devient une société qui, à tort ou à raison, confie de plus en plus de décisions importantes à des systèmes opaques, conçus loin des lieux où leurs effets se feront sentir ?
L’intérêt de l’ouvrage est précisément là. Hazan et Sibony refusent à la fois l’optimisme béat de la « substitution » (demain, les médecins, juges ou professeurs seraient superflus) et la technophobie réactive qui se contente de dénoncer la froideur des chiffres. Ils décrivent au contraire une zone de frottement – ce qu’on pourrait appeler une zone grise de la décision – où l’algorithme propose, mais où la décision engage toujours, ultimement, une personne. Et cette personne n’est pas réductible à un nœud de calculs : elle est un sujet, cause responsable de ses actes.
C’est dans le champ médical que cette tension apparaît avec le plus de netteté. Les auteurs le rappellent : un système d’aide au diagnostic peut, en agrégeant des milliers de cas, surpasser statistiquement l’intuition d’un praticien isolé. Faut-il alors « s’en remettre » à la machine au risque de transformer le médecin en simple exécutant de protocoles optimisés ? Ou bien faut-il maintenir, parfois contre la machine, la part de jugement, de prudence, de connaissance singulière du patient qui fait la dignité d’un art médical ?
Comme l’observait Nicolas Princen, ancien conseiller technique de Nicolas Sarkozy pour le numérique lors de la première Nuit de la liberté (https://www.youtube.com/watch?v=xVnfgM_86Kk&t=3s), cette ambivalence est criante : certains se méfient de l’intelligence artificielle tant qu’elle reste abstraction spéculative, alors qu’ils l’acceptent sans réserve dès lors qu’elle se concrétise en conduite automatique – systèmes comme ceux de Mercedes Drive Pilot ou Toyota Mobility Teammate, tendant explicitement vers zéro accident sur la route en sauvant des vies par des freinages d’urgence autonomes et une vigilance surhumaine. Là encore, la question n’est pas de savoir qui se trompe le moins souvent, mais qui répond – devant le malade, devant la société, parfois devant le juge – des conséquences de la décision.
À cet égard, il est éclairant de mettre en regard la réflexion d’Eric Hazan et d’Olivier Sibony avec la position d’un praticien-entrepreneur comme le Dr Adrien Serey, fondateur de la start-up MedCopilot. Cette solution d’IA générative se présente comme « le copilote des soignants », chargée de structurer l’information clinique, de produire des synthèses, d’aider à la consultation des recommandations et à la rédaction de documents médicaux. Elle promet de « transformer des données cliniques dispersées en synthèses structurées » et d’accompagner les décisions en s’adossant aux recommandations françaises et européennes les plus récentes.
Or, le discours de MedCopilot semble écrire en langage opérationnel ce que le livre d’ Éric Hazan et d’Olivier Sibony formule en termes philosophiques. La plateforme revendique explicitement un « cadre réglementaire et éthique fort » où « le médecin reste en permanence au centre de la décision clinique ». Elle insiste sur la « validation humaine obligatoire » : le praticien doit sélectionner les données utilisées, relire et valider les contenus générés, exercer une relecture critique facilitée par un sourcing transparent, et « conserve l’entière responsabilité clinique des contenus validés et des choix thérapeutiques ». L’IA, martèle la start-up, est un copilote, non un substitut.
Ce vocabulaire n’est pas un simple habillage marketing. Il fait apparaître, en creux, ce que l’on perdrait en basculant vers un modèle où la machine déciderait « mieux que nous » : la chaîne de responsabilité médicale, le lien singulier avec le patient, la possibilité même d’un jugement prudentiel, ajusté à la fragilité d’une situation. En rappelant que « la décision finale reste strictement médicale », le Dr Serey reconduit, dans le langage du RGPD, de l’hébergement HDS et de la conformité à l’ANSSI, une intuition très proche de celle de Hazan et Sibony : une société décente ne peut déléguer entièrement ni la décision ni la responsabilité à des systèmes techniques, fussent-ils souverains, sécurisés et performants.
Pour un lecteur conservateur au sens substantiel du terme, qui se soucie autant de continuité institutionnelle que de respect des métiers, l’alliance implicite qui se dessine entre un essai de philosophie de la décision et une solution d’IA médicale française n’a rien d’anecdotique. Elle montre qu’il existe une troisième voie entre la fascination pour le remplacement de l’humain et la dénonciation pure et simple du numérique en santé. Cette voie consiste à réarmer la responsabilité professionnelle à l’intérieur même des dispositifs techniques : exiger la traçabilité des sources, garantir la souveraineté des données, mais surtout affirmer, sans ambiguïté, que c’est l’homme – ici le médecin- qui répond de la décision, et non l’algorithme.
On pourra regretter qu’ Éric Hazan et Olivier Sibony restent parfois au niveau des grands principes, là où les acteurs de terrain, tels que MedCopilot, s’efforcent d’inventer des solutions concrètes pour intégrer l’IA dans la pratique clinique. Mais c’est précisément parce que des dispositifs très opérationnels existent déjà qu’un travail conceptuel, rigoureux, sur la nature de la décision humaine devient urgent.
En rappelant que la question politique essentielle est « qui décide, au nom de qui, et selon quelles règles ? », leur essai fournit un cadre pour évaluer ces solutions, au-delà des promesses d’efficacité.
Et cette urgence s’impose d’autant plus que la R&D en « biologie générative » atteint des sommets phénoménaux : Evo 2, surnommé le « ChatGPT de l’ADN », prédit les effets de mutations sur les gènes responsables de cancers ou identifie de nouvelles variantes pathogènes à partir de 9,3 billions de paires de bases ; de même, Profluent conçoit via IA des protéines CRISPR entièrement nouvelles comme OpenCRISPR-1 – un éditeur génétique open source qui surpasse SpCas9 en précision et spécificité pour modifier l’ADN humain dans des thérapies ciblées“Faut-il encore décider ?” ne dira pas au lecteur ce qu’il doit penser de tel ou tel outil d’IA médicale. Il lui propose mieux : un critère de discernement. Partout où l’on vous promet que « la machine décidera mieux que vous », demandez qui portera, au final, le poids de la décision et la charge de la faute possible. Partout où l’on vous assure que « l’humain reste au centre », vérifiez si cette centralité se traduit en responsabilité réelle, et non en simple posture rhétorique. C’est à ce prix que l’on pourra, demain, accueillir sans naïveté les copilotes numériques tout en prenant au sérieux ce qu’implique, pour une civilisation, le droit – et le devoir – d’encore décider.

