0,00 EUR

Votre panier est vide.

Recension du livre de Bruno Patino, Le Temps de l’obsolescence humaine

Par Francis Jubert

Bruno Patino, Le Temps de l’obsolescence humaine (Grasset, 2026, 208 pages)

Entre prophétie du déclin et pari sur l’intelligence humaine, la révolution de l’intelligence artificielle reconfigure en profondeur notre rapport au savoir, à la décision et à la souveraineté. Dans cette recension exigeante, Francis Jubert restitue la puissance du diagnostic de Bruno Patino tout en en dévoilant les biais : un catastrophisme latent qui tend à transformer une mutation technique en récit d’obsolescence anthropologique. À rebours de cette lecture, nourrie par les analyses de Guy Mamou-Mani, Olivier Babeau, Laurent Alexandre, Andy Yen ou encore Frédéric Nouel, l’article met en lumière une autre voie : celle d’une intelligence artificielle qui, loin d’effacer l’homme, en redéfinit les conditions d’action. Se dessine alors une alternative décisive – subir le récit du déclin ou construire une politique de maîtrise – qui engage directement l’avenir des sociétés européennes.

Une critique désormais systémique du numérique

Bruno Patino, président d’Arte, publie avec Le Temps de l’obsolescence humaine un essai consacré à la mutation contemporaine des intelligences artificielles dites « agentiques ». Dans le prolongement de La Civilisation du poisson rouge et de Submersion, l’auteur poursuit une trajectoire désormais bien identifiable : celle d’une critique globale du numérique, où la technologie cesse d’être un simple outil pour devenir le principe englobant d’une transformation anthropologique, voire d’une dissolution progressive de l’humain lui-même.

L’ouvrage est construit en trois mouvements – l’ère de la donnée, l’imbrication homme/machine et l’économie de la relation – qui dessinent une même dynamique : celle d’un basculement civilisationnel supposé irréversible, où l’Homo sapiens serait progressivement dépossédé de ses facultés décisionnelles au profit d’« agents » numériques autonomes. Ces systèmes ne se contenteraient plus d’assister l’utilisateur : ils anticiperaient ses intentions, orienteraient ses comportements et reconfigureraient, en profondeur, la structure même de la décision humaine.

Le récit du « dernier sapiens »

Dès les premières pages, Bruno Patino installe le lecteur dans une tonalité de rupture historique : « Nous sommes à la fin d’une histoire. Celle du dernier sapiens. » Cette formule, à la fois synthèse et proclamation, donne le ton de l’ensemble : celui d’un récit où l’innovation technologique est immédiatement traduite en basculement ontologique. Tout l’essai s’organise dès lors autour d’une même hypothèse implicite : l’idée que l’IA ne prolonge pas l’humain, mais le rend progressivement obsolète.

L’économie de la relation et la capture de la volonté

La première partie s’attache à ce que l’auteur nomme l’économie de la relation. Dans ce cadre, l’attention, déjà fragilisée par les plateformes numériques, céderait la place à une logique de dépendance anticipative. Les agents intelligents ne se contenteraient plus de répondre aux requêtes : « ils agissent pour nous, anticipant nos désirs avant qu’ils ne se formulent». L’enjeu ne serait donc plus la captation de l’attention, mais la substitution progressive de la volonté elle-même.

L’imbrication homme-machine et la tentation de la sécession

La deuxième partie élargit le diagnostic à l’imbrication croissante entre humains et systèmes techniques. Bruno Patino mobilise ici des figures emblématiques de la Silicon Valley, notamment Elon Musk, qu’il présente comme l’incarnation d’un imaginaire techno-libertarien tendant à s’extraire des médiations politiques classiques. L’auteur y lit l’émergence d’une logique de sécession, où les acteurs technologiques chercheraient à produire leurs propres normes, en marge des cadres démocratiques traditionnels.

L’économie émotionnelle et l’extraction de l’humain

La troisième partie adopte une tonalité nettement plus spéculative. Bruno Patino y décrit une « mine à ciel ouvert émotionnelle », où l’expérience humaine devient une ressource extractible, optimisable et industrialisée. L’humain contemporain apparaît alors comme un être saturé, privé de sommeil, fragmenté dans son attention, et progressivement converti en support d’optimisation algorithmique. L’épuisement cognitif et affectif devient ainsi le symptôme visible d’une transformation plus profonde : la substitution du vécu par sa modélisation technique.

Une puissance descriptive réelle mais séduisante

L’écriture de Bruno Patino est ici pleinement déployée : ample, suggestive, souvent brillante dans sa capacité à relier des phénomènes hétérogènes. On y retrouve un inventaire désormais familier des pathologies contemporaines : addiction attentionnelle, solitude numérique, fragmentation des identités, montée d’une post-vérité relationnelle. L’auteur montre ainsi que l’empathie devient une ressource stratégique : elle est désormais modélisée et exploitée par les plateformes pour orienter les comportements et capter l’attention.

La force de l’essai tient précisément à cette capacité de synthèse, qui donne forme à des intuitions largement partagées sur les effets des technologies numériques. Mais cette puissance descriptive se paie d’un déséquilibre structurel : celui d’un basculement constant du diagnostic vers la prophétie, de l’analyse vers l’eschatologie.

Une grille de lecture catastrophiste

Car le cœur du problème n’est pas tant ce que Bruno Patino décrit que la manière dont il l’interprète. L’ensemble du raisonnement repose sur une tendance à convertir toute évolution technique en indice d’un effondrement global. L’IA agentique devient ainsi moins un objet d’analyse qu’un révélateur d’une disparition annoncée de l’humain comme sujet autonome.

Cette pente catastrophiste conduit à une simplification sensible des dynamiques contemporaines. L’opposition structurante du livre entre un monde ancien, hérité de l’ordre gutenbergien de la vérité factuelle, et un monde numérique dominé par la manipulation et la dissolution du réel, produit une grille de lecture trop univoque. Elle tend à homogénéiser des systèmes techniques pourtant multiples, traversés de tensions, de contre-usages et de réappropriations permanentes.

Des contre-forces ignorées

Elle occulte également les capacités de régulation déjà à l’œuvre. L’Union européenne, avec l’AI Act, tente d’instaurer un cadre juridique de gestion des risques liés à l’intelligence artificielle. Les dynamiques open source, loin d’être marginales, constituent des espaces de diffusion et de transparence technique qui contredisent l’idée d’une monopolisation totale du numérique par quelques acteurs privés. Plus largement, les sociétés démocratiques ont montré à de nombreuses reprises leur capacité à encadrer des innovations majeures sans en subir une dissolution structurelle.

C’est ici que se révèle le biais principal de l’ouvrage : celui d’un catastrophisme systématique, qui transforme une mutation technologique réelle en scénario d’effondrement anthropologique. À force de privilégier une lecture unilatérale des effets du numérique, Bruno Patino tend à effacer les continuités historiques, les résistances sociales et les capacités d’adaptation institutionnelle.

L’idéologie de l’obsolescence annoncée

Il faut donc lire ce livre non comme une prophétie, mais comme un symptôme intellectuel : celui d’une époque travaillée par une inquiétude technologique croissante, parfois au risque de confondre vigilance critique et paralysie interprétative. L’alerte est utile ; sa systématisation en récit d’apocalypse l’est beaucoup moins.

Cette tentation du catastrophisme technologique n’est pourtant pas nouvelle. Dès les premières grandes vagues de transformation numérique, certains acteurs ont cherché à en corriger les excès interprétatifs. À cet égard, Guy Mamou-Mani fait figure de précurseur. Avec L’Apocalypse numérique n’aura pas lieu, il s’inscrivait déjà en faux contre les visions déclinistes annonçant la disparition programmée de l’humain sous l’effet des technologies. Plus récemment, dans Pour un numérique humain. Les 8 conditions d’une transformation réussie (Hermann, 2024), il prolonge cette réflexion en appelant à « parier sur l’intelligence humaine » plutôt qu’à redouter son effacement.

Cette ligne de pensée repose sur une idée simple mais structurante : le risque principal n’est pas tant dans la puissance des technologies que dans la manière dont les sociétés choisissent de les interpréter et de les intégrer. Comme le souligne Guy Mamou-Mani dans les dernières pages de son ouvrage, « notre ennemi, ce n’est pas le robot […] notre ennemi, c’est nous-mêmes, notre pusillanimité, notre sectarisme ». Autrement dit, le danger ne réside pas dans une supposée autonomie hostile des systèmes techniques, mais dans le déficit de lucidité et de volonté des sociétés humaines face à leur propre création.

Ce déplacement du regard est décisif. Il invite à sortir d’une opposition stérile entre technophobie et techno-béatitude, pour replacer le débat sur un terrain plus exigeant : celui des faits, des usages et des conditions concrètes de la maîtrise. Là où Bruno Patino tend à inscrire l’intelligence artificielle dans une logique d’effacement anthropologique, Guy Mamou-Mani rappelle que toute transformation technique est d’abord une épreuve de responsabilité collective.

En ce sens, la vision portée par Le Temps de l’obsolescence humaine apparaît moins comme un diagnostic qu’une construction intellectuelle marquée par un tropisme pessimiste. Elle participe d’une idéologie de l’obsolescence annoncée, où la complexité des mutations en cours est ramenée à un récit univoque de dépossession.

Anthropologie du déclin contre anthropologie de la transformation

Cette lecture, pourtant, est loin de faire consensus. À rebours du diagnostic de Bruno Patino, nombre d’analystes et de praticiens soulignent au contraire la capacité de l’intelligence artificielle à reconfigurer positivement les activités humaines sans les dissoudre. Dans Ne faites plus d’études ! (Fayard, 2024), Olivier Babeau et Laurent Alexandre défendent ainsi l’idée d’une mutation des compétences plutôt que leur disparition, où l’automatisation libère du temps cognitif pour des tâches à plus forte valeur ajoutée.

Dans un registre plus concret encore, Frédéric Nouel, associé senior du cabinet Gide Loyrette Nouel, souligne que l’intelligence artificielle ne modifie pas la nature même des métiers de responsabilité. Comme il le résume, l’IA « n’apporte pas le discernement, ni l’analyse fine d’un contexte, ni la maîtrise du narratif » attendus d’un avocat ; elle permet en revanche d’« accélérer le traitement des faits » et de « consacrer davantage de temps à la réflexion ». Loin d’effacer le professionnel, elle tend ainsi à en renforcer la valeur ajoutée.

Deux visions de l’homme se trouvent ici implicitement opposées. Chez Bruno Patino domine une anthropologie du déclin, dans laquelle la technique, en anticipant nos choix, finit par dissoudre la volonté elle-même. À l’inverse, les analyses d’Olivier Babeau, de Laurent Alexandre ou de Frédéric Nouel relèvent d’une anthropologie de la transformation, où l’innovation technique reconfigure les conditions d’exercice de l’intelligence humaine sans en abolir le principe. Autrement dit, l’IA ne supprime pas la décision : elle en déplace le centre de gravité, en exigeant davantage de discernement, de hiérarchisation et de responsabilité.

Recomposer les conditions d’action plutôt que constater l’obsolescence

À rebours de cette perspective, une lecture plus équilibrée conduit à une conclusion différente : l’IA agentique ne signe pas l’obsolescence de l’humain, mais la recomposition de ses conditions d’action. Elle pose des enjeux réels de dépendance, de captation attentionnelle et de souveraineté cognitive, mais elle peut également devenir, si elle est politiquement encadrée, un outil de délestage des tâches aliénantes et de réorganisation des capacités collectives.

C’est ici que se joue l’essentiel : non dans une opposition métaphysique entre l’homme et la machine, mais dans la capacité des sociétés à structurer les conditions politiques de l’innovation. Car la question centrale n’est pas celle d’une supposée disparition de l’humain, mais celle de sa maîtrise des infrastructures techniques qui façonnent désormais une part croissante du réel social.

Souveraineté numérique et refus des deux impasses

Dans cette perspective, le débat doit être profondément reconfiguré. Il ne s’agit ni de céder à un laisser-faire technologique qui abandonnerait les sociétés aux logiques des plateformes globales, ni de se réfugier dans un catastrophisme culturel qui transforme chaque innovation en menace ontologique. Ces deux attitudes, apparemment opposées, convergent en réalité dans une même forme de renoncement politique.

L’enjeu véritable est celui de la souveraineté numérique et cognitive. Les États européens, et singulièrement la France, disposent encore de leviers pour structurer ce champ : réglementation, investissement industriel, recherche publique, infrastructures de calcul, politiques de formation. Mais ces leviers ne produiront d’effets qu’à condition d’être pensés dans une logique de puissance et non de simple régulation défensive.

L’IA comme champ de puissance

L’histoire des techniques montre que les grandes mutations ne conduisent pas mécaniquement à la perte de contrôle, mais qu’elles deviennent des instruments de puissance pour ceux qui savent les organiser politiquement. L’intelligence artificielle agentique n’échappe pas à cette règle. Elle peut devenir un facteur de dépendance si elle est abandonnée aux seuls intérêts privés globaux ; elle peut aussi constituer un levier stratégique majeur si elle est intégrée dans une doctrine de souveraineté assumée.

C’est à cette condition seulement que l’on pourra dépasser les récits d’obsolescence pour entrer dans une logique de maîtrise. Non dans le refus de la technique, mais dans sa domestication politique. Non dans la peur de l’effacement de l’humain, mais dans la reconquête des conditions de son autonomie.

Conclusion : choisir entre le récit du déclin et la politique de la maîtrise

Ainsi relu, le livre de Bruno Patino apparaît moins comme une prophétie que comme un révélateur : celui d’une tentation contemporaine de penser la technique sur le mode du déclin. En posant comme horizon l’obsolescence de l’humain, l’auteur s’inscrit dans une anthropologie inquiète, où l’innovation est d’emblée interprétée comme un processus de dépossession.

Or cette lecture n’est ni la seule possible, ni la plus opératoire. À l’inverse, une anthropologie de la transformation invite à considérer l’intelligence artificielle non comme une force d’effacement, mais comme un facteur de recomposition des capacités humaines. Elle ne nie pas les risques – dépendance, captation attentionnelle, fragilisation du jugement – mais elle refuse d’en faire un destin. Elle y voit au contraire un appel à redéfinir les conditions d’exercice de la liberté dans un environnement technologique nouveau.

C’est dans cet écart que se joue désormais l’essentiel. Non dans une opposition abstraite entre l’homme et la machine, mais dans le choix entre deux imaginaires politiques : celui d’un déclin subi, qui conduit à l’impuissance et à la plainte, et celui d’une maîtrise assumée, qui suppose organisation, investissement et volonté.

Car l’intelligence artificielle agentique constitue d’abord un enjeu de puissance. Elle engage la capacité des États à structurer leurs infrastructures numériques, à protéger leurs données, à former leurs élites et à orienter l’innovation selon leurs propres finalités. Elle appelle une politique industrielle, juridique et culturelle cohérente, à rebours des deux facilités symétriques que sont le laisser-faire technologique et le catastrophisme paralysant.

Refuser l’idéologie de l’obsolescence annoncée, ce n’est pas minimiser les risques : c’est se donner les moyens d’y répondre. C’est affirmer que l’histoire des techniques n’est pas celle d’une disparition de l’homme, mais celle de ses reconfigurations successives, sous condition de maîtrise politique.

L’alternative est donc claire : soit l’Europe s’installe dans une dépendance technologique assumée, au risque d’une marginalisation progressive dans la hiérarchie des puissances, soit elle engage résolument un mouvement de reconquête de sa souveraineté industrielle et numérique. Cette alternative, longtemps théorique, devient aujourd’hui concrète à mesure que les ruptures induites par l’intelligence artificielle redessinent les chaînes de valeur, les rapports de puissance et jusqu’à la nature même du travail humain.

C’est dans ce contexte que s’inscrit la tribune publiée dans Le Figaro le 15 avril , appelant les États européens – et la France au premier chef – à se doter d’instruments de protection et de promotion de leur industrie comparables au Buy American Act. Derrière cette référence, il ne s’agit pas seulement de préférences commerciales, mais d’une doctrine assumée : celle d’un État stratège, capable d’orienter la commande publique, de soutenir ses filières critiques et de refuser la naïveté d’un libre-échange intégral dans un monde structuré par la rivalité des puissances.

Les signataires de ce texte, parmi lesquels deux anciens ministres, Arnaud Montebourg et Jean-Louis Borloo, proposent ainsi l’organisation d’un référendum visant à instaurer une préférence française en matière industrielle. Une telle proposition, qui aurait été jugée iconoclaste il y a encore quelques années, s’inscrit désormais dans une dynamique plus large de remise en cause des dogmes économiques hérités des décennies post-guerre froide.

Car la question posée dépasse largement le seul cadre industriel : elle touche à la capacité d’une nation – ou d’un continent – à demeurer un sujet de l’histoire. Dans le champ de l’intelligence artificielle, cette interrogation est encore plus aiguë. Les modèles, les infrastructures de calcul, les données et les standards sont aujourd’hui massivement contrôlés par des acteurs américains et, de plus en plus, chinois. 

De nombreux services se prétendent en effet souverains, fait remarquer Andy Yen, fondateur de Proton, lors du Forum InCyber qui se tenait à Lille : « SAP vient de lancer un cloud souverain en Allemagne. En réalité, il s’agit de Microsoft Azure et Open AI qui tournent dans un centre de données allemand. Ce n’est en rien souverain, car le logiciel ne vous appartient pas. » Accepter cette situation, c’est accepter que les outils qui organiseront demain la production, l’information, la décision publique et privée échappent largement à toute maîtrise européenne.

L’enjeu est donc celui d’une dépendance systémique. Une économie qui ne maîtrise ni ses plateformes numériques, ni ses capacités de calcul, ni ses briques logicielles critiques, se trouve mécaniquement reléguée à un rôle d’utilisateur – voire de simple marché captif. Dans un tel schéma, l’obsolescence humaine que nous évoquions précédemment ne serait pas seulement individuelle (par la substitution du travail par la machine), mais collective : celle d’un corps politique incapable d’influer sur les conditions matérielles de son existence.

À cet égard, la référence au Buy American Act est éclairante. Adopté en 1933, lors de la Grande Dépression, ce dispositif visait à réserver une part significative de la commande publique aux entreprises américaines. Il ne s’agissait pas d’un repli autarcique, mais d’un instrument de reconstruction de la puissance productive nationale. Les États-Unis n’ont, depuis lors, jamais renoncé à cette logique – y compris dans les secteurs les plus avancés, comme les technologies numériques ou la défense.

L’Europe, à l’inverse, a longtemps fait le choix d’une ouverture asymétrique, désarmant progressivement ses instruments de politique industrielle au nom de la concurrence et du marché intérieur. Cette orientation apparaît aujourd’hui en décalage avec les réalités d’un monde où les États stratèges sont de retour, et où la technologie constitue le cœur de la souveraineté.

L’appel à un référendum sur la préférence industrielle française traduit ainsi une prise de conscience : celle que les choix économiques fondamentaux doivent être réinscrits dans le champ démocratique. Car il ne s’agit pas seulement d’arbitrages techniques, mais d’un choix de civilisation. Veut-on demeurer une puissance capable de produire, d’innover et de décider, ou accepte-t-on de devenir un périphérie prospère mais dépendante, intégrée dans des écosystèmes technologiques conçus ailleurs ?

Dans le contexte de l’intelligence artificielle, cette interrogation prend une dimension quasi existentielle. Une société qui délègue à des systèmes extérieurs – entraînés sur des données qu’elle ne contrôle pas, opérés sur des infrastructures qui lui échappent – des fonctions aussi essentielles que l’information, la santé, l’éducation ou la défense, s’expose à une forme de dépossession silencieuse.

Dès lors, la question posée par les signataires de la tribune dépasse leur seule proposition institutionnelle. Elle invite à repenser en profondeur les conditions de possibilité d’une autonomie stratégique européenne à l’ère de l’IA. Cela suppose des investissements massifs, une coordination politique renforcée, mais aussi une évolution des mentalités : sortir d’une culture de la régulation défensive pour entrer dans une logique de puissance assumée.À défaut, l’Europe pourrait bien découvrir que l’obsolescence humaine qu’elle redoute n’est que le symptôme d’une obsolescence plus large – celle de sa propre capacité à faire l’histoire.

Voir aussi

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici