L’IA ne change pas l’homme, elle le révèle

Par Serge Van Cutsem

Au fil des derniers mois, j’ai consacré plusieurs publications à l’Intelligence Artificielle, chacune abordant une facette différente d’un même phénomène.

Dans Maîtrisez l’IA avant qu’elle ne vous maîtrise, il s’agissait d’abord de poser un principe simple : l’intelligence artificielle n’est ni une entité autonome ni une conscience émergente, mais un outil dont le pouvoir dépend entièrement de la manière dont nous choisissons de l’utiliser. Le véritable enjeu n’est pas technologique, mais humain : comprendre l’outil pour éviter d’en devenir dépendant.

Avec IA et nivellement éducatif : la fabrique douce de l’égalitarisme par le bas, l’analyse s’est déplacée vers l’école. Non pour accuser la technologie, mais pour montrer qu’elle révélait une crise bien plus ancienne : celle d’un système éducatif ayant progressivement cessé d’apprendre à penser, préférant évaluer, normaliser et produire des diplômes plutôt que transmettre une exigence intellectuelle.

Enfin, dans L’IA, miroir de notre époque, la réflexion s’est élargie. L’intelligence artificielle y apparaissait moins comme une innovation que comme un révélateur civilisationnel, mettant en lumière nos contradictions collectives, notre rapport au savoir, à l’effort et, plus profondément encore, notre tentation croissante de déléguer ce qui faisait jusqu’ici la singularité humaine : le jugement.

Ces trois textes, quoique différents, traitaient en réalité une seule et même question globale : Est-ce que l’IA transforme l’Homme ? ou est-ce qu’elle révèle ce qu’il était déjà en train de devenir ?

C’est précisément cette interrogation qui m’est revenue à l’esprit en écoutant récemment une excellente interview d’Idriss Aberkane[1], qui les éclaire et les confirme d’une manière presque inattendue. C’était comme si, par un autre chemin intellectuel, on arrivait au même point d’observation, et c’est cela qui m’a interpellé.

J’ouvre ici une parenthèse sur mon parcours personnel, alors que c’est un sujet que je n’aborde jamais. Mais il se fait que le parallèle entre mon parcours et les explications d’Idriss Aberkane a quelque chose d’ironique, et j’assume ce mot, dans le fait que mes publications sont écrites par quelqu’un dont le parcours scolaire s’est arrêté au certificat d’études primaires, certes suivi d’un début cycle secondaire inférieur que j’ai magnifiquement raté sans en éprouver de honte particulière. Pas du tout par bravade, mais parce que très tôt, j’avais compris intuitivement mais sans en être conscient, ce qu’Idriss Aberkane démontre aujourd’hui avec rigueur : l’école et la connaissance sont deux choses différentes, et confondre les deux est peut-être la plus coûteuse des erreurs collectives. À 18 ans, en 1970, j’ai opté pour l’informatique, pas parce qu’on me l’avait conseillé, car dans ces temps-là les enseignements officiels n’existaient pas, mais parce que d’une part mon papa installait et maintenait les premiers mainframes IBM et d’autre part cette matière m’a plu immédiatement. Il s’agissait d’écrire des instructions permettant à une machine de résoudre des problèmes et apporter des solutions. Mais pour y parvenir, c’était de la correction permanente, au sens où Aberkane l’entend : tu essaies, tu échoues, tu ne comprends pas pourquoi, tu recommences. Pas de note, pas de validation, juste la réalité du résultat comme seul juge. C’est net et sans appel ni seconde session, c’est parfois décourageant mais intellectuellement très libérateur.

Cinquante-cinq ans plus tard, je n’ai jamais cessé d’apprendre, et pas uniquement dans le domaine de l’informatique. Non par discipline, obligation, stratégie de carrière ou par crainte d’être dépassé, mais uniquement par plaisir. C’est peut-être cela, le message le plus important que je puisse faire passer dans ce texte : je n’ai jamais eu besoin de courage pour apprendre, parce qu’apprendre n’a jamais été pour moi une contrainte. C’était, et c’est toujours, une joie. C’est certainement ce que l’enseignement d’aujourd’hui ne procure plus.

Je ferme la parenthèse.

En 2020, la crise du “Covid-circus” aidant, j’ai commencé à écrire. Journaliste citoyen, puis essayiste, sur des sujets qui me semblaient importants et insuffisamment traités avec honnêteté. Certains me demandaient si c’était une reconversion, mais non …  c’était une continuation, mais dans un nouveau domaine à explorer, un nouveau challenge, de nouvelles erreurs à faire, de nouvelles corrections à intégrer. La même mécanique intellectuelle depuis le début.

Quand l’intelligence artificielle est apparue dans ma vie, ce fut d’abord comme phénomène à observer, puis comme outil à utiliser, mais elle n’a jamais changé mon rapport à la connaissance, elle l’a simplement accéléré. Et c’est précisément ce que j’ai essayé de démontrer dans cette série de textes : l’IA ne transforme pas, elle révèle. Elle a révélé chez moi un plaisir d’apprendre qui existait bien avant elle. Elle révèle chez d’autres une dépendance à la réponse facile qui existait bien avant elle aussi.

Mon cas personnel n’a rien d’exceptionnel dans son principe, il l’est peut-être dans sa durée. Je suis simplement quelqu’un que le système scolaire a lâché (ou lassé…) assez tôt pour ne pas avoir eu le temps de me convaincre que l’apprentissage était une obligation plutôt qu’un plaisir. C’est un accident de parcours qui s’est révélé être une chance. Des milliers de personnes aussi curieuses, aussi capables, ont cru le verdict de l’école. Elles se sont tues et elles ont intériorisé l’échec scolaire comme un échec intellectuel définitif. C’est là le vrai coût humain de ce que j’ai appelé dans un texte précédent la fabrique douce de l’égalitarisme par le bas.

L’IA aurait pu m’intimider à 73 ans mais elle ne l’a pas fait, parce que la curiosité ne connaît pas l’âge quand elle n’a jamais été éteinte. Elle aurait pu me servir de substitut à la pensée, mais je ne la laisserai jamais faire, parce que je sais depuis longtemps que la réponse obtenue sans effort ne m’appartient pas vraiment. Elle est et doit rester un outil, certes le meilleur que j’aie eu entre les mains depuis que j’ai posé les doigts sur mon premier clavier en 1970, mais rien de plus, et rien de moins.

Et si ce texte, écrit par un primaire à 73 ans, peut convaincre une seule personne que son rapport à l’apprentissage est plus précieux que n’importe quel diplôme, alors cette publication aura été utile.

Car plus on observe l’intelligence artificielle, son évolution et surtout son utilisation, moins elle apparaît comme une rupture technologique, et plus elle ressemble à un miroir impitoyable. Un miroir qui rend visibles nos failles que nous pouvions encore ignorer lorsque l’effort intellectuel restait incontournable.

L’IA ne nous remplace pas, et ne nous remplacera jamais, elle supprime simplement certaines résistances et elle révèle alors ce qui subsiste lorsque l’effort personnel disparaît. C’est là que commence réellement le problème, car si la machine semble parfois penser à notre place, ce n’est peut-être pas parce qu’elle devient plus intelligente, mais surtout parce que nous acceptons de le devenir de moins en moins. En bref, soit l’IA devient un amplificateur de connaissances et d’intelligence, soit elle devient un amplificateur de connerie, c’est un choix.

C’est probablement là que se situe le malentendu central de notre époque. Nous observons l’intelligence artificielle comme un phénomène extérieur, presque étranger, dont nombre d’entre nous ont une peur viscérale pas du tout justifiée, alors qu’elle agit surtout comme un accélérateur de dynamiques déjà présentes. Elle ne crée pas la paresse intellectuelle, elle la rend confortable. Elle ne provoque pas la fragilité éducative, elle la rend visible. Elle ne détruit pas l’esprit critique, elle révèle simplement à quel point celui-ci s’était déjà affaibli, et pas du tout à cause de l’IA qui n’existait pas.

Dans l’interview évoquée plus haut, Idriss Aberkane insiste sur un point qui paraît évident mais que notre époque semble avoir oublié : on n’apprend pas par la notation à une réponse, mais par la correction à une erreur. L’apprentissage réel naît de la confrontation avec l’erreur, du temps nécessaire pour comprendre pourquoi on s’est trompé.

On comprend alors pourquoi l’intelligence artificielle ne bénéficie pas à tous de la même manière. Ceux qui ont appris à apprendre seuls utilisent spontanément mieux l’IA que ceux qui ont appris principalement à être évalués. Les premiers y voient un interlocuteur de recherche et de correction ; les seconds risquent davantage d’y chercher une réponse définitive.

Le problème est que l’intelligence artificielle supprime cette friction avec la correction, car elle fournit immédiatement une formulation correcte, structurée, convaincante. Le résultat paraît juste, et est considéré comme tel, mais le chemin intellectuel qui y conduit n’existe plus et on ne remet même plus en question la réponse de l’IA, qui n’est pourtant pas toujours exacte (bonjour les hallucinations). Ne perdez jamais de vue que l’intelligence commence avec le doute, toujours ! Et cela vaut aussi pour l’IA. Posez la même question complexe à quatre IA différentes, vous constaterez que les 4 réponses ne sont pas identiques et surtout, parfois elles se contredisent.

C’est ici que l’illusion commence, car une réponse parfaite peut donner le sentiment d’avoir compris, alors qu’elle ne fait que masquer l’absence d’effort cognitif. L’élève rend un texte impeccable, le professionnel obtient une synthèse instantanée, le citoyen reçoit une explication prête à l’emploi. Tout fonctionne ! Mais seulement en apparence, et progressivement, la capacité à produire soi-même cette pensée s’érode pour finir par disparaître. Par exemple, une étude publiée en février 2025 met en évidence que l’utilisation excessive de l’IA pourrait fragiliser notre capacité à penser par nous-mêmes, en réduisant l’exercice mental quotidien [2].

Ce phénomène n’est pas nouveau. Chaque grande innovation technique a déplacé certaines compétences humaines. L’écriture a diminué la mémoire orale, la calculatrice a marginalisé le calcul mental, le GPS a affaibli le sens de l’orientation. Mais aucune de ces technologies n’avait touché aussi directement le cœur même du raisonnement. Avec l’IA, ce n’est plus seulement une compétence qui est externalisée, mais la structuration même de la pensée qui a été déléguée, et c’est là que la question cesse d’être technologique pour devenir anthropologique.

Nous découvrons soudain que beaucoup d’institutions reposaient déjà sur une illusion de compréhension. L’école en particulier se retrouve face à son propre miroir. On accuse les étudiants de déléguer leur travail à l’IA, mais la machine ne fait qu’exposer une réalité déjà bien en  place depuis longtemps : l’instruction c’est apprendre à fournir une réponse prémâchée et imposée plutôt qu’apprendre à penser et à douter, à remettre en question des dogmes. Pendant des années, on a valorisé la restitution politiquement correcte plutôt que la réflexion personnelle, la conformité plutôt que le doute. L’IA excelle précisément dans cet univers, car elle produit ce que le système demandait déjà : des réponses propres, normées, acceptables, et avec les filtres qu’on lui impose de plus en plus, elle va devenir ce que l’instruction est devenue bien avant son apparition.

Ainsi, ce que certains appellent une crise technologique ressemble davantage à une crise pédagogique révélée.

Idriss Aberkane souligne également un autre point essentiel : une intelligence progresse lorsqu’elle peut se corriger rapidement. Or les machines se corrigent sans ego, sans inertie institutionnelle, sans peur de reconnaître l’erreur. Les structures humaines, elles, font souvent l’inverse, car elles se protègent, rationalisent, déplacent la responsabilité. Plutôt que de remettre en question leurs méthodes, elles accusent l’outil qui révèle leurs limites.

Nous assistons alors à un paradoxe étrange : l’humanité a créé une technologie capable d’apprendre plus vite qu’elle, non parce qu’elle est supérieure, mais parce qu’elle accepte ce que nous refusons de plus en plus : la correction et l’ajustement permanent.

Ce refus explique peut-être le malaise diffus qui accompagne l’essor de l’IA. Derrière les discours sur les dangers futurs se cache une inquiétude plus profonde : celle de découvrir que le problème n’est pas la machine, mais notre rapport à l’effort, à la connaissance et à la responsabilité intellectuelle.

Le confort intellectuel est un piège, car l’intelligence artificielle offre un confort inédit. Elle réduit l’incertitude, accélère la recherche, simplifie la complexité. Mais le confort intellectuel possède une caractéristique bien connue : il anesthésie la vigilance. Comme l’automatisation en aviation peut placer un pilote dans un état de semi-attention, l’assistance cognitive permanente peut progressivement affaiblir notre capacité d’analyse autonome.

Tant que tout fonctionne bien, tout va bien, le gain paraît évident. Le danger n’apparaît qu’au moment où il faut reprendre la main. Pour illustrer, prenons l’exemple des « freinages fantômes » dans les voitures autonomes[3] : ces incidents, comme ceux signalés en France sur l’A40, montrent comment la dépendance à l’IA peut désactiver la vigilance humaine, même dans des contextes critiques.

Et c’est précisément ce que nous risquons d’oublier : reprendre la main.

L’erreur serait pourtant de conclure qu’il faudrait ralentir ou refuser l’intelligence artificielle car l’histoire montre que l’on ne remonte jamais le cours d’une innovation majeure. Le véritable choix n’a jamais été entre adoption et refus, mais entre maîtrise et dépendance.

Une IA utilisée comme levier peut amplifier la créativité, accélérer la compréhension et libérer du temps pour la réflexion profonde. Une IA utilisée comme substitut transforme progressivement l’utilisateur en superviseur passif d’une pensée qu’il ne produit plus. Par exemple, dans la recherche scientifique, l’IA peut analyser des ensembles de données massives en quelques secondes, permettant au chercheur de se concentrer sur l’interprétation innovante et les hypothèses audacieuses. De même, en éducation, un enseignant pourrait employer l’IA pour générer des exercices personnalisés, tout en guidant les élèves à questionner et à débattre des réponses fournies, renforçant ainsi l’esprit critique plutôt que de l’atrophier.

La frontière entre les deux est invisible, et c’est ce qui la rend dangereuse.

Elle ne se franchit pas par une décision brutale, mais par une succession de petites délégations anodines : reformuler un texte, résumer un livre, structurer une idée, puis réfléchir à notre place. Chaque étape paraît insignifiante, mais leur accumulation modifie lentement notre posture mentale. Nous passons de l’effort à l’assistance, puis de l’assistance à la dépendance.

C’est peut-être là que réside la véritable confirmation apportée par cette nouvelle réflexion : l’intelligence artificielle n’annonce pas la fin de l’intelligence humaine, mais elle agit comme un test individuel et collectif.

Elle oblige chacun à choisir quel type d’esprit il souhaite devenir. Soit un esprit augmenté parce qu’il utilise l’outil pour aller plus loin, ou un esprit diminué parce qu’il lui délègue ce qu’il devrait continuer à exercer.

Au fond, l’IA ne nous impose rien, elle révèle simplement nos choix.

Et c’est sans doute pour cette raison qu’elle inquiète autant. Non parce qu’elle serait sur le point de nous dépasser, mais parce qu’elle nous place face à une question que nous avions longtemps réussi à éviter : voulons-nous encore penser, ou seulement obtenir des réponses sans devoir réfléchir, ce qui implique le doute permanent ?

Car l’intelligence artificielle ne marque peut-être pas une révolution technologique, elle marque peut-être le moment où l’humanité découvre que son plus grand risque n’a jamais été la machine, mais l’abandon progressif de sa propre exigence intellectuelle.

Et dans ce miroir nouveau, ce que nous voyons n’est pas l’avenir, c’est nous.


[1] Idriss Aberkane est docteur en neurosciences cognitives de l’université Paris-Sud, docteur en épistémologie et histoire des sciences de l’École Polytechnique, et docteur en sciences du langage. Il a enseigné à Polytechnique, Stanford et Oxford. Les controverses dont il a fait l’objet ont porté essentiellement sur des accusations de CV exagéré, accusations auxquelles il a répondu publiquement avec documents à l’appui, sans que ses contradicteurs aient jamais apporté de preuves concluantes. Aucune procédure académique ou judiciaire n’a jamais abouti contre lui.

[2] Deux études parues en février 2025 convergent sur ce point. Lee, H.-P. et al., The Impact of Generative AI on Critical Thinking, Microsoft Research & Carnegie Mellon University, 11 février 2025 — menée auprès de 319 professionnels, elle documente une réduction significative de l’effort cognitif chez les utilisateurs intensifs de l’IA. Par ailleurs, le MIT Media Lab a publié « Your Brain on ChatGPT: Accumulation of Cognitive Debt », une étude longitudinale sur 54 étudiants montrant une réduction de la connectivité neurale allant jusqu’à 55% dans le groupe utilisant ChatGPT.

[3] En avril 2025, Joanna Peyrache voit sa Peugeot 208 freiner brutalement sur l’A40 à plus de 110 km/h sans obstacle apparent, provoquant une collision. Son témoignage a déclenché une vague de plusieurs centaines de signalements similaires. Le ministère des Transports a ouvert une enquête officielle en août 2025 via le SSMVM. Un reportage d’Envoyé Spécial sur France 2 y était consacré le 26 février 2026

Espace membre