Savoir sans faire. Faire sans savoir.
On ne cesse de le lire : l’intelligence artificielle générative (ci-après IAG) est présentée comme une extension de l’individu qui l’augmente dans toutes ses facettes cognitives. L’IAG synthétise, reformule, explique, produit. Néanmoins, ce narratif masque les conséquences plus insidieuses et même pernicieuses de cet usage déraisonné : nous perdons petit à petit notre capacité opératoire.
Dans de nombreux usages, et tout particulièrement dans le champ juridique, l’IAG ne se contente plus de soutenir la réflexion. Elle tend à prendre en charge le raisonnement lui-même, reléguant l’utilisateur à un rôle de validation.
C’est dans ce schéma que se joue une forme contemporaine de prolétarisation. L’utilisation des LLMs engendre une dépossession de la faculté concrète de transformer un savoir en action. Cette dépossession est d’autant plus difficile à percevoir qu’elle s’accompagne d’un gain apparent en efficacité, en vitesse et en volume.
Début janvier 2026, j’ai publié une note sur la prolétarisation du droit à l’ère de l’ia.. Suite à cela, j’ai pu avoir quelques échanges forts intéressants avec d’autres avocats qui ont nourris ma réflexions sur le sujet.
Lors de ces discussions, une forme de paradoxe relatif à la prolétarisation des savoirs est apparu. Marx parlait de la prolétarisation en termes de rapports de production. Dans ce cadre, l’artisan est prolétarisé parce que sa relation aux moyens de production change. Stiegler a étendu cette notion de prolétarisation à la connaissance et au savoir. Dans ma précédente note, je m’étais attaché à transposer cette prolétarisation aux savoirs du juriste qui perdait ses savoirs au profit de la machine. En poussant vers une vue “excessive”, le raisonnement juridique serait alors réalisé par la machine et le juriste serait relégué à un rôle de simple vérificateur.
En mobilisant notamment les concepts de prolétarisation et de rétention développés par Bernard Stiegler, cette note propose d’examiner comment les LLMs opèrent une transformation de notre rapport à l’épiphylogénèse.
Bien que Stiegler définisse le concept de “prolétarisation” en faisant référence à la notion de privation de savoir (faire, penser ou vivre), cela ne signifie pas que l’individu perd son savoir.
Nous devons considérer que la prolétarisation joue sur l’individu non pas parce qu’il perd sa connaissance mais parce qu’il en est dépossédé en raison :
- Du lieu où s’effectue la réflexion juridique (dans le système) ;
- De sa position dans la chaîne de valeur (d’acteur à spectateur - vérificateur) ;
- De la perte de contrôle sur le processus (opacité algorithmique);
La prolétarisation “cognitive” n’est pas seulement une dépossession du savoir et de compétence. Elle engendre une reconfiguration du rôle de l’individu : de producteur de raisonnements à vérificateur. C’est en raison de l’ampleur de cette reconfiguration que je m’attacherai à examiner plus profondément ce concept de “dépossession”.
Une contradiction technique ?
Avant d’aborder le cœur de cette note, je dois soulever une contradiction qui pourrait sauter aux yeux des techniciens . On ne cesse de le dire, un LLM n’a pas de connaissance. Il exécute des opérations. Ce ne sont que des machines qui prédisent des séquences de signes probables ([A. Alombert, Panser la bêtise artificielle]( http://journals.openedition.org/appareil/6979; DOI: https://doi.org/10.4000/appareil.6979)) ou encore des machines qui modulent, déplacent, hiérarchisent, ordonnent la position de signes a-signifiants (M. Corteel, Ni Dieu, Ni IA, Une philosophie sceptique de l’intelligence artificielle, La Découverte, 2025, p.59).
Dès lors, comment peut-il y avoir extraction ou dépossession de savoir vers quelque chose qui (un LLM ici), par définition, ne peut pas “savoir”?
Outre cette contradiction, il faut aussi considérer que la prolétarisation peut aussi tendre à un déplacement de la reconnaissance sociale du savoir, indépendamment de la question ontologique de savoir si la machine “sait” vraiment.
Aujourd’hui, même si techniquement le LLM ne “sait” pas, socialement et économiquement, il est de plus en plus traité comme s’il savait. D’ailleurs, l’image du perroquet stochastique n’est plus immédiatement convoquée lorsqu’on veut parler des LLMs (voir par exemple ici et là).
Il y a donc, à tout le moins, une connaissance statistique encodée dans la machine. Elle n’est pas en mesure de vous réciter, in extenso, le contenu sur lequel elle a été entrainée mais elle pourrait vous reproduire les premiers mots des Misérables de Victor Hugo, par exemple. Il y a donc bel et bien “une forme” de connaissance intégrée aux LLMs mais dont la comparaison avec la connaissance humaine serait bien maladroite.
Sur l’accessibilité des supports de mémoire
Certains considèrent que grâce à l’IAG, la connaissance et le savoir n’a jamais été aussi accessible et cette accessibilité du savoir serait, dès lors, incompatible avec cette dépossession.
D’une certaine manière, ce constat est pertinent. L’accessibilité est augmentée et l’IAG permet de réaliser une série de choses dont nous n’étions pas nécessairement capable (voir sur le sujet : L’IA est une transformation).
Néanmoins, ces capacités opératoires ne sont pas appropriées de la même manière que nos savoirs (faire, penser ou vivre). L’IAG nous donne la possibilité d’utiliser de nouvelles compétences au travers de son usage mais cette utilisation n’équivaut pas à une appropriation en tant que tel. Multiplier de tête 169284 par 15844 n’est pas à la portée de tous. Faire ce calcul sur une calculatrice ne nous donne pas la compétence de faire ce genre de multiplication de tête par la suite. Pour l’IAG, demander d’écrire à la façon de Baudelaire ou Rimbaud ne vous donnera pas la compétence de le faire sans machine. L’appropriation est donc toute relative.
L’accessibilité au savoir signifie que nous disposons d’un dispositif technique nous permettant d’accéder à plus du contenus et ce comme jamais auparavant. Dans les faits, il est clair que le contenu ayant servi à l’entrainement des LLMs est inimaginable pour l’esprit humain (on parle de + de 2600 années de lecture ininterrompue pour les données ayant servi à l’entrainement de ChatGpt….3).
Ces savoirs étaient déjà plus ou moins accessibles en ligne avant l’IAG. La nouveauté avec les LLM est que le résultat d’une recherche sur ces données donne un texte et non une liste de résultats que l’utilisateur doit explorer. C’est donc une transformation de l’accessibilité aux supports de mémoire plutôt qu’aux savoirs en tant que tel. Les données sont maintenant extraites des supports de mémoire pour être transformées en une nouvelle information. Dans mon secteur d’activité, l’IAG n’augmente pas l’autonomie par l’accessibilité du savoir, elle augmente la vitesse d’accès à des supports de mémoire. Mais y a-t-il autre chose?
Le LLM : au-delà de la rétention tertiaire ?
J’emprunte la notion de “support de mémoire” à Bernard Stiegler qu’il utilise pour décrire le concept de rétention. A ce sujet, Bernard Stiegler a construit sa réflexion autour de ce concept en développant des notions proposées par Husserl. Ces précisions sont nécessaires pour situer le cadre de penser à adopter : la phénoménologie.
Chez Stiegler, il y a une distinction entre :
Rétention primaire : la mémoire immédiate. C’est celle qui nous permet de comprendre le sens de ce qu’on lit ou de ce que l’on écoute, par exemple.
Rétention secondaire : le souvenir, la mémoire. C’est celle qui nous permet de nous rappeler, avec une forme d’imagination et de personnalisation du fait ou d’une information.
Rétention tertiaire : la mémoire externalisée : écriture, livre, base de données.
On pourrait donc situer les LLMs comme une forme de rétention tertiaire. Tout ce vocabulaire, un peu pédant, est important pour comprendre que :
Les rétentions tertiaires constituent le milieu dans lequel nos rétentions secondaires opèrent une sélection de nos rétentions primaires. (Christian Fauré)
Si l’IAG devient l’élément de rétention tertiaire dominant, elle agit comme un accès instantané à la connaissance mais aussi comme un filtre et un automate. On ne consulte plus la machine pour apprendre ou produire soi-même, on délègue à la machine l’exécution du raisonnement, de la décision et/ou de la production.
Dans la catégorisation de la mémoire faite par Stiegler, la mémoire phylogénétique (rétention primaire) correspond à l’information inscrite dans l’ADN. Elle se transmet biologiquement de génération en génération et détermine les structures de base du vivant. Elle évolue lentement, par mutations et sélection naturelle et n’est pas modifiée par l’expérience individuelle.
La mémoire épigénétique (rétention secondaire) désigne ce qui se transmet au sein d’une vie et par l’apprentissage : comportements, savoir-faire, habitudes, langage. Elle n’est pas inscrite génétiquement mais se constitue par l’expérience, l’éducation et le milieu. Elle disparait avec l’individu qui en est titulaire.
La mémoire épiphylogénétique désigne alors la mémoire extériorisée dans les objets techniques : outils, écriture, œuvres, machines, supports numériques (rétention tertiaire). Cette mémoire vit dans les artefacts. Elle permet une transmission intergénérationnelle indépendante des individus et a la capacité de transformer l’individu par individuation (voir Simondon sur le sujet).
Je serais tenté de placer le LLM dans la catégorie des rétentions tertiaires car celles-ci sont des supports inertes et passifs. Les rétentions tertiaires doivent être mobilisées par l’individu pour exister et cette existence ne sera expérimentée que par la manière dont l’individu la mettra en mouvement avec ses propres rétentions, primaires d’une part (compréhension immédiate du texte) et secondaires d’autre part (mémorisation, intégration dans son propre système de pensée). Le support technique reste un moyen d’accès et une caractéristique des rétentions tertiaires.
Avec le LLM, cette activation du “support de mémoire” va néanmoins être partiellement mise en œuvre par l’individu et une part non négligeable mise en œuvre selon les paramètres encodés dans la machine. C’est donc une forme hybride de rétention tertiaire : elle met en mouvement des schémas opérationnels extraits de milliards de documents qui permet d’obtenir une information mais dont une partie de cette mise en mouvement n’est pas décidée par l’individu et ses rétentions.
On entre dans un nouveau paradigme où l’information est délivrée à l’utilisateur de manière directement “consommable”. Il n’y a plus de barrière à franchir pour accéder à l’information. Avec l’IAG, il y a une utilisation aveugle de cet épiphylogénétique. Nous utilisons un support de mémoire externe à notre corps mais nous n’avons pas connaissance des critères utilisés par la machine pour nous livrer l’information d’une telle manière. Mais dans ce triptyque de rétentions, l’opacité des critères rend la place de l’IAG incertaine.
Chatonsky a considéré la place de l’IAG au sein d’une nouvelle rétention : la rétention quaternaire. en la décrivant comme celle qui porte sur les gestes et habitudes attentionnelles eux-mêmes.
Cette nouvelle catégorie de rétention, fondée sur les gestions et habitudes attentionnelles, est intéressante mais m’apparait erronée. Il y a bon nombres de gestes et habitudes attentionnelles qui existaient déjà lorsque Stiegler a forgé ces concepts et ce dernier n’a pas eu besoin d’une 4e catégorie pour classer ces habitudes et ces gestes. Si je dois prendre un exemple pour illustrer mon propos, je choisirai le Fosbury-Flop, popularisé par Richard Fosbury. Cette technique par franchissement sur le dos au saut en hauteur pourrait, selon la définition de la catégorie de Chatonsky, être considérée comme une rétention quaternaire. Or, Stiegler ne l’a jamais considérée en tant que tel et je pense que c’est parce que la rétention tertiaire joue bien son rôle de support de mémoire externalisé au corps. Elle nous permet une consultation postérieure en vue de reproduire tel ou tel mouvement ou geste, par exemple.
Chatonsky propose aussi le concept de distension pour qualifier “le traitement statistique des rétentions” effectué par cette quatrième mémoire.
Le traitement statistique évoqué par Chatonsky pour justifier cette nouvelle catégorie ne m’apparait pas suffisant pour justifier cette distinction. Ce traitement est une manière de générer un résultat à la suite de l’utilisation d’un dispositif technique. En ce sens, est-ce que la génération statistique n’est pas une autre forme de résultat que l’indexation de contenu ou la recherche au sein d’une base de donnée? On pourrait évidement rétorquer que la nature non déterministe de la génération statistique empêcherait cette considération. Est-ce à dire que cette génération statistique ne peut être une rétention tertiaire? J’ai un doute. Le caractère aléatoire de la génération ne la disqualifie pas comme moyen d’accès à une information, à ce stade de ma réflexion.
Je ne sais pas si le LLM est une nouvelle forme de rétention mais il est assurément une technique de rétention hybride. Pas tout à fait tertiaire mais pas nécessairement une rétention nouvelle à part entière.
Je dois donc compléter ce que j’indiquais ci-dessus : l’IA n’augmente pas l’autonomie par l’accessibilité du savoir, elle augmente la vitesse d’accès à des rétentions tertiaires tout en réduisant la nécessité d’activer ses propres rétentions secondaires et primaires.
La dépossession de la capacité opératoire
Cette réduction de l’activation de ses propres rétentions (primaires et secondaires) nous amène à considérer le concept de capacité opératoire sous l’angle de la prolétarisation.
En effet, la prolétarisation du savoir et donc la privation au bénéfice de la machine est peut-être et surtout, une dépossession de la capacité opératoire de l’individu. La machine va prendre en charge un savoir en remplaçant la capacité d’agir de l’individu face à celui-ci.
Cette capacité opératoire vise l’aptitude concrète à exécuter une tâche, à prendre des décisions, à appliquer un raisonnement ou à transformer un savoir en action. Si cette capacité est transférée à la machine, l’individu cesse progressivement d’en être l’acteur. Il devient dépendant d’un système qui agit à sa place. On ne perd donc pas l’information théorique mais plutôt la maîtrise pratique et l’autonomie de l’exécution.
C’est une forme de dépossession matérielle et ontologique dont nous devons nous méfier.
« Matérielle » car ce n’est plus le sujet mais la machine qui fait.
« Ontologique » car le sujet n’est plus celui qui sait faire mais celui qui clique pour que ça se fasse.
L’enjeu n’est donc pas la perte d’accès au savoir par l’individu. C’est une dépossession de son exercice. Cet aspect des choses n’est pas un détail car cette forme de dépossession est insidieuse. Elle ne produit pas de sentiment de perte immédiate, au contraire ! L’individu gagne en vitesse, en volume, en capacité apparente. Mais malheureusement comme Jacques Ellul l’écrivait, tout progrès technique se paie : ici, ce sera une réduction de la capacité opératoire. Progressivement, par exemple, l’individu perd la compétence de rédiger un texte car il se concentre sur l’interrogation efficace (encore et toujours cette efficacité !) de la machine qui le rédigera et non à l’exercice de sa rédaction autonome.
Par ailleurs, en raison du lien entre les trois types de rentions, l’accès à une rétention tertiaire conditionne le moment où les autres rétentions s’actualisent. Or, la machine impose finalement sa propre logique, souvent opaque, non configurable et externalisée par rapport à l’individu. Ce défaut d’actualisation engendre alors une atrophie des compétences cognitives contenues principalement au sein des rétentions secondaires.
C’est ici que la dimension matérielle rejoint la dimension ontologique : quand l’extériorisation ne forme plus, elle remplace et devient une dépossession.
Et si vous avez encore un doute, pensez à vos téléphones portables. Avant, nous connaissions plusieurs numéros de téléphone. J’ai grandi sans téléphone portable jusqu’à mes 12 ans. Sans téléphone portable, je connaissais plusieurs numéros de téléphone. Depuis que j’ai un téléphone portable, j’ai arrêté de mémoriser de nouveaux numéros. Je connais encore quelques numéros que j’avais mémorisé à mes 12 ans mais certaines personnes me confient qu’ils ont oublié ces numéros depuis qu’ils utilisent le téléphone portable. C’est ici une dépossession du savoir par la rétention tertiaire. Notre mémoire s’atrophie par défaut d’utilisation et on oublie. Pour des numéros de téléphone dans un téléphone portable, ce n’est pas très grave me direz-vous mais pour une capacité opératoire utilisée professionnellement, cela peut le devenir.
Le court-circuit et la disparition de la complexité
Ce que je décris comme une domination des rétentions tertiaires, Edgard Morin l’avait diagnostiqué comme une désintégration du savoir.
En 1984, Edgar Morin indiquait dans son livre “Sociologie” :
La prédominance de l’information sur la connaissance, de la connaissance sur la pensée a désintégré le savoir.
Cette phrase s’inscrit dans la critique de la fragmentation du savoir des sociétés contemporaines. Morin observe un empilement de couches : l’information brute, produite massivement et circulant rapidement, prend le dessus sur la connaissance construite. Cette dernière domine à son tour la pensée, c’est-à-dire l’activité réflexive qui relie, questionne et hiérarchise. Le savoir, qui devrait être un système (complexe) cohérent intégrant ces trois niveaux, se trouve alors désintégré. Ce sont maintenant des éléments isolés, non reliés par une pensée organisatrice et simplement délivré par la machine.
Il s’agit de deux manières de nommer la même rupture : quand les supports techniques de mémoire (rétentions tertiaires) produisent massivement de l’information sans former à la pensée, ils court-circuitent à la fois la fonction formatrice que Stiegler leur attribue et l’activité réflexive que Morin considère nécessaire à l’intégration du savoir et à la construction de la pensée (complexe).
Le LLM cristallise cette double rupture : il est à la fois une mémoire technique qui ne forme plus (selon la conception de Stiegler) et un flux informationnel qui écrase la réflexion (selon la conception de Morin).
Vers une prescription thérapeutique
A la lecture de ce qui précède, la question que certaines pourraient se poser est : est-ce grave, docteur?
La réponse simple (et banale) serait de considérer que non pour autant que l’utilisateur reste conscient et attentif à son utilisation. C’est cependant un peu léger.
Si l’on revient à la notion de pharmakon (évoquée ici), la technique étant un remède tout en étant un poison, il faut mettre en œuvre des pratiques thérapeutiques comme le préconisait Stiegler.
Je pourrais reformuler son propos lors d’une intervention retranscrite ici :
Quelles prescriptions thérapeutiques des LLM pour les individus ? Comment éviter que nous devenions de simples vérificateurs et que l’IA soit un dealer de connaissance ?
Je ne crois pas à l’existence de solution miracle. Comme le disait Gaston Bachelard :
Rien n’est simple, il n’y a que du simplifié.
Je proposerai cependant quelques pistes (simplifiées donc) pour “penser encore alors que la machine pense pour nous”
Une pratique thérapeutique pourrait commencer par un geste simple : écrire d’abord seul. Même une première version malhabile, incomplète ou désordonnée. Peu importe. Ce brouillon matérialise la pensée : à cet instant, c’est encore l’individu qui opère. Il a dû choisir un angle, poser des distinctions, fixer une hiérarchie. La machine n’est pas encore entrée dans la danse, et c’est ce seuil qu’il faut préserver.
Ensuite seulement, le LLM peut intervenir. Comment ? Plutôt comme un miroir. On ne lui demande pas d’écrire à notre place. On l’invite à clarifier ce que nous avons déjà tenté de dire : reformuler une thèse, expliciter un enchaînement logique, proposer une mise en perspective, tester la cohérence interne. De cette manière, l’outil devient métacognitif : il ne remplace pas la pensée. Il met en lumière les zones grises, propose des alternatives de formulation qui obligent à choisir. L’enjeu n’est pas d’obtenir du texte mais d’obtenir une matière à la réflexion. Comme dirait Morin, pour “penser sa propre pensée”.
Mais cette clarification a un prix si elle devient suffisante. Car la synthèse générée, si convaincante soit-elle, reste un écran : elle donne une impression de prise sur le contenu, sans contact réel avec les matériaux. La troisième prescription est donc une réintroduction volontaire de l’effort : retourner aux sources primaires. Lire la décision, le texte, la doctrine, le passage exact. Même quand cela paraît redondant. Ce n’est pas qu’une vérification : c’est une manière de s’approprier l’information. Pas pour “contrôler la machine” mais pour que l’information devienne une connaissance, en actualisant ses rétentions.
Enfin, il faut refuser le glissement le plus insidieux : devenir vérificateur. C’est là que la routine devient une dépossession. Le professionnel devient celui qui valide un raisonnement déjà produit jusqu’à devenir celui qui n’ose plus s’écarter d’une solution proposée par la machine. Il faut rester auteur. Cela signifie quelque chose de très concret : maintenir la responsabilité de l’enchaînement, choisir les prémisses, décider du cadre, et de pouvoir, si nécessaire, contester la réponse au lieu de simplement l’approuver.
Ces quatre gestes dessinent une même exigence et un début de thérapeutique à ce pharmakon.
En résumé :
- Toujours produire une première version sans IA, même imparfaite, avant toute sollicitation d’un LLM.
- Privilégier les usages métacognitifs (clarification, reformulation, mise en perspective) plutôt que productifs.
- Réintroduire l’effort interprétatif : consulter les sources primaires après une synthèse générée, même si cela semble redondant.
- Refuser la posture de vérificateur : rester l’auteur du raisonnement, même lorsque la machine propose une solution « correcte ».