L'ia est une transformation

Posted on Mar 24, 2025

Personnellement, j’ai été séduit par cette manière de voir les choses car elle traduit, assez fidèlement, l’impact de l’IA dans nos vies. Le fait de qualifier l’IA comme une transformation n’est pas neuf.

En effet, l’IA ne constitue pas seulement une optimisation ponctuelle des processus existants mais représente une transformation structurelle de nos manières de travailler, d’interagir et de concevoir des solutions. Elle modifie :

  • notre rapport au savoir, en rendant accessibles des quantités gigantesques d’informations,
  • notre approche pratique des tâches quotidiennes, en permettant l’automatisation des activités jusque-là complexes ou répétitives, ainsi que
  • nos mécanismes cognitifs eux-mêmes, puisqu’elle intervient directement sur la manière dont nous pouvons prendre des décisions.

Anne Alombert a partagé plusieurs réflexions intéressantes sur les conséquences de la délégation que nous faisons aux IA. (voir notamment Le pharmakon de l’IA générative : Comment les automates algorithmiques transforment nos esprits et le papier Panser la bêtise artificielle ).

Bien que le propos d’Anne Alombert est assez critique à l’égard de l’IA, je pense qu’on retrouve, néanmoins, une grille de lecture pertinente pour comprendre la “révolution cognitive” qu’engendre l’arrivée de l’IA dans nos vies.

Le principal est que, selon elle:

le savoir-écrire (et avec lui le savoir-penser), a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques.

Ce propos est important car il permet de cibler les véritables enjeux que nous pourrons rencontrer en utilisant “abusivement” l’IA dans nos vies. Je pense toutefois que l’IA reste une transformation et au moins sur trois aspects de nos vies, personnelles et/ou professionnelles.

Les trois dimensions de la transformation par l’IA

L’intelligence artificielle générative est en train de redéfinir notre monde à une vitesse vertigineuse, transformant nos savoirs, nos savoirs-faire et nos savoirs-penser. Cette technologie, capable de créer du contenu à partir de données existantes, ouvre des perspectives dans divers domaines.

La transformation de nos savoirs

Les LLM sont des bibliothèques ultra-connectées. Les techniciens pourraient être mécontents de ce raccourci qui est techniquement incorrect mais l’image est intéressante.

Les LLM ont été entraînés sur un volume astronomique de données. Pour un ordre de grandeur et à titre d’exemple, GPT-3 a été entraîné sur l’équivalent de 2600 années de lecture ininterrompue, ce qui dépasse de loin toute capacité humaine d’assimilation. Autant écrire qu’il est matériellement impossible de disposer de suffisamment de temps « humain » pour prendre connaissance de ces données. La machine est donc ici plus forte que l’humain.

C’est important de le préciser car certaines critiques, même anciennes, de la technique, considèrent que les évolutions incrémentales de la technique (soit faire mieux que l’homme) peuvent être « inutiles » dans le sens où les gains d’efficacité induiraient des contraintes préjudiciables directes ou indirectes sur nos vies. Il ne faudrait donc pas, à tout prix, innover. C’est ce qu’on peut retrouver, en partie, dans les théories de la décroissance ou dans l’esprit low-tech. À titre d’exemple, la culture mécanique de la terre permettrait une meilleure production mais a un impact non négligeable sur les sols et l’équilibre naturel. On se redirige donc, de plus en plus, vers des méthodes douces et plus respectueuses de la nature dans l’agriculture. En ce sens, le progrès technique est alors considéré comme « inutile » ou à tout le moins pas nécessaire. (Je me permets de faire quelques raccourcis sur ces aspects. Si vous souhaitez creuser le sujet de la décroissance et du low tech, je vous renvoie aux best-sellers de Timothée Parrique, Philippe Bihouix ou de Kate Raworth qui m’ont permis d’appréhender le sujet de manière plus précise).

Ceci étant écrit, la différence du progrès technique, ici, est que l’ordinateur réalise des tâches jusqu’alors inaccessibles à l’homme. Comme Jacques Ellul l’écrivait :

il n’y a donc aucune concurrence entre (la machine et l’homme). L’idéologie du robot serviteur ou rebelle, ou de l’ordinateur remplaçant finalement l’homme dans le processus évolutif des êtres, tout cela ce sont des histoires qui prouvent que ceux qui parlent de l’ordinateur n’ont encore rien compris à ce qu’est l’ordinateur et procèdent par anthropomorphisme. Il ne suffit pas de dire que l’ordinateur peut faire ceci et encore cela, etc. Tout ce discours est absurde : la seule fonction de l’ensemble informatique est de permettre la jonction, souple, informelle, purement technique, immédiate et universelle entre les sous-systèmes techniques ». (Jacques Ellul, « La technique considérée en tant que système »)

En définissant le rôle de la technique et en rejetant déjà l’anthropomorphisme simplificateur (qui est omniprésent actuellement), Ellul rappelle l’idée que l’informatique est une technologie de connexion. Et c’est précisément l’une des grandes forces des LLMs : leur capacité à relier des connaissances diverses, bien au-delà des capacités humaines.

Est-ce à dire que la machine est meilleurs que l’homme ? Certains sont tentés de le penser mais si l’on se concentre sur la notion de savoir, je crois utile de faire un détour par la théorie de Gilbert Simondon qui distingue la “mémoire machine” de la “mémoire humaine”.

  • Pour la mémoire machine : nous savons qu’elle peut conserver un très grand ensemble de données, parfois complexes, de façon fidèle et non altérée. Il n’y a cependant pas de structure ou de hiérarchie dans le contenu conservé.

  • Pour la mémoire humaine : c’est quasi l’inverse. La quantité de données conservée est réduite mais les liens entre les données sont forts. La mise en relation de concept et la capacité que l’homme a à rattacher de nouvelles choses à des savoirs existants est une une caractéristique de notre mémoire humaine.

Pour reprendre le propos de [[Georges Canguilhem]], cité par Anne Alombert:

Le présent perçu est immédiatement rattaché à un ensemble de formes ou de schèmes résultant de l’expérience passée : “L’expérience acquise sert de code aux nouvelles acquisitions, pour les interpréter et les fixer”. (Le cerveau et la pensée, 1980, in  Georges Canguilhem,philosophe, historien des sciences, Albin Michel, Paris, 1993, p. 21)

Revenons aux LLMs, il ne s’agit donc pas d’une base de connaissance pure. Je ne rentre pas ici dans les détails du fonctionnement des LLMs et pour ne pas paraphraser, je me limiterai à reprendre l’explication faite dans un post de Génération IA :

Un modèle comme Claude ou GPT n’a pas une base de données où il stockerait des informations qu’il pourrait simplement récupérer. Sa connaissance existe sous forme de connexions entre des concepts, encodées dans des milliards de paramètres mathématiques. Lors de son entraînement, le modèle a parcouru d’immenses quantités de textes et apprend les relations entre les mots, les idées, les motifs de pensée. Quand je l’interroge, il ne retrouve pas un document précis pour me répondre, mais reconstruit une réponse en prédisant les séquences de mots les plus probables dans ce contexte. Une simple question directe n’active que les connexions les plus évidentes, produisant une réponse superficielle. Mais un dialogue structuré stimule des réseaux de connexion plus profonds.

Par conséquent, et sous réserve des biais et d’hallucinations, les LLMs nous permettent d’appréhender rapidement un volume d’informations important sur n’importe quel sujet en créant des connexions entre les données ce qui n’était jusqu’alors qu’une compétence essentielement de la mémoire humaine.

Nos savoirs sont “démultipliés” avec le LLM dans le sens où nous avons accès à cette bibliothèque hyperconnectée. Cette démultiplication des savoirs n’est pas sans danger mais reste révolutionnaire et surtout transformatrice. En utilisant certaines techniques de prompt ou en faisant appel à un système de type ‘RAG’, les hallucinations sont réduites grâce à la contrainte (du prompt ou des sources du RAG) et nous permet de générer du contenu de meilleur qualité sur un vaste sujet.

Pour s’en convaincre, utilisez Perplexity. Ce moteur de recherche dopé à l’IA réalise une réponse construite à l’aide de contenu trouvé sur le web. La fonctionnalité “Recherche Approfondie” de ChatGPT (une fonctionnalité équivalente est disponible maintenant sur quasi tous les LLMs en fonction de la version choisie), permet d’aller encore plus loin dans l’exploration de sources internet pour construire une réponse et un contenu pertinent qui permet d’obtenir des résultat de recherche de plus en plus satisfaisants.

La transformation de nos “savoir faire”

Les témoignages enthousiastes sur l’IA générative sont nombreux mais il est utile de les contrebalancer avec des critiques constructives. Des articles comme celui-ci et celui-là offrent des points de vue critiques qui méritent d’être considérés. Bien que certaines de ces critiques puissent sembler superficielles ou biaisées, elles soulèvent des questions sur les limites et les défis de l’IA générative.

Par exemple, l’autrice du premier billet, citée dans le second, mentionne qu’elle n’a jamais utilisé l’IA générative qu’elle critique. Cela pose la question de la pertinence des critiques basées uniquement sur des connaissances théoriques bien que l’expérience pratique n’est pas le seul critère de validité d’une critique. Les perspectives théoriques peuvent offrir des points de vue intéressants sur les implications éthiques, sociales et économiques de l’IA générative.

Il est vrai que trouver des critiques objectives sur l’IA générative, notamment en ce qui concerne les savoirs-faire et son rôle de “démultiplicateur de compétences”, peut être difficile. Je n’aborderai volontairement pas les questions relatives à l’opportunité d’utiliser l’IA générative ou son impact sur le monde du travail car ces sujets touchent à des questions sensibles et complexes qui visent le remplacement des certaines fonctions “humaines” par des machines qui dépassent l’objectif de cette note.

Pour commencer et être aligné, je crois donc nécessaire de fixer la définition de ce que j’entends par “savoir faire”. Je reprendrai la définition du Larousse, qui indique qu’il s’agit:

de compétence acquise par l’expérience dans les problèmes pratiques, dans l’exercice d’un métier.

Traditionnellement, l’apprentissage de compétence se fait par la pratique et l’expérimentation. C’est en forgeant qu’on devient forgeron pour reprendre le dicton. C’est une évidence pour beaucoup mais la pratique d’une activité déterminée va permettre de “monter en compétence”. On dit aussi que “la répétition est la mère de l’apprentissage”. La répétition permet donc de renforcer les connexions neuronales et ainsi mémoriser les informations à long terme (source).

L’IA générative impacte aussi nos savoir faire car elle permet d’accélérer l’acquisition de certaines compétences. Par exemple, pour ceux qui manipulent des idées, l’IA peut devenir un outil d’optimisation cognitive permettant de structurer, clarifier et transposer efficacement une pensée vers un document numérique. L’un des défis de “l’expression intellectuelle” réside dans la transposition d’une idée abstraite en une forme écrite, claire et précise. Ce processus, qui implique la mise en ordre d’un raisonnement, l’élimination des redondances et l’ajustement du ton, peut s’avérer chronophage et énergivore. Si écrire, c’est réfléchir, et que le temps passé à cette tâche est généralement considéré comme salutaire, l’utilisation d’une IA générative peut aussi transformer notre manière de faire en canalisant un flux d’idées et permettant sa transposition de façon ordonnée et structurée.

Pouvant également servir de véritable tremplin, l’IA permet à ceux qui sont moins à l’aise avec l’écriture de s’y mettre. J’ai en tête les cas de personnes qui avaient des difficultés à prendre la plume: un entrepreneur qui veut communiquer sur son activité au travers d’un site mais qui peinait à trouver la manière de faire. Une autre qui devait rédiger une “note de service” sans autre consigne ou encore un confrère, travaillant seul, qui se fait challenger par une IA pour certaines questions. Dans certains cas, l’effort requis pour transposer des idées est tel qu’on évite tout simplement de le faire. L’IA générative les a transformé à des degrés divers.

Je découvre également des belles expériences et des réflexions sur la créativité. Certains considèrent que l’IA ne peut générer de contenus originaux ou créatifs, car :

ces dispositifs ont pour effet de renforcer systématiquement les moyennes en éliminant les expressions singulières, originales et improbables qui ne sont pas prises en compte par les statistiques (Anne Alombert, §22).

D’autres considèrent devenir plus créatifs, sans contestation possible grâce à l’IA comme Sebastien Bailly qui reconnait que:

Non seulement je suis plus créatif parce que je peux interagir avec l’IA comme je le ferai avec un groupe de travail humain, lors d’un dialogue créatif qui peut être structuré, mais aussi parce que l’IA est suffisamment avancée pour me surprendre en me proposant des pistes qui ne m’avaient pas effleuré.

Mes lectures sur le sujet m’ont aussi amené sur les développements informatiques et le “vibe coding” qu’a pu réaliser Simon Willison. L’IA générative a manifestement permis à ce développeur de créer des petits logiciels grâce à l’IA générative qui devient alors un allié de productivité, amplifiant ses “savoirs faire”.

La transformation de nos “savoirs penser”

Si je suis enthousiaste face aux “pouvoirs transformateurs” de l’IA sur nos savoirs et nos “savoirs faire”, je suis nettement plus circonspect sur la transformation de nos savoirs penser.

Yann LeCun le rappelle : les « réseaux neuronaux » n’imitent pas plus le cerveau qu’une aile d’avion ne reproduit celle d’un oiseau.

Il est donc inutile de voir dans les IA génératives une quelconque tentative de reproduire la pensée humaine. Les IA génératives sont des outils puissants capables de traiter et de générer des informations de manière efficace, mais elles ne possèdent pas (vraiment) la conscience, l’intuition ou la capacité de jugement qui caractérisent la pensée humaine. Il me semble donc vain d’essayer de mettre sur un pied d’égalité un LLM et le cerveau humain d’un point de vue fonctionnel.

Sur les résultats, par contre, on peut s’aventurer à comparer le produit d’une réflexion “humaine” à celle faite par une machine. Je me suis lancer dans cette réflexion et cela m’a amené à identifier des risques et des dangers car en en utilisant un LLM, on délègue tout ou partie de nos capacités cognitives et cela ne peut pas se faire à n’importe quel prix.

Pour reprendre les termes de Anne Alombert:

Au lieu de former et d’exprimer nos propres pensées, à partir de nos expériences, de nos souvenirs, de nos attentes et de nos désirs singuliers, nous risquons de nous reposer sur des automates algorithmiques et de cesser d’exercer ces facultés, c’est-à-dire, de désapprendre à écrire, à exprimer et à penser.

Et c’est effectivement là déjà un premier écueil. En déléguant à la machine une série de tâches “à faible valeur ajoutée”, on pourrait considérer que cette délégation n’entraînerait pas de préjudice car elle serait, par essence, bénéfique en nous faisant économiser du temps pour le consacrer à des tâches plus nobles. Rédiger une réponse à un mail par exemple ne devrait pas être “bien grave” et/ou néfaste pour nos facultés cognitives. De manière ponctuelle, l’apport de l’IA à ces tâches ne devrait effectivement pas porter préjudice sur notre “savoir penser”.

Sur le long terme, il faut toutefois rester vigilant afin de ne pas tomber dans une léthargie cognitive et se contenter d’une réponse régurgitée par la machine. Une personne sur Linkedin écrivait :

Soyons clairs : cette fascination pour le contenu généré par l’IA révèle surtout notre acceptation collective de la médiocrité.

Et c’est là où le bât blesse. Nous évoluons dans un monde d’instantanéité. Il faut toujours aller plus vite pour tout. Nos applications de messagerie témoignent de la prise de connaissance d’un message envoyé. On en vient à s’offusquer ou s’inquiéter que le destinataire a vu/lu notre message sans y avoir (encore) répondu. Les services de livraisons vous promettent, quasi par défaut, une livraison le lendemain si vous commandez avant 22h.

Ces exemples parmi tant d’autres révèlent notre conditionnement à la vitesse. Il faut que les choses aient vite, sans trop savoir vraiment pourquoi. Tout doit aller vite et c’est donc fort logiquement que l’utilisation de l’IA générative, qui permet de rédiger des contenus “apparemment pertinents” en quelques secondes, nous fascine. Le succès de l’IA générative est peut être aussi dû à cette course à l’efficacité mais cette rapidité d’exécution implique des conséquences parfois négatives voire dangereuses.

Les choix faits par “les concepteurs des IA” ont un impact sur les réponse générées. La notion de biais dans l’IA est omniprésente et les recommandations sont invisibilisées. Sur le sujet, je vous invite à regarder cette vidéo qui illustre de manière redoutable les biais dans l’ia)). Très souvent, l’utilisateur d’une IA ne sait pas comment et sur quels paramètres le LLM a été configuré.L’exemple de DeepSeek, le LLM chinois sorti en janvier 2025, en est une belle illustration.

Néanmoins, et en prenant le contre pied, une fois que ces éléments de biais sont intégrés et compris, l’IA permet de générer des propositions nouvelles et si on lui pose la (bonne) question, l’ia peut ouvrir les horizons. Il est donc indispensable d’utiliser la machine pour ce qu’elle est et ce qu’elle fait. Il faut comprendre ses limites et ses écueils. Rester aux commandes, garder la maitrise du sujet et surtout continuer à faire fonctionner son esprit critique. Il faut donc impérativement apprendre à utiliser ces nouveaux outils sous peine d’en perdre le contrôle.

Mais ce n’est pas tout. Alors que j’ai une position généralement favorable aux technologies, j’en viens à m’agacer de l’utilisation de l’ia générative à outrance et sans complexe. Pour certains, les produits industrialisés ou standardisés sont suffisants. C’est le cas dans l’industrie de consommation mais pour “le savoir penser”, cette satisfaction a ses limites.

Evitons donc la réflexion algorithmique !

Il est à mon sens dommageable d’utiliser l’ia générative pour rédiger des textes de réflexions. Je vise ici les textes, les essais, les commentaires ou tout contenu écrit visant à transmettre une réflexion sur une idée en adoptant une forme de raisonnement. Car le résultat d’une IA générative n’est pas éprouvé par la réflexion.

Dans la présentation rédigée par Simone Goyard Fabre à propos de La Boetie et de son “Discours sur la servitude volontaire”, Goyard Fabre décrit les interrogations qui pèsent sur le véritable auteur de ce Discours qui semblait pour certains bien trop élaborés pour un jeune de 16 ou 18 ans (âge estimé de La Boetie lorsqu’il aurait écrit le Discours). Et à la page 54, Goyard Fabre nous livre une formule qui ne manque pas de pertinence à l’heure de l’ia générative :

Que l’idée première d’une pensée en effervescence soit corrigée, polie et repolie par un homme plus mûr ne peut que lui donner davantage de prix : l’idée initiale tout en conservant sa force native acquiert, en s’ajustant, plus de profondeur elle devient plus incisive et si elle sonne mieux, elle frappe mieux aussi.

C’est là, à mon sens, la force de l’individu qui peut, par son travail et sa réflexion, apporter plus de profondeur à son idée tout en lui permettant de conserver « sa force native ».

En utilisant une IA générative, on utilise, en réalité, un outil statistique qui va mimer le réel et reproduire le contenu qui est statistiquement le plus courant. Utiliser l’intelligence artificielle générative pour créer une réflexion semble contraire au principe même de la réflexion. Par ailleurs, il aboutit régulièrement à un résultat moyen, dans le sens statistique du terme en raison du fonctionnement de la technique. Ce sera le contenu « moyen » qui l’emportera, empêchant par conséquent la fraîche pensée ou la réflexion approfondie nécessaire pour réussir à obtenir un résultat intéressant.

Aussi, sous réserve de quelques artifices, l’intelligence artificielle a une connaisse figée dans le sens où la base de données d’entraînement n’évolue plus beaucoup une fois l’outil mis à disposition du public. Cette base n’évoluant plus, le contenu qui peut être extrait d’une intelligence artificielle va suivre la « rigidité » de cette base ayant servi à son entrainement. On ne peut pas améliorer son texte en utilisant l’intelligence artificielle de manière fondamentale dans la mesure où les connaissances qui sont liées au modèle utilisé sont figées. Tout l’inverse de l’homme qui retravaille, poli et repoli sa réflexion, en la nourrissant de son expérience, de ses découvertes et de ses apprentissages.

Impossible également de polir, ou alors uniquement à la marge et sur la forme, le texte rédigé. Le sens du verbe est trop rare dans le résultat de l’intelligence artificielle ou alors il faut demander d’agir par mimétisme et copier le style de tel(le) ou tel(le) auteur(e).

Mais est-ce que tout ça est nouveau? N’a-t-on pas déjà succombé à cette fatalité depuis des millénaires. Je vais m’appuyer, une fois encore, sur les propos d’Anne Alombert qui écrit :

Dans le Phèdre, Socrate relate le mythe égyptien de l’invention de l’écriture, qu’il décrit alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : d’abord présentée comme un remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées en surpassant les défaillances des mémoires vivantes, l’écriture constitue aussi un poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, elle empêche leur mémoire de s’exercer et les savoirs d’évoluer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter.

Est-ce que l’IA générative va nous désapprendre à penser ou s’agit-il d’un pharmakon des temps modernes?

Une chose est cependant sûr selon moi : l’important, c’est qu’un humain qui renonce à exercer son « muscle » créatif sera bien vite dessaisi de sa compétence, tel un pianiste qui n’approcherait jamais son piano. (source). Continuons à faire fonctionner nos muscles créatifs et à penser, avec et sans la machine pour maintenir et enrichir notre savoir penser.

Conclusion

Alors qu’il est légitime de se poser la question du coût cognitif de ces prothèses techniques qui extériorisent certaines de nos compétences, il ne faut condamner sans nuance l’usage des ces IA. Comme je l’écrivais ici, il faut se garder de prêter des vertus à ces IA et les utiliser pour ce qu’elles sont. On lit malheureusement des discours réfractaires à ces technologies pour des raisons parfois absconses ou déraisonnablement subjectives.

Ne faut-il simplement pas considérer l’ia comme:

un allié silencieux qui aide à faire les bons choix. Un outil qui ne remplace pas l’expérience, mais qui permet de gagner du temps, de tester des approches, d’affiner son instinct"? (source)

C’est de cette manière que j’appréhende ces outils tout en gardant à l’esprit les problèmes qu’ils peuvent engendrer en cas d’utilisation sans conscience.

Sources