Grammatiser et observer. Deux nouvelles pratiques thérapeutiques à l'intelligence artificielle générative
En 1956, dans la conclusion du Tome 1 de L’obsolescence de l’Homme, Gunther Anders formulait un appel qui résonne encore à l’heure d’aujourd’hui :
À moins que des hommes ne commencent, tels des objecteurs de conscience, à s’engager publiquement, sous serment et en pleine conscience du danger possible, à ne jamais céder à la pression - qu’elle soit physique ou qu’il s’agisse seulement de la pression qu’exerce l’opinion publique - et à ne jamais collaborer à la moindre entreprise qui, aussi indirectement que ce soit, pourrait avoir un quelconque rapport avec la production, les essais et l’utilisation de la bombe; à ne jamais parler de la bombe que comme d’une malédiction; à tenter de convaincre ceux qui s’y sont résignés et se contentent de hausser les épaules; à prendre publiquement leurs distances avec ceux qui prennent la défense de la bombe.
À moins que l’on ne fasse ce premier pas, que d’autres hommes ne suivent ceux qui l’auront fait, et d’autres encore. Jusqu’à ce que ceux qui refusent de prêter serment se désignent par là comme des traîtres à la lutte que mène l’humanité pour continuer à exister.
Anders écrivait à propos de la bombe atomique. Sa préoccupation était celle de l’anéantissement de l’humanité. Aujourd’hui, ce passage reste actuel bien que la nature du danger ait évolué. D’autres diraient que l’ampleur du danger a lui aussi changé. Ce point me semble cependant être hors sujet. Il ne m’apparait pas raisonnable ni pertinent de comparer la bombe atomique à quelque chose d’autre.
Je m’appuierai ici seulement sur la méthode proposée par Anders car l’essence de son propos est transposable à notre situation : notre incapacité collective à percevoir ce que la technique fait de nous. Anders nommait cet aveuglement le « décalage prométhéen » pour qualifier cette inadéquation entre ce que nous sommes capables de produire techniquement et ce que nous sommes capables d’imaginer comme conséquences de cette production.
Ainsi, Anders mentionne que la “pression de l’opinion publique” nous empêcherait de résister, de faire objection. Aujourd’hui, je crois que cette “pression publique” est toujours bien présente. Cette pression rend la collaboration avec la machine non seulement acceptable mais désirable. Elle est aujourd’hui omniprésente dans le monde professionnel. L’intelligence artificielle générative (ci-après IAG) s’impose comme un passage obligé. Les professions intellectuelles sont sommées d’adopter ces outils sous peine d’être considérées comme archaïques ou dépassées. Un règlement européen impose une littératie numérique pour les utilisateurs (déployeurs) et fournisseurs de systèmes d’IA. Ce quasi-impératif est alimenté par le discours dominant qui prône l’augmentation de l’humain par la machine. L’IAG augmenterait nos capacités, nous libérerait des tâches répétitives, nous rendrait plus performants. Ce narratif masque un processus autrement plus profond : une dépossession progressive de notre capacité opératoire que j’ai tenté d’explorer dans cette note. Je renvoie le lecteur à celle-ci pour plus d’informations. Je résumerai simplement en considérant que dans de nombreux usages, l’IAG ne se contente plus de soutenir la réflexion. Elle tend à prendre en charge le raisonnement lui-même, reléguant l’utilisateur à un rôle de validation. L’utilisateur n’est plus celui qui pense et produit : il devient celui qui déclenche un processus et en vérifie le résultat.
Cette reconfiguration du rôle est une forme contemporaine de ce que Bernard Stiegler appelait une prolétarisation. Le savoir de l’utilisateur n’est pas supprimé mais il est externalisé dans un système technique qui l’exécute à sa place et souvent autrement. Le lieu où s’effectue la réflexion migre de l’esprit vers le dispositif et par ce fait, le contrôle sur ce processus échappe à l’utilisateur en raison de l’opacité algorithmique.
Sur l’imperceptif : un quasi-impératif
J’évoque un “quasi-impératif” car la dynamique d’adoption de l’IAG dans le monde professionnel mérite qu’on s’arrête sur sa mécanique. Ce “quasi-impératif” pourrait être mieux décrit par l’utilisation d’un néologisme : un imperceptif provenant de la contraction de impératif + imperceptible. L’imperceptif c’est un impératif qu’on ne perçoit pas comme tel.
Il est nécessaire de nommer ce phénomène car le discours dominant construit un environnement dans lequel ne pas utiliser l’IAG devient un signal d’incompétence ou d’archaïsme. Les formations se multiplient, les injonctions à la “transformation digitale” saturent l’espace informationnel et professionnel. L’ensemble de ces signaux crée une pression qui, sans interdire explicitement le refus, en fait un coût social élevé. Le professionnel qui n’adopte pas l’outil est perçu comme résistant au progrès. Celui qui l’adopte fait preuve de lucidité, d’adaptabilité, de modernité et d’innovation.
Dans cette configuration, l’utilisateur considère qu’il exerce un choix rationnel : gagner en productivité et rester compétitif. Il a le sentiment qu’il est innovant et qu’il modernise sa pratique. La décision d’adopter l’IAG lui apparaît comme un acte de “souveraineté” professionnelle (pour reprendre ce terme à la mode et quelque peu galvaudé - voir sur le sujet ma note sur l’autonomie numérique). La démarche semble pleinement volontaire. Formellement, elle l’est mais elle ne l’est plus substantiellement. L’environnement dans lequel ce choix s’inscrit est lui-même construit pour le rendre inévitable. Les alternatives soit continuer sans l’outil, prendre le temps d’en évaluer les effets, refuser la délégation cognitive, sont (trop) souvent dévalorisées.
Ces “autres” pratiques ne sont pas interdites. Elles sont devenues “impensables”. L’imperceptif est d’autant plus efficace qu’il ne se présente jamais comme une obligation. Il emprunte les formes de l’opportunité, du bon sens, de l’évidence.
L’utilisateur délègue alors progressivement ses opérations cognitives à la machine, non par une contrainte directe, mais parce que tout le discours ambiant, les attentes des clients, les promesses de productivité, la pression concurrentielle l’y invitent. Il consent à cette délégation et la perçoit comme un exercice de lucidité et de liberté. Il déploie une démarche active pour confier à la machine ce qu’il faisait lui-même.
Mais tout cela, ce n’est qu’une illusion de liberté. L’utilisateur devient l’auteur de sa propre dépossession. L’illusion tient dans ce paradigme : un choix qui n’en est plus un, exercé dans un environnement qui en détermine finalement l’issue, par un sujet pensant agir librement. La liberté formelle d’adopter ou de refuser l’outil subsiste mais les conditions dans lesquelles cette liberté s’exerce la réduisent à sa plus simple expression.
C’est cette mécanique qui justifie le terme de “imperceptif”. La “pression sociale” évoquée par Anders s’exerce non pas sur la décision mais sur le cadre dans lequel la décision se prend. Cette pression est parvenue à modifier le cadre pour orienter le choix sans jamais avoir à le contraindre.
Deux nouvelles pratiques thérapeutiques
Ainsi que le propose Anders, mais avec moins de radicalisme, je pense que l’IAG doit être profondément, sincèrement et véritablement pensée. C’est un exercice complexe et pas nécessairement passionnant pour tous. Il faut trouver le plaisir de sans cesse remettre en question cette chose qui fascine tant positivement que négativement. Malgré toutes ces questions, je reste convaincu d’une chose : l’IAG, comme toute technique, est un pharmakon (un remède tout en étant un poison).
L’ambivalence propre à chaque technique, nous place, en permanence, dans cette tension entre le “bon” et le “mauvais”. J’ai déjà exposé iciqu’il n’était pas utile de rejeter la technique d’un seul bloc car on passerait alors à côté d’opportunités ou d’avantages intéressants. J’avais esquissé précédemment quelques pratiques, qu’on peut qualifier de thérapeutiques. Cette thérapeutique est nécessaire face au pharmakon et c’est une pharmacologie que nous devons sans cesse mettre à l’œuvre. En plus des quatre pratiques esquissées précédemment, je voudrais en ajouter deux nouvelles.
Grammatiser
D’abord, la grammatisation comme résistance à cette dépossession.
Selon Ars industrialis,
la grammatisation– expression qui prolonge et détourne un concept de Sylvain Auroux1 – désigne la transformation d’un continu temporel en un discret spatial : c’est un processus de description, de formalisation et de discrétisation des comportements humains (calculs, langages et gestes) qui permet leur reproductibilité.
On entend souvent dire que l’humain doit rester dans la boucle (le fameux human in the loop). Pour moi, cette formule sonne toujours un peu creuse car les critères de ce (quasi)impératif (ici encore) à agir ne sont jamais définis. A titre personnel, je constate que cette “vérification humaine” n’est pas définie de manière très claire ou précise mais surtout qu’elle se réalise a posteriori.
Ici, je préconise donc une inversion temporelle du contrôle. Bien qu’il faille encore relire après, la grammatisation doit se réaliser avant. Formaliser explicitement ses méthodes opératoires avant de confier l’exécution à la machine permet d’imposer sa grammaire “cognitive” au dispositif technique, au lieu de subir passivement celle que la machine impose. Cette conscience devient une réelle forme de résistance à la dépossession. Elle nous permet de “mieux” garder le contrôle.
Concrètement, cela signifie qu’il faut définir ses propres critères d’analyse et d’exécution, structurer ses processus et sa logique en fixant une ligne de conduite. Nous devons éviter de nous en remettre à 100 % à la machine. Produire des instructions qui encadrent la production de textes, des documents qui ne contiennent pas directement de l’information utilisable mais des critères permettant de la générer dans des cas spécifiques. Réussir à passer du cas particulier à la classe de cas, puis à la structure permettant de traiter cette classe est une abstraction cognitive supplémentaire qui nécessite une maîtrise approfondie de son propre métier. Grammatiser donc sa pratique permet de conserver le pouvoir de sélection des critères et des méthodes opératoires. C’est décider consciemment de ce que l’on délègue et de ce que l’on conserve.
Observer
Une autre pratique thérapeutique est celle d’observer ce qu’on fait et ce qu’on ne fait plus. Cette observation permet de dessiner les contours de ce que l’on considère comme étant le travail (intellectuel) que nous ne délèguerons pas.
Cette observation peut être “négative” : observer quels “gestes” professionnels ont disparu depuis l’usage régulier ou quotidien de l’IA ? Quelles compétences se perdent ? C’est une tâche difficile et elle nécessite une vigilance face à notre dépossession qui, j’en conviens, impose une remise en question importante de notre utilisation qui n’est pas toujours opportune ou adéquate dans le cadre d’une pratique professionnelle.
À l’inverse, l’observation peut être “positive” : quels moments de résistance persistent, où l’on refuse instinctivement de déléguer à la machine ? Qu’est-ce qu’on garde comme tâche faite par l’utilisateur? Qu’est-ce qu’on continue, inlassablement et malgré la présence de la machine, à exécuter soi-même ?
Cette observation permet de tracer une frontière entre ce qui peut être délégué et ce qui ne peut ou ne doit pas l’être. Cette frontière fait écho à ce qu’Ethan Mollick a défini comme “the jagged frontier” : la frontière dentelée. Elle est par essence invisible et porte sur les capacités de l’IAG : puissante sur des tâches, défaillante sur d’autres. Cette frontière est irrégulière et subjective. Personne ne sait exactement à l’avance où elle doit être tracée. C’est par la pratique et l’expérience que l’utilisateur parviendra à positionner, quasi intuitivement, la démarcation entre ce que peut faire la machine et ce qui doit rester chez l’utilisateur.
Ce que propose ce geste d’“auto ethnographie”, c’est d’apprendre à lire cette frontière dans sa propre pratique. Les moments où l’on refuse de déléguer dessinent les zones où l’on pressent, parfois intuitivement, que l’IA se situe au-delà de ses capacités. Les moments où l’on délègue sans vérifier signalent, inversement, les zones d’endormissement. Observer ces zones, c’est, en quelque sorte, tracer sa propre frontière dentelée. Documenter ces situations, même rétrospectivement, c’est maintenir le contact sur un processus qui tend à se naturaliser dans l’habitude (naturaliser dans le sens où celui-ci n’est plus perçu par l’utilisateur). Mais c’est aussi, et peut être surtout, d’accepter que cette frontière se déplace : ce qui était en deçà des capacités de l’IA hier peut se retrouver au-delà demain compte tenu de l’évolution technique.