Ethique et conformité. Au delà de la hype.

Posted on Nov 17, 2025

Le discours sur l’IA responsable devient de plus en plus prégnant. Les déclarations des acteurs de la tech sur le sujet, la volonté de réguler le secteur et la technologie pour l’encadrer et la baliser, sont toutes faites dans une volonté obsessionnelle d’atteindre un niveau de confiance suffisant dans cette “nouvelle” technologie.

Cet essai vise à penser cette notion d’IA responsable et de confiance et à établir qu’elle repose sur une illusion d’éthique masquant notre dépendance systémique (et systématique) à la technologie et notre recherche absolue d’efficacité.

Je ne porte pas une vision technophobe ou réfractaire de la technologie mais j’ai le sentiment qu’il est plus que nécessaire de recalibrer le discours de l’IA. Entre les effets d’annonces marketing des acteurs de la tech, les rapports et études d’organisations plus ou moins scientifiques, nous sommes face à un “bruit” considérable et la production frénétique de contenus orientés participe à une hype à laquelle il devient difficile de se soustraire. J’essaierai donc ici de poser le cadre d’une discussion que nous devrions tous avoir face à la “chose technologique” et plus particulièrement face à l’IA générative et ses promesses.

Je réfléchirai d’abord aux raisons de l’apparition de ce terme en considérant ce discours “éthique” comme illusoire et devenu nécessaire pour répondre aux problèmes structurels de l’IA.

J’aborderai ensuite la raison pour laquelle nous acceptons, collectivement, cette illusion sans remettre en question nos croyances et plus particulièrement celles sur la neutralité de la technologie.

Enfin, je proposerai 3 balises pour naviguer dans cet environnement sans tomber dans une posture réfractaire ou technophobe.


I. L’IA de confiance

1) Pourquoi une IA de confiance ?

Avant de définir ce qu’est une IA de confiance, je voudrais souligner que si l’on vient à se poser des questions sur la définition de l’IA de confiance, sur la ou les raisons de l’existence de ce terme, on reconnait, de manière peut être timide, qu’il y a des IA “à problèmes”. C’est un postulat qu’il me semble utile de (ré)affirmer tant les critiques sur l’IA sont pudiques et/ou désespérément banales (hallucinations ou biais par exemple).

Ces IA “à problèmes” existent en raison d’une multitude d’éléments (notamment décrits par Kate Crawford - Contre-atlas de l’intelligence artificielle).

Pour ma part, si nous sommes d’accord pour considérer l’existence de problèmes, j’aimerai, sans revenir en détail sur le fonctionnement des LLM, rappeler deux évidences qui, étrangement, passent souvent au second plan comme causes de ces problèmes.

a) De la modélisation à la naturalisation

La représentation statistique est toujours située. Tout algorithme, quel qu’il soit, re-présente un phénomène. Il s’agit donc ici de présenter un fait au travers de chiffres et donc, en fait, de reproduire une perception. Le phénomène représenté est donc reproduit en se fondant sur des données : on va capter des signaux faibles et forts sur un jeu de données déterminé. Cette représentation par reproduction n’est pas nécessairement objective et conforme au “réel” notamment en raison des données retenues, des signaux qu’on a laissé passer, des critères qui sont privilégiés, etc. Il y a donc déjà une possibilité d’introduire de la subjectivité en amont de cette reproduction , qui peut être volontaire (ou non).

Ensuite, la qualité de l’algorithme va dépendre de la manière dont on va poser le problème. Avant tout entraînement, il y a une modélisation : transformer une situation réelle en “code informatique” (pour faire simple). Cette étape n’est, elle aussi, pas neutre. Elle implique l’encodage de normes et de valeurs propres aux concepteurs, définies par leurs propres grilles de lectures. Si l’on prend les algorithmes de recommendations de contenus, on peut aisément constater qu’un choix est fait en raison d’une série de critères qui nous échappent complètement.

Par ailleurs, les problèmes reconnus de ces technologies sont aussi parfois sous-évalués en raison d’un phénomène de “naturalisation”. Cette notion recouvre le fait d’intégrer les technologies d’une manière telle qu’elle sont perçues comme “naturelles”.

Dans ce cadre, la modélisation qui vise une reproduction d’une représentation est une manière de reproduire cette vision. Or, à cause de la naturalisation ce n’est plus “une” vision du monde mais “la” vision du monde. L’utilisateur/consommateur/lecteur fait abstraction de ce filtre subjectif qu’est la modélisation et “naturalise” celui-ci.

Nous ne questionnons plus les résultats d’un moteur de recherche: nous avons intégré que les premiers résultats de recherche sur Google sont pertinents. Ne dit-on d’ailleurs pas que le meilleur endroit pour cacher un cadavre est à la 3e page des résultats Google? Là où personne ne va pour ceux qui ne connaissaient pas.

En raison de la modélisation, de l’in-conscience de celle en raison notamment de la naturalisation, les utilisateurs subissent les choix de recommandations algorithmiques proposées par les plateformes qui créent des chambres d’écho, exposant l’utilisateur à des informations ou des points de vue qui correspondent à ses croyances, renforçant donc celles-ci et la naturalisation (via un biais de confirmation). C’est évidement, à mon sens, une part importante du problème mais qui n’est pas l’unique.

Ce phénomène de naturalisation peut rester limité, voire inexistant, si d’autres outils existent et sont utilisées concomitamment. Si l’on utilise plusieurs moteurs de recherches, qu’on croise ses résultats et ses sources, on reconnait déjà l’existence de la modélisation et l’on lutte, efficacement, contre la naturalisation. Mais ce n’est malheureusement pas le cas de tous et le fameux “esprit critique” devrait être cultivé pour contrer ces effets pervers de la tech.

b) Une adoption sans précédent

Si la naturalisation peut être mitigée par un usage multiple, une utilisation centrée sur un outil peut accélérer ce phénomène.

Lorsque ChatGpt réussi à battre le record pour atteindre 1 million d’utilisateurs (en 5 jours) et qu’en octobre 2025, TechCrunch annonce 800 millions d’utilisateurs hebdomadaires, on peut légitiment s’interroger sur la naturalisation qui serait à l’œuvre auprès de certains utilisateurs.

Le caractère quasi monopolistique des acteurs de la technologie doit aussi être questionné autrement que sous l’angle du droit à la concurrence. Cette oligarchie technologique a des conséquences directes sur la naturalisation et par conséquent sur notre société.

Comme le souligne Anne Alombert, le secteur pharmaceutique ou aéronautique sont soumis à une réglementation contraignante quant à la mise sur le marché de nouveau produits et/ou services qui empêchent la commercialisation sans qu’une batterie de tests soient réalisés.

Or, la technologie peut tuer. Ce n’est pas un risque, une potentialité mais une triste réalité. Je pense que nous devons aussi considérer la technologie comme un potentiel “danger” pour l’humain. Ces dangers sont certainement moins visibles que dans le secteur pharmaceutique ou aéronautique mais nous venons de reconnaitre que l’IA de confiance existe parce qu’il y a aussi des IA “à problèmes”. On peut élargir la réflexion à d’autres technologies intégrant de l’IA, comme les réseaux sociaux, pour constater la présence de dangers, parfois mortels. Je ne veux pas verser dans une technophobie offusquée mais il ne faut pas non plus fermer les yeux face à l’évidence.

Aucune réflexion ou analyse d’impact n’a été réalisée avant la mise sur le marché de ChatGpt. Cette absence d’études ou d’analyse est une “spécificité” du marché des technologies. En effet, pour beaucoup de dispositifs technologiques proposés (matériel et/ou logiciel), aucune étude n’est requise, aucune mise en conformité ou autorisation préalable n’est sollicitée. Cette situation peut être nuancée et tempérée au regard des dernières réglementations européennes en matière d’intelligence artificielle mais de manière générale, il n’y a pas d’étude sur les impacts que pourraient avoir ces technologies sur les individus. On ’lance’ des produits technologiques à coup de millions (ou de milliards) et on voit ce qui se passe(ra).

a) L’exemple européen

A mon sens, l’initiative européenne et le Règlement sur l’IA vise précisément à rendre acceptable les systèmes d’IA mis sur le marché.

La classification par les risques est une approche qui semble être éthique. On va définir ce qui est bon et ce qui mauvais. Pour ce qui serait entre les deux, on va lister une série de conditions à respecter pour rendre l’utilisation “à haut risque” acceptable. Par exemple, on peut utiliser un système d’IA dans le secteur du recrutement mais selon certaines conditions.

Le 8 octobre 2025, le Monde titrait :

Les entreprises plongées dans le brouillard juridique du recrutement avec les IA émotionnelles.

Interrogé par la journaliste, l’associé cofondateur d’un cabinet qui accompagne l’adoption des nouveaux usages de l’IA expose :

A ce stade, la première chose qui les préoccupe le plus, c’est de savoir quelles sont les IA interdites et les risques qu’elles encourent au regard de la réglementation si elles les utilisent.

Il n’y a donc aucun questionnement de l’opportunité d’utiliser une IA pour “mesurer leur enthousiasme ou d’évaluer leur degré d’énervement à travers l’intonation de leur voix ou leur expression faciale”.

On se limite à vérifier si cette utilisation est licite. Or n’y a-t-il pas déjà un problème éthique de vouloir évaluer des candidats à l’aide de ces dispositifs technologiques? J’y reviendrai plus loin.

Le Règlement vise aussi des “pratiques interdites”. Cette manière de faire semble, elle aussi et de prime abord, éthique. (A cet égard, je considère que les pratiques visées étaient déjà interdites sous l’empire de précédentes réglementations et que nous n’avions pas vraiment besoin d’un texte supplémentaire pour le rappeler). Mais le règlement est plus “vicieux”. En effet, bien que certaines pratiques soient considérées comme interdites, les Etats, eux, pourront sous certaines conditions déroger à ces interdictions. Ce règlement vient donc finalement légitimer, sous certaines conditions, des ingérences technologiques importantes dans la vie des citoyens. Et c’est n’est pas un risque, c’est une réalité comme la Ville de Paris a eu l’occasion de le démontrer à (JO Paris 2024 et sur la vidéosurveillance algorithmique)

Ce cadre réglementaire, bien qu’il interdit en apparence une pratique, vient poser un cadre d’autorisation de certains usages. C’est donc à nouveau une manière de rendre un usage d’IA “acceptable”. Au demeurant, c’est assez cynique de définir des pratiques qui sont interdites pour tous, sauf pour les Etats dans certains cas. Faites ce que je dis mais pas ce que je fais écriraient certains.

2) C’est quoi une IA de confiance?

En avril 2019, un groupe d’experts de haut niveau sur l’IA a publié des «Lignes directrices en matière d’éthique pour une IA digne de confiance».

Conformément aux lignes directrices, une IA (digne) de confiance devrait être:

(1) licite: elle respecte de toutes les lois et réglementations applicables; (2) éthique : elle respecte des valeurs et principes éthiques; (3) solide: d’un point de vue technique, tout en tenant compte de son environnement social;

On va définir l’IA (digne) de confiance sur des critères “objectifs” (licite et solide selon des standards) mais aussi “subjectif” (éthique). Cette notion subjective est examinée au regard des critères de (i) respect de l’autonomie humaine, (ii) de prévention de toute atteinte, (iii) d’équité et (iv) d’explicabilité.

Je crois que certains de ces critères éthiques sont déjà intégrés dans les lois et réglementations applicables de sorte qu’une IA licite serait déjà, d’une certaine manière, éthique.

C’est donc une forme de raisonnement circulaire, en quelque sorte, qui traduit un “vernis” superficiel ajouté aux couches, déjà multiples, de réglementations applicables.

En outre, on peut se poser la question des raisons nécessaires à cette définition si celle-ci intègre, en fait, la mise en œuvre de dispositions légales déjà applicables. Rappeler que les systèmes d’IA doivent être licites, éthiques et solide devient, en quelque sorte, d’une banalité désespérante.

C’est aussi une manière de détourner la réflexion sur l’usage. On ne va pas réfléchir au quoi mais seulement au comment.

3. Le piège de l’habillage éthique de la technologie (ethics washing)

Juan Sebastien Carbonell dans son livre “Un taylorisme augmenté,  critique de l’intelligence artificielle” écrit :

« L’éthique est un pur instrument au service du développement de l’IA
(…) La régulation et l’IA éthique ne questionnent donc pas l’usage de l’IA en tant que tel, (…) On peut dire qu’elles ont surtout pour but de rendre l’IA acceptable en la présentant comme “responsable “. »

Je ne partage pas à 100 % le point de vue mais je pense que Carbonell capte bien l’enjeu: on se borne à questionner certains usages pour les rendre “acceptables”. On crée une “illusion éthique” pour répondre aux problèmes structurels de l’IA. Dans un sens, c’est une forme d’habillage éthique éfini par le Journal officiel français du 16 juillet 2024, et qui constitue :

« une stratégie de communication d’une entreprise ou d’une organisation qui cherche à améliorer son image de marque en se réclamant abusivement de valeurs éthiques ».

Comme mentionné ci-dessus, l’IA de confiance telle que définie peut avoir un caractère très superficiel en raison de de son approche. On n’interroge pas le quoi mais seulement le comment.

L’éthique, soit ce qu’on devrait faire (ou pas), devient de la conformité, soit ce qu’on doit faire.

Les développeurs de solutions se contenteront de suivre à la lettre les principes énoncés plus haut sans réellement questionner l’usage technologique et la nécessité de la solution technologique proposée au problème examiné.

C’est un piège de concevoir l’éthique comme une liste de cases à cocher. Nous traitons l’éthique comme une fonctionnalité logicielle que l’on peut ajouter après coup, au lieu de la reconnaître comme élément fondamentale qui devrait guider les décisions de conception depuis le début. Je crois qu’une réflexion doit être faite en amont, avant même de concevoir la solution.

II. La neutralité technologique

J’ai dénoncé l’absence de remise en question de l’utilisation de la technologie. Ce constat résulte, selon moi, d’une relation à la technologie, et plus généralement à la technique qu’il est nécessaire d’examiner sur le plan de la neutralité technologique.

Toute cette réflexion peut paraitre hors-sol à bien des égards. Notamment, on entend régulièrement que :

« la technologie n’est ni bonne ni mauvaise, tout dépend de ce qu’on en fait. »

Pour justifier cette assertion, on prend l’exemple du marteau pour expliquer que l’on peut bâtir une maison ou construire un meuble mais aussi fracasser la tête de son voisin ou casser une vitre pour commettre un larcin.

Si ce “raisonnement” peut fonctionner pour la technique, peut-il fonctionner pour la technologie (que je range dans le grand ensemble de la technique)?

A mon estime, ce postulat n’est plus tenable et ce depuis bien longtemps. Pour le comprendre, il faut revenir brièvement à l’histoire des critiques de la technique puis observer comment ces analyses résonnent aujourd’hui, à l’heure d’un solutionnisme technologique et de l’IA générative.

1) Le mouvement techno-critique

La critique de la technique n’est pas nouvelle. Depuis toujours, la technique est critiquée et remise en question.

Le mouvement techno-critique du XXe siècle a vu pléthore d’auteurs inspirants. Parmi ceux-ci, un auteur me marque particulièrement : Jacques Ellul car sa pensée est d’une étourdissante actualité à bien des égards.

D’abord, Ellul constate que notre société et les individus qui la composent sont dans une recherche absolue d’efficacité maximale en toutes choses. Il ne s’agit pas uniquement d’une efficacité au travail, dans la production, mais une efficacité dans toutes les strates de notre société et de nos systèmes.

Selon Ellul, la technique est systémique : c’est une force autonome qui régit l’organisation sociale dans son ensemble. Ce caractère systémique découle, selon Ellul, de la désacralisation du monde naturel et d’un transfert du sacré à la technique.

Nous allons donc renforcer le caractère systémique de la chose par sa sacralisation et en lui donnant une nouvelle valeur : l’efficacité.

La conséquence est que la technique n’est plus un instrument, c’est une religion et parce qu’on l’on considère la technique comme telle, on perd toute capacité critique rationnelle et libre. La technique et l’efficacité deviennent un dogme.

Je lisais dernièrement une newsletter de Tariq Krim qui indiquait :

L’IA joue un rôle ambigu. D’un côté, elle nous promet de « mieux écrire », plus vite, plus clairement, plus élégamment. De l’autre, elle renforce l’idée que notre pensée brute est insuffisante. Derrière chaque génération de texte, il y a une négation implicite : nous ne sommes pas assez.

A titre personnel, je trouve ce constat lourd de sens et révélateur de ce qu’Ellul décrivait il y a près de 60 ans. “Nous” sommes perpétuellement à la recherche d’une efficacité maximale et l’innovation technique et technologique ne fait que renforcer cette quête.

2) Le solutionnisme technologique

Ce dogme de l’efficacité va amener notre société dans quelques “dérives”. Nous sommes devenus tellement convaincus que la technologie est efficace qu’elle devient quasiment la seule réponse audible à nos problèmes. Nous tombons dans le techno-solutionnisme qui veut qu’il existe une solution techno entrepreneuriale à tout problème sociétal donné.

Conceptualisé notamment par Evegny Morozov, le solutionnisme technologique impose la technologie sans qu’un besoin soit identifié. « Si ça peut se faire, on le fait » diraient certains. Cette forme de techno-optimisme crée l’illusion que la technologie peut tout régler. On va, de manière systématique, transformer les problèmes sociaux complexes en défis techniques.

Cette manière de faire est “malheureusement” tout à fait séduisante pour le monde politique comme l’expose Benjamin Pajot car cela offre :

un répertoire d’action immédiate à la portée de décideurs publics sous la pression permanente du résultat et du temps court de la communication politique.

Nous sommes donc confrontés à une suramplification du constat posé par Ellul causé par l’innovation technologique et le techno-solutionnisme qui nous conduisent à “toujours plus, toujours mieux”. On ne discute plus du pourquoi mais du comment, on cherche à optimiser le système au lieu de le questionner.

Mais, nous devons inexorablement nous rappeler d’une chose (je préfère l’anglais ici pour la concision):

technology doesn’t solve problems, humans do.

3) La technologie ne résout pas les problèmes, ce sont les humains qui le font.

Le constat d’Ellul sur l’efficacité n’est pas neuf. Il est formulé à une époque et dans un contexte. C’est sûrement le caractère percutant de la formule qui est une des raisons de mon affection pour l’auteur.

Toutefois, bien d’autres avaient, avant Ellul, constaté le même phénomène.

Marx écrivait ainsi :

La machine à vapeur fut moins le point de départ que la matérialisation d’une transformation déjà à l’œuvre dans le capital :  la recherche d’une productivité toujours plus grande et de la domination du travail par la technique.

Si les causes de cette recherche de productivité ou d’efficacité peuvent être différentes et discutées, force est de constater que le résultat est le même.

Un bref passage dans le secteur du travail me permettra, je l’espère, d’illustrer un peu plus, mon point de vue. Le taylorisme, par exemple, était déjà une forme de solutionnisme technologique au début XXe siècles. Là où les ouvriers étaient jugés inefficaces et/ou trop chers, Taylor va proposer une décomposition des tâches qui permettra de remplacer ces ouvriers qualifiés par des opérateurs de machines disposant d’un faible niveau d’autonomie et donc de compétence permettant alors, une réduction du coût salarial.

On passe de l’autonomie de l’artisan, appliquant ses propres règles (auto-nomos) en utilisant son corps et ses outils, à l’automation (suivre les règles). A noter d’ailleurs que le terme “automation” a été crée par Delmar S. Harder, vice-président de la Ford Motor Company en 1948.

4) La technologie n’est pas neutre

La technologie ne peut être considérée comme neutre.

D’abord, parce que nous considérons, à la manière d’un dogme, que la technologie est nécessairement synonyme d’efficacité. Cette valeur est considérée comme intrinsèque et biaise notre perception de la “chose technologique”. Nous n’allons plus questionner cette efficacité car elle “coule de source”.

Ensuite, le développement des technologies est orienté par des choix sectoriels en matière de financement. Une grande partie des technologies que nous utilisons actuellement sont issues de recherches financées par le secteur militaire. C’est donc un choix qui est fait de développer une technologie plutôt qu’une autre. Ce choix est alors inspiré et/ou guidé par des considérations propres au secteur qui le finance.

En outre, le développement technologique a pour conséquence de créer des changements (in)conscients. Le secteur bancaire me semble être un bel exemple. Sa digitalisation a profondément transformé le service bancaire et l’a, à certains égards, “restreint”. Si l’on peut considérer les distributeurs automatiques de billet comme une forme de progrès et bénéfique pour les utilisateurs, le “tout digital” qu’on retrouve dans le secteur bancaire vous a déjà, très certainement, donné quelques cheveux blancs. Entre la disparition des agences locales, les difficultés d’appeler un “humain” pour résoudre un problème, et cet humain qui vous répond d’utiliser l’application pour laquelle vous cherchez précisément de l’aide en raison d’un dysfonctionnement, il devient de plus en plus difficile de réussir à jouir de son argent. Ce qui devait faciliter les opérations devient, parfois, à un parcours du combattant. Essayez de fermer le compte d’une personne décédée dans une banque entièrement digitalisée. Vous découvrirez un labyrinthe kafkaïen : l’application vous renvoie au site web, le site web vers le chatbot, le chatbot vers un numéro de téléphone qui vous redirige… vers l’application. Cette absurdité n’est pas un bug : c’est la caractéristique d’un système qui a optimisé sa rentabilité au détriment de sa fonction première: servir le client et donc l’humain.

Enfin, notre rapport au monde est transformé. Si nous sommes toutes et tous encore libre d’utiliser la technologie et la technique, il reste difficile, voire impossible, de l’ignorer. A moins de vivre en ermite, reclus de la société, nous subissons toutes et tous, à des échelles variées “l’intrusion” technologique qui a, également à des degrés divers, un impact sur notre vécu. Selon certains, la voiture a “défiguré” nos villes et les cyclistes qui tentent de s’aventurer sur le bitume cherchent encore à trouver leurs places. Cette situation est “tellement” problématique que des travaux d’aménagement sont réalisés pour “favoriser” la mobilité douce ce qui, dans certains cas, est un doux euphémisme.

On ne peut pas considérer la technologie comme neutre. Elle cristallise des choix dès sa conception mais aussi à sa fabrication et lors de son utilisation. Il est donc nécessaire de questionner son utilisation et la pertinence de celle-ci.

III. Comment naviguer ?

Si l’on prend conscience des enjeux, l’on va généralement se poser la question de l’éthique et de savoir “dans quelle société voulons-nous évoluer?

Face à cette force technologique, nous sommes amenés à questionner nos valeurs et certains sont tentés de définir les contours de la société de demain face à la technologie. Je pense que cette question est un piège car elle vise à constater un problème et évoquer une solution hors de portée tel un idéal kantien: une idée que l’on considère souvent comme un objet réel alors qu’elle n’est qu’une idée régulatrice. (voir mon article sur le sujet disponible ici). Dans cette réflexion, je concluais à l’inadéquation de la solution “logique” qu’induisait cette question.

Ma conclusion restait insuffisante et donc insatisfaisante. Je voudrais donc développer ici quelques éléments de solution qui pourrait permettre à chacun, et à quelque niveau que ce soit, de naviguer à travers ces complexités.

1) Le piège des fausses alternatives

Avant de présenter mes pistes de solutions, je voudrai brièvement explorer ce qui ne peut pas être la solution.

Comme déjà écrit, mon propos n’est pas technophobe ou réfractaire et refuser en bloc la technologie nous priverait d’opportunités certaines. Wikipedia n’aura pas été possible sans technologie. Nous avons des avancées intéressantes dans le secteur de la santé grâce aux technologies qui sont indéniablement nécessaire. Internet a permis des choses qui était jusqu’alors impossible à concevoir et/ou imaginer.

Tout adopter n’est pas non plus une voie à suivre. Nous le savons, l’absence de neutralité de la technologie peut nous conduire à des situations complexes dont nous percevons de plus en plus les contours. Avancer sans garde-fou ou sans cadre structurant, adopter béatement toutes les technologies sans discernement nous plongerait dans une dystopie dont les traits ont déjà été esquissés par de nombreux auteurs.

Tout réguler sera alors la voie “royale” pour solutionner ces “problèmes” technologiques. C’est d’ailleurs la solution qui est appliquée depuis quelques années en Europe et qui nous vaut d’être la risée de certains pays concurrents. Si la régulation a du bon et est nécessaire, on doit cependant bien admettre le caractère parfois inadéquat de certaines normes. Cette inadéquation peut s’expliquer de bien des manières et l’idée n’est pas de les lister ici. Précisons seulement que l’innovation technologique évolue à une telle rapidité que la réglementation d’un tel secteur se fait souvent à contre-temps. Nous sommes donc souvent en retard pour réglementer. Et quand bien même la règle serait pertinente, elle ne peut l’être que durant quelques années et ne pourra survivre que grâce à l’évolution jurisprudentielle qui permettra de lui donner une actualité et lui re-donner une pertinence.

Enfin, il y a aussi parfois une croyance qui est qu’en refusant l’adoption ou l’intégration d’une technologie, on perd le contrôle. Une forme d’avantage concurrentiel laissé aux autres qui positionnerait le renonçant dans une situation d’infériorité. Ces croyances sont évidemment faites sous le prisme de l’efficience qui, pour de plus en plus de personnes, n’est plus nécessairement une valeur cardinale bien que le système continue à la valoriser.

2) Une boussole avec trois balises

Il est donc nécessaire de savoir où l’on veut aller si l’on souhaite naviguer. Je n’ai pas la prétention de savoir où nous devrions aller. Toutefois, j’ai l’objectif de proposer trois balises qui guideront cette navigation et permettront, je l’espère, une meilleure réflexion sur l’usage des technologies.

a) Détecter le solutionnisme

La première chose qui me semble nécessaire est de prendre conscience de l’existence de ces “biais”. Prendre conscience que nous avons tendance à nous plonger dans une forme de solutionnisme technologique de manière récurrente.

Notre société est dirigée par la “productivité”. Beaucoup cherchent à être plus productifs au travail par exemple. On retrouve alors une littérature abondante sur le sujet (David Allen, Cal Newport ou Ali Abdaal pour n’en citer que quelques uns).

Chacun cherche à trouver le moyen d’être plus productif. On se renseigne, on lit ce que font les autres et on cherche des solutions d’organisation pour faire plus avec moins. Très vite, on tombe dans les catalogue des applications “magiques” qui vous permettent de faire toute une série de choses apparemment merveilleuses et qui vous détournent, finalement, de la productivité réel.

Au lieu de faire, on cherche le meilleur moyen de faire. Cette recherche de productivité finit par devenir une procrastination infernale (Ne rejetons pas en bloc ces applications mais bien souvent, le meilleur moyen de “régler” les choses est une méthode et un bic et une feuille).

Si l’on s’intéresse au sujet, on voit vite que la majeure partie des solutions proposées sont technologiques.

Comme pour l’exemple de l’IA dans le recrutement, on se pose la question de la liceité des outils comme critères de pertinence de leur utilisation. Or, c’est à mon sens un leurre. La légalité d’une technologie ne la rend pas, de facto, nécessaire et efficace (et encore moins éthique).

Il faut donc reconnaitre ce solutionnisme qui peut prendre le dessus et l’examiner en vérifiant de manière critique le problème et sa cause profonde. En comprenant la cause profonde du problème qu’on cherche à résoudre, on parviendra alors à jauger de manière plus fine l’opportunité des solutions envisagées. Peut être qu’une solution technologique sera, finalement, la meilleure des solutions. En préservant ce questionnement, on dresse un premier filtre à cette hype.

b) Le [[pharmakon technologique]]

Une fois que la solution est envisagée, je propose de mobiliser le concept de “pharmakon technologique”.

Porté par Bernard Stiegler, à la suite de Derrida, le concept de pharmakon est issu du dialogue entre Socrate et Phèdre retranscrit par Platon.

Dans le Phèdre, Aristote relate, au travers d’une histoire entre un dieu et un roi grec, que l’écriture peut être un remède “contre la difficulté d’apprendre et de savoir” mais aussi un poison qui “ne produira que l’oubli dans l’esprit de ceux qui apprennent, en leur faisant négliger la mémoire”.

Transposé à la technologie, on devrait considérer la technologie comme nécessairement complexe et ambivalente quant à ses effets. Cette compréhension de l’ambivalence permet de dépasser l’approche techno-optimiste et offre une explication élégante pour contourner l’immobilisme dans lequel on pourrait se retrouver si l’on se bornait à chercher une solution technologiquement “parfaite”.

La force de ce concept réside aussi dans l’approche pharmacologique proposée par Stiegler. A l’instar d’une drogue ou d’un médicament, tout est question de dosage. Une dose trop légère est sans effet, une dose trop forte peut être létale.

Il y a donc un équilibre à trouver au travers de cette complexité qui devient inhérente à toute technologie.

Bien loin du mythe de la neutralité technologique, le Pharmakon vient affirmer l’ambivalence de chaque technologie et permet, à mon sens, d’appréhender de manière plus adéquate, les avantages et les dangers des solutions technologiques envisagées.

c) La myopie technologique

Pour finir, je m’appuierai sur le concept de “myopie technologique” développée par Richard Susskind mais que je réinterprèterai pour y donner un sens plus large que celui qui a été proposé.

Cette myopie vise la situation où nous projetons les défauts d’une technologie sans prendre en compte de facteurs de correction futurs qu’ils soient techniques ou politiques.

Par ailleurs, la myopie peut être optimiste ou pessimiste.

La myopie optimiste vise le cas où l’on estime que l’ensemble des défauts seront corrigés dans le futur alors que la myopie pessimiste vise les cas où les défauts actuels ne seront pas corrigés.

Par exemple, si l’IA générative hallucine aujourd’hui, ces hallucinations ne seront pas nécessairement autant présentes dans quelques mois/années. A l’inverse, il ne faut pas non plus imaginés que ces hallucinations seront purement et simplement gommées dans le futur et l’innovation technologique.

En mobilisant ce concept, on cherche à amener de la rationalité dans la projection. Cela permet, aussi, d’envisager les facteurs de correction (politique ou technique par exemple) afin d’objectiver, autant que possible, cette projection.

IV. Conclusion

Au travers de ce mini-essai, j’ai tenté de dresser un constat quant à notre positionnement au technologique.

En comprenant que la technologie a pour valeur intrinsèque l’efficacité qui permet de donner naissance à un techno-optimisme promouvant un solutionnisme technologique, nous pouvons remettre en cause, plus objectivement, les directions prises “intuitivement”.

Sans tomber dans une posture technophobe ou réfractaire, je constate que l’on nous propose des IA de confiance, et plus globalement de la technologie “de confiance”, comme une technologie dont les défauts seraient gommés et/ou minimisés.

Nous tombons alors, et encore, dans une mise en œuvre du principe d’efficacité et de recherche absolue d’efficience. Créer une IA de confiance, c’est partir du principe que l’IA est nécessaire et qu’il n’y aurait pas d’autre solution.

Aujourd’hui, s’interroger sur l’IA de confiance et sur une technologie éthique revient à rendre acceptable la technologie sans la remettre objectivement et sincèrement en question.

Si l’on détecte le solutionnisme technologique, qu’on comprend la complexité technologique et qu’on accepte son ambivalence (Pharmakon), on pourra (peut-être mieux) penser la technologie en veillant à corriger ses projections (optimiste ou pessimiste) (myopie technologique).