Une ia générative de conneries

Posted on Feb 17, 2025

Il y a beaucoup de contenus et j’ai commencé par What’s bad about ChatGpt

Sans trop de surprise, Stallman n’est pas super enthousiaste à l’usage de cet agent conversationnel pour plusieurs raisons notamment au regard de l’aspect propriétaire du logiciel (logique pour le fondateur de GNU & de la GPL).

Au delà de ces considérations techniques, il apporte son point de vue sur la terminologie à adopter. Outre les portes ouvertes enfoncées (l’ia n’est pas intelligente car elle est agnostique à la vérité, ça on sait tous si on fait ses devoirs), il propose sur le site de gnu.org une classification des vocables à utiliser (reproduite ci-dessous) :

*“Voici la terminologie que nous recommandons pour désigner les systèmes basés sur des réseaux neuronaux entraînés:

  • Le terme d’« Intelligence artificielle » convient pour des systèmes qui ont la compréhension et la connaissance d’un domaine particulier, que ce dernier soit restreint ou étendu.

  • « Générateur de conneries » est ce qui convient pour des systèmes comme les « grands modèles linguistiques » (LLM – (Large Language Models), par exemple ChatGPT, qui génèrent un verbiage sans relief semblant affirmer des choses sur le monde sans comprendre la sémantique du verbiage qu’ils produisent. Cette conclusion est appuyée par l’article de Hicks et al. (2024) « ChatGPT is bullshit ».

  • « Système génératif » est ce qui convient pour un système qui génère des œuvres artistiques pour lesquelles les notions de vérité et de mensonge ne sont pas applicables.”*

Cette classification est intéressante et plus particulièrement les considérations relatives au LLM et au système génératif.

La distinction qui est faite entre ces deux catégories reposent, me semble-t-il, sur un référent discutable. Il définit d’ailleurs le système génératif pour les productions agnostiques à la vérité ou au mensonge.

En considérant le LLM comme « générateur de conneries », on prête des intentions à l’usage d’un LLM. Cette vision subjective m’a rappelé l’article de Florence Maraninchi - Pourquoi je n’utilise pas ChatGPT? J‘ai déjà commenté succinctement cet article sous la publication de Yannick Meneceur et je continue à considérer que l’ensemble des ces considérations reposent sur une série d’hypothèse et de partis pris qui traduisent un manque d’ouverture d’esprit. A ce sujet, Florence Maraninchi ne se cache pas derrière son petit doigt et indique, sans ambages:

  • “je n’ai jamais été tentée d’essayer moi-même.”

  • “Le tour d’horizon qui suit est uniquement à charge. L’espace médiatique étant saturé de promesses politiques et d’articles dithyrambiques, ce peut être vu comme un petit exercice de rééquilibrage du discours.”

Bref, annoncer un rééquilibrage du discours tout en indiquant être à charge et sans jamais avoir essayé l’outil est un peu décevant de la part d’une personnalité du monde académique. Toutefois, cet article à charge permet de confirmer certaines dérives (consomation énergétique, pollution , slop et autres problématiques d’utilisation de l’ia générative pour privilégier la quantité à la qualité) parfois mises de côtés par les “influenceurs” et autres experts IA.

Ceci étant écrit, qualifier un LLM comme générateur de conneries, c’est un point de vue assez marginale qui mériterait d’examiner les raisons de cette qualification. Dans son article précité,  Florence Maraninchi expose ses raisons et son refus d’utiliser l’outil en indiquant notamment que la raison est soutenue par (sa) “méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques.”

S’il ne faut effectivement pas vouer un culte à ces IA génératives, considérer qu’elles ne sont bonnes qu’à générer des conneries est une posture excessive qui démontre, peut-être, un manque de recherche sur le sujet et une attente démesurée quant à ce que peut faire l’outil.  Le LLM n’a pas la science infuse. Il ne détient pas la vérité et y est même agnostique comme écrit plus haut. Pourquoi donc jouer aux vierges effarouchées à ce sujet? Que dirait-on de celui qui veut planter un clou avec une scie et qui s’offusquerait de l’inutilité de cet lame dentelée pour enfoncer un bout de métal ?

Prenons un cas d’usage, socialement acceptable : Demander à un LLM de reformuler un contenu scientifique pour l’expliquer à un enfant de 10 ans (ou 20 ans) et vous verrez la puissance de l’outil. Je ne dis pas que l’IA va remplacer les professeurs ou l’école mais il me semble qu’on peut légitiment considérer les LLMs comme de très bons outils pour coacher et apprendre, par exemple.Le département de l’Education du Royaume a sorti un policy paper sur le sujet le 22 janvier 2025 qui indique par exemple “If used safely, effectively and with the right infrastructure in place, AI can ensure that every child and young person, regardless of their background, is able to achieve at school or college and develop the knowledge and skills they need for life”.

Je ne veux pas paraître pour un défenseur des IA sans critique ni nuance mais on voit poindre de plus en plus de critiques de ce type avec, reconnaissons le, une véhémence inutile. Moi aussi je voulais rééquilibrer le discours en constatant, au surplus que la critique est aisée mais l’art est difficile. Car au delà du parti pris manifeste et affiché, ces critiques et commentaires n’apportent aucun piste de solution et je serai curieux de lire une critique constructive avec des propositions concrètes d’amélioration de ces outils.