Dans ce petit tour d’horizon personnel concernant les façons de considérer les LLM, je suis attiré par une autre approche que je n’ai pas rencontrée dans les conférences auxquelles j’ai assisté.
On peut la situer dans le prolongement de la quatrième, mais en allant plus loin dans une direction précise.
Il s’agit de mieux comprendre ce qui se passe avec les LLM, dans le traitement du langage naturel.
Face à leurs capacités nouvelles et surprenantes dans ce domaine, aussi bien pour interpréter les questions que pour construire des réponses élaborées, on l’a compris, j’ai trouvé un peu léger de se contenter de dire : oui c’est bluffant, mais c’est normal, ces machines ont emmagasiné tellement de données, elles vont chercher le meilleur de ce qui a déjà été dit par des auteurs sur le sujet.
A l’opposé de cette légèreté, un peu d’étonnement ne me paraît pas absurde.
Étonnement qui, comme le disait Socrate, est le déclencheur de l’attitude philosophique.
Mais on n’a pas entendu beaucoup de philosophes avoir une réflexion un peu sérieuse sur les LLM. La plupart se sont empressés de se ranger parmi les « minimiseurs », avec des airs hautains.

On peut commencer par s’étonner du fait que ces capacités ne sont pas apparues plus tôt.
Après tout, les moteurs de recherche ont depuis longtemps accès à d’immenses quantités de données.
Et par ailleurs, la compréhension du langage naturel humain a fait l’objet de nombreux efforts.
On voit bien pourquoi : cela permet d’automatiser de nombreuses tâches concernant les textes. Ce fut l’un des objectifs principaux des débuts de l’intelligence artificielle depuis les années 60. De multiples stratégies ont été mise en place pour cela : nettoyage des mots vides, repérage des mots clefs, des règles de structure de phrase, enrichissement du lexique, …..
Parmi les outils interactifs, le programme Eliza a laissé un grand souvenir. Il était capable -en reconnaissant des formes de phrase et des mots clefs- de relancer un interlocuteur cherchant un soutien psychologique, le tout étant inspiré de la psychothérapie rogérienne.
Mais malgré ces efforts, la « compréhension » du langage naturel humain n’a pas été atteinte avant les LLM qui ont apporté un changement radical, un saut qualitatif fondamental.
A partir de 2018-2019, l’architecture des LLM a commencer à se dessiner avec Bert.
Les systèmes capables de comprendre, générer, dialoguer naturellement ont émergé durant l’année 2020 (GPT‑3), puis se sont démocratisés au second semestre 2022 via ChatGPT.
Pour le grand public, le phénomène a explosé, à partir de 2023 -2024.
Il s’est donc passé quelque chose autour de 2020.
Des machines capables de produire l’équivalent de la compréhension naturelle du langage, autrement dit de converser, sont apparues.
La conversation, c’était le propre de l’Homme avec un grand H, non ? La pierre de touche de l’humain…
Je vais continuer à m’étonner. D’abord de ce fait. Et puis du peu d’étonnement que cela suscite chez ceux qui sont censés réfléchir.