Je vais arrêter après le prochain billet, cette première série de réflexions sur les LLM tels qu’ils sont apparus à partir, disons, de l’arrivée de Chat GPT4 et sur les réactions qu’ils ont suscitées.
Je me suis étonnés de la plupart de ces réactions et surtout étonné du manque d’étonnement de ceux que j’ai appelés les « minimiseurs », ces experts enfermés dans une sorte de déni : « non, il ne se passe rien d’important ».
Je vais essayer maintenant, au contraire, de m’étonner de ce qui se passe, d’explorer ce que cela remet en cause, de comprendre la nature du changement de paradigme qui se manifeste.
Un phénomène s’est produit dans des machines qui ne s’était sans doute jamais produit avant. Un phénomène qui a surpris ceux ( les ingénieurs) qui l’ont provoqué en essayant d’améliorer leurs systèmes.
Un phénomène que l’on peut clairement qualifier d’émergent : l’apparition de capacités cognitives qui ne sont pas explicitement codées par les concepteurs des machines.
Et qui apparaît dans un certain type d’architecture des machines, mais à partir d’une certaine taille. Autrement dit un phénomène qualitatif résultant d’un changement quantitatif.
Un phénomène qui contredit l’idée qu’une machine ne peut faire que ce que les humains qui l’ont fabriquée ont prévu qu’elle fasse.
Je vais donc exploré les implications de ce phénomène étonnant (encore une fois).
Mais pas trop les implications sociales ou sociétales, possiblement très négatives ( du type société de surveillance grâce à la reconnaissance faciales, armes autonomes, etc…).
Je vais plutôt m’intéresser aux implications philosophiques et scientifiques du fait que des machines « manipulent du sens ».
Qu’est-ce que cela doit faire bouger dans les sciences cognitives et celles du langage, par exemple.
Mais avant cela un dernier billet qui fait entrer Chat GPT dans le game.