Catégorie : Uncategorized

Langage et pensée

Après le dernier article du 03-04-25, j’ai poursuivi des échanges avec Chat GPT.
Cela m’a amené à m’interroger, puis à l’interroger, lui, sur l’articulation et les liens entre langage et pensée.
Voici d’abord l’échange avec Chat GPT qui permet de poser la question.
Je rendrai compte ensuite de mes propres réflexions et de celles que j’ai pu trouver ailleurs.
Conversation avec GPT :

Continue reading

Bienvenue sur ce blog

Pour l’instant, ce blog contient une série de réflexions sur les Grands modèles de langage (LLM), du type Chat GPT.
Ces articles sont classés du plus récent au plus ancien.
Si vous voulez aller au début, il faut donc scroller vers le bas.
Ou bien aller sur cette page qui propose une vue d’ensemble du blog.
Bonne lecture.

À propos des LLM (9 sur 10)

Où l’on parle finalement d’émergence

Je copie donc ici une conversation (plus longue que les autres articles de cette série) avec Chat GPT qui porte en partie sur les questions abordée dans les billets précédents.
Cet échange resitue aussi un peu l’évolution des modèles de langage.
Chat GPT se montre très modeste et prudent au début, jouant presque le rôle d’un « minimiseur », mais il devient plus direct et plus intéressant ensuite, lorsqu’il parle d’émergence.

Continue reading

A propos des LLM (8 /10)

Premières conclusions sur cette série de billets

Je vais arrêter après les prochains billets, cette première série de réflexions sur les LLM tels qu’ils sont apparus à partir, disons, de l’arrivée de Chat GPT4 et sur les réactions qu’ils ont suscitées.
Je me suis étonnés de la plupart de ces réactions et surtout étonné du manque d’étonnement de ceux que j’ai appelés les « minimiseurs », ces experts enfermés dans une sorte de déni : « non, il ne se passe rien d’important ».
Je vais essayer maintenant, au contraire, de m’étonner de ce qui se passe, d’explorer ce que cela remet en cause, de comprendre la nature du changement de paradigme qui se manifeste.
Continue reading

À propos des LLM (7 sur 10)

Pourquoi les réactions des experts sont-elles négatives

Pourquoi la plupart des conférenciers que j’ai entendus étaient-ils si négatifs sur les « intelligences artificielles » ? Si acharnés à minimiser leurs capacités ?
Pourquoi évitent-ils à tout prix de dire qu’une frontière a été franchie de manière étonnante ?
Continue reading

À propos des LLM (6 sur 10)

Changement de paradigme

Que les choses soient claires :
Je ne suis pas en train de dire dans ces premiers billets : « il y a des machines qui pensent comme les humains pensent, ou bien, il y a des machines qui possèdent la même intelligence que celle des humains ».
Je suis bien conscient du fait qu’il n’y a pas d’intention dans les productions de ces systèmes, pas de vécu subjectif, pas de perception du monde. Ils n’ont rien à voir avec des êtres vivants.
Continue reading

À propos des LLM (5 sur 10)

La compréhension du langage naturel

Dans ce petit tour d’horizon personnel concernant les façons de considérer les LLM, je suis attiré par une autre approche que je n’ai pas rencontrée dans les conférences auxquelles j’ai assisté.
On peut la situer dans le prolongement de la quatrième, mais en allant plus loin dans une direction précise.
Il s’agit de mieux comprendre ce qui se passe avec les LLM, dans le traitement du langage naturel.
Continue reading

À propos des LLM (3 sur 10)

« Circulez, il n’y a rien à voir »

Venons-en maintenant à des points de vue qu’on pourrait qualifier d’analytiques. sur les LLM, les “Large langage models”. Autrement dit des points de vue de “sachants”, d’experts, chercheurs dans le domaine numérique ou philosophes réfléchissant à la question des IA.

Continue reading

À propos des LLM (1 sur 10)

Préambule

Les LLM étant les “Large langage models”, les grands modèles de langage, donc les IA du type Chat GPT.
Je vais essayer dans les billets qui suivent de résumer un peu ce que j’ai ressenti en découvrant ces LLM, en écoutant plusieurs conférences, voire en en présentant certaines et en me documentant.
Continue reading

© 2026

Theme by Anders NorenUp ↑