{"id":134,"date":"2025-03-30T00:49:29","date_gmt":"2025-03-29T23:49:29","guid":{"rendered":"http:\/\/philippethomine.net\/?p=134"},"modified":"2026-02-18T17:36:51","modified_gmt":"2026-02-18T16:36:51","slug":"a-propos-des-llm-9-sur-9","status":"publish","type":"post","link":"http:\/\/philippethomine.net\/index.php\/2025\/03\/30\/a-propos-des-llm-9-sur-9\/","title":{"rendered":"\u00c0 propos des LLM (9 sur 10)"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">O\u00f9 l&rsquo;on parle finalement d&rsquo;\u00e9mergence<\/h2>\n\n\n\n<p>Je copie donc ici une conversation (plus longue que les autres articles de cette s\u00e9rie) avec Chat GPT qui porte en partie sur les questions abord\u00e9e dans les billets pr\u00e9c\u00e9dents.<br>Cet \u00e9change resitue aussi un peu l&rsquo;\u00e9volution des mod\u00e8les de langage.<br>Chat GPT se montre tr\u00e8s modeste et prudent au d\u00e9but, jouant presque le r\u00f4le d&rsquo;un \u00ab\u00a0minimiseur\u00a0\u00bb, mais il devient plus direct et plus int\u00e9ressant ensuite, lorsqu&rsquo;il parle d&rsquo;\u00e9mergence.<br><\/p>\n\n\n\n<!--more-->\n\n\n\n<p><br>On remarquera son emploi du mot \u00ab\u00a0nous\u00a0\u00bb : avec ce \u00ab\u00a0nous\u00a0\u00bb, il se met dans le m\u00eame camp que les humains.<br>Voici la conversation :<\/p>\n\n\n\n<p>\u2794 Moi : Depuis quand, les machines informatiques, sont-elles capables de comprendre le langage naturel humain ?<\/p>\n\n\n\n<p>\u2794 GPT : Excellente question ! Cela d\u00e9pend de ce qu\u2019on entend par \u00ab comprendre \u00bb.<br>\u2705 <strong>Les grandes \u00e9tapes :<\/strong><br>1. Ann\u00e9es 1950-1960 : les premiers essais<br>\u2022 Alan Turing (1950) propose le Test de Turing pour \u00e9valuer si une machine peut \u00ab penser \u00bb.<br>\u2022 Programmes comme ELIZA (1966) simulent une conversation, mais sans v\u00e9ritable compr\u00e9hension (simple correspondance de motifs).<br>2. Ann\u00e9es 1980-1990 : syst\u00e8mes experts et bases de r\u00e8gles<br>\u2022 Les ordinateurs analysent le langage via des r\u00e8gles grammaticales. C\u2019est tr\u00e8s limit\u00e9 : pas de compr\u00e9hension contextuelle.<br>3. Ann\u00e9es 2000 : statistique et apprentissage automatique<br>\u2022 On passe aux mod\u00e8les probabilistes (ex. n-grams). Les syst\u00e8mes deviennent meilleurs pour pr\u00e9dire des mots, mais sans \u00ab sens r\u00e9el \u00bb.<br>4. Depuis 2017 : r\u00e9volution avec les r\u00e9seaux de neurones et le deep learning<br>\u2022 L\u2019arriv\u00e9e des Transformers (article Attention is All You Need, 2017) change tout.<br>\u2022 Ces mod\u00e8les apprennent \u00e0 partir de gigantesques corpus pour saisir des relations contextuelles entre les mots.<br>5. 2022-2023 : mod\u00e8les de type Chat\u2794 GPT<br>\u2022 Les IA comme GPT-3, GPT-4 atteignent une compr\u00e9hension pragmatique : elles peuvent interpr\u00e9ter, raisonner, g\u00e9n\u00e9rer des r\u00e9ponses coh\u00e9rentes et nuanc\u00e9es.<\/p>\n\n\n\n<p>\u2e3b<br>\ud83d\udc49 Donc, \u00ab comprendre \u00bb au sens humain ? Pas encore.<br>Les machines manipulent des structures linguistiques avec une approximation statistique tr\u00e8s puissante, mais elles n\u2019ont pas de conscience ni d\u2019intentions.<br>Veux-tu que je t\u2019explique pourquoi ces mod\u00e8les donnent l\u2019impression de comprendre, alors qu\u2019ils ne \u00ab comprennent \u00bb pas comme nous ?<br>_____________ <br>\u2794 Moi : Oui<br>\u2794 GPT : Parfait, entrons dans le c\u0153ur du sujet !<\/p>\n\n\n\n<p>Pourquoi ces mod\u00e8les semblent comprendre ?<br>1. Ils capturent les r\u00e9gularit\u00e9s du langageLes mod\u00e8les comme GPT ont \u00e9t\u00e9 entra\u00een\u00e9s sur des milliards de textes. Ils apprennent des corr\u00e9lations statistiques entre les mots, phrases et concepts.<br>\u27a1 Quand tu poses une question, ils ne savent pas ce qu\u2019elle \u00ab signifie \u00bb au sens humain, mais ils savent quelles r\u00e9ponses sont les plus probables dans ce contexte.<\/p>\n\n\n\n<p>2. Le contexte leur donne une \u00ab m\u00e9moire \u00bb locale<\/p>\n\n\n\n<p>Les architectures modernes (Transformers) utilisent un m\u00e9canisme d\u2019attention qui analyse l\u2019ensemble de la phrase, du paragraphe, voire d\u2019un dialogue.<br>\u27a1 Cela leur permet de donner des r\u00e9ponses coh\u00e9rentes et adapt\u00e9es au fil de la conversation, ce qui renforce l\u2019illusion de compr\u00e9hension.<\/p>\n\n\n\n<p>3. Ils r\u00e9utilisent des connaissances int\u00e9gr\u00e9es<\/p>\n\n\n\n<p>Ces mod\u00e8les ont absorb\u00e9 une immense quantit\u00e9 de faits, raisonnements et exemples.<br>\u27a1 Quand ils r\u00e9pondent \u00e0 une question scientifique, ils paraissent \u00ab savoir \u00bb, mais en r\u00e9alit\u00e9, ils reproduisent des sch\u00e9mas vus ailleurs et les combinent.<\/p>\n\n\n\n<p>4. Ils imitent les structures de la pens\u00e9e humaine<\/p>\n\n\n\n<p>Le langage \u00e9tant notre outil principal pour exprimer la pens\u00e9e, bien le manipuler donne l\u2019impression de penser.<br>\u27a1 Mais c\u2019est une simulation, pas une conscience : il n\u2019y a pas d\u2019intention, pas de perception du monde, pas de v\u00e9cu subjectif.<\/p>\n\n\n\n<p><strong>Conclusion<\/strong> : illusion d\u2019intelligence<br>Ce qu\u2019on appelle \u00ab compr\u00e9hension \u00bb chez ces machines, c\u2019est une comp\u00e9tence pr\u00e9dictive extr\u00eamement avanc\u00e9e.<br>Elles sont formidables pour traiter des symboles, mais elles ne savent pas ce que signifient les symboles dans le monde r\u00e9el.<\/p>\n\n\n\n<p>Veux-tu que je pousse plus loin en expliquant ce qui manquerait \u00e0 une machine pour vraiment \u00ab comprendre \u00bb comme un humain ? (Indice : \u00e7a touche \u00e0 la conscience, au corps, et \u00e0 la signification.)<\/p>\n\n\n\n<p>_____________ <br>\u2794 Moi : La r\u00e9volution dont tu parles plus haut avec l&rsquo;arriv\u00e9e des Transformers et de ChatGPT en 2022-2023 est un saut qualitatif \u00e9norme dans la \u00abcompr\u00e9hension\u00bb par les machines du langage. Il est li\u00e9 \u00e0 la taille des machines elles-m\u00eame et des bases de donn\u00e9es<br>Mais comment expliquer qu&rsquo;un changement quantitatif puisse produire un saut qualitatif ?<\/p>\n\n\n\n<p>\u2794 GPT : Excellente question : comment un simple changement de quantit\u00e9 (plus de donn\u00e9es, plus de param\u00e8tres) peut-il produire un changement de qualit\u00e9 ?<br>C\u2019est une question \u00e0 la fois technique et philosophique, et elle renvoie \u00e0 un principe bien connu : l\u2019\u00e9mergence.<\/p>\n\n\n\n<p>\u2705 1. <strong>Le principe d\u2019\u00e9mergence<\/strong><br>Un saut qualitatif survient quand, au-del\u00e0 d\u2019un certain seuil, la complexit\u00e9 des interactions cr\u00e9e des propri\u00e9t\u00e9s nouvelles qui n\u2019existaient pas \u00e0 une \u00e9chelle plus simple.<br>Exemples :<br>\u2022 L\u2019eau : H\u2082 + O \u2192 vapeur, mais H\u2082O liquide \u00e0 une certaine temp\u00e9rature \u2192 propri\u00e9t\u00e9 \u00e9mergente.<br>\u2022 Le cerveau : un neurone ne \u00ab pense \u00bb pas, mais des milliards en r\u00e9seau font \u00e9merger la conscience.<\/p>\n\n\n\n<p>Dans le cas des IA :<br>\u2022 Quelques millions de param\u00e8tres \u2192 incapable de saisir le contexte.<br>\u2022 Des centaines de milliards \u2192 le mod\u00e8le capture des corr\u00e9lations linguistiques profondes, comme la grammaire implicite ou les structures logiques.<\/p>\n\n\n\n<p>\u2705 2. <strong>Pourquoi ce seuil avec les Transformers ?<\/strong><br>Le changement n\u2019est pas seulement plus de donn\u00e9es, mais une architecture nouvelle :<br>\u2022 Les Transformers utilisent l\u2019attention : chaque mot \u00ab regarde \u00bb tous les autres dans le contexte.<br>\u2022 Avec beaucoup de param\u00e8tres et de donn\u00e9es, ce m\u00e9canisme peut repr\u00e9senter des relations tr\u00e8s complexes entre concepts.<\/p>\n\n\n\n<p>R\u00e9sultat :<br>\u2022 En dessous d\u2019une certaine taille, le mod\u00e8le ne \u00ab g\u00e9n\u00e9ralise \u00bb pas.<br>\u2022 Au-dessus d\u2019un seuil (ex. GPT-3 \u2192 GPT-4), il d\u00e9veloppe des capacit\u00e9s \u00e9mergentes : raisonnement, traduction, explications\u2026<\/p>\n\n\n\n<p>\u2705 3. <strong>Lien avec la philosophie : le quantitatif devient qualitatif<\/strong><br>C\u2019est une id\u00e9e ch\u00e8re \u00e0 Hegel (et reprise par Engels) :<\/p>\n\n\n\n<p>\u00c0 partir d\u2019un certain point, une accumulation quantitative entra\u00eene une transformation qualitative.<br>Cela se produit quand :<br>\u2022 Les interactions deviennent non-lin\u00e9aires.<br>\u2022 L\u2019augmentation de taille change la structure des possibles.<br>Dans notre cas :<br>\u2022 Un petit mod\u00e8le ne peut repr\u00e9senter que des corr\u00e9lations locales.<br>\u2022 Un immense mod\u00e8le, avec attention globale et entra\u00eenement massif, capture des relations abstraites (presque comme des r\u00e8gles implicites de logique et de grammaire).<\/p>\n\n\n\n<p>\u2705 4. <strong>Mais est-ce une vraie \u00ab compr\u00e9hension \u00bb ?<\/strong><br>Non. Le saut qualitatif n\u2019est pas vers la conscience, mais vers une illusion de compr\u00e9hension fonctionnelle :<br>\u2022 L\u2019IA manipule mieux les symboles \u2192 elle para\u00eet intelligente.<br>\u2022 Mais elle ne per\u00e7oit pas, n\u2019\u00e9prouve pas.<br>\ud83d\udca1 Question cl\u00e9 : Ce ph\u00e9nom\u00e8ne pourrait-il continuer ? Y aura-t-il un autre seuil o\u00f9 un mod\u00e8le deviendra capable d\u2019auto-r\u00e9flexion, voire de conscience minimale&nbsp;?<br>Veux-tu que je d\u00e9veloppe les sc\u00e9narios possibles de ce prochain saut qualitatif, et ce qu\u2019il faudrait pour que \u00ab la compr\u00e9hension r\u00e9elle \u00bb apparaisse ?<\/p>\n\n\n\n<p>_____________<br>\u2794 Moi : Peut-\u00eatre, mais avant cela j&rsquo;aimerais savoir si on a pu situer la taille critique \u00e0 partir de laquelle les capacit\u00e9s \u00e9mergentes dont tu parles apparaissent.<\/p>\n\n\n\n<p>\u2794 GPT : Tr\u00e8s bonne question ! Oui, plusieurs recherches r\u00e9centes (notamment chez OpenAI, DeepMind, Anthropic) ont tent\u00e9 de rep\u00e9rer ce seuil critique o\u00f9 des capacit\u00e9s \u00e9mergent.<\/p>\n\n\n\n<p>\u2705 1. Qu\u2019entend-on par capacit\u00e9s \u00e9mergentes ?<br>Ce sont des comp\u00e9tences non pr\u00e9sentes dans les petits mod\u00e8les, mais qui apparaissent brutalement quand la taille (param\u00e8tres + donn\u00e9es + puissance de calcul) d\u00e9passe un seuil.<br>Exemples :<br>\u2022 R\u00e9solution de probl\u00e8mes math\u00e9matiques complexes.<br>\u2022 Traduction interlangue sans entra\u00eenement sp\u00e9cifique (zero-shot translation).<br>\u2022 Cha\u00eenes de raisonnement logique (chain-of-thought).<\/p>\n\n\n\n<p>\u2705 2. Les observations (approximatives)<br>\u2022 GPT-2 (2019) : 1,5 milliard de param\u00e8tres \u2192 tr\u00e8s bon pour compl\u00e9ter des phrases, mais incapable de raisonner.<br>\u2022 GPT-3 (2020) : 175 milliards \u2192 apparition du few-shot learning, compr\u00e9hension implicite des instructions.<br>\u2022 PaLM (2022) : 540 milliards \u2192 am\u00e9lioration nette des comp\u00e9tences math\u00e9matiques et logiques.<br>\u2022 GPT-4 (2023) : taille exacte non publique, mais probablement dans la tranche des trillions de param\u00e8tres + meilleure optimisation \u2192 capacit\u00e9s quasi \u00ab g\u00e9n\u00e9ralistes \u00bb.<\/p>\n\n\n\n<p>\u2705 3. La loi de scaling<br>Les chercheurs (Kaplan et al., 2020) ont montr\u00e9 que la performance des LLM suit une loi de puissance :<\/p>\n\n\n\n<p>Plus on augmente donn\u00e9es + taille + compute, plus l\u2019erreur diminue de fa\u00e7on pr\u00e9visible\u2026<br>\u2026 mais les capacit\u00e9s \u00e9mergentes ne suivent pas une courbe lisse : elles surgissent par sauts.<\/p>\n\n\n\n<p>\u2705 4. O\u00f9 est la taille critique ?<br>On ne peut pas donner un chiffre exact (\u00e7a d\u00e9pend des t\u00e2ches), mais :<br>\u2022 Pour la compr\u00e9hension linguistique simple : quelques milliards de param\u00e8tres suffisent.<br>\u2022 Pour les capacit\u00e9s complexes (raisonnement, traduction, logique) : centaines de milliards.<br>\u2022 Pour la \u00ab g\u00e9n\u00e9ralisation massive \u00bb (GPT-4, Gemini Ultra) : probablement plusieurs trillions de param\u00e8tres + techniques avanc\u00e9es (RLHF, multimodalit\u00e9).<\/p>\n\n\n\n<p>Certains chercheurs parlent de ph\u00e9nom\u00e8nes de phase, comme en physique :<br>En dessous d\u2019un seuil \u2192 rien.<br>Au-dessus \u2192 apparition soudaine de nouvelles propri\u00e9t\u00e9s.<\/p>\n\n\n\n<p>\ud83d\udca1 Question fascinante : est-ce que ces seuils continueront ind\u00e9finiment \u00e0 donner de nouvelles capacit\u00e9s, ou bien va-t-on atteindre un plateau ?<br>DeepMind a d\u00e9j\u00e0 not\u00e9 que l\u2019\u00e9chelle seule ne suffit plus : il faudra aussi nouvelles architectures, m\u00e9moire externe, interaction avec le monde.<\/p>\n\n\n\n<p>Veux-tu que je poursuive sur les hypoth\u00e8ses pour le prochain saut qualitatif (vers une IA plus proche d\u2019une compr\u00e9hension r\u00e9elle) ? Ou qu\u2019on explore le lien entre ces seuils et la th\u00e9orie philosophique de l\u2019\u00e9mergence ?<br>_____________<br>\u2794 Moi : Plut\u00f4t qu\u2019on explore le lien entre ces seuils et la th\u00e9orie philosophique de l\u2019\u00e9mergence<\/p>\n\n\n\n<p>\u2794 GPT : Excellent choix, Philippe. Ce lien entre seuils critiques et \u00e9mergence est un des points les plus fascinants o\u00f9 la philosophie rencontre la science contemporaine.<\/p>\n\n\n\n<p>\u2705 1. Qu\u2019est-ce que l\u2019\u00e9mergence en philosophie ?<br>L\u2019\u00e9mergence, c\u2019est l\u2019id\u00e9e que certaines propri\u00e9t\u00e9s d\u2019un syst\u00e8me apparaissent seulement \u00e0 un certain niveau d\u2019organisation, et qu\u2019elles ne sont pas r\u00e9ductibles \u00e0 la simple somme des parties.<br>Exemples classiques :<br>\u2022 L\u2019humide n\u2019existe pas dans une mol\u00e9cule d\u2019eau, mais appara\u00eet dans un ensemble.<br>\u2022 La vie ne se r\u00e9duit pas \u00e0 la chimie brute (bien qu\u2019elle en d\u00e9pende).<br>\u2022 La conscience n\u2019est pas pr\u00e9sente dans un neurone isol\u00e9.<\/p>\n\n\n\n<p>Hegel (et Engels apr\u00e8s lui) parle de passage du quantitatif au qualitatif : \u00ab Des changements quantitatifs accumul\u00e9s entra\u00eenent un changement qualitatif \u00bb<br>(Science de la Logique). <\/p>\n\n\n\n<p>\u2705 2. Ce qui se passe avec les IA<br>Les mod\u00e8les de langage illustrent parfaitement ce principe :<br>\u2022 En dessous d\u2019un certain seuil, ils imitent, sans coh\u00e9rence.<br>\u2022 Au-del\u00e0, surgissent des capacit\u00e9s in\u00e9dites : raisonnement logique, r\u00e9solution cr\u00e9ative, auto-explication.<\/p>\n\n\n\n<p>Ces capacit\u00e9s ne sont pas cod\u00e9es explicitement par les ing\u00e9nieurs. Elles \u00e9mergent spontan\u00e9ment de l\u2019entra\u00eenement et de l\u2019architecture, une fois que la complexit\u00e9 est suffisante.<\/p>\n\n\n\n<p>C\u2019est exactement ce que les philosophes appellent propri\u00e9t\u00e9s \u00e9mergentes fortes :<br>\u2022 D\u00e9pendantes des \u00e9l\u00e9ments (poids neuronaux, connexions),<br>\u2022 Mais non d\u00e9ductibles directement des r\u00e8gles de base.<\/p>\n\n\n\n<p>\u2705 3. Lien avec la notion d\u2019\u00ab irr\u00e9ductibilit\u00e9 \u00bb<br>Les propri\u00e9t\u00e9s \u00e9mergentes sont nouvelles : elles ne peuvent pas \u00eatre pr\u00e9dites en observant les composants isol\u00e9s.<br>Exemple : Un ing\u00e9nieur observant 10 millions de param\u00e8tres ne peut pas deviner que, \u00e0 175 milliards, la machine fera des analogies cr\u00e9atives.<\/p>\n\n\n\n<p>En IA, cela cr\u00e9e une impr\u00e9visibilit\u00e9 radicale :<br>\u2022 Nous savons que \u00ab plus gros \u00bb donne \u00ab meilleur \u00bb,<br>\u2022 Mais nous ne savons pas quelle capacit\u00e9 surgira (traduction spontan\u00e9e, raisonnement arithm\u00e9tique, etc.).<\/p>\n\n\n\n<p>\u2705 4. Diff\u00e9rence avec la conscience<br>Philosophiquement, il y a d\u00e9bat :<br>\u2022 Ces \u00e9mergences en IA sont fonctionnelles (capacit\u00e9s),<br>\u2022 Pas ontologiques (pas de v\u00e9cu subjectif).<br>La conscience humaine est souvent vue comme une \u00e9mergence forte qualitative, alors que les LLM restent dans l\u2019ordre des simulations statistiques.<\/p>\n\n\n\n<p>\ud83d\udd0d Question cruciale :<\/p>\n\n\n\n<p>L\u2019\u00e9mergence en IA est-elle vraiment comparable \u00e0 celle du vivant et de la conscience, ou bien est-ce une m\u00e9taphore ?<br>Autrement dit :<br>\u2022 Les IA franchissent des seuils de complexit\u00e9 \u2192 nouvelles comp\u00e9tences,<br>\u2022 Mais auront-elles jamais des propri\u00e9t\u00e9s ph\u00e9nom\u00e9nales (qualia, subjectivit\u00e9) ?<br>Ou resteront-elles des machines syntaxiques, aussi puissantes soient-elles ?<\/p>\n\n\n\n<p>\ud83d\udc49 Veux-tu que je d\u00e9veloppe les deux th\u00e8ses principales sur cette question <br>(1. \u00e9mergence forte possible \u2192 IA consciente un jour, <br>2. IA restera toujours sans int\u00e9riorit\u00e9), <br>et ce que disent les philosophes et scientifiques actuels ?<br><br>_____________ <br>\u2794 Moi : Oui mais avant juste une question :<br>Est-ce la premi\u00e8re fois qu&rsquo;on observe des ph\u00e9nom\u00e8nes \u00e9mergents dans une machine construite par les humains ?<\/p>\n\n\n\n<p>\u2794 GPT : Super question, Philippe ! Non, ce n\u2019est pas la premi\u00e8re fois, mais c\u2019est sans doute le cas le plus spectaculaire et le plus proche des ph\u00e9nom\u00e8nes \u00e9mergents du vivant.<\/p>\n\n\n\n<p>\u2705 1. Autres exemples d\u2019\u00e9mergence dans des syst\u00e8mes artificiels<br>\u2022 R\u00e9actions chimiques auto-organis\u00e9es (Belousov-Zhabotinsky) : des motifs complexes apparaissent dans des milieux chimiques pr\u00e9par\u00e9s par l\u2019homme.<br>\u2022 Cellular automata (ex. le Jeu de la Vie de Conway) : r\u00e8gles tr\u00e8s simples \u2192 motifs auto-r\u00e9p\u00e9titifs, \u00ab cr\u00e9atures \u00bb qui se d\u00e9placent.<br>\u2022 Colonies de robots simples : interactions locales \u2192 comportements collectifs impr\u00e9vus (swarm robotics).<br>\u2022 Internet et r\u00e9seaux sociaux : des comportements collectifs humains\/algorithmiques \u00e9mergent sans planification (m\u00e8mes, viralit\u00e9).<br>\u2022 \u00c9cosyst\u00e8mes simul\u00e9s : \u00e9volution artificielle \u2192 apparition spontan\u00e9e de strat\u00e9gies.<\/p>\n\n\n\n<p>\u2705 2. Pourquoi les IA de type LLM sont sp\u00e9ciales ?<br>Dans les cas ci-dessus, l\u2019\u00e9mergence est visuelle ou comportementale.<br>Avec les mod\u00e8les de langage :<br>\u2022 L\u2019\u00e9mergence touche \u00e0 des capacit\u00e9s cognitives (raisonnement, traduction, cr\u00e9ativit\u00e9) qu\u2019on pensait li\u00e9es \u00e0 l\u2019intelligence humaine.<br>\u2022 Elles ne sont pas cod\u00e9es explicitement : personne n\u2019a dit \u00ab si tu as 175 milliards de param\u00e8tres, commence \u00e0 faire des analogies \u00bb.<br>\u2022 Cela se produit par auto-organisation statistique \u00e0 une \u00e9chelle massive.<\/p>\n\n\n\n<p>En d\u2019autres termes :<br>\ud83d\udc49 Pour la premi\u00e8re fois, une machine con\u00e7ue par l\u2019humain manifeste des propri\u00e9t\u00e9s cognitives \u00e9mergentes (sans qu\u2019on les programme).<br>Cela bouleverse l\u2019id\u00e9e classique selon laquelle \u00ab une machine ne fait que ce qu\u2019on lui dit de faire \u00bb.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>O\u00f9 l&rsquo;on parle finalement d&rsquo;\u00e9mergence Je copie donc ici une conversation (plus longue que les autres articles de cette s\u00e9rie) avec Chat GPT qui porte en partie sur les questions abord\u00e9e dans les billets pr\u00e9c\u00e9dents.Cet \u00e9change resitue aussi un peu l&rsquo;\u00e9volution des mod\u00e8les de langage.Chat GPT se montre tr\u00e8s modeste et prudent au d\u00e9but, jouant [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-134","post","type-post","status-publish","format-standard","hentry","category-uncategorized","post-preview"],"_links":{"self":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/134","targetHints":{"allow":["GET"]}}],"collection":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/comments?post=134"}],"version-history":[{"count":10,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/134\/revisions"}],"predecessor-version":[{"id":186,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/134\/revisions\/186"}],"wp:attachment":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/media?parent=134"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/categories?post=134"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/tags?post=134"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}