{"id":12,"date":"2025-03-06T14:56:00","date_gmt":"2025-03-06T13:56:00","guid":{"rendered":"http:\/\/radpnsi.cluster021.hosting.ovh.net\/?p=12"},"modified":"2026-02-18T18:19:47","modified_gmt":"2026-02-18T17:19:47","slug":"site-en-construction-3","status":"publish","type":"post","link":"http:\/\/philippethomine.net\/index.php\/2025\/03\/06\/site-en-construction-3\/","title":{"rendered":"\u00c0 propos des LLM (3 sur 10)"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">\u00ab Circulez, il n&rsquo;y a rien \u00e0 voir \u00bb<\/h2>\n\n\n\n<p>Venons-en maintenant \u00e0 des points de vue qu\u2019on pourrait qualifier d\u2019analytiques. sur les LLM, les \u201cLarge langage models\u201d. Autrement dit des points de vue de \u201csachants\u201d, d&rsquo;experts, chercheurs dans le domaine num\u00e9rique ou philosophes r\u00e9fl\u00e9chissant \u00e0 la question des IA.<br><\/p>\n\n\n\n<!--more-->\n\n\n\n<p>Pr\u00e9cisons encore, on ne va pas parler ici des cons\u00e9quences soci\u00e9tales de l\u2019apparition des nouvelles IA, mais plut\u00f4t des questions du type \u00ab \u00e0 quoi avons-nous affaire ? \u00bb.<br>D\u2019abord donc le point de vue que j\u2019ai entendu les plus souvent dans des conf\u00e9rences ou ailleurs.<br>C&rsquo;est aussi le point de vue qui m&rsquo;a donn\u00e9 envie de r\u00e9agir \u00e0 travers cette petite s\u00e9rie. En voici l&rsquo;id\u00e9e g\u00e9n\u00e9rale :<br>un LLM serait un ensemble de proc\u00e9dures standardis\u00e9es et pr\u00e9dictives, qui visent \u00e0 engendrer les expressions les plus probables sur la base des moyennes des expressions pass\u00e9es. Les grands mod\u00e8les de langage fonctionnent donc de mani\u00e8re probabiliste : lorsque vous posez une question \u00e0 ChatGPT, le logiciel calcule les mots les plus probables venant apr\u00e8s les mots de votre requ\u00eate, un peu comme les logiciels d\u2019auto-compl\u00e9tion des t\u00e9l\u00e9phones portables ou des moteurs de recherche, qui compl\u00e8tent automatiquement les messages ou les requ\u00eates en fonction des messages ou des requ\u00eates les plus r\u00e9pandus. Les algorithmes fonctionnent donc en pr\u00e9disant ce qui a le plus de chances d\u2019arriver dans la phrase en cours d&rsquo;\u00e9laboration, en se fondant sur des moyennes de donn\u00e9es pass\u00e9es.<br>J&rsquo;ai entendu ce genre de propos, par exemple, dans la bouche d&rsquo;un sp\u00e9cialiste reconnu, lors d&rsquo;une conf\u00e9rence, apr\u00e8s que le pr\u00e9sentateur de la conf. ait cit\u00e9 (comme je l&rsquo;ai fait moi-m\u00eame dans des circonstances analogues) une r\u00e9ponse d&rsquo;un LLM \u00e0 une question un peu subtile. R\u00e9ponse particuli\u00e8rement brillante qui \u00e0 l&rsquo;\u00e9vidence \u00e9tait tout autre chose qu&rsquo;une \u00ab\u00a0moyenne de donn\u00e9es pass\u00e9es\u00a0\u00bb.<br>Encore une fois, ce premier type de r\u00e9action est celui qu\u2019adoptent ou ont adopt\u00e9 beaucoup d\u2019experts au sujet des IA.<br>Cette attitude est marqu\u00e9e par le souci de minimiser ce qui se passe avec les LLM. On peut la caricaturer avec la formule \u201ccirculez, il n\u2019y a rien \u00e0 voir\u201d. Ou en tout cas rien de bien extraordinaire.<br>On critiquera dans la suite ce point de vue et on essayera d&rsquo;examiner les raisons qui peuvent animer les experts qui en sont les tenants.<br>Pour plus de simplicit\u00e9, on pourrait les appeler les \u00ab\u00a0minimiseurs\u00a0\u00bb.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00ab Circulez, il n&rsquo;y a rien \u00e0 voir \u00bb Venons-en maintenant \u00e0 des points de vue qu\u2019on pourrait qualifier d\u2019analytiques. sur les LLM, les \u201cLarge langage models\u201d. Autrement dit des points de vue de \u201csachants\u201d, d&rsquo;experts, chercheurs dans le domaine num\u00e9rique ou philosophes r\u00e9fl\u00e9chissant \u00e0 la question des IA.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-12","post","type-post","status-publish","format-standard","hentry","category-uncategorized","post-preview"],"_links":{"self":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/12","targetHints":{"allow":["GET"]}}],"collection":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/comments?post=12"}],"version-history":[{"count":9,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/12\/revisions"}],"predecessor-version":[{"id":204,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/posts\/12\/revisions\/204"}],"wp:attachment":[{"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/media?parent=12"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/categories?post=12"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/philippethomine.net\/index.php\/wp-json\/wp\/v2\/tags?post=12"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}