Skip to content

Commit

Permalink
Built site for gh-pages
Browse files Browse the repository at this point in the history
  • Loading branch information
Quarto GHA Workflow Runner committed Jul 2, 2024
1 parent cc6c9e3 commit ef07ea1
Show file tree
Hide file tree
Showing 4 changed files with 20 additions and 16 deletions.
2 changes: 1 addition & 1 deletion .nojekyll
Original file line number Diff line number Diff line change
@@ -1 +1 @@
58240724
2938095d
4 changes: 4 additions & 0 deletions index.html
Original file line number Diff line number Diff line change
Expand Up @@ -340,6 +340,10 @@ <h2 class="anchored" data-anchor-id="membres">Membres</h2>
<td>Malo ADLER</td>
<td>ANFSI - Ministère de l’intérieur</td>
</tr>
<tr class="odd">
<td>Bruno LENZI</td>
<td>Ecolab - Ministère de la Transiton Écologique et de la Cohésion des Territoires</td>
</tr>
</tbody>
</table>
</section>
Expand Down
4 changes: 2 additions & 2 deletions search.json
Original file line number Diff line number Diff line change
Expand Up @@ -157,7 +157,7 @@
"href": "index.html",
"title": "Projet KALLM : Kit avancé LLM",
"section": "",
"text": "Ce projet fait partie de la troisième saison du Programme 10%, co-porté par la DINUM en association étroite avec l’Insee.\n\n\nMistral, GPT4, Claude, ALBERT, CroissantLLM… Vous ne vous y retrouvez plus parmi tous ces modèles larges de language (LLM)? Ce guide permet de se poser les bonnes questions et de pouvoir répondre à un besoin d’analyse textuelle avec une solution adaptée. Ce guide est là pour vous aider du début jusqu’à la fin, de la conception du modèle après problématisation à la mise en production.\nObjectif : Comprendre son besoin et y répondre avec une solution LLM adaptée\n\n\n\nLes LLM sont des modèles de langage de grande taille, apparus vers 2018, ayant révolutionné le domaine du traitement automatique du langage naturel. Les LLMS se caractérisent par une architecture de type “transformers” permettant un traitement parallèle et contextuel du langage, un entraînement sur de très vastes corpus de données textuelles, allant de millions à des milliards de paramètres, et des capacités impressionnantes pour accomplir une grande variété de tâches linguistiques comme la génération de texte, la traduction, l’analyse de sentiment.\nPlus de 3000 LLM ont été entraînés et publiés sur des plateformes de partage de modèle comme HuggingFace, dont plus d’une cinquaine s’affronte régulièrement entre eux pour se démarquer sur différentes tâches dans une arène dédiée.\nIl est aujourd’hui difficile de savoir quel LLM est adapté pour son besoin spécifique et quelle infrastructure est nécessaire pour utiliser les différents LLM. Ce guide tente donc d’expliciter les raisonnements, les questions à se poser et des pistes de réponse quant aux choix et à la mise en oeuvre des LLM.\n\n\n\n\nl’infrastructure minimale pour faire tourner un LLM\nbenchmarking des “principaux” LLM\nexemple d’utilisation dans un cas simple (cas d’utilisation dit “fil rouge”) sous forme de tutoriel\nfinetuner un modèle LLM\nquantizer un modèle LLM\nEvaluer un LLM\nmettre en production un modèle LLM\nune bibliographie consise et non exhaustive\nd’autres exemples plus complexes de cas d’utilisation dans l’administration\nune approximation du coût environnemental et financier des différents LLM\n\n\n\n\n\nles fondements théoriques de l’optimisation\ncas spécifique d’une administration\ncomment débiaiser un LLM\n\n\n\n\n\n\n\n\n\n\n\nMembre\nAdministration\n\n\n\n\nConrad THIOUNN\nDares - Ministère du Travail\n\n\nJohnny PLATON\nSanté publique France\n\n\nThibault DUROUCHOUX\n\n\n\nKatia JODOGNE-DEL LITTO\nIGF - Ministère de l’Economie et des Finances\n\n\nFaheem BEG\n\n\n\nCamille ANDRÉ\n\n\n\nCamille BRIER\nDTNum - DGFiP\n\n\nDaphné PERTSEKOS\nANFSI - Ministère de l’intérieur\n\n\nZhanna SANTYBAYEVA\nDGOS - Ministère du travail, de la santé et des solidarités\n\n\nJérôme LAPORTE\nANFSI - Ministère de l’intérieur\n\n\nHélène CHARASSON-JASSON\nBanque de France\n\n\nMalo ADLER\nANFSI - Ministère de l’intérieur\n\n\n\n\n\n\nUne remarque ? Une question ? Vous pouvez nous contacter sur le salon Tchap du Programme 10% ou …",
"text": "Ce projet fait partie de la troisième saison du Programme 10%, co-porté par la DINUM en association étroite avec l’Insee.\n\n\nMistral, GPT4, Claude, ALBERT, CroissantLLM… Vous ne vous y retrouvez plus parmi tous ces modèles larges de language (LLM)? Ce guide permet de se poser les bonnes questions et de pouvoir répondre à un besoin d’analyse textuelle avec une solution adaptée. Ce guide est là pour vous aider du début jusqu’à la fin, de la conception du modèle après problématisation à la mise en production.\nObjectif : Comprendre son besoin et y répondre avec une solution LLM adaptée\n\n\n\nLes LLM sont des modèles de langage de grande taille, apparus vers 2018, ayant révolutionné le domaine du traitement automatique du langage naturel. Les LLMS se caractérisent par une architecture de type “transformers” permettant un traitement parallèle et contextuel du langage, un entraînement sur de très vastes corpus de données textuelles, allant de millions à des milliards de paramètres, et des capacités impressionnantes pour accomplir une grande variété de tâches linguistiques comme la génération de texte, la traduction, l’analyse de sentiment.\nPlus de 3000 LLM ont été entraînés et publiés sur des plateformes de partage de modèle comme HuggingFace, dont plus d’une cinquaine s’affronte régulièrement entre eux pour se démarquer sur différentes tâches dans une arène dédiée.\nIl est aujourd’hui difficile de savoir quel LLM est adapté pour son besoin spécifique et quelle infrastructure est nécessaire pour utiliser les différents LLM. Ce guide tente donc d’expliciter les raisonnements, les questions à se poser et des pistes de réponse quant aux choix et à la mise en oeuvre des LLM.\n\n\n\n\nl’infrastructure minimale pour faire tourner un LLM\nbenchmarking des “principaux” LLM\nexemple d’utilisation dans un cas simple (cas d’utilisation dit “fil rouge”) sous forme de tutoriel\nfinetuner un modèle LLM\nquantizer un modèle LLM\nEvaluer un LLM\nmettre en production un modèle LLM\nune bibliographie consise et non exhaustive\nd’autres exemples plus complexes de cas d’utilisation dans l’administration\nune approximation du coût environnemental et financier des différents LLM\n\n\n\n\n\nles fondements théoriques de l’optimisation\ncas spécifique d’une administration\ncomment débiaiser un LLM\n\n\n\n\n\n\n\n\n\n\n\nMembre\nAdministration\n\n\n\n\nConrad THIOUNN\nDares - Ministère du Travail\n\n\nJohnny PLATON\nSanté publique France\n\n\nThibault DUROUCHOUX\n\n\n\nKatia JODOGNE-DEL LITTO\nIGF - Ministère de l’Economie et des Finances\n\n\nFaheem BEG\n\n\n\nCamille ANDRÉ\n\n\n\nCamille BRIER\nDTNum - DGFiP\n\n\nDaphné PERTSEKOS\nANFSI - Ministère de l’intérieur\n\n\nZhanna SANTYBAYEVA\nDGOS - Ministère du travail, de la santé et des solidarités\n\n\nJérôme LAPORTE\nANFSI - Ministère de l’intérieur\n\n\nHélène CHARASSON-JASSON\nBanque de France\n\n\nMalo ADLER\nANFSI - Ministère de l’intérieur\n\n\nBruno LENZI\nEcolab - Ministère de la Transiton Écologique et de la Cohésion des Territoires\n\n\n\n\n\n\nUne remarque ? Une question ? Vous pouvez nous contacter sur le salon Tchap du Programme 10% ou …",
"crumbs": [
"Accueil"
]
Expand Down Expand Up @@ -207,7 +207,7 @@
"href": "index.html#membres",
"title": "Projet KALLM : Kit avancé LLM",
"section": "",
"text": "Membre\nAdministration\n\n\n\n\nConrad THIOUNN\nDares - Ministère du Travail\n\n\nJohnny PLATON\nSanté publique France\n\n\nThibault DUROUCHOUX\n\n\n\nKatia JODOGNE-DEL LITTO\nIGF - Ministère de l’Economie et des Finances\n\n\nFaheem BEG\n\n\n\nCamille ANDRÉ\n\n\n\nCamille BRIER\nDTNum - DGFiP\n\n\nDaphné PERTSEKOS\nANFSI - Ministère de l’intérieur\n\n\nZhanna SANTYBAYEVA\nDGOS - Ministère du travail, de la santé et des solidarités\n\n\nJérôme LAPORTE\nANFSI - Ministère de l’intérieur\n\n\nHélène CHARASSON-JASSON\nBanque de France\n\n\nMalo ADLER\nANFSI - Ministère de l’intérieur",
"text": "Membre\nAdministration\n\n\n\n\nConrad THIOUNN\nDares - Ministère du Travail\n\n\nJohnny PLATON\nSanté publique France\n\n\nThibault DUROUCHOUX\n\n\n\nKatia JODOGNE-DEL LITTO\nIGF - Ministère de l’Economie et des Finances\n\n\nFaheem BEG\n\n\n\nCamille ANDRÉ\n\n\n\nCamille BRIER\nDTNum - DGFiP\n\n\nDaphné PERTSEKOS\nANFSI - Ministère de l’intérieur\n\n\nZhanna SANTYBAYEVA\nDGOS - Ministère du travail, de la santé et des solidarités\n\n\nJérôme LAPORTE\nANFSI - Ministère de l’intérieur\n\n\nHélène CHARASSON-JASSON\nBanque de France\n\n\nMalo ADLER\nANFSI - Ministère de l’intérieur\n\n\nBruno LENZI\nEcolab - Ministère de la Transiton Écologique et de la Cohésion des Territoires",
"crumbs": [
"Accueil"
]
Expand Down
26 changes: 13 additions & 13 deletions sitemap.xml
Original file line number Diff line number Diff line change
Expand Up @@ -2,54 +2,54 @@
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/III-Deploiements/4_Infras_administrations.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/III-Deploiements/2_Socle_avance.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/II-Developpements/3_Evaluations.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/II-Developpements/2_RAG.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/I-Accompagnement/4_Impacts.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/I-Accompagnement/3_Acculturation.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/Guide.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/index.html</loc>
<lastmod>2024-07-02T13:48:54.868Z</lastmod>
<lastmod>2024-07-02T13:56:08.861Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/I-Accompagnement/1_Besoins.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/I-Accompagnement/2_Deja_Fait_Admin.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/II-Developpements/1_Revue_Technique_LLM.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/III-Deploiements/3_Socle_Production.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
<url>
<loc>https://etalab.github.io/programme10pourcent-kallm/III-Deploiements/1_Socle_minimal.html</loc>
<lastmod>2024-07-02T13:48:54.860Z</lastmod>
<lastmod>2024-07-02T13:56:08.857Z</lastmod>
</url>
</urlset>

0 comments on commit ef07ea1

Please sign in to comment.