Comfyui_llm_party aspire à développer une bibliothèque complète de nœuds pour la construction de workflows LLM, basée sur l'interface utilisateur extrêmement simplifiée de comfyui. Cela permettra aux utilisateurs de construire plus facilement et rapidement leurs propres workflows LLM et de les intégrer de manière plus pratique dans leurs workflows d'images.
EN.mp4
ComfyUI LLM Party permet de construire rapidement votre propre assistant AI personnalisé, allant des appels multi-outils de LLM aux configurations de rôle, en passant par la gestion localisée des bases de connaissances du secteur grâce aux vecteurs de mots RAG et GraphRAG. De la chaîne d'agents intelligents unique à la construction de modes d'interaction complexes entre agents intelligents, y compris les modes d'interaction radiaux et circulaires ; des besoins des utilisateurs individuels qui souhaitent intégrer leurs applications sociales (QQ, Feishu, Discord) à un flux de travail tout-en-un LLM+TTS+ComfyUI pour les travailleurs des médias en continu ; des premières applications LLM simples pour les étudiants ordinaires aux diverses interfaces de réglage de paramètres utilisées par les chercheurs, ainsi que l'adaptation des modèles. Tout cela peut être découvert lors de ComfyUI LLM Party.
- Ajout de l'outil searxng, qui peut agréger les recherches sur l'ensemble du web. Perplexica repose également sur cet outil d'agrégation de recherche, vous pouvez donc configurer un Perplexica lors de votre fête. Vous pouvez déployer l'image publique searxng/searxng dans Docker, puis le démarrer en utilisant
docker run -d -p 8080:8080 searxng/searxng
, et y accéder en utilisanthttp://localhost:8080
. Vous pouvez remplir cette URLhttp://localhost:8080
dans l'outil searxng de la fête, et ensuite vous pouvez utiliser searxng comme un outil pour LLM. - Faites glisser les workflows suivants dans votre comfyui, puis utilisez comfyui-Manager pour installer les nœuds manquants.
- Utilisez l'API pour appeler LLM : start_with_LLM_api
- Gérez les LLM locaux avec ollama : start_with_Ollama
- Utilisez des LLM locaux au format distribué : start_with_LLM_local
- Utilisez des LLM locaux au format GGUF : start_with_LLM_GGUF
- Utilisez des VLM locaux au format distribué : start_with_VLM_local (en test, actuellement uniquement Llama-3.2-Vision-Instruct pris en charge)
- Utilisez des VLM locaux au format GGUF : start_with_VLM_GGUF
- Si vous utilisez l'API, remplissez votre
base_url
(cela peut être une API relais, assurez-vous qu'elle se termine par/v1/
) etapi_key
dans le nœud de chargement de l'API LLM. Exemple :https://api.openai.com/v1/
- Si vous utilisez ollama, activez l'option
is_ollama
dans le nœud de chargement de l'API LLM, sans remplirbase_url
etapi_key
. - Si vous utilisez un modèle local, remplissez le chemin de votre modèle dans le nœud de chargement du modèle local, par exemple :
E:\model\Llama-3.2-1B-Instruct
. Vous pouvez également remplir l'ID du dépôt du modèle Huggingface dans le nœud de chargement du modèle local, par exemple :lllyasviel/omost-llama-3-8b-4bits
. - En raison du seuil d'utilisation élevé de ce projet, même si vous choisissez le démarrage rapide, j'espère que vous pourrez lire attentivement la page d'accueil du projet.
- Nous avons ajouté un composant front-end dont les fonctionnalités sont organisées de gauche à droite comme suit :
- Enregistre votre clé API et l'URL de base dans le fichier
config.ini
. Lorsque vous utilisez la fonctionfix node
sur le nœud chargeur API LLM, il lit automatiquement la clé API et l'URL de base mises à jour dans le fichierconfig.ini
. - Lance un service FastAPI qui peut être utilisé pour appeler vos workflows ComfyUI. Si vous l'exécutez directement, vous obtenez une interface OpenAI sur
http://127.0.0.1:8817/v1/
. Vous devez connecter le début et la fin de votre workflow aux nœuds 'Début du workflow' et 'Fin du workflow', puis enregistrer au format API dans le dossierworkflow_api
. Ensuite, dans tout frontend pouvant appeler l'interface OpenAI, saisissezmodel name=<nom du workflow sans l'extension .json>
,Base URL=http://127.0.0.1:8817/v1/
, et la clé API peut être remplie par n'importe quelle valeur. - Lance une application Streamlit ; le processus d'enregistrement du workflow est le même que ci-dessus. Vous pouvez sélectionner votre workflow enregistré dans les 'Paramètres' de l'application Streamlit et interagir avec l'agent de votre workflow dans le 'Chat'.
- 'À propos de nous', qui présente ce projet.
- Le nœud de liste de noms de modèles automatiques a été supprimé et remplacé par un nœud de chargeur API LLM simplifié, qui récupère automatiquement la liste des noms de modèles à partir de la configuration de votre fichier config.ini. Il vous suffit de choisir un nom pour charger le modèle. De plus, les nœuds de chargeur simple LLM, chargeur simple LLM-GGUF, chargeur simple VLM, chargeur simple VLM-GGUF et chargeur simple LLM lora ont été mis à jour. Ils lisent tous automatiquement les chemins des modèles à partir du dossier model dans le dossier party, facilitant ainsi le chargement de divers modèles locaux.
- Les LLM peuvent maintenant charger dynamiquement des lora comme SD et FLUX. Vous pouvez enchaîner plusieurs lora pour charger plus de lora sur le même LLM. Exemple de flux de travail : start_with_LLM_LORA.
- Ajout de l'outil searxng, qui peut agréger les recherches sur tout le web. Perplexica repose également sur cet outil de recherche agrégée, ce qui signifie que vous pouvez configurer un Perplexica lors d'une fête. Vous pouvez déployer l'image publique searxng/searxng dans Docker, puis utiliser la commande
docker run -d -p 8080:8080 searxng/searxng
pour le démarrer, puis utiliserhttp://localhost:8080
pour y accéder. Vous pouvez entrer l'URLhttp://localhost:8080
dans l'outil searxng dans party, et alors searxng peut être utilisé comme un outil pour LLM. - Mise à jour majeure !!! Vous pouvez maintenant encapsuler n'importe quel flux de travail ComfyUI dans un nœud d'outil LLM. Vous pouvez faire en sorte que votre LLM contrôle plusieurs flux de travail ComfyUI simultanément. Lorsque vous souhaitez qu'il accomplisse certaines tâches, il peut choisir le flux de travail ComfyUI approprié en fonction de votre prompt, accomplir votre tâche et vous renvoyer le résultat. Exemple de flux de travail : comfyui_workflows_tool. Les étapes spécifiques sont les suivantes :
- Tout d'abord, connectez l'interface d'entrée de texte du flux de travail que vous souhaitez encapsuler en tant qu'outil à la sortie "user_prompt" du nœud "Démarrer le flux de travail". C'est l'endroit où le prompt est passé lorsque le LLM appelle l'outil.
- Connectez les positions où vous souhaitez sortir du texte et des images aux positions d'entrée correspondantes du nœud "Terminer le flux de travail".
- Enregistrez ce flux de travail sous forme d'API (vous devez activer le mode développeur dans les paramètres pour voir ce bouton).
- Enregistrez ce flux de travail dans le dossier workflow_api de ce projet.
- Redémarrez ComfyUI et créez un flux de travail LLM simple, par exemple : start_with_LLM_api.
- Ajoutez un nœud "Outil de flux de travail" à ce nœud LLM et connectez-le à l'entrée de l'outil du nœud LLM.
- Dans le nœud "Outil de flux de travail", écrivez le nom du fichier de flux de travail que vous souhaitez appeler dans la première case de saisie, par exemple : draw.json. Vous pouvez écrire plusieurs noms de fichiers de flux de travail. Dans la deuxième case de saisie, écrivez la fonction de chaque flux de travail afin que le LLM comprenne comment utiliser ces flux de travail.
- Exécutez-le pour voir le LLM appeler votre flux de travail encapsulé et vous renvoyer le résultat. Si le résultat est une image, connectez le nœud "Aperçu de l'image" à la sortie d'image du nœud LLM pour voir l'image générée. Attention ! Cette méthode appelle un nouveau ComfyUI sur votre port 8190, veuillez ne pas occuper ce port. Un nouveau terminal sera ouvert sur les systèmes Windows et Mac, veuillez ne pas le fermer. Le système Linux utilise le processus screen pour réaliser cela, lorsque vous n'avez pas besoin de l'utiliser, fermez ce processus screen, sinon il occupera toujours votre port.
-
Pour les instructions d'utilisation des nœuds, veuillez consulter : 怎么使用节点
-
Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre le groupe QQ : 931057213 |discord:discord.
-
Pour le tutoriel sur les flux de travail, veuillez consulter : Tutoriel sur les flux de travail, merci pour la contribution de HuangYuChuh !
-
Compte pour les fonctionnalités avancées des flux de travail : openart
-
Pour plus de flux de travail, veuillez consulter le dossier workflow.
- Prise en charge de tous les appels API au format OpenAI (en combinaison avec oneapi, il est possible d'appeler presque toutes les API LLM, ainsi que toutes les API de transit). Pour le choix de base_url, veuillez vous référer à config.ini.example. Actuellement, les API testées incluent :
- openai (Parfaitement compatible avec tous les modèles OpenAI, y compris les séries 4o et o1!)
- ollama (Recommandé! Si vous appelez localement, il est fortement recommandé d'utiliser la méthode ollama pour héberger votre modèle local!)
- Azure OpenAI
- llama.cpp (Recommandé! Si vous souhaitez utiliser le modèle au format gguf local, vous pouvez utiliser l'API du projet llama.cpp pour accéder à ce projet!)
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Prise en charge des appels API au format Gemini :
- Compatible avec la plupart des modèles locaux dans la bibliothèque transformer (le type de modèle sur le nœud de chaîne de modèles LLM local a été changé en LLM, VLM-GGUF et LLM-GGUF, correspondant au chargement direct des modèles LLM, au chargement des modèles VLM et au chargement des modèles LLM au format GGUF). Si votre modèle LLM au format VLM ou GGUF signale une erreur, veuillez télécharger la dernière version de llama-cpp-python depuis llama-cpp-python. Les modèles actuellement testés incluent :
- ClosedCharacter/Peach-9B-8k-Roleplay (recommandé ! Modèle de jeu de rôle)
- lllyasviel/omost-llama-3-8b-4bits (recommandé ! Modèle avec des invites riches)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- xtuner/llava-llama-3-8b-v1_1-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Téléchargement des modèles :
- Adresse Baidu Cloud, code d'extraction : qyhu
Installez en utilisant l'une des méthodes suivantes
- Recherchez
comfyui_LLM_party
dans le gestionnaire ComfyUI et installez-le d'un seul clic - Redémarrez ComfyUI
- Naviguez vers le sous-dossier
custom_nodes
dans le dossier racine de ComfyUI. - Clonez ce dépôt.
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Cliquez sur
CODE
en haut à droite. - Cliquez sur
télécharger zip
. - Décompressez le fichier zip téléchargé dans le sous-dossier
custom_nodes
du dossier racine de ComfyUI.
- Naviguez vers le dossier du projet
comfyui_LLM_party
. - Dans le terminal, saisissez
pip install -r requirements.txt
pour déployer les bibliothèques tierces nécessaires à ce projet dans l'environnement de comfyui. Veuillez vérifier que vous installez dans l'environnement de comfyui et faites attention aux erreurspip
dans le terminal. - Si vous utilisez le lanceur comfyui, vous devez entrer dans le terminal
chemin dans la configuration du lanceur\python_embeded\python.exe -m pip install -r requirements.txt
pour procéder à l'installation. Le dossierpython_embeded
est généralement au même niveau que votre dossierComfyUI
. - Si vous rencontrez des problèmes de configuration de l'environnement, vous pouvez essayer d'utiliser les dépendances dans
requirements_fixed.txt
.
- Vous pouvez configurer la langue dans le fichier
config.ini
, actuellement seules deux langues sont disponibles : chinois (zh_CN) et anglais (en_US), la langue par défaut étant celle de votre système. - Vous pouvez configurer l'APIKEY en utilisant l'une des méthodes suivantes :
- Ouvrez le fichier
config.ini
dans le dossier du projetcomfyui_LLM_party
. - Dans
config.ini
, saisissez votreopenai_api_key
etbase_url
. - Si vous utilisez le modèle ollama, entrez
http://127.0.0.1:11434/v1/
dansbase_url
,ollama
dansopenai_api_key
, et le nom de votre modèle dansmodel_name
, par exemple : llama3. - Si vous souhaitez utiliser les outils de recherche Google ou Bing, saisissez votre
google_api_key
,cse_id
oubing_api_key
dansconfig.ini
. - Si vous désirez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb, et d'indiquer votre
imgbb_api
dansconfig.ini
. - Chaque modèle peut être configuré individuellement dans le fichier
config.ini
, vous pouvez vous référer au fichierconfig.ini.example
pour vous aider. Une fois que vous avez terminé la configuration, il vous suffit de saisirmodel_name
dans le nœud.
- Ouvrez l'interface comfyui.
- Créez un nœud de grand modèle de langage (LLM) et saisissez directement votre
openai_api_key
etbase_url
dans le nœud. - Si vous utilisez le modèle ollama, veuillez utiliser le nœud LLM_api, entrer
http://127.0.0.1:11434/v1/
dansbase_url
,ollama
dansapi_key
, et le nom de votre modèle dansmodel_name
, par exemple : llama3. - Si vous souhaitez utiliser des entrées d'images pour LLM, il est recommandé d'utiliser le service d'hébergement d'images imgbb et d'indiquer votre
imgbb_api_key
dans le nœud.
-
Vous pouvez cliquer avec le bouton droit dans l'interface comfyui, sélectionner
llm
dans le menu contextuel, et trouver le nœud de ce projet. Comment utiliser les nœuds -
Prise en charge de l'intégration API ou de l'intégration de grands modèles locaux. Mise en œuvre modulaire de la fonctionnalité d'appel d'outils. Lors de la saisie de base_url, veuillez entrer une URL se terminant par
/v1/
. Vous pouvez utiliser ollama pour gérer vos modèles, puis entrerhttp://127.0.0.1:11434/v1/
dans base_url, ollama dans api_key, et le nom de votre modèle, par exemple : llama3.- Exemple de flux de travail d'intégration API : start_with_LLM_api
- Exemple de flux de travail d'intégration de modèle local : start_with_LLM_local
- Exemple de flux de travail d'intégration ollama : ollama
-
Intégration d'une base de connaissances locale, prise en charge de RAG. Exemple de flux de travail : Recherche RAG de la base de connaissances.json
-
Possibilité d'appeler un interpréteur de code.
-
Possibilité de rechercher en ligne, prise en charge de la recherche Google. Exemple de flux de travail : Flux de recherche de films
-
Possibilité de mettre en œuvre des instructions conditionnelles dans comfyui, permettant de classer les questions des utilisateurs avant de répondre de manière ciblée. Exemple de flux de travail : Service client intelligent
-
Prise en charge des liens en boucle pour les grands modèles, permettant à deux grands modèles de débattre. Exemple de flux de travail : Débat sur le dilemme du tramway
-
Prise en charge de l'attachement de n'importe quel masque de personnalité, possibilité de personnaliser les modèles d'invite.
-
Prise en charge de divers appels d'outils, actuellement développés pour vérifier la météo, l'heure, la base de connaissances, l'exécution de code, la recherche en ligne, et la recherche sur une seule page Web, entre autres.
-
Prise en charge de l'utilisation de LLM en tant que nœud d'outil. Exemple de flux de travail : LLM poupée russe
-
Prise en charge du développement rapide de vos propres applications web via API + streamlit.
-
Ajout d'un nœud d'interpréteur universel dangereux, permettant au grand modèle de faire n'importe quoi.
-
Il est recommandé d'utiliser les fonctions dans le sous-répertoire du menu contextuel, sous le nœud de texte à afficher (show_text), comme affichage de sortie pour le nœud LLM.
-
Fonctionnalité visuelle prise en charge par GPT-4O ! Exemple de flux de travail : GPT-4o
-
Un intermédiaire de flux de travail a été ajouté, permettant à votre flux de travail d'appeler d'autres flux de travail ! Exemple de flux de travail : Appeler un autre flux de travail
-
Compatible avec tous les modèles ayant une interface similaire à OpenAI, tels que : Tongyi Qianwen/qwen, Zhipu Qingyan/GLM, deepseek, kimi/moonshot. Veuillez remplir les champs base_url, api_key et model_name des nœuds LLM pour les appeler.
-
Un chargeur LVM a été ajouté, permettant d'appeler localement des modèles LVM, prenant en charge le modèle llava-llama-3-8b-v1_1-gguf, d'autres modèles LVM au format GGUF devraient également fonctionner en théorie. Exemple de flux de travail ici : start_with_LVM.json.
-
Un fichier
fastapi.py
a été créé. Si vous l'exécutez directement, vous obtiendrez une interface OpenAI surhttp://127.0.0.1:8817/v1/
, toute application pouvant appeler GPT pourra alors interagir avec votre flux de travail ComfyUI ! Je fournirai un tutoriel détaillé à ce sujet. -
Le chargeur LLM et la chaîne LLM ont été séparés, permettant de dissocier le chargement du modèle et la configuration du modèle, facilitant ainsi le partage de modèles entre différents nœuds LLM !
-
La prise en charge de macOS et des appareils MPS est désormais disponible ! Merci à bigcat88 pour cette contribution !
-
Vous pouvez créer votre propre jeu de roman interactif, avec des fins différentes selon les choix des utilisateurs ! Exemple de flux de travail : Roman interactif
-
Intégration des fonctionnalités Whisper et TTS d'OpenAI, permettant l'entrée et la sortie vocales. Exemple de flux de travail : Entrée vocale + Sortie vocale
-
Compatible avec Omost ! Veuillez télécharger omost-llama-3-8b-4bits pour vivre l'expérience immédiatement ! Pour un exemple de flux de travail, veuillez vous référer à : start_with_OMOST
-
De nouveaux outils LLM ont été ajoutés pour envoyer des messages à WeChat d'entreprise, DingTalk et Feishu, ainsi que des fonctions externes disponibles à l'appel.
-
Un nouvel itérateur de texte a été ajouté, capable de n'afficher qu'une partie des caractères à la fois, en segmentant le texte en toute sécurité par rapport aux caractères de retour à la ligne et à la taille des morceaux, sans couper le texte au milieu. Le paramètre chunk_overlap indique combien de caractères se chevauchent lors de la segmentation du texte. Cela permet d'entrer en masse des textes très longs ; il suffit de cliquer sans réfléchir ou d'activer l'exécution en boucle dans ComfyUI, et tout sera exécuté automatiquement. N'oubliez pas d'activer l'attribut is_locked, ce qui permettra de verrouiller automatiquement le flux de travail à la fin de l'entrée, empêchant toute exécution ultérieure. Exemple de flux de travail : Texte d'itération d'entrée
-
L'attribut model name a été ajouté aux chargeurs LLM locaux et LLava locaux ; s'il est vide, divers chemins locaux dans le nœud seront utilisés pour le chargement. S'il n'est pas vide, le paramètre de chemin que vous avez rempli dans
config.ini
sera utilisé pour le chargement. S'il n'est pas vide et n'est pas dansconfig.ini
, le modèle sera téléchargé depuis Hugging Face ou chargé depuis le répertoire de modèles de Hugging Face. Si vous souhaitez télécharger depuis Hugging Face, veuillez remplir l'attribut model name au format :THUDM/glm-4-9b-chat
. Attention ! Les modèles chargés de cette manière doivent être compatibles avec la bibliothèque Transformer. -
De nouveaux nœuds pour le parsing de fichiers JSON et l'extraction de valeurs JSON ont été ajoutés, vous permettant d'obtenir la valeur d'une clé depuis un fichier ou un texte. Merci à guobalove pour sa contribution !
-
Le code des appels d'outils a été amélioré, permettant désormais aux LLM sans fonction d'appel d'outils d'activer l'attribut is_tools_in_sys_prompt (par défaut, les LLM locaux n'ont pas besoin d'être activés et s'adaptent automatiquement). Une fois activé, les informations sur les outils seront ajoutées à l'invite système, permettant ainsi au LLM d'appeler des outils. Un article pertinent sur le principe de mise en œuvre : Achieving Tool Calling Functionality in LLMs Using Only Prompt Engineering Without Fine-Tuning
-
Un dossier custom_tool a été créé pour stocker le code des outils personnalisés. Vous pouvez vous référer au code dans le dossier custom_tool et y placer votre code d'outil personnalisé afin de pouvoir l'appeler dans le LLM.
-
Un nouvel outil de graphe de connaissances a été ajouté, permettant une interaction parfaite entre le LLM et le graphe de connaissances. Le LLM peut modifier le graphe de connaissances en fonction de vos entrées et déduire les réponses nécessaires à partir de celui-ci. Pour un exemple de flux de travail, veuillez consulter : graphRAG_neo4j.
-
Une fonctionnalité d'IA de personnalité a été ajoutée, permettant de développer votre propre IA de petite amie ou d'ami sans code, avec des conversations illimitées, une mémoire permanente et une personnalité stable. Pour un exemple de flux de travail, veuillez consulter : 麦洛薇人格AI.
-
Vous pouvez utiliser cet outil de fabrication LLM pour générer automatiquement des outils LLM. Sauvegardez le code de l'outil généré dans un fichier python, puis copiez le code dans le dossier custom_tool, créant ainsi un nouveau nœud. Exemple de flux de travail : LLM工具生成器.
-
La recherche avec DuckDuckGo est désormais prise en charge, mais avec de grandes limitations ; il semble que seuls des mots-clés en anglais puissent être saisis et qu'un seul concept soit autorisé dans les mots-clés. L'avantage réside dans l'absence de toute restriction d'API key.
-
La fonctionnalité d'appel séparé de plusieurs bases de connaissances a été ajoutée, permettant de préciser dans l'invite quelle base de connaissances doit être utilisée pour répondre aux questions. Exemple de flux de travail : 多知识库分别调用.
-
La prise en charge de paramètres supplémentaires pour le LLM est désormais possible, y compris des paramètres avancés tels que json out. Exemple de flux de travail : LLM输入额外参数. 用json_out分离提示词.
-
Ajout de la fonctionnalité permettant de connecter l'agent à Discord. (Encore en test)
-
Ajout de la fonctionnalité permettant de connecter l'agent à Feishu, un grand merci à guobalove pour sa contribution ! Référencer le workflow Robot Feishu.
-
Ajout d'un nœud d'appel API universel ainsi que de nombreux nœuds auxiliaires pour construire le corps de la requête et extraire des informations de la réponse.
-
Ajout d'un nœud de videur de modèle, permettant de décharger le LLM de la mémoire vidéo à tout moment !
-
Le nœud chatTTS a été ajouté, un grand merci à guobalove pour sa contribution ! Le paramètre
model_path
peut être vide ! Il est recommandé d'utiliser le mode HF pour charger le modèle, qui sera automatiquement téléchargé depuis Hugging Face, sans besoin de téléchargement manuel ; si vous utilisez le mode local, placez les dossiersasset
etconfig
du modèle à la racine. Adresse Baidu Cloud, code d'extraction : qyhu ; si vous utilisez le modecustom
, placez les dossiersasset
etconfig
du modèle sousmodel_path
. -
Mise à jour d'une série de nœuds de conversion : markdown en HTML, svg en image, HTML en image, mermaid en image, markdown en Excel.
-
Compatible avec le modèle llama3.2 vision, prend en charge les dialogues multi-tours, les fonctions visuelles. Adresse du modèle : meta-llama/Llama-3.2-11B-Vision-Instruct. Exemple de flux de travail : llama3.2_vision.
-
Adapté GOT-OCR2, prend en charge les résultats de sortie formatés, prend en charge la reconnaissance fine du texte à l'aide de boîtes de position et de couleurs. Adresse du modèle : GOT-OCR2. Exemple de flux de travail convertit une capture d'écran d'une page Web en code HTML, puis ouvre le navigateur pour afficher cette page Web : img2web.
-
Les nœuds de chargeur LLM locaux ont été considérablement ajustés, vous n'avez donc plus besoin de choisir vous-même le type de modèle. Le nœud de chargeur llava et le nœud de chargeur GGUF ont été réajoutés. Le type de modèle sur le nœud de chaîne de modèles LLM local a été changé en LLM, VLM-GGUF et LLM-GGUF, correspondant au chargement direct des modèles LLM, au chargement des modèles VLM et au chargement des modèles LLM au format GGUF. Les modèles VLM et les modèles LLM au format GGUF sont à nouveau pris en charge. Les appels locaux peuvent désormais être compatibles avec plus de modèles ! Exemples de flux de travail : LLM_local, llava, GGUF
-
Ajout du nœud EasyOCR pour reconnaître le texte et les positions dans les images. Il peut générer des masques correspondants et renvoyer une chaîne JSON pour que LLM puisse la consulter. Des versions standard et premium sont disponibles pour tout le monde!
-
Lors de la fête comfyui LLM, le système de fraises du modèle de la série chatgpt-o1 a été reproduit, en se référant aux invites de Llamaberry. Exemple de flux de travail : Système de fraises comparé à o1.
-
Un nouveau nœud GPT-sovits a été ajouté, vous permettant d'appeler le modèle GPT-sovits pour convertir du texte en parole en fonction de votre audio de référence. Vous pouvez également remplir le chemin de votre modèle affiné (si non rempli, le modèle de base sera utilisé pour l'inférence) pour obtenir la voix souhaitée. Pour l'utiliser, vous devez télécharger le projet GPT-sovits et le modèle de base correspondant localement, puis démarrer le service API avec
runtime\python.exe api_v2.py
dans le dossier du projet GPT-sovits. De plus, le nœud chatTTS a été déplacé vers comfyui LLM mafia. La raison est que chatTTS a de nombreuses dépendances, et sa licence sur PyPi est CC BY-NC 4.0, qui est une licence non commerciale. Même si le projet chatTTS sur GitHub est sous licence AGPL, nous avons déplacé le nœud chatTTS vers comfyui LLM mafia pour éviter des problèmes inutiles. Nous espérons que tout le monde comprendra! -
Prend désormais en charge le dernier modèle d’OpenAI, la série o1 !
-
Ajout d’un outil de contrôle des fichiers locaux permettant au LLM de contrôler les fichiers dans le dossier spécifié, tels que la lecture, l’écriture, l’ajout, la suppression, le renommage, le déplacement et la copie de fichiers.En raison du danger potentiel de ce nœud, il est inclus dans comfyui LLM mafia.
-
De nouveaux outils SQL permettent à LLM d’interroger des bases de données SQL.
-
Mise à jour de la version multilingue du README. Flux de travail pour traduire le document README : translate_readme
-
Quatre nœuds d'itérateur ont été mis à jour (itérateur de texte, itérateur d'image, itérateur de tableau, itérateur json), avec trois modes d'itérateur : séquentiel, aléatoire et infini. Le mode séquentiel produira des sorties dans l'ordre jusqu'à dépasser la limite d'index, moment où le processus s'arrête automatiquement et la valeur d'index est réinitialisée à 0 ; le mode aléatoire choisira un index aléatoire pour la sortie, et le mode infini effectuera une sortie en boucle infinie.
-
Un nouveau nœud de chargeur d'API Gemini a été ajouté, désormais compatible avec l'API officielle de Gemini ! Si vous êtes dans un environnement réseau domestique et que vous rencontrez des problèmes de restriction de région pour l'API, veuillez passer le nœud sur les États-Unis et utiliser le mode TUN. Étant donné que Gemini génère une erreur avec un code retour 500 si des caractères chinois sont présents dans les paramètres retournés lors de l'appel d'outils, certains nœuds d'outils peuvent ne pas être disponibles. Flux de travail d'exemple : start_with_gemini
-
Un nœud de livre de lore a été ajouté, permettant d'insérer vos paramètres de fond lors des dialogues avec LLM, flux de travail d'exemple : lorebook
-
Un nœud de générateur de mots-clés FLUX a été ajouté, capable de générer des mots-clés dans divers styles, tels que des cartes Hearthstone, des cartes Yu-Gi-Oh, des affiches, des bandes dessinées, etc., facilitant la sortie directe du modèle FLUX. Flux de travail de référence : FLUX提示词
- Plus d'adaptations de modèles;
- Plus de façons de construire des agents;
- Plus de fonctionnalités d'automatisation;
- Plus de fonctionnalités de gestion de la base de connaissances;
- Plus d'outils, plus de personas.
Ce projet open source et son contenu (ci-après dénommé "projet") sont fournis uniquement à titre de référence et ne constituent en aucun cas une garantie expresse ou implicite. Les contributeurs du projet ne sauraient être tenus responsables de l'intégrité, de l'exactitude, de la fiabilité ou de l'applicabilité du projet. Toute action reposant sur le contenu du projet se fait à vos propres risques. En aucun cas, les contributeurs du projet ne sauraient être tenus responsables des pertes ou dommages indirects, spéciaux ou consécutifs résultant de l'utilisation du contenu du projet.
Certaines des fonctionnalités de ce projet s'inspirent des projets suivants, nous les remercions pour leur contribution à la communauté open source !
Si vous rencontrez des problèmes avec le plugin ou si vous avez d'autres questions, n'hésitez pas à rejoindre notre communauté.
- Groupe QQ :
931057213
-
Groupe WeChat :
Choo-Yong
(ajoutez le petit assistant WeChat pour rejoindre le groupe) -
discord : lien discord
- Si vous souhaitez rester informé des dernières fonctionnalités de ce projet, n'hésitez pas à suivre notre compte Bilibili : 派对主持BB机
- Le compte OpenArt est régulièrement mis à jour avec les workflows de party les plus utiles : openart
Si mon travail vous apporte de la valeur, veuillez envisager de m'offrir un café ! Votre soutien insuffle non seulement de la vitalité au projet, mais réchauffe également le cœur des créateurs.☕💖 Chaque tasse compte !