工作流简介:

  • 该工作流是通过 ComfyUI LLM Party 插件中调用【flux提示词生成面具】节点自动生成flux提示词。目前预设的模板有五套,分别是[海报Poster]、[炉石传说HearthStone]、[游戏王Yu-Gi-Oh]、[塔罗牌tarot]和[漫画manga]。可以根据自己的爱好和使用场景选择不同的提示词生成模版。

【flux提示词生成面具】参数详解:

    • theme:填写需要生成的主题内容;
    • style:填写希望生成的风格。
    • strength:数值越大元素越多,数值区间为0~10(需要为整数/int字符)。注:漫画的strength和格子数相关,strength数值会影响格子数。


根据测试目前闭源模型的效果和性比价最高的是 gpt-4o-mini 。如果只有开源LLM。推荐使用 gemma2 ,根据测试参数 gemma2 最能遵循提示词工程。但是总体的效果还是弱于 gpt-4o-mini 。


以下是 LLM Party 配置的步骤,如果不懂的问题可以移至文末的官方交流群(注:ComfyUI LLM Party的API或者本地配置都是在ComfyUI的界面中完成,不需要在配置文件中进行配置)。

    • Step 1:base_url:参考以下[api_key合辑]中的填写规范;api_key:不同的LLM的api_key不同,填写方式同参照[API_KEYS]
    • Step 2:models_name:输入你需要调用的大模型名称,如:qwen2:latest。


注:

    • 可以用ollama来管理你的模型;
    • 1)在api_key填入ollama,base_url填入http://127.0.0.1:11434/v1/,在model_name填入你的模型名称,例如:llama3、qwen2:latest;2)或者直接开启 is_ollama 属性,这样你就是只需要填入 model_name 就能使用ollama了。
    • 以ollama的方式加载的部分模型并没有工具调用功能(例如:llama3),当你连入tool后会报错,这时你可以将LLM_api节点上的 [is_tool_in_sys_prompt] 属性打开,工具信息将以系统提示词的方式输入LLM,让LLM临时获得工具调用能力。



  • [API_KEYS合辑]
    • [API_KEYS]
    • base_url = https://api.openai.com/v1/
    • openai_api_key = sk-XXXXX


    • [deepseek-chat]
    • base_url=https://api.deepseek.com/v1/
    • api_key=


    • [glm-4]
    • base_url=https://open.bigmodel.cn/api/paas/v4/
    • api_key=


    • [qwen-max]
    • base_url=https://dashscope.aliyuncs.com/compatible-mode/v1/
    • api_key=


    • [moonshot-v1-8k]
    • base_url=https://api.moonshot.cn/v1/
    • api_key=


    • [general]
    • base_url=https://spark-api-open.xf-yun.com/v1/
    • api_key=


    • [doubao_YOUR_ENDPOINT_ID]
    • base_url=https://ark.cn-*******.volces.com/api/v3/
    • api_key=


    • [your_ollama_model_name]
    • base_url=http://127.0.0.1:11434/v1/
    • api_key=ollama