HiDream Full GGUF-Q5_K_M UNCENSORED🔞 - v1.0
推薦反向提示詞
ugly, bad, wrong
推薦參數
samplers
steps
cfg
vae
提示
使用提供的去審查 Meta Llama 3.1-8b-instruct-abliterated 文本編碼器以獲得最佳效果。
如發生 VRAM 問題,請使用優化的 run_nvidia_gpu_fp8vae.bat 來執行 ComfyUI。
嘗試不同版本的去審查 Meta Llama 3.1 作為文本編碼器,以實驗圖像質量。
使用去審查 HiDream-Full Workflow.json 作為測試模型的起始工作流程。
版本亮點
此文件包包含兩個主要成分,使 HiDream 顯著提升且去審查:
技巧:使用 converted-flan-t5-xxl-Q5_K_M.gguf 替代 t5-v1_1-xxl-encoder-Q5_K_M.gguf,以改善文本向向量的翻譯/編碼;
主要秘密成分:meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf,非 Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> 閱讀 LLM 去審查/清除過程說明:https://huggingface.co/blog/mlabonne/abliteration(可從作者 Huggingface 倉庫獲取其他去審查 LLMs)
解壓檔案!
將 hidream-i1-full-Q5_K_M.gguf 放入 ComfyUI\models\unet 資料夾;
將 converted-flan-t5-xxl-Q5_K_M.gguf、meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf、clip_g_hidream.safetensors、clip_l_hidream.safetensors 放入 ComfyUI\models\text_encoders 資料夾;
將 HiDream.vae.safetensors 放入 ComfyUI\models\vae 資料夾;
使用我的 UNcensored HiDream-Full Workflow.json 作為起始工作流程測試;
如遇 VRAM 問題,使用 VRAM 優化的 run_nvidia_gpu_fp8vae.bat 啟動 ComfyUI (放在 ComfyUI 資料夾內);
這樣你就能用 12GB VRAM(經測試)輕鬆生成高質量 HiDream-Full 圖像!
好好利用 ;)
HFGL
創作者贊助
閱讀 LLM 去審查/清除過程說明:https://huggingface.co/blog/mlabonne/abliteration
從同一作者在 Huggingface 獲取其他去審查 LLMs。
使用此 DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF 版本:https://civitai.com/images/71818416
查看此 CLIP-G 模型:https://civitai.com/models/1564749?modelVersionId=1773479
這是 HiDream Full 模型中最優化(質量/速度與 VRAM)的量化版本,配備了完全“lobotomized”=去審查的文本編碼器(Meta Llama 3.1)
此文件包包含兩個主要成分,使 HiDream 顯著提升且!去審查:
技巧:使用 converted-flan-t5-xxl-Q5_K_M.gguf 替代 t5-v1_1-xxl-encoder-Q5_K_M.gguf,以改善文本到向量的翻譯/編碼效果;
主要秘密成分:使用 meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf,而非 Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> 閱讀有關 LLM 去審查過程的說明:https://huggingface.co/blog/mlabonne/abliteration (可從作者在 Huggingface 的倉庫獲取其他去審查 LLMs...)
簡單操作:
解壓縮檔案!
將 hidream-i1-full-Q5_K_M.gguf 文件放入 ComfyUI\models\unet 資料夾;
將 converted-flan-t5-xxl-Q5_K_M.gguf、meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf、clip_g_hidream.safetensors、clip_l_hidream.safetensors 放入 ComfyUI\models\text_encoders 資料夾;
將 HiDream.vae.safetensors 放入 ComfyUI\models\vae 資料夾;
使用我提供的 UNcensored HiDream-Full Workflow.json 作為測試起始工作流程;
如有 VRAM 問題,使用我優化的 VRAM bat 檔 run_nvidia_gpu_fp8vae.bat 來啟動 ComfyUI (直接放在 ComfyUI 資料夾內);
如此一來,你就能在 12GB VRAM 下(經測試)獲得優質的 HiDream-Full 圖像生成。
更新1:你也可以在文本編碼部分使用其他去審查的 Meta Llama 3.1 版本,例如這張圖:https://civitai.com/images/71818416 使用的是 DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
更新2:試試這個 CLIP-G --> https://civitai.com/models/1564749?modelVersionId=1773479

