Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q6.K
提示
使用 ComfyUI-GGUF 自定義節點,將模型文件放置於 ComfyUI/models/unet 以運行 FLUX.1-dev 模型。
自最新提交起,兼容 Forge:https://github.com/lllyasviel/stable-diffusion-webui-forge/commit/1bd6cf0e0ce048eae49f52cf36ce7d0deede9d17。
在此查看量化類型概述:https://github.com/ggerganov/llama.cpp/blob/master/examples/perplexity/README.md#llama-3-8b-scoreboard。
創作者贊助
☕ 請我喝杯咖啡: https://ko-fi.com/ralfingerai
🍺 加入我的 Discord: https://discord.com/invite/pAz4Bt3rqb
來源 https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main 由 city96
這是 Flux.1-dev 的直接 GGUF 轉換版本。由於這是一個量化模型而非微調,所有相同的限制/原始授權條款依然適用。基礎的 量化類型概述 。
模型文件可與 ComfyUI-GGUF 自定義節點 一起使用。
將模型文件放置於 ComfyUI/models/unet - 請參考 GitHub 自述文件以獲取進一步安裝說明。
自最新的 Forge 提交 起亦可使用!
☕ 請我喝杯咖啡: https://ko-fi.com/ralfingerai
🍺 加入我的 Discord: https://discord.com/invite/pAz4Bt3rqb

