Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q6.K
ヒント
ComfyUI/models/unetにモデルファイルを配置し、ComfyUI-GGUFカスタムノードを使ってFLUX.1-devモデルを実行してください。
最新のコミット以降、Forgeと互換性があります:https://github.com/lllyasviel/stable-diffusion-webui-forge/commit/1bd6cf0e0ce048eae49f52cf36ce7d0deede9d17。
量子化タイプの概要をこちらで確認してください:https://github.com/ggerganov/llama.cpp/blob/master/examples/perplexity/README.md#llama-3-8b-scoreboard。
クリエイタースポンサー
☕ コーヒーを購入する: https://ko-fi.com/ralfingerai
🍺 Discordに参加する: https://discord.com/invite/pAz4Bt3rqb
ソース https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main by city96
これはFlux.1-devの直接のGGUF変換です。これはファインチューニングではなく量子化モデルのため、すべて同じ制限/オリジナルのライセンス条件が引き続き適用されます。基本的な量子化タイプの概要です。
モデルファイルはComfyUI-GGUFのカスタムノードで使用できます。
モデルファイルはComfyUI/models/unetに配置してください。詳細なインストール手順はGitHubのREADMEを参照ください。
最新のコミット以降、Forgeでも動作します。
☕ コーヒーを購入する: https://ko-fi.com/ralfingerai
🍺 Discordに参加する: https://discord.com/invite/pAz4Bt3rqb
