Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q8
Palavras-chave e Tags Relacionadas
Dicas
Use os arquivos do modelo com o nó personalizado ComfyUI-GGUF colocando-os em ComfyUI/models/unet.
Confira o README do GitHub para mais instruções de instalação.
Compatível com Forge desde o último commit.
Patrocinadores do Criador
☕ Compre um café para mim: https://ko-fi.com/ralfingerai
🍺 Participe do meu discord: https://discord.com/invite/pAz4Bt3rqb
Fonte https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main por city96
Esta é uma conversão direta para GGUF do Flux.1-dev. Como este é um modelo quantizado e não um ajuste fino, todas as mesmas restrições/termos originais da licença ainda se aplicam. Visão geral básica overview dos tipos de quantização.
Os arquivos do modelo podem ser usados com o nó personalizado ComfyUI-GGUF custom node.
Coloque os arquivos do modelo em ComfyUI/models/unet - veja o README do GitHub para mais instruções de instalação.
Também funciona com Forge desde o último commit!
☕ Compre um café para mim: https://ko-fi.com/ralfingerai
🍺 Participe do meu discord: https://discord.com/invite/pAz4Bt3rqb
Detalhes do Modelo
Tipo de modelo
Modelo base
Versão do modelo
Hash do modelo
Criador
Discussão
Por favor, faça log in para deixar um comentário.

