Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q6.K
Consejos
Usa el nodo personalizado ComfyUI-GGUF para ejecutar el modelo FLUX.1-dev colocando los archivos del modelo en ComfyUI/models/unet.
Compatible con Forge desde el último commit: https://github.com/lllyasviel/stable-diffusion-webui-forge/commit/1bd6cf0e0ce048eae49f52cf36ce7d0deede9d17.
Revisa la vista general de tipos de cuantificación aquí: https://github.com/ggerganov/llama.cpp/blob/master/examples/perplexity/README.md#llama-3-8b-scoreboard.
Patrocinadores del Creador
☕ Cómprame un café: https://ko-fi.com/ralfingerai
🍺 Únete a mi discord: https://discord.com/invite/pAz4Bt3rqb
Fuente https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main por city96
Esta es una conversión directa GGUF de Flux.1-dev. Al ser un modelo cuantificado y no un ajuste fino, se aplican las mismas restricciones/términos de licencia originales. Vista general básica de tipos de cuantificación.
Los archivos del modelo pueden usarse con el nodo personalizado ComfyUI-GGUF custom node.
Coloca los archivos del modelo en ComfyUI/models/unet - consulta el README de GitHub para más instrucciones de instalación.
También funciona con Forge desde el último commit!
☕ Cómprame un café: https://ko-fi.com/ralfingerai
🍺 Únete a mi discord: https://discord.com/invite/pAz4Bt3rqb
Detalles del Modelo
Tipo de modelo
Modelo base
Versión del modelo
Hash del modelo
Creador
Discusión
Por favor log in para dejar un comentario.

