Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q8
Suggerimenti
Usa i file del modello con il nodo personalizzato ComfyUI-GGUF posizionandoli in ComfyUI/models/unet.
Consulta il readme di GitHub per ulteriori istruzioni di installazione.
Compatibile con Forge dall'ultimo commit.
Sponsor del Creatore
☕ Offrimi un caffè: https://ko-fi.com/ralfingerai
🍺 Unisciti al mio discord: https://discord.com/invite/pAz4Bt3rqb
Fonte https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main by city96
Questa è una conversione diretta GGUF di Flux.1-dev. Poiché questo è un modello quantizzato e non un fine-tuning, si applicano tutte le stesse restrizioni/termini della licenza originale. Panoramica di base sui tipi di quantizzazione.
I file del modello possono essere usati con il nodo personalizzato ComfyUI-GGUF custom node.
Posiziona i file del modello in ComfyUI/models/unet - consulta il readme su GitHub per ulteriori istruzioni di installazione.
Funziona anche con Forge dall'ultimo commit!
☕ Offrimi un caffè: https://ko-fi.com/ralfingerai
🍺 Unisciti al mio discord: https://discord.com/invite/pAz4Bt3rqb
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.

