Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q6.K
Suggerimenti
Usa il nodo custom ComfyUI-GGUF per eseguire il modello FLUX.1-dev posizionando i file modello in ComfyUI/models/unet.
Compatibile con Forge dall'ultimo commit: https://github.com/lllyasviel/stable-diffusion-webui-forge/commit/1bd6cf0e0ce048eae49f52cf36ce7d0deede9d17.
Verifica la panoramica delle tipologie di quantizzazione qui: https://github.com/ggerganov/llama.cpp/blob/master/examples/perplexity/README.md#llama-3-8b-scoreboard.
Sponsor del Creatore
☕ Offrimi un caffè: https://ko-fi.com/ralfingerai
🍺 Unisciti al mio discord: https://discord.com/invite/pAz4Bt3rqb
Fonte https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main di city96
Questa è una conversione diretta GGUF di Flux.1-dev. Essendo un modello quantizzato e non un finetune, si applicano le stesse restrizioni/termini di licenza originali. Panoramica base delle tipologie di quantizzazione.
I file modello possono essere utilizzati con il nodo custom ComfyUI-GGUF custom node.
Posizionare i file modello in ComfyUI/models/unet - consultare il readme su GitHub per ulteriori istruzioni di installazione.
Funziona anche con Forge dall'ultimo commit!
☕ Offrimi un caffè: https://ko-fi.com/ralfingerai
🍺 Unisciti al mio discord: https://discord.com/invite/pAz4Bt3rqb
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.

