Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q8
Wskazówki
Używaj plików modelu z niestandardowym węzłem ComfyUI-GGUF, umieszczając je w ComfyUI/models/unet.
Sprawdź readme na GitHub w celu uzyskania dalszych instrukcji instalacji.
Kompatybilny z Forge od najnowszego commita.
Sponsorzy twórcy
☕ Postaw mi kawę: https://ko-fi.com/ralfingerai
🍺 Dołącz do mojego discorda: https://discord.com/invite/pAz4Bt3rqb
Źródło https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main przez city96
To jest bezpośrednia konwersja Flux.1-dev na format GGUF. Ponieważ jest to model skwantowany, a nie fine-tune, wszystkie te same ograniczenia/originalne warunki licencji nadal obowiązują. Podstawowy przegląd typów kwantyzacji.
Pliki modelu można używać z ComfyUI-GGUF niestandardowym węzłem.
Umieść pliki modelu w ComfyUI/models/unet - zobacz instrukcje instalacji na GitHub.
Działa także z Forge od najnowszego commita!
☕ Postaw mi kawę: https://ko-fi.com/ralfingerai
🍺 Dołącz do mojego discorda: https://discord.com/invite/pAz4Bt3rqb
Szczegóły modelu
Dyskusja
Proszę się log in, aby dodać komentarz.

