Flux.1-Dev GGUF Q2.K Q3.KS Q4/Q4.1/Q4.KS Q5/Q5.1/Q5.KS Q6.K Q8 - Q8
Tipps
Verwenden Sie die Modelldateien mit dem ComfyUI-GGUF benutzerdefinierten Knoten, indem Sie sie in ComfyUI/models/unet ablegen.
Überprüfen Sie das GitHub-Readme für weitere Installationsanweisungen.
Kompatibel mit Forge seit dem neuesten Commit.
Ersteller-Sponsoren
☕ Kauf mir einen Kaffee: https://ko-fi.com/ralfingerai
🍺 Tritt meinem Discord bei: https://discord.com/invite/pAz4Bt3rqb
Quelle https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main von city96
Dies ist eine direkte GGUF-Konvertierung von Flux.1-dev. Da es sich um ein quantisiertes Modell und kein Feinabstimmungsmodell handelt, gelten alle gleichen Einschränkungen/ursprünglichen Lizenzbedingungen weiterhin. Grundlegende Übersicht über Quantisierungstypen.
Die Modelldateien können mit dem ComfyUI-GGUF benutzerdefinierten Knoten verwendet werden.
Platziere Modelldateien in ComfyUI/models/unet - siehe das GitHub-Readme für weitere Installationsanweisungen.
Funktioniert auch mit Forge seit dem neuesten Commit!
☕ Kauf mir einen Kaffee: https://ko-fi.com/ralfingerai
🍺 Tritt meinem Discord bei: https://discord.com/invite/pAz4Bt3rqb
Modell-Details
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.

