marduk191s Flux.1 Kollektion - flux.1_dev_8x8
Empfohlene Parameter
vae
Tipps
Benutze die entsprechenden Flags für bf16 Upcasting bei der Optimierung auf GTX-Karten.
Versions-Highlights
Dev quantisiert auf 8 Bit mit einem 8 Bit T5 XXL Encoder.
Ersteller-Sponsoren
Für Flux Kontext siehe https://civitai.com/articles/16348/flux1-kontext-dev-quantized-models-available
Repository verfügbar unter https://huggingface.co/marduk191/Flux.1_collection/tree/main
Discord beitreten: https://discord.gg/s3kj9VqpKc
Spenden willkommen: https://ko-fi.com/marduk191
Ich habe eine kleine Sammlung von flux.1 Modellen zusammengestellt. Es gibt fp8 Modelle mit fp8 t5 und fp8 Modelle mit fp16 t5 sowohl für dev als auch schnell. Einzeldateien zur Verwendung mit dem regulären Checkpoint-Loader. Es sind jetzt auch fp16 Modelle verfügbar. Alle Modelle haben clip, t5 und vae eingebettet. DAS SIND ALLE ORIGINALE FLUX.1
Für Flux Kontext siehe hier https://civitai.com/articles/16348/flux1-kontext-dev-quantized-models-available
`
Diese verwenden alle bf16 Upcasting, benutze die entsprechenden Flags, falls du aus irgendeinem Grund auf GTX-Karten optimierst.
`
Vereinheitlichte Einzeldaten-Dateiversionen von flux.1 für ComfyUI. Alle Dateien enthalten eine eingebrannte VAE und clip L:
flux.1_dev_8x8_e4m3fn-marduk191.safetensors ist Flux.1 Dev quantisiert auf 8 Bit mit einem 8 Bit T5 XXL Encoder.
flux.1_dev_fp8_fp16t5-marduk191.safetensors ist Flux.1 Dev quantisiert auf 8 Bit mit einem 16 Bit T5 XXL Encoder.
flux.1_schnell_8x8_e4m3fn-marduk191.safetensors ist Flux.1 Schnell quantisiert auf 8 Bit mit einem 8 Bit T5 XXL Encoder.
flux.1_schnell_fp8_fp16t5-marduk191.safetensors ist Flux.1 Schnell quantisiert auf 8 Bit mit einem 16 Bit T5 XXL Encoder.
flux.1_dev_16x16-marduk191.safetensors Flux.1 Dev quantisiert auf 16 Bit mit einem 16 Bit T5 XXL Encoder.
flux.1_schnell_16x16-marduk191.safetensors Flux.1 Schnell quantisiert auf 16 Bit mit einem 16 Bit T5 XXL Encoder.
flux.1_dev_8x8_scaled-marduk191.safetensors ist Flux.1 Dev quantisiert auf 8 Bit mit skalierten stochastischen Gewichten und normalisierten Ausreißer-Alphas. Es verwendet einen 8 Bit skalierten stochastischen (Tag begrenzt um Verlust zu vermeiden) T5 XXL Encoder.
Workflow-Beispiele sind hier verfügbar: BALD
Repository ist hier: https://huggingface.co/marduk191/Flux.1_collection/tree/main
Discord: https://discord.gg/s3kj9VqpKc
Spenden willkommen: https://ko-fi.com/marduk191
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Trainierte Wörter
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.




