PixelWave - FLUX.1-schnell 04
Verwandte Schlüsselwörter & Tags
Empfohlene Parameter
samplers
steps
cfg
resolution
vae
Empfohlene Hires (Hochauflösungs-) Parameter
upscale
Tipps
Verwenden Sie mehr als 8 Schritte, um feinere Details zu verbessern, das Ergebnis ändert sich jedoch nach 8 Schritten kaum noch.
Das Hinzufügen von Stil-Prompts kann dem Modell helfen, ein saubereres und ordentlicheres Ergebnis zu erzeugen.
Versuchen Sie, die Guidance Scale zu erhöhen, um klarere Bilder zu erhalten.
Vermeiden Sie die Verwendung von 'Qualitäts'-Begriffen wie 4K, 8K, Meisterwerk, HD, wenn Sie einen natürlichen Look in der Fotografie wünschen.
Für Upscaling versuchen Sie, latent nach Knoten zu skalieren und latent um den Faktor 1,5 zu vergrößern, um Bilder mit höherer Auflösung zu erzeugen.
Verwenden Sie den pagedlion8bit Optimizer für das Training auf einer 24GB GPU, eingefrorene time_in, vector_in und Modulationsparameter zur Verhinderung von De-Distillation.
Stoppen Sie das Training nach einigen tausend Schritten mit LR 5e-6, um korrupte Blöcke zu vermeiden, und führen Sie ein Block-Merge mit früheren Checkpoints durch, um die Korruption zu beheben.
Versions-Highlights
Feinabstimmung des schnell Modells, verwendet das dev Modell in keiner Weise. Apache 2.0 Lizenz!
Trainiert mit kohya unter Verwendung eines benutzerdefinierten Sigma-Zeitplans und Einfrieren der Zeit- und Modulationsparameter, um eine Verschlechterung der Zeitdistillation zu verhindern.
➤ Kombinierte Trainingsschritte: 1.360.641
➤ Aktive Trainingszeit: 1192,61 Stunden (49,7 Tage)
Ersteller-Sponsoren
Modell auch verfügbar bei: RunDiffusion und Runware.ai
Ein großes Dankeschön an RunDiffusion für die Bereitstellung der Rechenleistung für das Training dieses Modells!
Für API-Zugriff sehen Sie sich Runware.ai an.
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Safetensor Dateien: 💾BF16 💾FP8 💾bnb FP4
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Modell auch verfügbar bei: RunDiffusion und Runware.ai
PixelWave FLUX.1 schnell Version 04 ist ein ästhetisches Feintuning von FLUX.1-schnell. Die Trainingsbilder wurden sorgfältig ausgewählt, um sicherzustellen, dass das Modell eine Vorliebe für auffällige Bilder mit schönen Farben, Texturen und Beleuchtung hat.
Trainiert auf dem Original schnell Modell, daher Apache 2.0 Lizenz!
Keine besonderen Anforderungen für den Betrieb. Unterstützt FLUX LoRAs
Euler Normal, 8 Schritte.
Sie können mehr Schritte verwenden, um feinere Details zu verbessern, aber das Ergebnis ändert sich nach 8 Schritten kaum noch.
Dank an RunDiffusion
Ein großes Dankeschön an RunDiffusion (Mitentwickler von Juggernaut) für die Bereitstellung der Rechenleistung, die das Training dieses Modells ermöglicht hat! Herauszufinden, wie man schnell trainiert, ohne das Modell zu destabilisieren, erforderte viele Experimente, und die Nutzung von RunDiffusions Cloud-Computing machte es viel einfacher.
Für alle, die API-Zugang zu diesem Modell benötigen, arbeiten wir mit Runware.ai zusammen.
Ich habe die FLUX.1-dev Version 04 vorerst exklusiv für RunDiffusion und Runware freigegeben. Wenn ich Version 05 in der Zukunft veröffentliche, plane ich, die dev 04 offenen Gewichte freizugeben.
Dankbar für ihre Unterstützung, dieses Modell zu veröffentlichen, bitte schaut bei ihnen vorbei!
Training
Das Training wurde mit kohya_ss/sd-scripts durchgeführt. Mein Fork von Kohya hier enthält auch Änderungen am sd-scripts Submodul, stellen Sie sicher, dass Sie beide klonen.
Verwenden Sie den Feintuning-Tab. Die besten Ergebnisse erzielte ich mit dem pagedlion8bit Optimizer, der auch auf meiner 4090 GPU mit 24GB lief. Andere Optimizer hatten Schwierigkeiten, etwas zu lernen.
Ich habe die Parameter time_in, vector_in und mod/modulation eingefroren. Dies verhindert das „De-Distilling“.
Ich vermeide es, einzelne Blöcke über 15 zu trainieren. Sie können die zu trainierenden Blöcke im FLUX-Bereich einstellen.
LR 5e-6 trainiert schnell, aber Sie müssen nach ein paar tausend Schritten stoppen, da sonst die Blöcke korrupt werden und das Lernen langsamer wird.
Sie können dann mit einem früheren Checkpoint die Blöcke zusammenführen, um die korrupten Blöcke zu ersetzen und das Training fortzusetzen.
Anzeichen für korrupte Blöcke: Papiertextur über den meisten Bildern, Verlust von Hintergrunddetails.
Kontakt
Für geschäftliche oder kommerzielle Anfragen kontaktieren Sie uns bitte unter pixelwave@rundiffusion.com. Lizenzierung von Flux Feintuning, Kundentrainingsprojekte, kommerzielle KI-Entwicklung. Das Team kann alles!
PixelWave Flux.1-dev 03 feingetunt!
Safetensor Dateien: 💾BF16 💾FP8 💾NF4
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Die 'diffusers' Dateien sind tatsächlich die Q8_0 und Q4_K_M GGUF Versionen. GGUF Dateien auch auf Huggingface verfügbar.
Ich habe Version 03 von FLUX.1-dev Basisversion über 5 Wochen auf meiner 4090 feingetunt. Es kann verschiedene Kunststile, Fotografie und Anime abdecken. Trick, den ich entdeckt habe, um bei LoRAs zu helfen.
Ich habe dpmpp 2m sgm uniform 30 Schritte für die Beispielbilder verwendet. Wenn Sie ein saubereres Ergebnis möchten, versuchen Sie, die Führung zu erhöhen. Die Angabe eines Stils kann auch helfen, damit das Modell nicht raten muss.
Ich empfehle auch, das Latent mit dem Knoten zu skalieren und das Latent um den Faktor 1,5 zu vergrößern, z.B. Bilder mit 1536x1536 anstatt 1024x1024 zu erzeugen.
PixelWave Flux.1-schnell 03
GGUF Dateien: zu huggingface
Ich habe dpmpp 2m sgm uniform mit 8 Schritten für die Beispielbilder verwendet.
Sie können mit 4 Schritten starten, aber es gibt weniger Fehler bei der Anatomie, wenn Sie mit mehr Schritten arbeiten.
PixelWave Flux.1-dev 02
Safetensor Dateien: 💾BF16 💾FP8
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Version 02 hat stark verbesserte schwarze und dunkle Bilder sowie zuverlässigere Ergebnisse mit weniger Problemen bei Händen.
Ich empfehle die Verwendung von dpmpp_2s_ancestral, beta, 14 Schritte. Oder Euler, einfach, 20 Schritte.
PixelWave 11 SDXL. Ein universell feingetuntes Modell. Ideal für Kunst- und Fotostile.
Ich verwende 20 Schritte, DPM++ SDE, CFG 4 bis 6 oder 40 Schritte, 2M SDE Karras
Beschleunigte Version - 5+ Schritte, DPM++ SDE Karras, 2.5 CFG
PAG empfohlen⚡Empfehlung 1,5 Skala, mit CFG 3. Link zum Workflow
🔗Link zur erweiterten Galerie 🖼️
⭐Link zur Prompting-Anleitung.⭐ Sie müssen keine 'Qualitäts'-Begriffe wie 4K, 8K, Meisterwerk, HD, hohe Qualität usw. verwenden. Es sei denn, Sie wünschen es. Ich empfehle, Wörter wie 'lebendig, intensiv, hell, hoher Kontrast, Neon, dramatisch' für fotografische Stile zu vermeiden, wenn Sie einen natürlicheren Look wollen. Dies kann dazu führen, dass Bilder 'überkocht' aussehen, aber das ist nur das CLIP, das Ihrem Prompt folgt. 🙂 Wenn Sie lebendige, neonartige Fotos möchten, liefert PixelWave diese!
Der Fokus für Version 10 lag darauf, die CLIP-Modelle zu trainieren, was die Zuverlässigkeit verbessert, sicherstellt, dass Sie eine breite Palette von Stilen erzeugen können, und besser im Befolgen von Prompts ist.
Danke an meine Freunde, die beim Testen geholfen haben: masslevel, blink, socalguitarist, klinter, wizard whitebeard.
Anleitung: Upscaling Prompts mit LM Studio und Mikey Nodes
Anleitung: Mehr Details zu Ihrem Bild mit der Skip-Step-Methode hinzufügen
Kein Bedarf für das Refiner-Modell.
Dieses Modell ist keine Mischung aus anderen Modellen.
Ich habe auch Mikey Nodes erstellt, die viele nützliche Nodes enthält. Sie können es über Comfy Manager installieren.
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.





