PixelWave - FLUX.1-dev 03
Verwandte Schlüsselwörter & Tags
Empfohlene Parameter
samplers
steps
cfg
resolution
vae
Empfohlene Hires (Hochauflösungs-) Parameter
upscale
Tipps
Sie können mehr Schritte verwenden, um feinere Details zu verbessern, aber die Ausgabe ändert sich nach 8 Schritten kaum noch.
Für ein saubereres Ergebnis versuchen Sie, die Guidance-Skala (CFG) zu erhöhen.
Das Nennen eines Stils im Prompt kann dem Modell helfen, bessere Ergebnisse zu erzeugen.
Versuchen Sie, das Upscale latent per Node hinzuzufügen und latent auf 1,5 zu skalieren, um hochauflösendere Bilder zu generieren.
Vermeiden Sie die Verwendung von 'Qualitäts'-Begriffen wie 4K, 8K, Meisterwerk, High Def, hohe Qualität, es sei denn, es ist notwendig; kann Bilder überbearbeitet erscheinen lassen.
Für fotografische Stile vermeiden Sie Begriffe wie 'lebendig, intensiv, hell, hoher Kontrast, neon, dramatisch', wenn Sie einen natürlichen Look wünschen.
Das Training wurde mit kohya_ss/sd-scripts unter Verwendung des pagedlion8bit Optimizers durchgeführt.
Das Einfrieren der Parameter 'time_in', 'vector_in' und Modulation verhindert die 'De-Distillation'.
Vermeiden Sie das Training einzelner Blöcke über 15; setzen Sie die Trainingsblöcke im FLUX-Bereich.
Die Lernrate 5e-6 trainiert schnell, stoppen Sie jedoch nach einigen tausend Schritten, um Blockbeschädigungen zu vermeiden.
Versions-Highlights
Feinabgestimmt über 5 Wochen auf meiner 4090.
Ersteller-Sponsoren
Modell auch verfügbar bei: RunDiffusion und Runware.ai
Ein großes Dankeschön an RunDiffusion für die Förderung der Rechenleistung, die das Training dieses Modells ermöglicht hat!
Für API-Zugriff arbeiten wir mit Runware.ai zusammen
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Safetensor Dateien: 💾BF16 💾FP8 💾bnb FP4
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Modell auch verfügbar bei: RunDiffusion und Runware.ai
PixelWave FLUX.1 schnell Version 04 ist eine ästhetische Feinabstimmung von FLUX.1-schnell. Die Trainingsbilder wurden sorgfältig ausgewählt, damit das Modell eine Vorliebe für auffällige Bilder mit schönen Farben, Texturen und Beleuchtung hat.
Trainiert auf dem ursprünglichen schnell Modell, somit Apache 2.0 Lizenz!
Keine speziellen Anforderungen zum Ausführen. Unterstützt FLUX LoRAs
Euler Normal, 8 Schritte.
Sie können mehr Schritte verwenden, um feinere Details zu verbessern, aber die Ausgabe ändert sich nach 8 Schritten kaum noch.
Dank an RunDiffusion
Ein großes Dankeschön an RunDiffusion (Mitentwickler von Juggernaut) für die Bereitstellung der Rechenleistung, die das Training dieses Modells ermöglicht hat! Das Herausfinden, wie man schnell trainiert, ohne das Modell zu de-distillieren, erforderte viele Experimente, und die Nutzung der Cloud-Rechenleistung von RunDiffusion hat es deutlich erleichtert.
Für diejenigen, die API-Zugriff auf dieses Modell benötigen, arbeiten wir mit Runware.ai zusammen.
Ich habe die FLUX.1-dev 04 Version vorerst exklusiv für RunDiffusion und Runware bereitgestellt. Wenn ich Version 05 in Zukunft veröffentliche, plane ich, die dev 04 offenen Gewichte zu veröffentlichen.
Dankbar für ihre Unterstützung, um dieses Modell zugänglich zu machen, bitte schaut sie euch an!
Training
Das Training wurde mit kohya_ss/sd-scripts durchgeführt. Mein Fork von Kohya ist hier verfügbar, der auch Änderungen am sd-scripts Submodul enthält. Stellen Sie sicher, dass Sie beide klonen.
Verwenden Sie den Fine-Tuning-Tab. Die besten Ergebnisse erzielte ich mit dem pagedlion8bit Optimizer, der auch auf meiner 4090 GPU mit 24GB lief. Andere Optimizer hatten Schwierigkeiten, etwas zu lernen.
Ich habe die Parameter time_in, vector_in und mod/modulation eingefroren. Dies verhindert die 'De-Distillation'.
Ich vermeide es, einzelne Blöcke über 15 hinaus zu trainieren. Sie können einstellen, welche Blöcke im FLUX-Bereich trainiert werden sollen.
LR 5e-6 trainiert schnell, aber Sie sollten nach einigen tausend Schritten stoppen, da sonst Blöcke beschädigt werden und das Lernen langsamer wird.
Sie können dann Blockmerge mit einem früheren Checkpoint durchführen, beschädigte Blöcke ersetzen und das Training fortsetzen.
Anzeichen für beschädigte Blöcke: Papiertextur über den meisten Bildern, Verlust von Hintergrunddetails.
Kontakt
Für geschäftliche oder kommerzielle Anfragen kontaktieren Sie uns bitte unter pixelwave@rundiffusion.com. Lizenzierung von flux Feinabstimmungen. Kundenspezifische Trainingsprojekte. Kommerzielle KI-Entwicklung. Das Team kann alles!
PixelWave Flux.1-dev 03 feinabgestimmt!
Safetensor Dateien: 💾BF16 💾FP8 💾NF4
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Die 'diffusers' Dateien sind tatsächlich die Q8_0 und Q4_K_M GGUF Versionen. GGUF Dateien sind ebenfalls auf huggingface verfügbar.
Ich habe Version 03 über 5 Wochen auf meiner 4090 feinabgestimmt. Es ist in der Lage, verschiedene Kunststile, Fotografie und Anime umzusetzen. Kniff, den ich entdeckt habe, um bei LoRAs zu helfen.
Ich habe dpmpp 2m sgm uniform 30 Schritte für die Showcase-Bilder verwendet. Wenn Sie ein saubereres Ergebnis möchten, erhöhen Sie die Guidance. Das Nennen eines Stils kann auch helfen, damit das Modell nicht raten muss.
Ich empfehle außerdem, das Upscale latent per Node hinzuzufügen und das latent auf 1,5 zu skalieren, z. B. ein Bild mit 1536x1536 anstelle von 1024x1024 zu generieren.
PixelWave Flux.1-schnell 03
GGUF Dateien: gehe zu huggingface
Ich habe dpmpp 2m sgm uniform mit 8 Schritten für die Showcase-Bilder verwendet.
Sie können mit 4 Schritten starten, aber es gibt weniger Fehler in der Anatomie, wenn Sie mehr Schritte verwenden.
PixelWave Flux.1-dev 02
Safetensor Dateien: 💾BF16 💾FP8
GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Version 02 hat schwarz-dunkle Bilder stark verbessert und zuverlässigere Ergebnisse mit weniger Problemen bei Händen.
Ich empfehle dpmpp_2s_ancestral, beta, 14 Schritte. Oder Euler, einfach, 20 Schritte.
PixelWave 11 SDXL. Ein universell einsetzbares feinabgestimmtes Modell. Ideal für Kunst- und Fotostile.
Ich benutze 20 Schritte, DPM++ SDE, CFG 4 bis 6 oder 40 Schritte, 2M SDE Karras
Beschleunigte Version - 5+ Schritte, DPM++ SDE Karras, 2.5 CFG
PAG empfohlen⚡Empfohlen Maßstab 1,5, mit CFG 3. Link zum Workflow
🔗Link zur erweiterten Galerie 🖼️
⭐Leitfaden zum Prompting.⭐ Sie müssen keine 'Qualitäts'-Begriffe wie 4K, 8K, Meisterwerk, High Def, hohe Qualität usw. verwenden. Es sei denn, Sie möchten es. Ich empfehle, bei fotografischen Stilen Wörter wie 'lebendig, intensiv, hell, hoher Kontrast, Neon, dramatisch' zu vermeiden, wenn Sie einen natürlicheren Look wünschen. Dies kann Bilder "überarbeitet" wirken lassen, aber es ist lediglich CLIP, das Ihrem Prompt folgt. 🙂 Wenn Sie jedoch lebendige, neonfarbene Fotos möchten, liefert PixelWave sie!
Der Fokus der Version 10 lag auf dem Training der CLIP-Modelle, was die Zuverlässigkeit verbessert, sicherstellt, dass eine Vielzahl von Stilen produziert werden kann und besseres Befolgen der Prompts ermöglicht.
Danke an meine Freunde, die beim Testen geholfen haben: masslevel, blink, socalguitarist, klinter, wizard whitebeard.
Leitfaden: Hochskalieren von Prompts mit LM Studio und Mikey Nodes
Leitfaden: Mehr Details zum Bild hinzufügen mithilfe der Skip-Step-Methode
Kein Refiner-Modell nötig.
Dieses Modell ist keine Mischung aus anderen Modellen.
Ich habe außerdem Mikey Nodes erstellt, die viele nützliche Nodes enthalten. Sie können es über den Comfy Manager installieren.
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.





