Eine Frau im schwarzen Kleid liest ein Buch auf einem dunkelroten Samtsofa in einem gemütlichen, schwach beleuchteten Bibliotheksraum mit brennendem Kamin, Blumenbild und hohen Bücherregalen.
Tagesfoto einer vorstädtischen Nachbarschaft in Los Angeles, das einen weißen SUV zeigt, der vor Häusern und Palmen auf der Straße geparkt ist.
Junge Frau in kurzen Jeans und weißem Tanktop lehnt an einem roten Auto aus den 1950ern auf einer bunten kubanischen Straße in Havanna mit pastellfarbenen Mietshäusern.
Eine malerische Luftaufnahme einer römischen Stadt in einer hügeligen italienischen Landschaft mit trockenen unbefestigten Wegen im Vordergrund, Bergen im Hintergrund und dem Meer links unter klarem blauem Himmel.

Empfohlene Parameter

samplers

Euler Normal, dpmpp 2m sgm uniform, dpmpp_2s_ancestral, euler, DPM++ SDE, 2M SDE Karras, DPM++ SDE Karras, DPM++ 2M

steps

4 - 40

cfg

2.5 - 7

resolution

1024x1024, 1536x1536

vae

ae.safetensors - unknown

Empfohlene Hires (Hochauflösungs-) Parameter

upscale

1.5 - null

Tipps

Sie können mehr Schritte verwenden, um feinere Details zu verbessern, aber die Ausgabe ändert sich nach 8 Schritten kaum noch.

Für ein saubereres Ergebnis versuchen Sie, die Guidance-Skala (CFG) zu erhöhen.

Das Nennen eines Stils im Prompt kann dem Modell helfen, bessere Ergebnisse zu erzeugen.

Versuchen Sie, das Upscale latent per Node hinzuzufügen und latent auf 1,5 zu skalieren, um hochauflösendere Bilder zu generieren.

Vermeiden Sie die Verwendung von 'Qualitäts'-Begriffen wie 4K, 8K, Meisterwerk, High Def, hohe Qualität, es sei denn, es ist notwendig; kann Bilder überbearbeitet erscheinen lassen.

Für fotografische Stile vermeiden Sie Begriffe wie 'lebendig, intensiv, hell, hoher Kontrast, neon, dramatisch', wenn Sie einen natürlichen Look wünschen.

Das Training wurde mit kohya_ss/sd-scripts unter Verwendung des pagedlion8bit Optimizers durchgeführt.

Das Einfrieren der Parameter 'time_in', 'vector_in' und Modulation verhindert die 'De-Distillation'.

Vermeiden Sie das Training einzelner Blöcke über 15; setzen Sie die Trainingsblöcke im FLUX-Bereich.

Die Lernrate 5e-6 trainiert schnell, stoppen Sie jedoch nach einigen tausend Schritten, um Blockbeschädigungen zu vermeiden.

Versions-Highlights

Feinabgestimmt über 5 Wochen auf meiner 4090.

Ersteller-Sponsoren

Modell auch verfügbar bei: RunDiffusion und Runware.ai

Ein großes Dankeschön an RunDiffusion für die Förderung der Rechenleistung, die das Training dieses Modells ermöglicht hat!

Für API-Zugriff arbeiten wir mit Runware.ai zusammen

PixelWave FLUX.1-schnell 04 - Apache 2.0!

Safetensor Dateien: 💾BF16 💾FP8 💾bnb FP4

GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Links zu 🤗VAE 🤗T5xxl 🤗CLIP L

Modell auch verfügbar bei: RunDiffusion und Runware.ai

PixelWave FLUX.1 schnell Version 04 ist eine ästhetische Feinabstimmung von FLUX.1-schnell. Die Trainingsbilder wurden sorgfältig ausgewählt, damit das Modell eine Vorliebe für auffällige Bilder mit schönen Farben, Texturen und Beleuchtung hat.

  • Trainiert auf dem ursprünglichen schnell Modell, somit Apache 2.0 Lizenz!

  • Keine speziellen Anforderungen zum Ausführen. Unterstützt FLUX LoRAs

  • Euler Normal, 8 Schritte.

Sie können mehr Schritte verwenden, um feinere Details zu verbessern, aber die Ausgabe ändert sich nach 8 Schritten kaum noch.

Dank an RunDiffusion

Ein großes Dankeschön an RunDiffusion (Mitentwickler von Juggernaut) für die Bereitstellung der Rechenleistung, die das Training dieses Modells ermöglicht hat! Das Herausfinden, wie man schnell trainiert, ohne das Modell zu de-distillieren, erforderte viele Experimente, und die Nutzung der Cloud-Rechenleistung von RunDiffusion hat es deutlich erleichtert.

Für diejenigen, die API-Zugriff auf dieses Modell benötigen, arbeiten wir mit Runware.ai zusammen.

Ich habe die FLUX.1-dev 04 Version vorerst exklusiv für RunDiffusion und Runware bereitgestellt. Wenn ich Version 05 in Zukunft veröffentliche, plane ich, die dev 04 offenen Gewichte zu veröffentlichen.

Dankbar für ihre Unterstützung, um dieses Modell zugänglich zu machen, bitte schaut sie euch an!

Training

Das Training wurde mit kohya_ss/sd-scripts durchgeführt. Mein Fork von Kohya ist hier verfügbar, der auch Änderungen am sd-scripts Submodul enthält. Stellen Sie sicher, dass Sie beide klonen.

Verwenden Sie den Fine-Tuning-Tab. Die besten Ergebnisse erzielte ich mit dem pagedlion8bit Optimizer, der auch auf meiner 4090 GPU mit 24GB lief. Andere Optimizer hatten Schwierigkeiten, etwas zu lernen.

Ich habe die Parameter time_in, vector_in und mod/modulation eingefroren. Dies verhindert die 'De-Distillation'.

Ich vermeide es, einzelne Blöcke über 15 hinaus zu trainieren. Sie können einstellen, welche Blöcke im FLUX-Bereich trainiert werden sollen.

LR 5e-6 trainiert schnell, aber Sie sollten nach einigen tausend Schritten stoppen, da sonst Blöcke beschädigt werden und das Lernen langsamer wird.

Sie können dann Blockmerge mit einem früheren Checkpoint durchführen, beschädigte Blöcke ersetzen und das Training fortsetzen.

Anzeichen für beschädigte Blöcke: Papiertextur über den meisten Bildern, Verlust von Hintergrunddetails.

Kontakt

Für geschäftliche oder kommerzielle Anfragen kontaktieren Sie uns bitte unter pixelwave@rundiffusion.com. Lizenzierung von flux Feinabstimmungen. Kundenspezifische Trainingsprojekte. Kommerzielle KI-Entwicklung. Das Team kann alles!

PixelWave Flux.1-dev 03 feinabgestimmt!

Safetensor Dateien: 💾BF16 💾FP8 💾NF4

GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Links zu 🤗VAE 🤗T5xxl 🤗CLIP L

Die 'diffusers' Dateien sind tatsächlich die Q8_0 und Q4_K_M GGUF Versionen. GGUF Dateien sind ebenfalls auf huggingface verfügbar.

Ich habe Version 03 über 5 Wochen auf meiner 4090 feinabgestimmt. Es ist in der Lage, verschiedene Kunststile, Fotografie und Anime umzusetzen. Kniff, den ich entdeckt habe, um bei LoRAs zu helfen.

Ich habe dpmpp 2m sgm uniform 30 Schritte für die Showcase-Bilder verwendet. Wenn Sie ein saubereres Ergebnis möchten, erhöhen Sie die Guidance. Das Nennen eines Stils kann auch helfen, damit das Modell nicht raten muss.

Ich empfehle außerdem, das Upscale latent per Node hinzuzufügen und das latent auf 1,5 zu skalieren, z. B. ein Bild mit 1536x1536 anstelle von 1024x1024 zu generieren.

PixelWave Flux.1-schnell 03

Safetensor Dateien: 💾FP8 💾NF4

GGUF Dateien: gehe zu huggingface

Ich habe dpmpp 2m sgm uniform mit 8 Schritten für die Showcase-Bilder verwendet.

Sie können mit 4 Schritten starten, aber es gibt weniger Fehler in der Anatomie, wenn Sie mehr Schritte verwenden.

PixelWave Flux.1-dev 02

Safetensor Dateien: 💾BF16 💾FP8

GGUF Dateien: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Version 02 hat schwarz-dunkle Bilder stark verbessert und zuverlässigere Ergebnisse mit weniger Problemen bei Händen.

Ich empfehle dpmpp_2s_ancestral, beta, 14 Schritte. Oder Euler, einfach, 20 Schritte.

Comfyui-GGUF Nodes

PixelWave 11 SDXL. Ein universell einsetzbares feinabgestimmtes Modell. Ideal für Kunst- und Fotostile.

Ich benutze 20 Schritte, DPM++ SDE, CFG 4 bis 6 oder 40 Schritte, 2M SDE Karras

Beschleunigte Version - 5+ Schritte, DPM++ SDE Karras, 2.5 CFG

PAG empfohlen⚡Empfohlen Maßstab 1,5, mit CFG 3. Link zum Workflow

🔗Link zur erweiterten Galerie 🖼️

Leitfaden zum Prompting.⭐ Sie müssen keine 'Qualitäts'-Begriffe wie 4K, 8K, Meisterwerk, High Def, hohe Qualität usw. verwenden. Es sei denn, Sie möchten es. Ich empfehle, bei fotografischen Stilen Wörter wie 'lebendig, intensiv, hell, hoher Kontrast, Neon, dramatisch' zu vermeiden, wenn Sie einen natürlicheren Look wünschen. Dies kann Bilder "überarbeitet" wirken lassen, aber es ist lediglich CLIP, das Ihrem Prompt folgt. 🙂 Wenn Sie jedoch lebendige, neonfarbene Fotos möchten, liefert PixelWave sie!

Der Fokus der Version 10 lag auf dem Training der CLIP-Modelle, was die Zuverlässigkeit verbessert, sicherstellt, dass eine Vielzahl von Stilen produziert werden kann und besseres Befolgen der Prompts ermöglicht.

Danke an meine Freunde, die beim Testen geholfen haben: masslevel, blink, socalguitarist, klinter, wizard whitebeard.

Leitfaden: Hochskalieren von Prompts mit LM Studio und Mikey Nodes

Leitfaden: Mehr Details zum Bild hinzufügen mithilfe der Skip-Step-Methode

Kein Refiner-Modell nötig.

Dieses Modell ist keine Mischung aus anderen Modellen.

Ich habe außerdem Mikey Nodes erstellt, die viele nützliche Nodes enthalten. Sie können es über den Comfy Manager installieren.

Zurück
Artify´s Fantastic Flux Landscape Lora - artilands_v1.0
Weiter
Project0* - v4.0 Art_Realism_FP8

Modell-Details

Modelltyp

Checkpoint

Basismodell

Flux.1 D

Modellversion

FLUX.1-dev 03

Modell-Hash

49b429b788

Ersteller

Diskussion

Bitte log in um einen Kommentar zu hinterlassen.

Bilder von PixelWave - FLUX.1-dev 03

Bilder mit Anime

Bilder mit Basismodell

Bilder mit digitale Kunst

Bilder mit Fotografie

Bilder mit traditionelle Kunst