PixelWave - FLUX.1-dev 03
Parole Chiave e Tag Correlati
Parametri Consigliati
samplers
steps
cfg
resolution
vae
Parametri Consigliati per Alta Risoluzione
upscale
Suggerimenti
Puoi usare più passaggi per migliorare i dettagli più fini, ma l'output non cambia molto dopo 8 passaggi.
Se vuoi un output più ordinato/pulito, prova a incrementare la scala di guida (CFG).
Menzionare uno stile nel prompt può aiutare il modello a generare risultati migliori.
Prova ad aggiungere l'upscale latent per nodo, e scala il latent di 1.5 per generare immagini ad alta risoluzione.
Evita di usare termini di 'qualità' come 4K, 8K, capolavoro, alta definizione, alta qualità a meno che non sia necessario; può causare immagini troppo elaborate.
Per gli stili fotografici, evita termini come 'vibrante, intenso, brillante, alto contrasto, neon, drammatico' se desideri un aspetto naturale.
L'addestramento è stato fatto con kohya_ss/sd-scripts usando l'ottimizzatore pagedlion8bit.
Congelare i parametri 'time_in', 'vector_in' e modulazione ferma la 'de-distillazione'.
Evita di addestrare blocchi singoli oltre 15; imposta i blocchi da addestrare nella sezione FLUX.
Il learning rate 5e-6 addestra velocemente ma fermati dopo qualche migliaio di passi per evitare la corruzione dei blocchi.
Punti Salienti della Versione
Affinato per 5 settimane sulla mia 4090.
Sponsor del Creatore
Modello disponibile anche su: RunDiffusion e Runware.ai
Un enorme grazie a RunDiffusion per aver sponsorizzato il calcolo che ha reso possibile l'addestramento di questo modello!
Per accesso API, collabora con Runware.ai
PixelWave FLUX.1-schnell 04 - Apache 2.0!
File Safetensor: 💾BF16 💾FP8 💾bnb FP4
File GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Modello disponibile anche su: RunDiffusion e Runware.ai
PixelWave FLUX.1 schnell versione 04 è un affinamento estetico di FLUX.1-schnell. Le immagini usate per il training sono state scelte a mano per garantire un bias verso immagini accattivanti, con colori belli, texture e illuminazione.
Allenato sul modello schnell originale, quindi licenza Apache 2.0!
Nessun requisito speciale per l'esecuzione. Supporta FLUX LoRAs
Euler Normal, 8 passaggi.
Puoi usare più passaggi per migliorare i dettagli più fini, ma l'output non cambia molto dopo 8 passaggi.
Ringraziamenti a RunDiffusion
Un enorme grazie a RunDiffusion (co-creatori di Juggernaut) per aver sponsorizzato il calcolo che ha reso possibile l'addestramento di questo modello! Capire come allenare schnell senza de-distillare il modello ha richiesto molti esperimenti, e poter usare il cloud compute di RunDiffusion ha reso tutto molto più facile.
Per chi ha bisogno di accesso API per questo modello, collaboriamo con Runware.ai
Ho reso la versione FLUX.1-dev 04 esclusiva per RunDiffusion e Runware per ora. Quando rilascerò la versione 05 in futuro, prevedo di rendere pubblici i pesi dev 04.
Grato per il loro supporto nel far uscire questo modello, per favore date loro un'occhiata!
Addestramento
L'addestramento è stato fatto con kohya_ss/sd-scripts. Puoi trovare il mio fork di Kohya qui, che contiene anche modifiche al modulo sd-scripts; assicurati di clonare entrambi.
Usa la scheda fine tuning. Ho trovato i migliori risultati con l'ottimizzatore pagedlion8bit che può anche girare sulla mia GPU 4090 24GB. Altri ottimizzatori facevano fatica ad apprendere qualcosa.
Ho congelato i parametri time_in, vector_in e mod/modulation. Questo ferma la 'de-distillazione'.
Evito di addestrare blocchi singoli oltre 15. Puoi impostare quali blocchi addestrare nella sezione FLUX.
LR 5e-6 addestra velocemente, ma devi fermarti dopo qualche migliaio di passi perché inizia a corrompere i blocchi e rallentare l'apprendimento.
Puoi poi fare un block merge con un checkpoint precedente, sostituendo i blocchi corrotti, e continuare l'addestramento.
Segni di blocchi corrotti: texture a carta su molte immagini, perdita di dettagli sullo sfondo.
Contatti
Per richieste commerciali o di business, contattaci a pixelwave@rundiffusion.com. Licenze per flux fine tune. Progetti di addestramento personalizzati. Sviluppo commerciale AI. Il team può fare tutto!
PixelWave Flux.1-dev 03 raffinato!
File Safetensor: 💾BF16 💾FP8 💾NF4
File GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
I file 'diffusers' sono in realtà le versioni GGUF Q8_0 e Q4_K_M. File GGUF disponibili anche su Huggingface.
Ho affinato la versione 03 partendo da FLUX.1-dev per oltre 5 settimane sulla mia 4090. È capace di diversi stili artistici, fotografia e anime. Trucco che ho scoperto per aiutare con LoRAs.
Ho usato dpmpp 2m sgm uniform 30 passi per le immagini di presentazione. Se vuoi un output più ordinato/pulito, prova a incrementare la guida. Anche menzionare uno stile può aiutare, così il modello non deve indovinare.
Consiglio anche di aggiungere l'upscale latent per nodo, e scalare il latent di 1.5, ad es. generare un'immagine 1536x1536 invece di 1024x1024.
PixelWave Flux.1-schnell 03
File GGUF: vai su Huggingface
Ho usato dpmpp 2m sgm uniform 8 passi per le immagini di presentazione.
Puoi iniziare con 4 passi, ma ci sono meno errori di anatomia se usi più passi.
PixelWave Flux.1-dev 02
File GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
La versione 02 ha notevolmente migliorato immagini nere e scure, e output più affidabili con meno problemi alle mani.
Consiglio dpmpp_2s_ancestral, beta, 14 passi. O euler, simple, 20 passi.
PixelWave 11 SDXL. Modello a scopo generale affinato. Ottimo per stili artistici e fotografici.
Uso 20 passi, DPM++ SDE, CFG 4 a 6 oppure 40 passi, 2M SDE Karras
Versione accelerata - oltre 5 passi, DPM++ SDE Karras, 2.5 CFG
Consigliato PAG⚡Consiglio scala 1.5, con CFG 3. Link al workflow
⭐Guida al prompting.⭐ Non è necessario usare termini di 'qualità' come 4K, 8K, capolavoro, alta definizione, alta qualità, ecc. A meno che tu non voglia, consiglio di non usare parole come 'vibrante, intenso, brillante, alto contrasto, neon, drammatico' per stili fotografici se desideri un aspetto più naturale. Questo può far sembrare le immagini 'strapreparate', ma è solo il CLIP che segue il prompt. 🙂 Se invece vuoi foto vibranti e al neon, PixelWave li fornirà!
L'obiettivo della versione 10 era allenare i modelli CLIP, il che migliora l'affidabilità, ti assicura di poter generare una vasta gamma di stili e una migliore capacità di seguire i prompt.
Grazie ai miei amici che hanno aiutato nei test: masslevel, blink, socalguitarist, klinter, wizard whitebeard.
Guida: migliorare le immagini con LM Studio e Mikey Nodes
Guida: aggiungere dettagli alle immagini usando il metodo skip step
Non serve il modello refiner.
Questo modello non è una combinazione di altri modelli.
Ho anche creato Mikey Nodes che contiene molti nodi utili. Puoi installarlo tramite comfy manager.
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.





