PixelWave - FLUX.1-dev 03
Powiązane słowa kluczowe i tagi
Zalecane parametry
samplers
steps
cfg
resolution
vae
Zalecane parametry wysokiej rozdzielczości
upscale
Wskazówki
Możesz użyć więcej kroków, aby poprawić drobne detale, ale efekty nie zmieniają się znacząco po 8 krokach.
Jeśli chcesz bardziej schludny/wyraźny output, spróbuj zwiększyć skalę guidance (CFG).
Wspomnienie stylu w prompt może pomóc modelowi generować lepsze wyniki.
Spróbuj dodać upscale latent przez node i skalować latent o 1.5, aby generować obrazy w wyższej rozdzielczości.
Unikaj używania terminów "quality" takich jak 4K, 8K, arcydzieło, wysokiej rozdzielczości, wysoka jakość, chyba że jest to konieczne; może to powodować, że obrazy wyglądają na przesmażone.
Dla stylów fotograficznych unikaj słów takich jak "żywy, intensywny, jasny, wysoki kontrast, neon, dramatyczny", jeśli chcesz naturalny wygląd.
Trening przeprowadzono za pomocą kohya_ss/sd-scripts, używając optymalizatora pagedlion8bit.
Zamrożenie parametrów 'time_in', 'vector_in' i modulacji zatrzymuje 'de-distillation'.
Unikaj trenowania pojedynczych bloków powyżej 15; ustaw bloki do trenowania w sekcji FLUX.
Współczynnik nauki 5e-6 uczy szybko, ale zatrzymaj po kilku tysiącach kroków, by uniknąć uszkodzenia bloków.
Najważniejsze informacje o wersji
Dopracowany przez 5 tygodni na mojej 4090.
Sponsorzy twórcy
Model dostępny również na: RunDiffusion i Runware.ai
Wielkie podziękowania dla RunDiffusion za sponsorowanie mocy obliczeniowej potrzebnej do trenowania tego modelu!
Dla dostępu do API współpracujemy z Runware.ai
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Pliki Safetensor: 💾BF16 💾FP8 💾bnb FP4
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Model dostępny również na: RunDiffusion oraz Runware.ai
PixelWave FLUX.1 schnell wersja 04 to estetyczne dostrojenie FLUX.1-schnell. Obrazy treningowe zostały ręcznie wyselekcjonowane, aby zapewnić, że model ma skłonność do przyciągających wzrok obrazów z pięknymi kolorami, teksturami i oświetleniem.
Trenowany na oryginalnym modelu schnell, więc licencja Apache 2.0!
Bez specjalnych wymagań do uruchomienia. Wspiera FLUX LoRA
Euler Normal, 8 kroków.
Można użyć więcej kroków, aby poprawić drobne detale, ale efekty nie zmieniają się znacząco po 8 krokach.
Podziękowania dla RunDiffusion
Wielkie podziękowania dla RunDiffusion (współtwórców Juggernauta) za sponsorowanie mocy obliczeniowej, dzięki której możliwe było trenowanie tego modelu! Opracowanie sposobu trenowania schnell bez de-destylacji modelu wymagało wielu eksperymentów, a możliwość korzystania z chmury obliczeniowej RunDiffusion znacznie to ułatwiła.
Dla osób potrzebujących dostępu do API tego modelu, nawiązaliśmy współpracę z Runware.ai
Wersję FLUX.1-dev 04 udostępniam na wyłączność RunDiffusion i Runware na razie. Gdy wypuszczę wersję 05 w przyszłości, planuję udostępnić otwarte wagi dev 04.
Jestem wdzięczny za ich wsparcie w udostępnieniu tego modelu, proszę zajrzyjcie do nich!
Trening
Trening przeprowadzono za pomocą kohya_ss/sd-scripts. Możesz znaleźć moją wersję Kohya tutaj, która zawiera też zmiany w podmodule sd-scripts, upewnij się, że sklonujesz oba.
Używaj zakładki fine tuning. Najlepsze wyniki uzyskałem z optymalizatorem pagedlion8bit, który działał też na mojej karcie 4090 24GB. Inne optymalizatory miały problemy z nauką.
Zamroziłem parametry time_in, vector_in oraz mod/modulation. To zatrzymuje "de-distillation".
Unikam trenowania pojedynczych bloków powyżej 15. Możesz ustawić, które bloki trenować w sekcji FLUX.
LR 5e-6 uczy szybko, ale należy zatrzymać po kilku tysiącach kroków, by uniknąć uszkodzenia bloków i spowolnienia nauki.
Możesz następnie połączyć bloki z wcześniejszym checkpointem, zastępując uszkodzone bloki i kontynuować trening dalej.
Objawy uszkodzonych bloków: tekstura papieru na większości obrazów, utrata detali tła.
Kontakt
W sprawach biznesowych lub komercyjnych prosimy o kontakt pod adresem pixelwave@rundiffusion.com. Licencjonowanie dostrojonych Flux, projekty treningu dla klientów, komercyjny rozwój AI. Zespół potrafi to wszystko!
PixelWave Flux.1-dev 03 dopracowany!
Pliki Safetensor: 💾BF16 💾FP8 💾NF4
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Pliki 'diffusers' to faktycznie wersje GGUF Q8_0 i Q4_K_M. Pliki GGUF dostępne również na huggingface.
Dopracowywałem wersję 03 na bazie FLUX.1-dev przez ponad 5 tygodni na mojej 4090. Potrafi tworzyć różne style artystyczne, fotografie oraz anime. Trik, który odkryłem, ułatwiający pracę z LoRAs.
Do zdjęć pokazowych użyłem dpmpp 2m sgm jednolity 30 kroków. Jeśli chcesz bardziej schludny/wyraźny output, spróbuj zwiększyć skalę guidance. Wspomnienie stylu w prompt pomaga, więc model nie musi zgadywać.
Polecam też dodać upscale latent przez node i skalować latent o 1.5, np. generując obraz 1536x1536 zamiast 1024x1024.
PixelWave Flux.1-schnell 03
Pliki GGUF: przejdź do huggingface
Do zdjęć pokazowych użyłem dpmpp 2m sgm jednolity, 8 kroków.
Można zacząć od 4 kroków, ale mniejsze błędy anatomiczne pojawiają się przy większej liczbie kroków.
PixelWave Flux.1-dev 02
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Wersja 02 znacznie poprawiła czarne i ciemne obrazy oraz daje bardziej niezawodne wyniki z mniejszą liczbą problemów z dłońmi.
Zalecam użycie dpmpp_2s_ancestral, beta, 14 kroków lub euler, simple, 20 kroków.
PixelWave 11 SDXL. Uniwersalny, dopracowany model. Świetny do stylów artystycznych i fotograficznych.
Używam 20 kroków, DPM++ SDE, CFG 4 do 6 lub 40 kroków, 2M SDE Karras
Wersja przyspieszona - 5+ kroków, DPM++ SDE Karras, 2.5 CFG
Zalecane PAG⚡Zalecana skala 1.5, z CFG 3. Link do workflow
🔗Link do rozszerzonej galerii 🖼️
⭐Poradnik do promptowania.⭐ Nie musisz używać terminów typu „quality” takich jak 4K, 8K, arcydzieło, wysokiej rozdzielczości, wysoka jakość, itp. Jeśli nie chcesz, nie polecam używania słów jak „żywy, intensywny, jasny, wysoki kontrast, neon, dramatyczny” dla stylów fotograficznych, jeśli chcesz naturalny wygląd. To może powodować, że obrazy wyglądają na „przesmażone”, ale to tylko CLIP podążający za twoim promptem. 🙂 Jeśli jednak chcesz żywe, neonowe zdjęcia, PixelWave je dostarczy!
Głównym celem wersji 10 było trenowanie modeli CLIP, co poprawia niezawodność, zapewnia możliwość generowania szerokiej gamy stylów i lepsze podążanie za promptami.
Dzięki moim przyjaciołom, którzy pomagali testować: masslevel, blink, socalguitarist, klinter, wizard whitebeard.
Poradnik: Skalowanie promptów z LM Studio i Mikey Nodes
Poradnik: Dodaj więcej detali do obrazu używając metody pomijania kroków
Nie ma potrzeby używania modelu refiner.
Ten model nie jest mieszanką innych modeli.
Stworzyłem też Mikey Nodes, które zawierają wiele przydatnych node'ów. Można je zainstalować przez comfy manager.
Szczegóły modelu
Typ modelu
Model bazowy
Wersja modelu
Hash modelu
Twórca
Dyskusja
Proszę się log in, aby dodać komentarz.





