PixelWave - FLUX.1-schnell 04
Powiązane słowa kluczowe i tagi
Zalecane parametry
samplers
steps
cfg
resolution
vae
Zalecane parametry wysokiej rozdzielczości
upscale
Wskazówki
Użyj więcej niż 8 kroków, aby poprawić drobne detale, ale wynik nie zmienia się znacząco po 8 krokach.
Dodanie promptów stylu może pomóc modelowi wygenerować bardziej schludny i czysty efekt.
Spróbuj zwiększyć skalę guidance, aby uzyskać czystsze obrazy.
Unikaj używania terminów 'jakość' takich jak 4K, 8K, arcydzieło, wysoka rozdzielczość, jeśli chcesz naturalny wygląd w fotografii.
Do skalowania spróbuj upscale latent po node i skaluj latent o 1.5, by uzyskać obrazy o wyższej rozdzielczości.
Używaj optymalizatora pagedlion8bit do treningu na karcie 24GB, zamroź parametry time_in, vector_in oraz modulacji, aby zapobiec de-destylacji.
Zakończ trening po kilku tysiącach kroków przy LR 5e-6, aby uniknąć uszkodzonych bloków i scalaj bloki z wcześniejszych checkpointów, aby naprawić uszkodzenia.
Najważniejsze informacje o wersji
Dostrojenie modelu schnell, bez użycia modelu dev w jakikolwiek sposób. Licencja Apache 2.0!
Trenowany z kohya z użyciem niestandardowego harmonogramu sigma oraz zamrożeniem parametrów czasu i modulacji, by zapobiec degradacji destylacji czasu.
➤ Suma kroków treningu : 1 360 641
➤ Aktywny czas treningu: 1192,61 godzin (49,7 dni)
Sponsorzy twórcy
Model dostępny również na: RunDiffusion oraz Runware.ai
Wielkie podziękowania dla RunDiffusion za sponsoring mocy obliczeniowej potrzebnej do treningu tego modelu!
Dla dostępu API sprawdź Runware.ai.
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Pliki Safetensor: 💾BF16 💾FP8 💾bnb FP4
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Model dostępny również na: RunDiffusion oraz Runware.ai
PixelWave FLUX.1 schnell wersja 04 to estetyczne dostrojenie FLUX.1-schnell. Obrazy treningowe zostały ręcznie wybrane, aby zapewnić, że model ma skłonność do przyciągających uwagę obrazów z pięknymi kolorami, teksturami i oświetleniem.
Trenowany na oryginalnym modelu schnell, więc licencja Apache 2.0!
Brak specjalnych wymagań do uruchomienia. Wspiera FLUX LoRAs
Euler Normal, 8 kroków.
Możesz użyć większej liczby kroków, aby poprawić drobne detale, ale wyjście niewiele się zmienia po 8 krokach.
Podziękowania dla RunDiffusion
Wielkie podziękowania dla RunDiffusion (współtwórców Juggernaut) za sponsoring mocy obliczeniowej, która umożliwiła trening tego modelu! Opracowanie sposobu trenowania schnell bez de-destylacji modelu wymagało wielu eksperymentów, a możliwość wykorzystania chmurowych zasobów RunDiffusion znacznie to ułatwiła.
Dla osób potrzebujących dostępu do API tego modelu, współpracujemy z Runware.ai
Wersję FLUX.1-dev 04 uczyniłem na razie ekskluzywną dla RunDiffusion i Runware. Po wydaniu wersji 05 w przyszłości planuję udostępnić otwarte wagi dev 04.
Wdzięczny za ich wsparcie w wypuszczeniu tego modelu, proszę sprawdź ich!
Trenowanie
Trenowanie odbywało się za pomocą kohya_ss/sd-scripts. Możesz znaleźć mój fork Kohya tutaj, który zawiera także zmiany w submodule sd-scripts, upewnij się, że sklonujesz oba.
Używaj zakładki fine tuning. Najlepsze wyniki osiągnąłem z optymalizatorem pagedlion8bit, który działał na mojej karcie 4090 GPU 24GB. Inne optymalizatory miały trudności z nauką.
Zamroziłem parametry time_in, vector_in oraz mod/modulację, co zatrzymuje 'de-destylację'.
Unikam trenowania pojedynczych bloków powyżej 15. Możesz ustawić, które bloki trenować w sekcji FLUX.
LR 5e-6 szybko trenuje, ale musisz przerwać trening po kilku tysiącach kroków, ponieważ zaczyna uszkadzać bloki i spowalniać naukę.
Możesz wtedy połączyć bloki z wcześniejszego checkpointa, zastępując uszkodzone i kontynuować trening.
Objawy uszkodzonych bloków: tekstura papieru na większości obrazów, utrata detali tła.
Kontakt
W sprawach biznesowych lub komercyjnych prosimy o kontakt pod adresem pixelwave@rundiffusion.com. Licencjonowanie doprawek flux, projekty szkoleniowe dla klientów, komercyjny rozwój AI. Zespół potrafi to wszystko!
PixelWave Flux.1-dev 03 dopracowany!
Pliki Safetensor: 💾BF16 💾FP8 💾NF4
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Pliki 'diffusers' to w rzeczywistości wersje GGUF Q8_0 i Q4_K_M. Pliki GGUF dostępne także na huggingface.
Dopracowywałem wersję 03 z bazowego FLUX.1-dev przez ponad 5 tygodni na mojej 4090. Jest w stanie tworzyć różne style sztuki, fotografii oraz anime. Odkryty trik pomagający z LoRAs.
Do pokazowych obrazów używałem dpmpp 2m sgm uniform 30 kroków. Jeśli chcesz czyściejszy efekt, spróbuj zwiększyć guidance. Wspominanie stylu też pomaga, aby model nie musiał zgadywać.
Polecam także dodanie upscale latent po node i skalowanie latent o 1.5, np. generowanie obrazu o rozmiarze 1536x1536 zamiast 1024x1024.
PixelWave Flux.1-schnell 03
Pliki GGUF: przejdź do huggingface
Do obrazów pokazowych używałem dpmpp 2m sgm uniform 8 kroków.
Możesz zacząć od 4 kroków, ale jest mniej błędów w anatomii przy większej liczbie kroków.
PixelWave Flux.1-dev 02
Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M
Wersja 02 znacznie poprawiła czarne i ciemne obrazy oraz zapewnia bardziej niezawodne wyniki z mniejszą liczbą problemów z rękami.
Zalecam używanie dpmpp_2s_ancestral, beta, 14 kroków. Lub euler, simple, 20 kroków.
PixelWave 11 SDXL. Uniwersalny dopracowany model. Świetny do stylów sztuki i fotografii.
Używam 20 kroków, DPM++ SDE, CFG 4 do 6 lub 40 kroków, 2M SDE Karras
Wersja przyspieszona - 5+ kroków, DPM++ SDE Karras, 2.5 CFG
Zalecany PAG⚡Zalecana skala 1.5, z CFG 3. Link do workflow
🔗Link do rozszerzonej galerii 🖼️
⭐Link do przewodnika po promptach.⭐ Nie musisz używać terminów „jakość” takich jak 4K, 8K, arcydzieło, wysoka rozdzielczość, wysoka jakość itp. Chyba że chcesz, zalecam unikanie słów takich jak 'żywy, intensywny, jasny, wysoki kontrast, neon, dramatyczny' dla stylów fotograficznych, jeśli zależy Ci na bardziej naturalnym wyglądzie. Może to spowodować, że obrazy będą wyglądać "przegotowane", ale to po prostu CLIP podąża za Twoim promptem. 🙂 Jeśli jednak chcesz żywe, neonowe zdjęcia, PixelWave je dostarczy!
Wersja 10 skupiała się na trenowaniu modeli CLIP, co poprawia wiarygodność, pozwala na szeroki wachlarz stylów i lepsze podążanie za promptami.
Dziękuję moim przyjaciołom, którzy pomogli testować: masslevel, blink, socalguitarist, klinter, wizard whitebeard.
Przewodnik: Skalowanie promptów za pomocą LM Studio i Mikey Nodes
Przewodnik: Dodaj więcej szczegółów do obrazu wykorzystując metodę skip step
Nie jest potrzebny model refiner.
Ten model nie jest mieszanką innych modeli.
Stworzyłem także Mikey Nodes, które zawierają wiele przydatnych węzłów. Możesz zainstalować je przez comfy manager.
Szczegóły modelu
Typ modelu
Model bazowy
Wersja modelu
Hash modelu
Twórca
Dyskusja
Proszę się log in, aby dodać komentarz.





