Kobieta w czarnej sukience czytająca książkę na ciemnoczerwonej aksamitnej sofie w przytulnym, słabo oświetlonym pokoju biblioteki z zapalonym kominkiem, kwiatowym obrazem i wysokimi regałami na książki.
Zdjęcie dzienne podmiejskiej dzielnicy Los Angeles pokazujące biały SUV zaparkowany na ulicy przed domami i palmami.
Młoda kobieta w krótkich dżinsach i białym tank topie opierająca się o czerwony samochód z lat 50. na kolorowej kubańskiej ulicy w Hawanie z pastelowymi kamienicami.
Malowniczy widok z lotu ptaka na rzymskie miasto położone na pagórkowatym włoskim krajobrazie z suchymi ścieżkami na pierwszym planie, górami w tle i oceanem po lewej stronie pod jasnym niebieskim niebem.

Zalecane parametry

samplers

Euler Normal, dpmpp 2m sgm uniform, dpmpp_2s_ancestral, euler, DPM++ SDE, 2M SDE Karras, DPM++ SDE Karras, DPM++ 2M

steps

4 - 40

cfg

2.5 - 7

resolution

1024x1024, 1536x1536

vae

ae.safetensors - unknown

Zalecane parametry wysokiej rozdzielczości

upscale

1.5 - null

Wskazówki

Możesz użyć więcej kroków, aby poprawić drobne detale, ale efekty nie zmieniają się znacząco po 8 krokach.

Jeśli chcesz bardziej schludny/wyraźny output, spróbuj zwiększyć skalę guidance (CFG).

Wspomnienie stylu w prompt może pomóc modelowi generować lepsze wyniki.

Spróbuj dodać upscale latent przez node i skalować latent o 1.5, aby generować obrazy w wyższej rozdzielczości.

Unikaj używania terminów "quality" takich jak 4K, 8K, arcydzieło, wysokiej rozdzielczości, wysoka jakość, chyba że jest to konieczne; może to powodować, że obrazy wyglądają na przesmażone.

Dla stylów fotograficznych unikaj słów takich jak "żywy, intensywny, jasny, wysoki kontrast, neon, dramatyczny", jeśli chcesz naturalny wygląd.

Trening przeprowadzono za pomocą kohya_ss/sd-scripts, używając optymalizatora pagedlion8bit.

Zamrożenie parametrów 'time_in', 'vector_in' i modulacji zatrzymuje 'de-distillation'.

Unikaj trenowania pojedynczych bloków powyżej 15; ustaw bloki do trenowania w sekcji FLUX.

Współczynnik nauki 5e-6 uczy szybko, ale zatrzymaj po kilku tysiącach kroków, by uniknąć uszkodzenia bloków.

Najważniejsze informacje o wersji

Dopracowany przez 5 tygodni na mojej 4090.

Sponsorzy twórcy

Model dostępny również na: RunDiffusion i Runware.ai

Wielkie podziękowania dla RunDiffusion za sponsorowanie mocy obliczeniowej potrzebnej do trenowania tego modelu!

Dla dostępu do API współpracujemy z Runware.ai

PixelWave FLUX.1-schnell 04 - Apache 2.0!

Pliki Safetensor: 💾BF16 💾FP8 💾bnb FP4

Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Linki do 🤗VAE 🤗T5xxl 🤗CLIP L

Model dostępny również na: RunDiffusion oraz Runware.ai

PixelWave FLUX.1 schnell wersja 04 to estetyczne dostrojenie FLUX.1-schnell. Obrazy treningowe zostały ręcznie wyselekcjonowane, aby zapewnić, że model ma skłonność do przyciągających wzrok obrazów z pięknymi kolorami, teksturami i oświetleniem.

  • Trenowany na oryginalnym modelu schnell, więc licencja Apache 2.0!

  • Bez specjalnych wymagań do uruchomienia. Wspiera FLUX LoRA

  • Euler Normal, 8 kroków.

Można użyć więcej kroków, aby poprawić drobne detale, ale efekty nie zmieniają się znacząco po 8 krokach.

Podziękowania dla RunDiffusion

Wielkie podziękowania dla RunDiffusion (współtwórców Juggernauta) za sponsorowanie mocy obliczeniowej, dzięki której możliwe było trenowanie tego modelu! Opracowanie sposobu trenowania schnell bez de-destylacji modelu wymagało wielu eksperymentów, a możliwość korzystania z chmury obliczeniowej RunDiffusion znacznie to ułatwiła.

Dla osób potrzebujących dostępu do API tego modelu, nawiązaliśmy współpracę z Runware.ai

Wersję FLUX.1-dev 04 udostępniam na wyłączność RunDiffusion i Runware na razie. Gdy wypuszczę wersję 05 w przyszłości, planuję udostępnić otwarte wagi dev 04.

Jestem wdzięczny za ich wsparcie w udostępnieniu tego modelu, proszę zajrzyjcie do nich!

Trening

Trening przeprowadzono za pomocą kohya_ss/sd-scripts. Możesz znaleźć moją wersję Kohya tutaj, która zawiera też zmiany w podmodule sd-scripts, upewnij się, że sklonujesz oba.

Używaj zakładki fine tuning. Najlepsze wyniki uzyskałem z optymalizatorem pagedlion8bit, który działał też na mojej karcie 4090 24GB. Inne optymalizatory miały problemy z nauką.

Zamroziłem parametry time_in, vector_in oraz mod/modulation. To zatrzymuje "de-distillation".

Unikam trenowania pojedynczych bloków powyżej 15. Możesz ustawić, które bloki trenować w sekcji FLUX.

LR 5e-6 uczy szybko, ale należy zatrzymać po kilku tysiącach kroków, by uniknąć uszkodzenia bloków i spowolnienia nauki.

Możesz następnie połączyć bloki z wcześniejszym checkpointem, zastępując uszkodzone bloki i kontynuować trening dalej.

Objawy uszkodzonych bloków: tekstura papieru na większości obrazów, utrata detali tła.

Kontakt

W sprawach biznesowych lub komercyjnych prosimy o kontakt pod adresem pixelwave@rundiffusion.com. Licencjonowanie dostrojonych Flux, projekty treningu dla klientów, komercyjny rozwój AI. Zespół potrafi to wszystko!

PixelWave Flux.1-dev 03 dopracowany!

Pliki Safetensor: 💾BF16 💾FP8 💾NF4

Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Linki do 🤗VAE 🤗T5xxl 🤗CLIP L

Pliki 'diffusers' to faktycznie wersje GGUF Q8_0 i Q4_K_M. Pliki GGUF dostępne również na huggingface.

Dopracowywałem wersję 03 na bazie FLUX.1-dev przez ponad 5 tygodni na mojej 4090. Potrafi tworzyć różne style artystyczne, fotografie oraz anime. Trik, który odkryłem, ułatwiający pracę z LoRAs.

Do zdjęć pokazowych użyłem dpmpp 2m sgm jednolity 30 kroków. Jeśli chcesz bardziej schludny/wyraźny output, spróbuj zwiększyć skalę guidance. Wspomnienie stylu w prompt pomaga, więc model nie musi zgadywać.

Polecam też dodać upscale latent przez node i skalować latent o 1.5, np. generując obraz 1536x1536 zamiast 1024x1024.

PixelWave Flux.1-schnell 03

Pliki Safetensor: 💾FP8 💾NF4

Pliki GGUF: przejdź do huggingface

Do zdjęć pokazowych użyłem dpmpp 2m sgm jednolity, 8 kroków.

Można zacząć od 4 kroków, ale mniejsze błędy anatomiczne pojawiają się przy większej liczbie kroków.

PixelWave Flux.1-dev 02

Pliki Safetensor: 💾BF16 💾FP8

Pliki GGUF: 💾Q8_0 🤗Q6_K 💾Q4_K_M

Wersja 02 znacznie poprawiła czarne i ciemne obrazy oraz daje bardziej niezawodne wyniki z mniejszą liczbą problemów z dłońmi.

Zalecam użycie dpmpp_2s_ancestral, beta, 14 kroków lub euler, simple, 20 kroków.

Comfyui-GGUF Nodes

PixelWave 11 SDXL. Uniwersalny, dopracowany model. Świetny do stylów artystycznych i fotograficznych.

Używam 20 kroków, DPM++ SDE, CFG 4 do 6 lub 40 kroków, 2M SDE Karras

Wersja przyspieszona - 5+ kroków, DPM++ SDE Karras, 2.5 CFG

Zalecane PAG⚡Zalecana skala 1.5, z CFG 3. Link do workflow

🔗Link do rozszerzonej galerii 🖼️

Poradnik do promptowania.⭐ Nie musisz używać terminów typu „quality” takich jak 4K, 8K, arcydzieło, wysokiej rozdzielczości, wysoka jakość, itp. Jeśli nie chcesz, nie polecam używania słów jak „żywy, intensywny, jasny, wysoki kontrast, neon, dramatyczny” dla stylów fotograficznych, jeśli chcesz naturalny wygląd. To może powodować, że obrazy wyglądają na „przesmażone”, ale to tylko CLIP podążający za twoim promptem. 🙂 Jeśli jednak chcesz żywe, neonowe zdjęcia, PixelWave je dostarczy!

Głównym celem wersji 10 było trenowanie modeli CLIP, co poprawia niezawodność, zapewnia możliwość generowania szerokiej gamy stylów i lepsze podążanie za promptami.

Dzięki moim przyjaciołom, którzy pomagali testować: masslevel, blink, socalguitarist, klinter, wizard whitebeard.

Poradnik: Skalowanie promptów z LM Studio i Mikey Nodes

Poradnik: Dodaj więcej detali do obrazu używając metody pomijania kroków

Nie ma potrzeby używania modelu refiner.

Ten model nie jest mieszanką innych modeli.

Stworzyłem też Mikey Nodes, które zawierają wiele przydatnych node'ów. Można je zainstalować przez comfy manager.

Poprzedni
Artify´s Fantastic Flux Landscape Lora - artilands_v1.0
Następny
Project0* - v4.0 Art_Realism_FP8

Szczegóły modelu

Typ modelu

Checkpoint

Model bazowy

Flux.1 D

Wersja modelu

FLUX.1-dev 03

Hash modelu

49b429b788

Dyskusja

Proszę się log in, aby dodać komentarz.

Obrazy autorstwa PixelWave - FLUX.1-dev 03

Obrazy z anime

Obrazy z model bazowy

Obrazy z sztuka cyfrowa

Obrazy z photography

Obrazy z sztuka tradycyjna