Stabilizer IL/NAI - illus01 v1.198
Zalecane podpowiedzi
upper body
Zalecane parametry
samplers
steps
cfg
resolution
other models
Wskazówki
Załaduj tę LoRĘ jako pierwszą w swoim zestawie LoR, aby zminimalizować nieoczekiwane zmiany spowodowane dynamicznymi wagami patcha w architekturze DoRA.
Używaj jako dopracowanego modelu bazowego, stosując pełną moc na wytrenowanym modelu bazowym dla najlepszych naturalnych detali i kontroli stylu.
Bądź ostrożny przy nakładaniu na mocno wystylizowane modele bazowe, gdyż może to pogorszyć oczekiwane efekty.
Model nie dodaje naturalnych detali do modeli bazowych mocno przetrenowanych na styl AI.
Unikaj zostawiania opinii w systemie recenzji Civitai; zostawiaj komentarze w podanej sekcji komentarzy dla lepszej widoczności.
Używaj uzupełniających LoR jak Dark, Contrast Controller i Style Strength Controller dla dodatkowych korekt środowiska i stylu.
Sponsorzy twórcy
Znajdź mnie na TensorArt
Najnowsza aktualizacja:
(9/7/2025) Znajdziesz mnie na TensorArt.
Stabilizer
To mój dopracowany model bazowy, ale w formie LoRA.
Ten dopracowany model bazowy:
Skupia się na kreatywności, a nie na stałym stylu. Zbiór danych jest bardzo zróżnicowany. Ten model nie ma domyślnego stylu (uprzedzenia), który ograniczałby jego kreatywność.
Tylko naturalne tekstury, oświetlenie i najdrobniejsze detale. Brak plastikowego stylu AI. (Takie same twarze AI, fryzury, gładkie powierzchnie bez tekstury itd.). Każde zdjęcie w zbiorze danych wybrałem osobiście. Zero obrazów AI w zbiorze.
Mniej zniekształconych obrazów. Bardziej logiczne. Lepsze tło i kompozycja.
Lepsze zrozumienie promptu. Trenowany z naturalnymi podpisami w języku.
(v-pred) Lepsze i zbalansowane oświetlenie, wysoki kontrast. Czysta czerń 0 i biel 255 mogą wystąpić na tym samym obrazie, nawet w tym samym miejscu, ale bez przepełnienia i przesycenia.
Obrazy na okładkach to surowe wyniki, w domyślnej rozdzielczości 1MP. Bez skalowania, wtyczek, poprawek inpaint. Mają metadane, są w 100% powtarzalne.
Style na obrazach okładek pochodzą z wytrenowanego modelu bazowego, wywoływane przez prompt. Nie są one w moim zbiorze danych. Widać, że model bazowy zna te style, ale nie potrafi ich poprawnie generować z powodu przetrenowania na danych anime. Ten model rozwiązał problem przetrenowania. Patrz sekcja "jak i dlaczego to działa" poniżej.
Dlaczego brak domyślnego stylu?
Co to jest „domyślny styl”: Jeśli model ma domyślny styl (uprzedzenie), oznacza to, że niezależnie od promptu generuje te same elementy (twarze, tła, uczucia), które tworzą domyślny styl.
Zalety: Łatwy w użyciu, nie musisz już promptować stylu.
Wady: Nie można go też nadpisać. Jeśli w prompt wpiszesz coś niepasującego do domyślnego stylu, model to zignoruje. Nakładanie kolejnych stylów będzie zawsze kolidować/zanieczyszczać/ograniczać inne style.
„brak domyślnego stylu” oznacza brak uprzedzeń i potrzebę określenia stylu przez tagi lub LoRA. Ale nie będzie nakładania/zanieczyszczenia stylu z tego modelu. Otrzymasz dokładnie założony styl.
Dlaczego ten "dopracowany model bazowy" jest LoRĄ?
Nie jestem gigachadem i nie mam milionów obrazów do trenowania. Dopracowanie całego modelu bazowego nie jest konieczne, wystarczy LoRA.
Oszczędzam dużo VRAM, więc mogę używać większego batch size.
Muszę przesłać, a Ty pobrać tylko mały plik 40MiB zamiast dużego 7GiB checkpointu, co oszczędza 99,4% danych i miejsca.
Dzięki temu mogę często aktualizować.Ta LoRA wydaje się mała, ale jest potężna, bo używa nowej architektury DoRA od Nvidii, która jest bardziej wydajna od tradycyjnej LoRA.
Jak otrzymać ten "dopracowany model bazowy"?
Prosto.
wytrenowany model bazowy + ta LoRA = "dopracowany model bazowy"
Wczytaj tę LoRA na wytrenowany model bazowy z pełną mocą. Wtedy model bazowy stanie się dopracowanym modelem. Patrz poniżej "Jak używać".
Zabronione jest udostępnianie łączenia (merges) z użyciem tego modelu. Dla info: są ukryte słowa wyzwalające do drukowania niewidocznego znaku wodnego. Sam napisałem kod znaku i detektor. Nie chcę go używać, ale mogę.
Model jest opublikowany wyłącznie na Civitiai i TensorArt. Jeśli widzisz „mnie” i to zdanie na innych platformach, są to fałszywki, a platforma, której używasz, to piracka platforma.
Zostaw proszę opinie w sekcji komentarzy, aby wszyscy mogli je zobaczyć. Nie pisz opinii w systemie recenzji Civitai, jest tak źle zaprojektowany, że nikt ich nie widzi.
Jak używać
Najnowsze wersje:
nbvp10 v0.271 (trenowany na NoobAI v-pred v1.0).
Dokładne kolory i najdrobniejsze detale. To najlepszy model jak dotąd.
nbep10 v0.273 (trenowany na NoobAI eps v1.0). Wycofany.
Mniej nasycenia i kontrastu w porównaniu do modeli v-pred. Z powodu "małej wady projektowej" w standardowym przewidywaniu epsilon (eps). Ogranicza model w osiąganiu szerszego zakresu kolorów. Dlatego jest potem v-pred.
illus01 v1.198 (trenowany na Illustrious v0.1). Wycofany.
Po prostu za stary…
Uwaga: najpierw ładuj tę LoRA w swoim zestawie LoR.
Ta LoRA używa nowej architektury DoRA od Nvidia, która jest wydajniejsza niż tradycyjna LoRA. Jednak w przeciwieństwie do tradycyjnej LoRA z statyczną wagą patcha, w DoRA waga patcha jest dynamicznie obliczana na podstawie aktualnie załadowanej wagi modelu bazowego (zmienia się podczas ładowania LoR). Aby zminimalizować nieoczekiwane zmiany, ładuj tę LoRA jako pierwszą.
Dwa sposoby używania tego modelu:
1). Użyj jako dopracowany model bazowy (zalecane):
Jeśli chcesz najdrobniejsze i naturalne detale oraz stworzyć kontrolowaną kombinację stylów.
Po prostu najpierw załaduj tę LoRĘ na wytrenowany model bazowy z pełną mocą. Model bazowy stanie się dopracowanym modelem.
2). Użyj jako LoRA na innym dopracowanym modelu bazowym.
Bo czemu nie, w końcu to LoRA.
Ważne rzeczy:
Ważne: jeśli używasz modelu bazowego "illustrious". Musisz sprawdzić, na jakim wytrenowanym modelu bazowym faktycznie opiera się Twój model. Większość popularnych modeli "illustrious" anime bazuje na (lub blisko) NoobAI, nie illustrious. Szczegóły (dlaczego te modele są błędnie nazywane i jak testować swój model bazowy) znajdziesz w "Dyskusji". LoRA musi pasować do wytrenowanego modelu bazowego. Niedopasowanie pogorszy jakość obrazu.
Łączysz dwa modele bazowe. Jeśli Twój model już ma bardzo mocny domyślny styl, proste dodanie tej LoRA nie da oczekiwanego efektu. Możesz potrzebować wyważenia innych wag (LoRA, bloków U-net itp.).
Ten model nie może dodać naturalnych detali do modeli bazowych zdominowanych przez styl AI (trenowanych na obrazach AI, gdzie wszystko jest gładkie, błyszczące, bez tekstury, wygląda plastikowo). Wiem, że niektórzy wybierają ten model, by pozbyć się gładkości stylu AI w swoim modelu. Niestety to nie zadziała, bo styl AI jest bardzo przetrenowany (natychmiast nauczysz się tego samego, jeśli trenujesz model na obrazach AI). Ponadto obrazy AI mają mniej detali niż prawdziwe zdjęcia, więc model nauczył się tłumić detale. To problematyczne. Raz wprowadzony styl AI jest nieusuwalny.
Ten model nie jest magicznym narzędziem pozwalającym na nieskończone nakładanie LoR na model bazowy bez uszkodzeń. Nazwa może wprowadzać w błąd.
Dlaczego i jak to działa:
Problem przetrenowania:
Modele anime trenują się na obrazach anime. Obrazy anime są proste i zawierają tylko wysokopoziomowe „koncepcje”, często abstrakcyjne. Brak tam tła, detali i tekstur.
Chcemy, by model uczył się tylko wysokopoziomowych „koncepcji”. Prawda jest taka, że model uczy się tego, co widzi, nie tego, co chcemy.
Po zobaczeniu ponad 10 milionów prostych abstrakcyjnych obrazów anime model nauczy się: 1) nie musi generować detali, bo nie było tego w danych, 2) musi generować proste obrazy z abstrakcyjnymi konceptami nawet jeśli ich nie rozumie. To prowadzi do zdeformowanych obrazów, czyli „przetrenowania”.
Rozwiązanie:
Trenować model na anime i obrazach świata rzeczywistego. By mógł uczyć się konceptów, ale zachować naturalne detale i tekstury, czyli mniej przetrenowania.
NoobAI zrobił to, mieszając do zbioru trochę prawdziwych zdjęć cosplay. (jeśli dobrze pamiętam, twórcy o tym wspomnieli)
Ten model idzie dalej, trenowany jest na wszystkim trochę: architektura, przedmioty codzienne, ubrania, krajobrazy itd. Także na pełnych, wielopoziomowych opisach naturalnymi językami, by odwzorować oryginalny trening SDXL.
Efekt:
Zobacz porównania: 1 (style artysty), 2 (style ogólne)
Mniej przetrenowania, mniej zniekształconych obrazów. Naturalniejsze tekstury, oświetlenie i detale. Możesz teraz używać tysięcy wbudowanych tagów stylów (Danbooru, e621), a także ogólnych stylów rozumianych przez oryginalne SDXL, i otrzymać czysty, szczegółowy obraz — czy to 2D, 3D, abstrakcja czy realizm.
Wciąż maksymalna kreatywność dzięki zróżnicowanemu zbiorowi danych. Brak domyślnego stylu, więc nie ogranicza kreatywności modelu bazowego ani innych LoR stylów.
Zbiór danych
najnowsza lub ostatnie wersje
~7 tys. obrazów łącznie. Niezbyt duży (w porównaniu do gigachadów, którzy lubią trenować modele na milionach obrazów), ale też nie mały. Każde zdjęcie wybrałem osobiście.
Tylko zwyczajne ładne rzeczy. Brak szalonych stylów artystycznych, których nie da się opisać. Brak obrazów AI, znaków wodnych itd.
Tylko obrazy w wysokiej rozdzielczości. Średnia wielkość w zbiorze to 3,37 MP, około 1800x1800 px.
Wszystkie obrazy mają naturalne podpisy generowane przez najnowszy model LLM Google.
Wszystkie postacie anime są najpierw tagowane przez wd tagger v3, potem przez Google LLM.
Zawiera naturę, przestrzeń zewnętrzną i wewnętrzną, zwierzęta, przedmioty codzienne i wiele innych, z wyjątkiem prawdziwych ludzi.
Zawiera różne warunki oświetleniowe: bardzo ciemne, bardzo jasne oraz bardzo ciemne i jasne razem.
Inne narzędzia
Pomysły, które miały lub miały być częścią Stabilizera. Teraz to osobne LoRY dla większej elastyczności. Link do kolekcji: https://civitai.com/collections/8274233.
Dark: LoRA preferująca ciemniejsze otoczenie. Przydatna do korekty zbyt jasnych modeli bazowych. Trenowana na obrazach o niskim jasności. Bez uprzedzeń stylu, więc bez zanieczyszczenia stylu.
Contrast Controller: Ręcznie wykonana LoRA. Kontroluje kontrast jak suwak na monitorze. W przeciwieństwie do innych "wzmacniaczy kontrastu" efekt jest stabilny, matematycznie liniowy i bez skutków ubocznych dla stylu.
Przydatna, gdy Twój model bazowy ma problem z przesyceniem lub gdy chcesz bardzo kolorowy obraz.
Przykład:

Style Strength Controller: Reduktor efektów przetrenowania. Może zmniejszyć wszelkie skutki przetrenowania (uprzedzenia wobec obiektów, jasności itp.), matematycznie. Lub je wzmocnić, jeśli chcesz.
Różnice względem Stabilizera:
Stabilizer trenowany na danych świata rzeczywistego. Może tylko "zmniejszać" efekty przetrenowania tekstur, detali i tła, dodając je z powrotem.
Style Controller nie pochodzi z treningu. Raczej „cofa” trening modelu bazowego, by był mniej przetrenowany. Może matematycznie redukować wszelkie przetrenowania, jak uprzedzenia jasności czy obiektów.
Stare wersje:
Więcej informacji w "Dzienniku aktualizacji". Uważaj, stare wersje mogą mieć bardzo inne efekty.
Główna oś czasu:
Teraz ~: Naturalne detale i tekstury, stabilne zrozumienie promptu, większa kreatywność. Już nie tylko styl 2D anime.
illus01 v1.23 / nbep11 0.138 ~: Lepszy styl anime z żywymi kolorami.
illus01 v1.3 / nbep11 0.58 ~: Lepszy styl anime.
Dziennik aktualizacji
(31.08.2025) NoobAI ep10 v0.273
Ta wersja trenowana od początku na NoobAI eps v1.0.
W porównaniu do poprzedniej illus01 v1.198:
Lepsza i zbalansowana jasność w ekstremalnych warunkach. (tak jak nbvp v0.271)
Lepsze tekstury i detale. Więcej kroków treningu na wysokich krokach SNR. (wersje illus01 pomijały je dla lepszej kompatybilności, teraz nie trzeba, bo wszystkie modele bazowe to NoobAI)
(24.08.2025) NoobAI v-pred v0.271:
W porównaniu do poprzedniego v0.264:
Lepsze i zbalansowane oświetlenie w skrajnych warunkach, mniej uprzedzeń.
Wysoki kontrast, czysta czerń 0 i biel 255 na tym samym obrazie i w tym samym miejscu, bez przepełnienia i przesycenia. Teraz masz to wszystko naraz.
(stara v0.264 stara się ograniczyć obraz między 10~250 by uniknąć przepełnienia, ale wciąż ma zauważalne uprzedzenia, ogólnie obraz może być za ciemny lub jasny)
Jak v0.264, preferuj wysoką lub pełną moc (0.9~1).
(17.08.2025) NoobAI v-pred v0.264:
Pierwsza wersja trenowana na NoobAI v-pred.
Daje lepsze oświetlenie, mniej przepełnień.
Uwaga: preferuj wysoką lub pełną moc (0.9~1).
(28.07.2025) illus01 v1.198
Głównie w porównaniu do v1.185c:
Koniec wersji "c". Choć „wizualnie uderzające" jest dobre, ma problemy z kompatybilnością. Np. gdy Twój model bazowy ma już podobne wzmocnienie kontrastu. Nakładanie dwóch wzmocnień kontrastu jest naprawdę złe. Więc koniec z szalonymi post-efektami (wysoki kontrast, przesycenie itp.).
Zamiast tego więcej tekstur i detali. Kino poziom oświetlenia. Lepsza kompatybilność.
Wersja zmieniła wiele rzeczy, w tym przeprojektowanie zbioru danych, więc efekt będzie inny niż poprzednio.
Dla chcących wrócić do szalonych efektów v1.185c: można znaleźć czyste, dedykowane style na tej stronie. Jeśli zbiór będzie wystarczająco duży na LoRA, mogę wytrenować.
(21.06.2025) illus01 v1.185c:
W porównaniu do v1.165c.
+100% czystości i ostrości.
-30% obrazów zbyt chaotycznych (nieopisanych). Więc ta wersja nie daje już tak wysokiego kontrastu, ale jest stabilniejsza w normalnym użyciu.
(10.06.2025): illus01 v1.165c
Specjalna wersja. Nie jest ulepszeniem v1.164. "c" oznacza "kolorowy", "kreatywny", czasem "chaotyczny".
Zbiór zawiera obrazy bardzo wizualnie uderzające, ale czasem trudne do opisania, np. bardzo kolorowe, wysoki kontrast, skomplikowane oświetlenie, obiekty i wzory wszędzie.
Dostajesz "wizualnie uderzające" kosztem "naturalnego". Może wpływać na style z miękkimi kolorami itp. Np. ta wersja nie generuje perfekcyjnie "rysunku ołówkiem" jak v1.164.
(04.06.2025): illus01 v1.164
Lepsze zrozumienie promptu. Teraz każdy obraz ma 3 naturalne podpisy z różnych perspektyw. Tagi Danbooru są sprawdzane przez LLM, tylko ważne tagi są wybrane i scalone w naturalny podpis.
Zapobieganie prześwietleniu. Dodano uprzedzenie, by wyjście modelu nie osiągało poziomu #ffffff czystej bieli. Zwykle #ffffff oznacza prześwietlenie, tracąc wiele detali.
Zmiany ustawień treningu. Większa kompatybilność z NoobAI, zarówno e-pred jak i v-pred.
(19.05.2025): illus01 v1.152
Kontynuacja poprawy oświetlenia, tekstur i detali.
O 5 tys. więcej obrazów, więcej kroków treningu, silniejszy efekt.
(09.05.2025): nbep11 v0.205:
Szybka poprawka jasności i kolorów w v0.198. Teraz nie zmienia jasności i kolorów tak dramatycznie jak prawdziwe zdjęcie. v0.198 nie był zły, po prostu zbyt kreatywny.
(07.05.2025): nbep11 v0.198:
Dodano więcej ciemnych obrazów. Mniej zdeformowane ciało i tło w ciemnym otoczeniu.
Usunięto wzmocnienie koloru i kontrastu. Już niepotrzebne. Używaj Contrast Controller.
(25.04.2025): nbep11 v0.172.
Te same nowości jak w illus01 v1.93 ~ v1.121. Podsumowanie: nowy zbiór zdjęć "Touching Grass". Lepsze naturalne tekstury, tło, oświetlenie. Słabsze efekty postaci dla lepszej kompatybilności.
Lepsza precyzja i stabilność kolorów. (W porównaniu do nbep11 v0.160)
(17.04.2025): illus01 v1.121.
Wracamy do illustrious v0.1. Illustrious v1.0 i nowsze były trenowane na obrazach AI celowo (ok. 30% zbioru), co nie jest idealne do treningu LoRA. Nie zauważyłem, aż przeczytałem ich paper.
Niższy efekt stylu postaci. Powrót do poziomu v1.23. Postacie mają mniej detali z tej LoRA, ale lepszą kompatybilność. To kompromis.
Inne rzeczy jak poniżej (v1.113).
(10.04.2025): illus11 v1.113 ❌.
Aktualizacja: używaj tej wersji tylko jeśli Twój model bazowy oparty jest na Illustrious v1.1. W przeciwnym razie użyj illus01 v1.121.
Trenowany na Illustrious v1.1.
Dodano nowy zbiór "Touching Grass". Lepsze naturalne tekstury, oświetlenie i efekt głębi ostrości. Lepsza stabilność struktury tła. Mniej zdeformowanych teł, jak pomieszczenia czy budynki.
Pełne opisy naturalnym językiem generowane przez LLM.
(30.03.2025): illus01 v1.93.
v1.72 był trenowany zbyt mocno, więc zmniejszyłem jego ogólną moc. Powinno być lepiej kompatybilne.
(22.03.2025): nbep11 v0.160.
Te same rzeczy co w illus v1.72.
(15.03.2025): illus01 v1.72
Ten sam nowy zbiór tekstur i oświetlenia, co w ani40z v0.4 poniżej. Bardziej naturalne oświetlenie i tekstury.
Dodano mały zbiór ~100 zdjęć dłoni, skupiający się na rękach w różnych zadaniach, np. trzymaniu szklanki lub kubka.
Usunięto wszystkie obrazy z "prostym tłem". Minus 200 obrazów.
Zmieniono narzędzie treningowe z kohya na onetrainer. Architektura LoRA zmieniona na DoRA.
(04.03.2025) ani40z v0.4
Trenowany na Animagine XL 4.0 ani40zero.
Dodano około 1 tys. obrazów skupionych na naturalnym oświetleniu dynamicznym i teksturach świata realnego.
Bardziej naturalne oświetlenie i tekstury.
ani04 v0.1
Wersja startowa dla Animagine XL 4.0. Głównie do naprawy problemów z jasnością w Animagine 4.0. Lepszy i wyższy kontrast.
illus01 v1.23
nbep11 v0.138
Dodano trochę futrzastych/nie-ludzkich/innych obrazów dla zrównoważenia zbioru danych.
nbep11 v0.129
zła wersja, efekt zbyt słaby, ignoruj ją
nbep11 v0.114
Wprowadzono "pełny zakres kolorów". Automatycznie wyrównuje elementy do "normalnych i ładnych". Można to porównać do "jednoprzyciskowego auto ulepszania zdjęć" w większości edytorów zdjęć. Minusem jest ograniczenie wysokich uprzedzeń. Np. chcesz, by 95% obrazu było czarne, a 5% jasne, a nie 50/50%.
Dodano bardziej realistyczne dane. Bardziej żywe detale, oświetlenie, mniej płaskie kolory.
illus01 v1.7
nbep11 v0.96
Więcej zdjęć treningowych.
Ponownie dopracowany na małym zbiorze "wallpaper" (prawdziwe tapety z gier, najwyższa jakość, ~100 obrazów). Lepsze detale (zauważalne na skórze, włosach) i kontrast.
nbep11 v0.58
Więcej obrazów. Parametry treningu bardziej zbliżone do modelu bazowego NoobAI.
illus01 v1.3
nbep11 v0.30
Więcej obrazów.
nbep11 v0.11: Trenowany na NoobAI epsilon pred v1.1.
Ulepszone tagowanie zbioru danych. Ulepszona struktura i rozkład wag LoRA. Bardziej stabilny i mniejszy wpływ na kompozycję obrazu.
illus01 v1.1
Trenowany na illustriousXL v0.1.
nbep10 v0.10
Trenowany na NoobAI epsilon pred v1.0.
Szczegóły modelu
Typ modelu
Model bazowy
Wersja modelu
Hash modelu
Twórca
Dyskusja
Proszę się log in, aby dodać komentarz.












