Stabilizer IL/NAI - nbep11 v0.205
Powiązane słowa kluczowe i tagi
Zalecane podpowiedzi
masterpiece
Zalecane parametry
samplers
steps
cfg
resolution
other models
Wskazówki
Najpierw ładuj tę LoRĘ w swoim stosie LoR, aby zminimalizować niespodziewane zmiany.
Używaj jako dopracowanego modelu bazowego, ładując ją na uprzednio wytrenowany model bazowy z pełną siłą, aby uzyskać najlepsze naturalne detale i kontrolę stylu.
Jeśli używasz modelu bazowego "illustrious", sprawdź jego uprzednio wytrenowany model bazowy, aby uniknąć spadku jakości.
Ten model nie może dodać naturalnych detali do modeli bazowych z przeuczeniem stylu AI.
Dokładnie dostosowuj inne wagi podczas nakładania wielu LoR, aby uniknąć błędów w wynikach.
Zostawiaj opinie w sekcji komentarzy, aby były widoczne, a nie w systemie recenzji Civitai.
Unikaj udostępniania łączeń używających tego modelu ze względu na ukryte wyzwalacze niewidzialnego znaku wodnego.
Sponsorzy twórcy
Najświeższa aktualizacja:
(9/7/2025) Możesz mnie znaleźć na TensorArt.
Najnowsza aktualizacja:
(9/7/2025) Możesz mnie znaleźć na TensorArt.
Stabilizer
To jest mój dopracowany model bazowy, ale w formie LoRA.
Ten dopracowany model bazowy:
Skupia się na kreatywności, a nie na stałym stylu. Zestaw danych jest bardzo różnorodny. Dlatego ten model nie ma domyślnego stylu (uprzedzenia), które ograniczałoby jego kreatywność.
Tylko naturalne tekstury, oświetlenie i najdrobniejsze detale. Brak plastikowego stylu AI. (Te same AI twarze, styl włosów, gładkie powierzchnie bez tekstury, itd...). Każde zdjęcie w zestawie danych wybrałem osobiście. Zero obrazów AI w zestawie danych.
Mniej zniekształconych obrazów. Bardziej logiczne. Lepsze tło i kompozycja.
Lepsze zrozumienie prompta. Trenowane z użyciem naturalnych opisów językowych.
(v-pred) Lepsze i wyrównane oświetlenie, wysoki kontrast. Czysta czerń 0 i biel 255 mogą występować na tym samym obrazie, nawet w tym samym miejscu, ale bez przepełnienia i przesycenia.
Obrazy na okładce to surowe wyniki, w domyślnej rozdzielczości 1MP. Bez powiększania, bez wtyczek, bez poprawek inpaintingu. Z metadanymi, 100% odtwarzalne.
Style na obrazach na okładce pochodzą z uprzednio wytrenowanego modelu bazowego, wywołanego przez prompt. Nie są one w moim zestawie danych. Widać, że wytrenowany model zna te style, ale nie potrafi ich poprawnie generować, ponieważ został przetrenowany na danych anime. Ten model rozwiązał problem przeuczenia. Patrz sekcja „jak i dlaczego to działa” poniżej.
Dlaczego brak domyślnego stylu?
Co to jest "domyślny styl": Jeśli model ma domyślny styl (uprzedzenie), oznacza to, że bez względu na prompt model musi generować te same elementy (twarze, tła, uczucia), które tworzą domyślny styl.
Zalety: Jest łatwy w użyciu, nie musisz podawać stylu w promptach.
Wady: Nie możesz go też nadpisać. Jeśli dasz prompt niepasujący do domyślnego stylu, model po prostu go zignoruje. Jeśli nałożysz więcej stylów, domyślny styl zawsze będzie nakładał się/zanieczyszczał/ograniczał inne style.
„Brak domyślnego stylu” oznacza brak uprzedzeń i musisz określić styl, który chcesz, za pomocą tagów lub LoRA. Ale nie będzie nakładania się/zanieczyszczenia stylu z tego modelu. Otrzymasz dokładnie taki styl, jaki chcesz.
Dlaczego ten "dopasowany model bazowy" jest LoRĄ?
Nie jestem gigachadem i nie mam milionów zdjęć treningowych. Dostrojenie całego modelu bazowego nie jest konieczne, wystarczy LoRA.
Oszczędzam dużo VRAM, więc mogę używać większych rozmiarów batcha.
Muszę tylko przesłać, a Ty tylko pobrać, mały plik 40MiB zamiast olbrzymiego punktu kontrolnego 7GiB, co oszczędza 99,4% danych i miejsca na dysku.
Dlatego mogę często aktualizować.Ta LoRA może wydawać się mała, ale jest potężna. Używa nowej architektury DoRA firmy Nvidia, która jest bardziej wydajna niż tradycyjna LoRA.
Jak więc zdobyć ten "dopasowany model bazowy"?
Prosto.
uprzednio wytrenowany model bazowy + Ta LoRA = "dopasowany model bazowy"
Wystarczy załadować tę LoRĘ na uprzednio wytrenowany model bazowy z pełną siłą. Wtedy model bazowy stanie się modelem dopasowanym. Patrz poniżej „Jak używać”.
Zakazane jest udostępnianie łączeń używających tego modelu. Dla informacji, są ukryte słowa wyzwalające niewidzialny znak wodny. Sam napisałem kod znaku wodnego i detektora. Nie chcę go używać, ale mogę.
Ten model jest publikowany tylko na Civitai i TensorArt. Jeśli widzisz „mnie” i to zdanie na innych platformach, to są fałszywe, a platforma, której używasz, jest piracką.
Proszę zostawiać opinie w sekcji komentarzy. Tak by wszyscy mogli je zobaczyć. Nie pisz opinii w systemie recenzji Civitai, jest tak źle zaprojektowany, że nikt nie może znaleźć i zobaczyć recenzji.
Jak używać
Najnowsze wersje:
nbvp10 v0.271 (trenowany na NoobAI v-pred v1.0).
Dokładne kolory i najdrobniejsze detale. To najlepszy model jak dotąd.
nbep10 v0.273 (trenowany na NoobAI eps v1.0). Przestarzały.
Mniejsze nasycenie i kontrast w porównaniu do modeli v-pred. Z powodu „małej wady konstrukcyjnej” w standardowej predykcji epsilon (eps). Ogranicza zakres kolorów modeli. Dlatego jest późniejszy v-pred.
illus01 v1.198 (trenowany na Illustrious v0.1). Przestarzały.
Po prostu za stary...
Uwaga: najpierw ładuj tę LoRĘ w swoim stosie LoR.
Ta LoRA używa nowej architektury DoRA firmy Nvidia, która jest bardziej wydajna niż tradycyjna LoRA. Jednak, w przeciwieństwie do tradycyjnej LoRA z statyczną wagą patcha, waga patcha DoRA jest dynamicznie obliczana na podstawie aktualnej wagi załadowanego modelu bazowego (zmienia się podczas ładowania LoR). Aby zminimalizować niespodziewane zmiany, ładuj tę LoRĘ jako pierwszą.
Dwa sposoby użycia tego modelu:
1). Użyj jako dopracowanego modelu bazowego (zalecane):
Jeśli chcesz najdrobniejsze i naturalne detale oraz zbudować kombinację stylów z pełną kontrolą.
Wystarczy załadować tę LoRĘ najpierw na uprzednio wytrenowany model bazowy z pełną siłą. Wtedy model bazowy stanie się dopasowanym modelem.
2). Użyj jako LoRĘ na innym dopasowanym modelu bazowym.
Bo czemu nie, to w końcu LoRA.
Ważne uwagi:
Ważne: Jeśli używasz bazowego modelu "illustrious". Musisz sprawdzić, na jakim uprzednio wytrenowanym modelu bazowym jest oparty Twój model bazowy. Najpopularniejsze modele "illustrious" anime są oparte (lub bliskie) NoobAI, nie illustrious. Więcej informacji (dlaczego te modele bazowe są błędnie oznaczone i jak przetestować swój model bazowy) znajdziesz w „Dyskusji". LoRA musi pasować do wytrenowanego modelu bazowego. Niepasujący model obniża jakość obrazu.
Łączysz dwa modele bazowe. Jeśli Twój bazowy model ma już bardzo silny domyślny styl, to po prostu dodanie tej LoRA zazwyczaj nie da oczekiwanych rezultatów. Może być konieczne wyważenie innych wag (LoRA, bloków U-net, itp.).
Ten model nie może dodać naturalnych detali do modeli bazowych z AI stylem (trenowanych na obrazach AI, czuć, że wszystko jest gładkie, błyszczące, bez tekstury i wygląda plastikowo). Wiem, że niektórzy wybrali ten model, aby pozbyć się gładkości stylu AI w swoim modelu bazowym. Niestety to nie zadziała, bo styl AI jest bardzo przeuczony (możesz natychmiast zauważyć, co zrobiłeś, podobnie jak model AI trenowany na obrazach AI). Ponieważ obrazy AI mają mniej detali niż prawdziwe, model nauczył się też tłumić detale. To jest problematyczne. Gdy styl AI się pojawił, nie da się go usunąć.
Ten model nie jest magicznym narzędziem, które pozwala na nakładanie więcej LoR na model bazowy bez błędów. Nazwa modelu może wprowadzać w błąd.
Dlaczego i jak to działa:
Problem przeuczenia:
Modele anime trenowane na obrazach anime. Obrazy anime są proste i zawierają tylko poziom koncepcyjny, często bardzo abstrakcyjny. Brak tła, detali i tekstur.
Chcemy, aby model uczył się tylko koncepcji na wysokim poziomie. Prawda jest taka, że model uczy się tego, co widzi, nie tego, co chcesz.
Po zobaczeniu 10+ mln prostych abstrakcyjnych obrazów anime model nauczy się, że 1) nie musi generować detali, bo zestaw danych mu tego nigdy nie nakazał. 2) Zamiast tego musi generować proste obrazy z abstrakcyjnymi konceptami, których często nie rozumie. To prowadzi do zniekształconych obrazów, czyli "przeuczenia".
Rozwiązanie:
Trenować model na obrazach anime i świata rzeczywistego. Aby mógł uczyć się konceptów, zachowując naturalne detale i tekstury, czyli mniej przeuczenia.
NoobAI zrobił to, mieszając trochę prawdziwych zdjęć cosplay w zestawie danych. (jak pamiętam, deweloperzy wspomnieli o tym gdzieś)
Ten model idzie dalej, trenowany na trochę wszystkiego. Architektura, codzienne przedmioty, ubrania, krajobrazy. Także pełne, wielopoziomowe opisy naturalnego języka, na wzór oryginalnego szkolenia SDXL.
Wynik:
Zobacz porównania bez: 1 (style artystów), 2 (style ogólne)
Mniej przeuczenia, mniej zniekształceń. Więcej naturalnych tekstur, oświetlenia i detali. Możesz teraz używać tysięcy wbudowanych tagów stylu (Danbooru, e621), jak i ogólnych stylów rozumianych przez oryginalne SDXL, i uzyskać czysty i szczegółowy obraz, taki jak powinien być. Niezależnie czy to 2D, 3D, abstrakcja czy realizm.
Wciąż maksymalna kreatywność dzięki różnorodności zestawu danych. Brak domyślnego stylu, więc nie ogranicza kreatywności modelu bazowego ani innych stylowych LoR.
Zestaw danych
najnowsza lub ostatnie wersje
~7k obrazów w sumie. Niezbyt duży (w porównaniu do gigachadów lubiących finetuning z milionami obrazów), ale też nie mały. Każdy obraz wybrany przeze mnie osobiście.
Tylko normalne, estetyczne rzeczy. Brak szalonych stylów artystycznych, których nie da się opisać. Brak obrazów AI, znaków wodnych itd.
Tylko obrazy o wysokiej rozdzielczości. Średnia liczba pikseli w zestawie to 3,37 MP, około 1800x1800.
Wszystkie obrazy mają naturalne opisy od najnowszego modelu LLM Google.
Wszystkie postacie anime oznaczone najpierw przez wd tagger v3, potem przez LLM Google.
Zawiera naturę, otwarte przestrzenie, wnętrza, zwierzęta, codzienne przedmioty, wiele rzeczy, oprócz prawdziwych ludzi.
Zawiera różne warunki oświetleniowe. Bardzo ciemne, bardzo jasne, bardzo ciemne i bardzo jasne.
Inne narzędzia
Kilka pomysłów, które miały być lub były częścią Stabilizera. Teraz są oddzielnymi LoR. Dla lepszej elastyczności. Link do kolekcji: https://civitai.com/collections/8274233.
Dark: LoRA z uprzedzeniem na ciemniejsze środowisko. Przydatna do naprawiania wysokiego jasnościowego uprzedzenia w niektórych modelach bazowych. Trenowana na obrazach o niskiej jasności. Bez uprzedzeń stylu, więc brak zanieczyszczenia.
Contrast Controller: Ręcznie wykonana LoRA. Kontroluje kontrast jak suwak w monitorze. W przeciwieństwie do innych "wzmacniaczy kontrastu" efekt tej LoRA jest stabilny, matematycznie liniowy i nie ma żadnego efektu ubocznego na styl.
Przydatna, gdy Twój model bazowy ma problem z przejaskrawieniem lub chcesz czegoś naprawdę kolorowego.
Przykład:

Style Strength Controller: Lub reduktor efektu przeuczenia. Może zmniejszyć wszystkie rodzaje efektów przeuczenia (uprzedzenie do obiektów, jasności itd.) matematycznie. Lub je wzmocnić, jeśli chcesz.
Różnice względem Stabilizera:
Stabilizer był trenowany na danych ze świata rzeczywistego. Może tylko "zmniejszać" efekty przeuczenia dotyczące tekstur, detali i tła, przez ich dodanie z powrotem.
Style Controller nie pochodzi z treningu. To bardziej „cofanie” treningu modelu bazowego, więc jest mniej przeuczony. Może matematycznie zmniejszyć wszystkie efekty przeuczenia, jak uprzedzenia jasności i obiektów.
Starsze wersje:
Więcej informacji znajdziesz w "Dzienniku aktualizacji". Uwaga, że starsze wersje mogą mieć bardzo różne efekty.
Główna oś czasu:
Teraz ~: Naturalne detale i tekstury, stabilne zrozumienie prompta i większa kreatywność. Już nie ogranicza się do czystego stylu anime 2D.
illus01 v1.23 / nbep11 0.138 ~: Lepszy styl anime z żywymi kolorami.
illus01 v1.3 / nbep11 0.58 ~: Lepszy styl anime.
Dziennik aktualizacji
(8/31/2025) NoobAI ep10 v0.273
Ta wersja trenowana od początku na NoobAI eps v1.0.
W porównaniu do poprzedniej illus01 v1.198:
Lepsza i wyrównana jasność w ekstremalnych warunkach. (tak samo jak nbvp v0.271)
Lepsze tekstury i detale. Więcej kroków treningu na wysokich krokach SNR. (wersje illus01 pomijały te kroki dla lepszej kompatybilności. Teraz wszystkie modele bazowe to NoobAI, więc nie trzeba pomijać.)
(8/24/2025) NoobAI v-pred v0.271:
W porównaniu do poprzedniej v0.264:
Lepsze i wyrównane oświetlenie w ekstremalnych warunkach, mniej uprzedzenia.
Wysoki kontrast, czysta czerń 0 i biel 255 w tym samym obrazie, nawet w tym samym miejscu, bez przepełnienia i przesycenia. Teraz możesz mieć wszystkie naraz.
(stara v0.264 próbowała ograniczyć obraz między 10~250 żeby uniknąć przepełnienia, ale wciąż było zauważalne uprzedzenie, obraz mógł być zbyt ciemny lub jasny)
Jak v0.264, preferuj wysoką lub pełną moc (0.9~1).
(8/17/2025) NoobAI v-pred v0.264:
Pierwsza wersja trenowana na NoobAI v-pred.
Zapewnia lepsze oświetlenie, mniej przepełnienia.
Uwaga: preferuj wysoką lub pełną moc (0.9~1).
(7/28/2025) illus01 v1.198
Głównie w porównaniu do v1.185c:
Koniec wersji "c". Chociaż "wizualnie uderzające" jest dobre, ma problemy z kompatybilnością. Np. gdy Twój model bazowy ma już podobne wzmocnienie kontrastu. Nakładanie dwóch wzmocnień kontrastu jest złe. Więc brak już szalonych efektów post produkcji (wysoki kontrast i nasycenie itp.).
Zamiast tego więcej tekstur i detali. Kino poziom oświetlenia. Lepsza kompatybilność.
Wersja ta zmieniła dużo rzeczy, włącznie z przeglądem zestawu danych, więc efekt będzie inny niż we wcześniejszych wersjach.
Dla tych, którzy chcą mieć z powrotem szalone efekty v1.185c. Można znaleźć czyste, dedykowane style artystyczne na tej stronie. Jeśli zestaw danych jest wystarczająco duży dla LoRA, mogę taki wytrenować.
(6/21/2025) illus01 v1.185c:
W porównaniu do v1.165c.
+100% przejrzystości i ostrości.
-30% obrazów zbyt chaotycznych (nie dają się dobrze opisać). Dlatego ta wersja nie daje już tak wysokiego kontrastu, ale jest bardziej stabilna w normalnym użyciu.
(6/10/2025): illus01 v1.165c
Specjalna wersja. Nie jest to ulepszenie v1.164. "c" oznacza "colorful", "creative", czasem "chaotic".
Zestaw danych zawiera obrazy bardzo wizualnie uderzające, ale czasem trudne do opisania, np.: bardzo kolorowe, wysoki kontrast, skomplikowane warunki oświetleniowe, obiekty i wzory wszędzie.
Daje efekt "wizualnie uderzający", ale kosztem "naturalności". Może wpływać na style z miękkimi kolorami itd. Np. ta wersja nie generuje idealnie "tekstury rysunku ołówkiem" jak v1.164.
(6/4/2025): illus01 v1.164
Lepsze zrozumienie prompta. Każdy obraz ma teraz 3 naturalne opisy z różnych perspektyw. Tagi Danbooru weryfikowane przez LLM, wybrane tylko ważne i wplecione w naturalny opis.
Przeciwdziałanie prześwietleniu. Dodany bias, aby zapobiec generowaniu #ffffff czystej bieli. Często #ffffff oznacza prześwietlenie i utratę wielu detali.
Zmienione ustawienia treningu. Lepsza kompatybilność z NoobAI, zarówno e-pred, jak v-pred.
(5/19/2025): illus01 v1.152
Kontynuacja ulepszania oświetlenia, tekstur i detali.
Dodano 5 tys. obrazów, więcej kroków treningu, przez co efekt jest silniejszy.
(5/9/2025): nbep11 v0.205:
Szybka poprawka jasności i kolorów w v0.198. Teraz nie powinno dramatycznie zmieniać jasności i kolorów, jak prawdziwe zdjęcie. v0.198 nie była zła, tylko zbyt kreatywna.
(5/7/2025): nbep11 v0.198:
Dodano więcej ciemnych obrazów. Mniej zniekształconych ciał i tła w ciemnym środowisku.
Usunięto ulepszenie koloru i kontrastu. Nie jest już potrzebne. Zamiast tego użyj Contrast Controller.
(4/25/2025): nbep11 v0.172.
Te same nowości w illus01 v1.93 ~ v1.121. Podsumowanie: nowy zestaw zdjęć „Touching Grass”. Lepsze naturalne tekstury, tło, oświetlenie. Słabsze efekty postaci dla lepszej kompatybilności.
Lepsza dokładność i stabilność kolorów. (W porównaniu do nbep11 v0.160)
(4/17/2025): illus01 v1.121.
Powrót do illustrious v0.1. Illustrious v1.0 i nowsze wersje były celowo trenowane na obrazach AI (może 30% zestawu). Co nie jest idealne dla trenowania LoRA. Nie zauważyłem tego, aż przeczytałem ich publikację.
Mniejszy efekt stylu postaci. Powrót do poziomu v1.23. Postacie mają mniej detali w tej LoR, ale jest lepsza kompatybilność. To kompromis.
Inne rzeczy jak poniżej (v1.113).
(4/10/2025): illus11 v1.113 ❌.
Aktualizacja: używaj tej wersji tylko jeśli wiesz, że Twój model bazowy jest oparty na Illustrious v1.1. W przeciwnym razie użyj illus01 v1.121.
Trenowany na Illustrious v1.1.
Dodano nowy zestaw "Touching Grass". Lepsze naturalne tekstury, oświetlenie i efekt głębi pola. Lepsza stabilność struktury tła. Mniej zniekształconych teł, jak zniekształcone pokoje, budynki.
Pełne opisy w naturalnym języku z LLM.
(3/30/2025): illus01 v1.93.
v1.72 była trenowana za mocno. Więc zmniejszyłem jej siłę. Powinna mieć lepszą kompatybilność.
(3/22/2025): nbep11 v0.160.
To samo co w illus v1.72.
(3/15/2025): illus01 v1.72
Ten sam nowy zestaw tekstur i oświetlenia jak w ani40z v0.4 poniżej. Bardziej naturalne oświetlenie i tekstury.
Dodano mały zestaw ~100 obrazów dla ulepszenia ręki, skupiający się na dłoniach w różnych zadaniach, jak trzymanie szklanki lub kubka.
Usunięto wszystkie obrazy "prostego tła" z zestawu. -200 obrazów.
Zmiana narzędzia treningowego z kohya na onetrainer. Zmiana architektury LoRA na DoRA.
(3/4/2025) ani40z v0.4
Trenowany na Animagine XL 4.0 ani40zero.
Dodano ~1k obrazów skupiających się na naturalnym dynamicznym oświetleniu i teksturach świata rzeczywistego.
Bardziej naturalne oświetlenie i tekstury.
ani04 v0.1
Wersja początkowa dla Animagine XL 4.0. Głównie do naprawy problemów z jasnością Animagine 4.0. Lepszy i wyższy kontrast.
illus01 v1.23
nbep11 v0.138
Dodano trochę futrzastych/nie-ludzkich/innych obrazów dla zbalansowania zestawu danych.
nbep11 v0.129
zła wersja, efekt za słaby, ignoruj ją
nbep11 v0.114
Wprowadzono "Pełen zakres kolorów". Automatycznie zbalansuje elementy w kierunku "normalne i estetyczne". Możesz to traktować jako przycisk "auto ulepsz zdjęcie" jaki jest w większości narzędzi do edycji zdjęć. Minusem tej optymalizacji jest to, że zapobiega dużym uprzedzeniom. Np. chcesz mieć 95% obrazu czarnego i 5% jasnego, zamiast 50/50.
Dodano trochę realistycznych danych. Żywe detale, oświetlenie, mniej płaskich kolorów.
illus01 v1.7
nbep11 v0.96
Więcej obrazów treningowych.
Ponownie dopasowany na małym zestawie "wallpaper" (prawdziwe tapety gier, najwyższej jakości, ~100 obrazów). Ulepszenia w detalach (widoczne na skórze, włosach) i kontraście.
nbep11 v0.58
Więcej obrazów. Zmiana parametrów treningu bliższa modelowi bazowemu NoobAI.
illus01 v1.3
nbep11 v0.30
Więcej obrazów.
nbep11 v0.11: Trenowany na NoobAI epsilon pred v1.1.
Ulepszone tagi zestawu danych. Ulepszona struktura LoRA i rozkład wag. Powinno być stabilniejsze i mniej wpływać na kompozycję obrazu.
illus01 v1.1
Trenowany na illustriousXL v0.1.
nbep10 v0.10
Trenowany na NoobAI epsilon pred v1.0.
Szczegóły modelu
Dyskusja
Proszę się log in, aby dodać komentarz.













