Stabilizer IL/NAI - ani40 v0.1
Powiązane słowa kluczowe i tagi
Zalecane podpowiedzi
<lora:ani40_stabilizer_v0.1:0.8>1girl, fox ears, upper body, masterpiece, best quality, high score, great score, [Trained by reakaakasky @civitai.com/user/reakaakasky and only published on civitai::0]
Zalecane parametry
samplers
steps
cfg
resolution
other models
Zalecane parametry wysokiej rozdzielczości
upscaler
upscale
denoising strength
Wskazówki
Najpierw załaduj LoRA Stabilizer w swoim stosie LoRA, aby zminimalizować nieoczekiwane zmiany wag z powodu dynamicznej wagi patch w architekturze DoRA.
Używaj go jako dopasowanego modelu bazowego na wstępnie wytrenowanych modelach bazowych (NoobAI v-pred v1.0 lub NoobAI eps v1.0) dla najlepszych naturalnych detali i kontroli stylu.
Unikaj łączenia LoRA Stabilizer z innymi dopasowanymi modelami bazowymi, które mają już zanieczyszczenie stylu AI lub przeuczenie, aby zapobiec niepożądanym efektom.
Ta LoRA nie jest LoRA stylu; nie dostarcza domyślnego uprzedzenia stylu, więc określ styl za pomocą tagów lub innych LoRA, aby kierować modelem.
Uważaj na fałszywe modele bazowe, które mogą mieć tę LoRA zmergowaną dwukrotnie, co powoduje degradację i nieoczekiwane zachowania modelu.
Używaj specjalizowanych LoRA, takich jak Dark, Contrast Controller i Style Strength Controller od tego samego autora dla dodatkowych efektów i kontroli obrazu.
Sponsorzy twórcy
Wypróbuj nowy model Lumina 2 z zaawansowaną architekturą DiT, tylko 2 mld parametrów, efektywnym rozmiarem modelu i zaawansowanym enkoderem tekstu (Google Gemma 2) obsługującym różnorodne języki.
- "Enhancement bundle" LoRA by autor
- Dostęp online do modeli Lumina 2 na TensorArt bez lokalnej instalacji.
- Przyspieszenia sprzętowe i optymalizacje: Torch compile i przewodnik po trybie FP16, TeaCache, Lightning LoRA, Skalowany model bazowy FP8.
Obrazy na okładkę to surowe wyjście z wstępnie wytrenowanego modelu, w rozdzielczości 1MP. To co widzisz, to otrzymujesz. Nie stosowano powiększania, korekt malowania rąk/twarzy ani negatywnego promptu.
(21.10.2025): Czas patrzeć w przyszłość...
Ten model nie będzie aktywnie aktualizowany. SDXL jest po prostu ... stary, został wydany dwa lata temu (czerwiec 2023).
Dlaczego nie spróbować nowych modeli? Mają nowszą architekturę, lepszą wydajność i mogą być znacznie bardziej efektywne. Na przykład: Lumina 2. Jeśli właśnie usłyszałeś o Lumina 2, szybkie info:
Wydany w styczniu 2025. Open source. Licencja Apache 2.0.
Architektura DiT (najpopularniejsza obecnie, ta sama co Flux.1 itd.).
Mały i efektywny. Tylko 2 mld parametrów. Pełny model (fp16) 5GB, model Q8 tylko 2,5GB, co oznacza, że można go nawet załadować i uruchomić na gtx1050 bez utraty jakości.
Używa tego samego Flux 16ch VAE, matematycznie 4x lepszego niż SDXL 4ch VAE.
Używa Google Gemma 2 2b jako enkodera tekstu (tak, to również w pełni funkcjonalny chat LLM). 10x lepszy niż stare dobre CLIPy w SDXL, które rozumieją tylko tagi. Jako LLM czatu, rozumie niemal wszystko... angielski, chiński, japoński, literówki, slangi, poezję... Na przykład możesz to zrobić poprzez prompt: (Uwaga: to jest jeden obraz, a nie cztery, zobacz pełny obraz i prompt tutaj, pomysł pochodzi z tutaj).
Wytworzyłem "Enhancement bundle" LoRA. Nazwa zmieniona, mniej myląca, ale zbiór danych jest taki sam.
Poza tym, nie sądzę, że Civitai będzie wspierać Lumina 2. Model wrzuciłem też na TensorArt. Znajdziesz mnie tutaj. Spróbuj modeli Lumina 2 online, jeśli nie masz lokalnego setupu.
Przydatne linki:
Modele:
Neta Lumina: Model bazowy, finetuning w stylu anime na datasetach danbooru i e621.
NetaYume Lumina: Model bazowy, dalszy finetuning na najnowszym zestawie danych.
Optymalizacje:
Przyspieszenia sprzętowe: torch.compile dla nowszych GPU (rtx 3xxx i późniejsze), o 30% szybciej. Włącz tryb fp16 dla starszych GPU, które nie wspierają bf16 (rtx 2xxx i starsze), 3x szybciej, bo domyślnie stare GPU używają fp32, które jest bardzo wolne. https://civitai.com/articles/22251
TeaCache: https://github.com/spawner1145/CUI-Lumina2-TeaCache
Lightning LoRA, 2x szybciej (eksperymentalne): https://civitai.com/models/2115586
Skalowany model bazowy fp8 (DiT+TE), tylko 3GB: https://civitai.com/models/2023440
Stabilizer
Co to jest?
Model średniej skali dopasowany na 7 tysiącach obrazów.
Wiele wyspecjalizowanych podzbiorów danych, takich jak zbliżenia ubrań, dłoni, złożone oświetlenie otoczenia, tradycyjne sztuki ...
Tylko naturalne tekstury, oświetlenie i najdrobniejsze detale. Bez plastikowego, błyszczącego stylu AI. Bo brak obrazów AI w zbiorze danych. Każdy obraz wybrałem ręcznie. Nie jestem fanem trenowania na obrazach AI. To jak gra w "głuchy telefon"; trenowanie AI na obrazach AI tylko powoduje utratę informacji, przez co wyglądają gorzej (plastikowo, błyszcząco).
Lepsze rozumienie promptów. Trenowane na opisach w języku naturalnym.
Skupia się na kreatywności zamiast stałym stylu. Zbiór danych jest bardzo różnorodny. Więc ten model nie ma domyślnego stylu (uprzedzenia), które ograniczałyby jego kreatywność.
(v-pred) Lepsze i zrównoważone oświetlenie, bez przelania i przesycenia. Chcesz czystą czerń 0 i biel 255 na tym samym obrazie, nawet w tym samym miejscu? Nie ma problemu.
Dlaczego brak domyślnego stylu?
Co to jest "domyślny styl": jeśli model ma domyślny styl (uprzedzenie), oznacza to, że bez względu na prompt, generuje ten sam efekt (twarze, tła, nastroje), który tworzy domyślny styl.
Zalety: łatwy w użyciu, nie musisz już podawać stylu w promptach.
Wady: nie można go też nadpisać. Jeśli dasz prompt niespasowany do domyślnego stylu, model go zignoruje. Jeśli nałożysz wiele stylów, domyślny styl zawsze nakłada się/zaśmieca/ogranicza inne style.
"brak domyślnego stylu" oznacza brak uprzedzeń i musisz określić styl, który chcesz, aby pokierować modelem, poprzez tagi lub LoRA. Ale nie będzie nakładania/zaśmiecania stylów przez ten model. Otrzymujesz dokładnie ten styl, który nałożyłeś.
Efekty:
Teraz model potrafi dokładnie generować styl, który podałeś, zamiast uproszczonego stylu anime. Brak nakładania/przesuwania stylów, brak twarzy AI, tylko lepsze detale. Porównanie:
https://civitai.com/images/84145167 (style ogólne)
https://civitai.com/images/84256995 (style artysty, zwróć uwagę na twarz)
Jeśli chcesz poznać, czym jest "przesuwanie stylów i twarze AI". Zobacz:
ten model: https://civitai.com/images/107381516
inny model: https://civitai.com/images/107647042. twarz kobiety i okropne błyszczące tło.
Zobacz więcej wykresów xy na obrazach na okładkę. Wykres xy jest wart tysiąca słów.
Dlaczego ten "dopasowany model bazowy" to LoRA?
Nie jestem gigachadem i nie mam milionów obrazów treningowych. Nie trzeba dopasowywać całego modelu bazowego, wystarczy LoRA.
Muszę tylko uploadować, a Ty tylko pobierasz mały plik 40MiB zamiast wielkiego punktu kontrolnego 7GiB, co oszczędza 99,4% danych i miejsca na dysku.
Dlatego mogę spamować aktualizacje.Ta LoRA może wyglądać na małą, ale jest potężna. Używa nowej architektury DoRA od Nvidia, która jest bardziej efektywna niż tradycyjna LoRA.
Jak zdobyć ten "dopasowany model bazowy"?
Załaduj tę LoRĘ na wstępnie wytrenowany model bazowy z pełną siłą. Wtedy model wstępnie wytrenowany zmieni się w dopasowany model bazowy. Zobacz poniżej "Jak używać".
Udostępnianie mergów z tym modelem jest zabronione. Dla informacji, są ukryte słowa wyzwalające do drukowania niewidzialnego znaku wodnego. Sam napisałem znak wodny i detektor. Nie chcę go używać, ale mogę.
Ten model jest publikowany tylko na Civitai i TensorArt. Jeśli widzisz "mnie" i to zdanie na innych platformach, to falsyfikat, a platforma, której używasz, jest piracka.
Proszę pozostaw swoją opinię w komentarzach, żeby każdy mógł ją zobaczyć. Nie pisz opinii w systemie recenzji Civitai, jest tak źle zaprojektowany, że nikt nie może ich znaleźć ani zobaczyć.
Jak używać
Wersje:
nbvp10 (dla NoobAI v-pred v1.0).
Dokładne kolory i ostre detale.
nbep10 (dla NoobAI eps v1.0).
Mniejsze nasycenie i kontrast w porównaniu do modeli v-pred. Standardowa predykcja epsilon (eps) ogranicza model do mniejszego zakresu kolorów. Dlatego mamy później v-pred.
illus01 (trenowany na Illustrious v0.1, ale nadal polecam NoobAI eps v1.0).
Jeśli używasz tego modelu na innym dopasowanym modelu bazowym. Uwaga, większość (90%) modeli anime oznaczonych obecnie jako "illustrious" to w rzeczywistości NoobAI (lub głównie). Zalecane jest wypróbowanie obu wersji (il01 i nbep10), aby zobaczyć, która jest lepsza.
Najpierw załaduj tę LoRĘ w swoim stosie LoRA.
Ta LoRA używa nowej architektury DoRA od Nvidia, która jest bardziej efektywna niż tradycyjna LoRA. Jednak w przeciwieństwie do tradycyjnej LoRA, która ma statyczną wagę patcha, waga patcha w DoRA jest dynamicznie obliczana na podstawie aktualnie załadowanej wagi modelu bazowego (zmienianej przy ładowniu LoR). Aby zminimalizować nieoczekiwane zmiany, ładuj tę LoRĘ jako pierwszą.
Dwa sposoby użycia tego modelu:
1). Użyj go jako dopasowany model bazowy (zalecane):
Jeśli chcesz najdrobniejsze i naturalne detale oraz stworzyć dowolną kombinację stylów, z pełną kontrolą.
Zastosuj tę LoRĘ na wstępnie wytrenowanym modelu bazowym. Uwaga: wstępnie wytrenowany to oryginalny model, bez dopasowywania. Np. NoobAI v-pred v1.0, NoobAI eps v1.0
2). Użyj go jako LoRA na innym dopasowanym modelu bazowym.
To w końcu LoRA.
Lecz uwaga:
To nie jest LoRA stylu, de facto łączysz dwa modele bazowe. Wynik nie zawsze będzie taki, jak oczekujesz.
Nie działa na hiper-merged styl AI zanieczyszczonych 1 dziewczyną przeuczonych 50 wersji Nova furry 3D anime WAI czy czymkolwiek podobnym. Ten model nie naprawi błyszczącego i plastikowego stylu AI. Użyj modelu wstępnie wytrenowanego, jeśli chcesz się pozbyć stylu AI.
Tak powinien wyglądać Craft Lawrence (z Spice and Wolf), jeśli widziałeś anime: https://civitai.com/images/107381516
Tak wyglądają modele zanieczyszczone stylem AI z 1 dziewczyną przeuczonych: https://civitai.com/images/107647042
FAQ:
Obrazy na okładkę to surowe wyjście z wstępnie wytrenowanego modelu, w rozdzielczości 1MP. Nie użyto żadnych magicznych wtyczek, żadnego powiększania, napraw malowania rąk/twarzy, ani negatywnego promptu. Niektórzy użytkownicy twierdzą, że nie mogą tego odtworzyć, to kwestia umiejętności. (Nieodpowiedni model bazowy lub zbyt dużo „optymalizacji” dodane)
Jeśli ten model zepsuł Twój bazowy nawet przy niskiej sile (np. <0.5), to problem Twojego modelu bazowego. Model bazowy prawdopodobnie ma już tę LoRĘ zmergowaną (i zmergowałeś ją dwukrotnie). Wagi modelu się pomnożyły i skollapsowały. Uważaj na fałszywych twórców modeli bazowych, czyli złodziei. Niektórzy „twórcy” wcale nie trenują, tylko biorą czyjeś modele, łączą je, usuwają metadane i kredyty i sprzedają jako własny model bazowy.

Inne narzędzia
Kilka pomysłów, które miały być częścią Stabilizer, a teraz są oddzielnymi LoRami. Dla lepszej elastyczności. Link do kolekcji: https://civitai.com/collections/8274233.
Dark: LoRA, która faworyzuje ciemniejsze środowisko. Przydatna do korekty jasności w niektórych modelach bazowych. Trening na obrazach o niskiej jasności. Brak uprzedzeń stylu, brak zanieczyszczenia stylu.
Contrast Controller: Ręcznie wykonana LoRA. Kontroluj kontrast jak suwak w monitorze. W przeciwieństwie do innych „wzmacniaczy kontrastu”, efekt tej LoRY jest stabilny, matematycznie liniowy i bez skutków ubocznych dla stylu.
Przydatne, gdy Twój model bazowy ma problem z przesyceniem lub chcesz coś naprawdę kolorowego.
Przykład:

Style Strength Controller: Lub reduktor efektów przeuczenia. Może zmniejszać wszelkiego rodzaju efekty przeuczenia (uprzedzenia wobec obiektów, jasności itd.) matematycznie. Albo je wzmacniać, jeśli chcesz.
Różnice względem Stabilizer:
Stabilizer trenowany na danych z prawdziwego świata. Potrafi jedynie "zmniejszyć" efekty przeuczenia na teksturach, detalach i tłach, przywracając je.
Style Controller nie pochodzi z treningu. Jest jak "cofnij" trening dla modelu bazowego, więc jest mniej przeuczony. Może matematycznie zmniejszyć wszelkie efekty przeuczenia, takie jak uprzedzenia względem jasności i obiektów.
Stare wersje:
Więcej informacji znajdziesz w "Logu aktualizacji". Uwaga, stare wersje mogą mieć bardzo różne efekty.
Główna oś czasu:
Teraz ~: Naturalne detale i tekstury, stabilne rozumienie promptów i większa kreatywność. Już nie ograniczone do czystego stylu 2D anime.
illus01 v1.23 / nbep11 0.138 ~: Lepszy styl anime z żywymi kolorami.
illus01 v1.3 / nbep11 0.58 ~: Lepszy styl anime.
Log aktualizacji
(21.10.2025): Noobai v-pred v0.280a
Specjalna wersja, „a” oznacza anime. Jest domyślny styl anime 2D. Powinno być łatwiej do użycia, jeśli nie chcesz podawać stylu. Dataset bardzo się zmienił, efekt może być inaczej niż w poprzednich wersjach.
(31.08.2025) NoobAI ep10 v0.273
Wersja trenowana od początku na NoobAI eps v1.0.
W porównaniu do poprzedniego illus01 v1.198:
Lepsza i zrównoważona jasność w ekstremalnych warunkach. (tak jak nbvp v0.271)
Lepsze tekstury i detale. Więcej kroków treningowych na wysokich SNR. (wersje illus01 pomijały te kroki dla kompatybilności, teraz wszystkie modele bazowe to NoobAI, nie trzeba już pomijać tych kroków.)
(24.08.2025) NoobAI v-pred v0.271:
W porównaniu do poprzedniego v0.264:
Lepsze i zrównoważone oświetlenie w ekstremalnych warunkach, mniejsze uprzedzenia.
Wysoki kontrast, czysta czerń 0 i biel 255 na tym samym obrazie, nawet w tym samym miejscu, bez przelania i przesycenia. Teraz możesz mieć to wszystko razem.
(stara v0.264 próbowała ograniczać obraz między 10~250, by uniknąć przelania, ale nadal miała wyraźny problem z uprzedzeniami, obraz był albo zbyt ciemny albo jasny)
Jak w v0.264, preferowana wysoka lub pełna siła (0.9~1).
(17.08.2025) NoobAI v-pred v0.264:
Pierwsza wersja trenowana na NoobAI v-pred.
Daje lepsze oświetlenie, mniej przelania.
Uwaga: preferowana wysoka lub pełna siła (0.9~1).
(28.07.2025) illus01 v1.198
Głównie w porównaniu do v1.185c:
Koniec wersji "c". Mimo że "wizualnie uderzające" jest dobre, miało problemy z kompatybilnością. Np. gdy Twój model bazowy ma już wzmocnienie kontrastu. Nakładanie dwóch wzmocnień kontrastu jest złe. Więc brak szalonych post efektów (wysoki kontrast i nasycenie itd.).
Zamiast tego, więcej tekstur i detali. Oświetlenie na poziomie kinowym. Lepsza kompatybilność.
Ta wersja zmieniła wiele rzeczy, w tym przegląd datasetu, więc efekt będzie inny niż w starszych wersjach.
Dla tych, którzy chcą powrócić do szalonych efektów v1.185c. Znajdziesz czyste i dedykowane style artystyczne na tej stronie. Jeśli dataset jest wystarczająco duży dla LoRA, mogę ją wytrenować.
(21.06.2025) illus01 v1.185c:
W porównaniu do v1.165c.
+100% przejrzystości i ostrości.
-30% obrazów zbyt chaotycznych (trudnych do opisania). Może ta wersja nie da już tak wysokiego kontrastu, ale powinna być stabilniejsza w normalnym użyciu.
(10.06.2025): illus01 v1.165c
To specjalna wersja. Nie jest ulepszeniem v1.164. "c" oznacza "kolorowy", "kreatywny", czasem "chaotyczny".
Dataset zawiera obrazy bardzo wizualnie uderzające, ale czasem trudne do opisania, np.: bardzo kolorowe, duży kontrast, złożone oświetlenie, obiekty i skomplikowane wzory wszędzie.
Dostajesz "wizualne uderzenie", ale kosztem "naturalności". Może wpływać na style o miękkich kolorach itd. Np. ta wersja nie generuje perfekcyjnie tekstury "rysunku ołówkiem" jak v1.164.
(04.06.2025): illus01 v1.164
Lepsze rozumienie promptów. Każdy obraz ma teraz 3 naturalne opisy z różnych perspektyw. Tagi z Danbooru sprawdzane przez LLM, tylko najważniejsze wybrane i wstawione do naturalnego opisu.
Anti-overexpose. Dodane uprzedzenie, by zapobiec osiąganiu czystej bieli #ffffff przez model. Zbyt często #ffffff == prześwietlenie, które powoduje utratę detali.
Zmienione ustawienia treningu. Lepsza kompatybilność z NoobAI, zarówno e-pred jak i v-pred.
(19.05.2025): illus01 v1.152
Kontynuacja poprawy oświetlenia, tekstur i detali.
5K więcej obrazów, więcej kroków treningowych, skutkując silniejszym efektem.
(09.05.2025): nbep11 v0.205:
Szybka poprawka jasności i kolorów w v0.198. Teraz nie powinno zmieniać jasności i kolorów dramatycznie jak prawdziwe zdjęcie. v0.198 nie był zły, po prostu kreatywny, ale zbyt kreatywny.
(07.05.2025): nbep11 v0.198:
Dodano więcej ciemnych obrazów. Mniej zniekształconych ciał, tła w ciemnych środowiskach.
Usunięto wzmacnianie kolorów i kontrastu. Już nie jest potrzebne. Użyj raczej Contrast Controller.
(25.04.2025): nbep11 v0.172.
Te same nowości jak w illus01 v1.93 ~ v1.121. Podsumowanie: nowy dataset zdjęć "Touching Grass". Lepsze naturalne tekstury, tło i oświetlenie. Słabszy efekt postaci dla lepszej kompatybilności.
Lepsza dokładność i stabilność kolorów. (w porównaniu do nbep11 v0.160)
(17.04.2025): illus01 v1.121.
Powrót do illustrious v0.1. illustrious v1.0 i nowsze wersje były celowo trenowane na obrazach AI (prawdopodobnie 30% datasetu), co nie jest idealne dla treningu LoRA. Nie zauważyłem tego, dopóki nie przeczytałem artykułu.
Mniejszy efekt stylu postaci. Powrót do poziomu v1.23. Postaci będą miały mniej detali po tej LoRZE, ale będą lepiej kompatybilne. To kompromis.
Inne zmiany jak poniżej (v1.113).
(10.04.2025): illus11 v1.113 ❌.
Aktualizacja: używaj tej wersji tylko, jeśli Twój model bazowy pochodzi z Illustrious v1.1. W przeciwnym razie użyj illus01 v1.121.
Wytrenowany na Illustrious v1.1.
Dodany nowy dataset "Touching Grass". Lepsze naturalne tekstury, oświetlenie i efekt głębi ostrości. Lepsza stabilność tła. Mniej zdeformowanych tłów, jak zdeformowane pokoje czy budynki.
Pełne opisy w języku naturalnym generowane przez LLM.
(30.03.2025): illus01 v1.93.
v1.72 był za silnie trenowany. Więc zmniejszyłem jego ogólną siłę. Powinna być lepsza kompatybilność.
(22.03.2025): nbep11 v0.160.
Te same rzeczy co w illus v1.72.
(15.03.2025): illus01 v1.72
Ten sam nowy dataset tekstur i oświetlenia jak wspomniano niżej w ani40z v0.4. Bardziej naturalne oświetlenie i tekstury.
Dodano mały zbiór około 100 obrazów do poprawy dłoni, koncentrujący się na rękach w różnych zadaniach, jak trzymanie szklanki lub kubka.
Usunięto wszystkie obrazy "prostego tła" z datasetu. -200 obrazów.
Zmiana narzędzia treningowego z kohya na onetrainer. Zmiana architektury LoRA na DoRA.
(04.03.2025) ani40z v0.4
Trenowany na Animagine XL 4.0 ani40zero.
Dodano około 1k dataset skupiający się na naturalnym dynamicznym oświetleniu i naturalnych teksturach świata rzeczywistego.
Bardziej naturalne oświetlenie i naturalne tekstury.
ani04 v0.1
Wersja początkowa dla Animagine XL 4.0. Głównie do poprawy problemów z jasnością Animagine 4.0. Lepszy i wyższy kontrast.
illus01 v1.23
nbep11 v0.138
Dodano trochę obrazów furry/nie-ludzkich/innych dla zbalansowania datasetu.
nbep11 v0.129
Zła wersja, efekt za słaby, zignoruj ją.
nbep11 v0.114
Wdrożono "pełny zakres kolorów". Automatycznie balansuje obraz w stronę "normalnego i estetycznego". Można to porównać do funkcji "one-click photo auto enhance" w większości programów do edycji zdjęć. Wada tej optymalizacji: zapobiega wysokim uprzedzeniom. Np. jeśli chcesz, żeby 95% obrazu było czarne, a 5% jasne, zamiast 50/50%
Dodano trochę bardziej realistycznych danych. Bardziej żywe detale, oświetlenie, mniej płaskich kolorów.
illus01 v1.7
nbep11 v0.96
Więcej obrazów treningowych.
Następnie dopasowany ponownie na małym "wallpaper" zestawie (prawdziwe tapety z gier, najwyższa jakość jaką znalazłem. ~100 obrazów). Poprawa detali (wyraźnie na skórze, włosach) i kontrastu.
nbep11 v0.58
Więcej obrazów. Zmiana parametrów treningu jak najbardziej zbliżone do modelu bazowego NoobAI.
illus01 v1.3
nbep11 v0.30
Więcej obrazów.
nbep11 v0.11: Trenowany na NoobAI epsilon pred v1.1.
Ulepszone tagi datasetu. Ulepszona struktura LoRA i rozkład wag. Powinno być stabilniejsze i mniej wpływać na kompozycję obrazu.
illus01 v1.1
Trenowany na illustriousXL v0.1.
nbep10 v0.10
Trenowany na NoobAI epsilon pred v1.0.
Szczegóły modelu
Dyskusja
Proszę się log in, aby dodać komentarz.












