Stabilizer IL/NAI - illus01 v1.165c
Empfohlene Prompts
masterpiece
Empfohlene Negative Prompts
Start without negative prompt. Only add specific keywords when you really want to remove something, as v-pred is sensitive to negative prompts.
Empfohlene Parameter
samplers
steps
cfg
resolution
other models
Tipps
Verwende Euler-Sampler ohne 'a' und niedrige CFG-Werte zwischen 2 und 4, vorzugsweise 3.
Vermeide negative Prompts, außer wenn unbedingt nötig; v-pred reagiert sehr empfindlich auf negative Prompts.
Nutze speziell für NoobAI v-pred trainierte LoRAs für beste Ergebnisse; falls nicht verfügbar, greife auf NoobAI eps v1.0, dann illustrious v0.1 zurück.
Vermeide Basismodelle mit KI-Stil, da diese die Wirkung dieser LoRA abschwächen und Overfitting-Stilverschiebungen verursachen.
Lade diese LoRA zuerst in deinem LoRA-Stack, da die DoRA-Architektur sie basierend auf den aktuell geladenen Basismodell-Gewichten anpasst.
Vermeide ‚gemergte‘ Basismodelle mit fixierten Stilstärken, wenn du flexible LoRA-Stapelungen möchtest.
Hinterlasse Feedback im Kommentarfeld, um der Community zu helfen.
Beachte, dass diese LoRA nur mit v-pred Basismodellen funktioniert und nicht mit eps-Modellen.
Ersteller-Sponsoren
Entdecke weitere verwandte LoRAs für verbesserte Kontrolle und Flexibilität:
- Touching Grass – LoRA mit nur realem Datensatz für stärkere Hintergrund- und Lichteffekte.
- Dark – LoRA zur Korrektur hoher Helligkeitsverzerrung mit niedrigstufigem Training.
- Contrast Controller – Handgefertigte LoRA zur präzisen und nebenwirkungsfreien Kontraststeuerung.
- Style Strength Controller – Mathematische, lineare Reduzierung von Overfitting und Stil-Bias.
- Weitere LoRAs in der Sammlung: https://civitai.com/collections/8274233
Hinweis zu Cover-Bildern:
Sie sind die rohen Ausgaben des Vanilla-(vortrainierten) Basismodells in der Standardauflösung von 1MP. Kein Upscale, keine Plugins, keine Inpainting-Korrekturen. Mit Metadaten, 100% reproduzierbar.
Dies ist KEIN Style-LoRA. Alle sichtbaren Stile stammen aus dem vortrainierten Basismodell, ausgelöst durch den Prompt. Siehe XY-Diagramme für die Wirkung dieser LoRA.
Letztes Update:
(24.08.2025) NoobAI v-pred v0.271:
Neue Methode, helligkeitskalibriert. Kurz gesagt: Im Vergleich zur vorherigen v0.264: Bessere und ausgewogenere Beleuchtung bei extremen Bedingungen, weniger Verzerrung. Echte volle Farbskalen. Tiefschwarz 0 und Weiß 255 können im selben Bild vorkommen.
Hinweis: Manche „gemergte“ v-pred-Modelle könnten eps-Modelle enthalten, die das Rauschschema stören. Farbkleckse nach Anwendung dieser LoRA weisen auf Probleme im Basismodell hin.
Tipps zur Verwendung von v-pred:
Benutze Euler (ohne 'a') und niedrige CFG-Werte (2–4, bevorzugt 3).
Starte ohne negative Prompts. Füge spezifische Keywords nur hinzu, wenn du wirklich etwas entfernen willst. v-pred reagiert sehr sensibel auf negative Prompts.
Benutze LoRAs, die auf NoobAI v-pred trainiert sind. Wenn LoRA keine v-pred-Version hat, dann NoobAI eps v1.0 verwenden (wichtig: nicht v1.1, da v-pred v1.0 von eps v1.0 trainiert wurde), danach illustrious v0.1.
Beachte, dass manche eps-LoRAs mit „Noise Offset“ trainiert wurden, was Kompatibilitätsprobleme mit v-pred verursacht (eps-LoRAs ohne Noise Offset sind kompatibel). Auffällig sind dann unnatürliche Helligkeits- oder Dunkelheitsänderungen.
Diese LoRA ist nur für v-pred geeignet und unterstützt NICHT das eps-Modell. Wechsele zu einem v-pred Basismodell für diesen Beleuchtungseffekt.
(18.08.2025): Hinweis: Fast alle populären Basismodelle basieren auf NoobAI, nicht illustrious. Für besten Effekt sollten NoobAI-LoRAs verwendet werden. Mehr dazu im „Diskussion“.
Stabilizer
All-in-One-LoRA ohne Vorgabestil, der vortrainierte Anime-Modelle verbessert und sie so aussehen lässt, wie sie sollten.
Das Problem:
Anime-Modelle werden auf Anime-Bildern trainiert. Anime-Bilder sind simpel und enthalten nur hochrangige "Konzepte", oft sehr abstrakt. Es fehlen Hintergründe, Details und Texturen.
Das Modell soll nur hochrangige "Konzepte" lernen. Tatsächlich lernt es jedoch das, was es sieht, nicht das, was man will.
Nach der Sichtung von über 10 Mio. einfachen abstrakten Anime-Bildern lernt das Modell: 1) es muss keine Details generieren, da der Datensatz das nie forderte. 2) Stattdessen generiert es einfache Bilder mit abstrakten Konzepten, auch ohne Verständnis. Das führt zu deformierten Bildern, also "Overfitting".
Die Lösung:
Training mit Anime- und realen Bildern. So lernt das Modell Anime-Konzepte und behält dabei natürliche Details und Texturen, also weniger Overfitting.
NoobAI mischt echte Cosplay-Bilder in den Datensatz ein (wenn ich mich richtig erinnere, wurde das irgendwo von den Entwicklern erwähnt).
Diese LoRA geht noch weiter und wurde auf allem Möglichen trainiert: Architektur, Alltagsgegenstände, Kleidung, Landschaften… Außerdem mit vollumfänglichen, mehrstufigen, natürlichen Sprachbeschreibungen, um das ursprüngliche SDXL-Training nachzuahmen.
Was kann diese LoRA? Wenn du sie auf das Vanilla-(vortrainierte, ohne Stil) Basis-Modell anwendest:
Weniger Overfitting, weniger deformierte Bilder. Nutzung von tausenden integrierten Stil-Tags (Danbooru, e621), sowie allgemeinen Stil-Tags, die SDXL versteht, für klare und detaillierte Bilder – egal ob 2D, 3D, abstrakt oder realistisch. Siehe Vergleiche: 1 (Künstlerstile), 2 (allgemeine Stile)
Maximale Kreativität durch den vielfältigen Datensatz. Keine wiederholten Elemente (Gesichter, Hintergründe etc.). (Im Gegensatz zu überangepassten Style-LoRAs mit festem Stil.)
Natürliche Texturen und Details. Der Trainingsdatensatz enthält hochauflösende, qualitativ hochwertige reale Fotos (durchschnittlich > 3MP, etwa 1800x1800). Kein KI-Bild. (Im Gegensatz zu „Detailer“, der auf KI-Bildern trainiert wurde, welche durch KI-Stile verschmutzt sind, glänzende glatte Plastikflächen ohne Texturen.)
Was ist, wenn ich ein „gemergtes“ Basismodell mit Vorgabestil verwende? Normalerweise unproblematisch. Die meisten „gemergten“ Modelle sind Vanilla-Basismodelle mit eingebettetem Style-LoRA. Aber du kannst die Stärke dieser Stile nicht ändern, was beim Stapeln weiterer LoRAs problematisch sein kann. Siehe Abschnitt „Wie man es benutzt“.
Warum nicht das komplette Basismodell feinjustieren? Ich bin kein Gigachad und habe keine Millionen Trainingsbilder, daher ist das Feintuning des gesamten Basismodells nicht notwendig.
Warum ist diese LoRA so klein? (40MiB vs 200MiB) Dies ist eine neue Architektur namens DoRA von Nvidia, die effizienter als traditionelle LoRA ist.
Ist dies ein sogenannter „Detailer“? Nein, diese LoRA fügt Details hinzu, die "natürlich hier sein sollten", aber das Modell vergaß. Sie fügt keine zusätzlichen Objekte oder Dekorationen hinzu.
Wurde sie mit realen Bildern trainiert. Ist das ein „realistisches“ Modell? Beeinflusst es 2D-Anime-Charaktere? Nein. Es gibt keine realen Menschen im Datensatz. Das Modell lernte nur, was es sah. Diese LoRA kennt keine „echten Menschen“.
Warum empfiehlst du NoobAI, aber hast die NoobAI-Version dieser LoRA fallen gelassen? 1) Mit wachsendem Datensatz steigt Trainingsaufwand und Kosten stark. 2) Ich bemerkte keine Qualitätsminderung, wenn ich die illus-Version mit NoobAI benutzte.
Teilen von Merges mit dieser LoRA ist verboten. Es gibt versteckte Triggerwörter, die ein unsichtbares Wasserzeichen einfügen. Das funktioniert selbst bei einer Merge-Stärke von 0,05. Ich habe Wasserzeichen und Erkennung selbst programmiert. Ich will es nicht nutzen, kann es aber. Dieses Modell ist nur auf Civitai und TensorArt veröffentlicht. Wenn du „mir“ und diesen Satz woanders siehst, ist das gefälscht und die Plattform eine Piratenplattform.
Bitte hinterlasse Feedback im Kommentarfeld, damit es alle sehen können. Schreibe kein Feedback im Civitai-Bewertungssystem, das schlecht gestaltet ist und von niemandem gefunden wird.
Viel Spaß.
Anwendung
Versionspräfix:
illus01 = Trainiert auf Illustrious v0.1.
nbvp10 = Trainiert auf NoobAI v-pred v1.0.
nbep11 = Trainiert auf NoobAI e-pred v1.1. (Eingestellt)
Wie man LoRA auswählt (vereinfacht):
LoRA ist ein kleiner Gewichts-Patch vom Basismodell, auf dem sie trainiert wurde. Der Patch ist nur sinnvoll, wenn er auf das Original-Basismodell oder ein sehr ähnliches angewendet wird.
Wähle die LoRA, die deinem Basismodell am nächsten ist.
Fast alle beliebten Basismodelle basieren auf NoobAI, nicht illustrious:
Für besten Effekt solltest du NoobAI-LoRAs verwenden. Mehr über Fehlbezeichnungen und Tests deines Basismodells in „Diskussion“.
Empfehlung: Lade diese LoRA zuerst in deinem LoRA-Stack.
Diese LoRA nutzt Nvidias neue DoRA-Architektur, effizienter als traditionelle LoRA. Anders als traditionelle LoRA mit statischem Patch-Gewicht basiert DoRAs Patch-Gewicht auf dem aktuell geladenen Basismodell-Gewicht (das sich durch geladene LoRAs ändert). Daher beeinflusst die Lade-Reihenfolge die Wirkung dieser LoRA (DoRA).
Zum Basismodell:
Empfohlen: Vanilla (vortrainierte) Basismodelle.
Vollständige Kontrolle über Stil-Kombinationen.
Ich empfehle persönlich NoobAI v1.1.
Wenn du ein „gemergtes“ Basismodell verwendest:
Die meisten „gemergten“ Modelle sind Vanilla-Basismodelle mit eingebettetem Style-LoRA.
Du kannst aber die Stärke der eingebetteten Stile nicht ändern, was Probleme beim Stapeln zusätzlicher LoRAs verursacht. Daher sind viele gemergte Basismodelle nicht „LoRA-freundlich“.
Hyper-gemergte Modelle (nicht nur gemergte LoRAs, sondern Basismodelle mit großen Trainingsunterschieden, z.B. NoobAI + illustrious v1 mit Millionen Unterschied in Trainingsbildern und -schritten) sind ebenfalls nicht „LoRA-freundlich“.
Vermeide Basismodelle mit KI-Stil:
Viele Nutzer berichten, dass diese LoRA bei manchen Basis-Modellen mit KI-Stil keine Wirkung zeigt. Hier eine Erklärung zu KI-Stilen und dem Problem:
Was sind KI-Stile: KI-Stile sind auf KI-Bildern trainierte Stile. Sie sind extrem überangepasst, weil das Modell alles aus KI-Bildern sofort lernt. (Man kann leicht imitieren, weil man den Prozess kennt.)
Vorteile: KI-Stile sind sehr stabil und einfach zu nutzen, unabhängig vom Prompt. 95% aller beliebten Basismodelle haben KI-Stile.
Nachteile:
KI-Stile fehlen natürliche Details und Texturen. Alles wirkt sauber/glatt/glänzend wie Plastik, weil KI-Bilder weniger Details als reale Bilder haben. Training auf KI-Bildern führt zu Detailverlust (vergleichbar mit Telefonspiel).
KI-Stile unterdrücken fast alle Effekte anderer LoRAs (wegen Overfitting), was Stilverschiebungen verursacht. Siehe Vergleich. Oben Vanilla NoobAI, unten WAI mit starkem KI-Stil, wo diese LoRA bei Stärke 0.8 fast keine Wirkung zeigt.
Wiederholungen von Elementen (Gesichter, Frisuren, Hintergrundobjekte…).
Problem: Du kannst keine Details über KI-Stil legen. Willst du KI-Stil mit dieser LoRA "korrigieren", funktioniert es nicht. Du musst zuerst KI-Stil-Stärke senken. Bei „gemergten“ Basismodellen geht das nicht, da deren Stilstärke fixiert ist.
Alte Versionen:
Neue Version = neue Funktionen und Versuche. Vorteil von LoRA: Verschiedene Versionen können im Stack gemischt werden.
Mehr Infos im „Update-Log“. Alte Versionen können deutlich andere Wirkungen haben.
Jetzt ~: Natürliche Details und Texturen, stabile Prompt-Verständnis und mehr Kreativität. Nicht mehr nur reiner 2D-Anime-Stil.
„c“-Version (illus01 v1.152~1.185c): „c“ steht für „colorful“, „creative“, manchmal „chaotic“. Enthält Trainingsbilder mit sehr auffälliger Optik, z.B. hoher Kontrast, starke Posteffekte, komplexe Beleuchtung, viele komplexe Muster. Ergebnisse sind „auffällig“, aber weniger „natürlich“. Kann weiche Farbstile beeinflussen.
Illus01 v1.23 / nbep11 0.138 ~: Besserer Anime-Stil mit lebendigen Farben.
Illus01 v1.3 / nbep11 0.58 ~: Verbesserter Anime-Stil.
Datensatz
neueste oder kürzlichere Versionen
~7.000 Bilder insgesamt. Nicht sehr groß (gegenüber Gigachads mit Millionen Bildern), aber auch nicht klein. Jedes Bild von mir handverlesen.
Nur normale, gut aussehende Motive. Kein verrückter Kunststil, der nicht beschreibbar ist. Keine KI-Bilder, keine Wasserzeichen usw.
Nur hochauflösende Bilder. Durchschnittliche Auflösung des Datensatzes 3,37 MP, ca. 1800x1800.
Alle Bilder haben natürliche Beschreibungen von Googles neuestem LLM.
Alle Anime-Charaktere sind zuerst mit wd tagger v3 getaggt, dann mit Google LLM.
Enthält Natur, Outdoor, Indoor, Tiere, Alltagsgegenstände, vieles, außer echten Menschen.
Enthält alle Arten von Helligkeitsbedingungen: sehr dunkel, sehr hell, sehr dunkel UND sehr hell.
Andere Tools
Einige Ideen, die Teil vom Stabilizer sein sollten oder waren, sind jetzt eigene LoRAs für mehr Flexibilität. Sammlung: https://civitai.com/collections/8274233.
Touching Grass: LoRA, trainiert nur auf realen Bildern (kein Anime-Datensatz). Stärkere Wirkung, besserer Hintergrund und Beleuchtung. Für Gigachads, die reine Konzepte und Balancing bevorzugen.
Dark: LoRA, die eine hohe Helligkeitsverzerrung in manchen Basismodellen korrigiert. Trainiert auf dunklen Bildern aus dem Touching Grass-Datensatz. Ohne Menschen im Datensatz, beeinflusst Stil nicht.
Contrast Controller: Handgefertigte LoRA (kein Training). Kleinste 300KB-LoRA, die du je gesehen hast. Kontrolliert Kontrast wie ein Monitor-Regler. Effekt ist stabil, mathematisch linear und hat keinen Einfluss auf Stil.
Nützlich bei Überbelichtung im Basismodell oder wenn du sehr farbenfrohe Bilder willst.
Beispiel:

Style Strength Controller: Oder auch Effektverminderer für Overfitting. Ebenfalls handgefertigt, kein Training, keine Nebenwirkungen auf Stil, mathematisch linear. Kann alle Overfitting-Effekte reduzieren (Bias bei Objekten, Helligkeit usw.).
Effekttest mit Hassaku XL: Basismodell hat viele Bias (hohe Helligkeit, glatte glänzende Oberflächen, Wanddrucke…). Prompt enthält „dark“, Modell ignoriert fast. Bei Stärke 0,25 weniger Helligkeits-Bias, weniger merkwürdige glatte Flächen, Bild wirkt natürlicher.
Unterschiede zum Stabilizer:
Stabilizer wurde auf realen Daten trainiert. Er „reduziert“ Overfitting-Effekte bei Textur, Details und Hintergründen, indem er sie zurückbringt.
Style Controller wurde nicht trainiert. Er „macht Training rückgängig“ für Basismodell, daher weniger overfitted. Kann mathematisch alle Overfitting-Effekte wie Helligkeits-Bias reduzieren.
Update-Log
(28.07.2025) illus01 v1.198
Im Vergleich zu v1.185c:
Ende der „c“-Version. Trotz guter „visuell auffälliger“ Wirkung gibt es Kompatibilitätsprobleme, z.B. wenn dein Basismodell schon Kontrastverstärkung hat. Zwei Verstärkungen stapeln sich schlecht. Keine verrückten Posteffekte mehr (hoher Kontrast und Sättigung etc.).
Stattdessen mehr Texturen und Details. Kino-Beleuchtung. Bessere Kompatibilität.
Viele Änderungen, inkl. Überarbeitung des Datensatzes, daher andere Wirkung als vorige Versionen.
Für Nutzer, die verrückte Effekte von v1.185c vermissen: Reine Kunststile gibt es auf dieser Seite. Wenn der Datensatz groß genug, kann ich eine eigene LoRA trainieren.
(21.06.2025) illus01 v1.185c:
Im Vergleich zu v1.165c.
+100% Klarheit und Schärfe. Linien jetzt ein Pixel breit, sogar Papierstruktur sichtbar (realistisches Papier ist nicht weiß, hat Geräusche). 1MP-Bild wirkt wie 2K.
-30% zu chaotische Bilder (schwer beschreibbar). Version zeigt daher keine extrem hohen Kontraste mehr, aber ist stabiler im Alltag.
(10.06.2025): illus01 v1.165c
Besondere Version. Keine Verbesserung gegenüber v1.164. „c“ = „colorful“, „creative“, manchmal „chaotic“.
Datensatz enthält sehr auffällige, aber schwer beschreibbare Bilder: sehr bunt, hoher Kontrast, komplexe Beleuchtung, komplexe Muster überall.
Visuell auffällig, aber weniger „natürlich“. Kann weiche Farbstile beeinflussen, z.B. „Bleistiftzeichnung“ wie v1.164 nicht perfekt.
(04.06.2025): illus01 v1.164
Besseres Prompt-Verständnis, jedes Bild hat drei natürliche Beschreibungen aus unterschiedlichen Perspektiven. Danbooru-Tags von LLM geprüft, nur wichtige in die Beschreibung übernommen.
Anti-Überbelichtung: Bias hinzugefügt, der reine Weißwerte (#ffffff) verhindert. Diese sind meist überbelichtet und detailarm.
Einige Trainingsparameter angepasst, bessere Kompatibilität mit NoobAI (e-pred und v-pred).
(19.05.2025): illus01 v1.152
Weiter verbesserte Beleuchtung, Texturen und Details.
5.000 neue Bilder, mehr Trainingsschritte, stärkere Wirkung.
(09.05.2025): nbep11 v0.205:
Korrektur von Helligkeits- und Farbproblemen in v0.198. Nun keine dramatischen Foto-artigen Änderungen mehr. v0.198 war kreativ, aber zu extrem.
(07.05.2025): nbep11 v0.198:
Mehr dunkle Bilder, weniger deformierte Körper und Hintergründe in dunkler Umgebung.
Entfernt Farb- und Kontrastverstärkung. Nutze stattdessen Contrast Controller.
(25.04.2025): nbep11 v0.172.
Neue Features aus illus01 v1.93 ~ v1.121: Neuer Fotodatensatz „Touching Grass“. Bessere natürliche Textur, Hintergrund, Beleuchtung, schwächere Charaktereffekte für bessere Kompatibilität.
Bessere Farbgenauigkeit und Stabilität im Vergleich zu nbep11 v0.160.
(17.04.2025): illus01 v1.121.
Zurück auf illustrious v0.1. Illustrious v1.0 und neuer enthalten absichtlich KI-Bilder (~30% des Datensatzes), was schlecht für LoRA-Training ist. Erst beim Lesen des Papers bemerkt.
Geringerer Charakter-Stil-Effekt, zurück auf v1.23-Niveau. Weniger Details bei Charakteren aus dieser LoRA, aber bessere Kompatibilität. Kompromiss.
Sonst wie unten (v1.113).
(10.04.2025): illus11 v1.113 ❌.
Update: Nur benutzen, wenn Basismodell auf Illustrious v1.1 basiert. Ansonsten illus01 v1.121 nutzen.
Trainiert auf Illustrious v1.1.
Neuer Datensatz „Touching Grass“ hinzugefügt. Bessere natürliche Textur, Beleuchtung, Tiefenunschärfe, stabilerer Hintergrund (weniger deformierte Räume, Gebäude).
Vollständig natürliche Sprachbeschreibungen durch LLM.
(30.03.2025): illus01 v1.93.
v1.72 war zu stark trainiert, daher Gesamtwirkung reduziert. Bessere Kompatibilität.
(22.03.2025): nbep11 v0.160.
Wie bei illus v1.72.
(15.03.2025): illus01 v1.72
Neuer Textur- und Beleuchtungsdatensatz wie in ani40z v0.4 unten. Mehr natürliche Beleuchtung und Texturen.
Kleiner Datensatz (~100 Bilder) zum Verbessern von Händen, z.B. Gläser oder Tassen halten.
Alle "einfachen Hintergründe" aus dem Datensatz entfernt (-200 Bilder).
Trainingswerkzeug von kohya auf onetrainer gewechselt. LoRA-Architektur auf DoRA geändert.
(04.03.2025) ani40z v0.4
Trainiert auf Animagine XL 4.0 ani40zero.
~1.000 Bilder mit Fokus auf natürliche dynamische Beleuchtung und reale Texturen hinzugefügt.
Mehr natürliche Beleuchtung und Texturen.
ani04 v0.1
Erste Version für Animagine XL 4.0. Hauptsächlich zur Korrektur der Helligkeit von Animagine 4.0. Besserer und höherer Kontrast.
illus01 v1.23
nbep11 v0.138
Einige Tier-/Nicht-Mensch-/andere Bilder zum Ausgleich des Datensatzes hinzugefügt.
nbep11 v0.129
Schlechte Version, Wirkung zu schwach, bitte ignorieren.
nbep11 v0.114
„Volle Farbskala“ implementiert. Balanciert automatisch zu „normal und ansprechend“. Das ist eine Art „1-Klick-Fotoautomatik“. Nachteil: Verhindert starke Bias, z.B. 95% schwarz, 5% hell statt 50/50%.
Ein wenig realistischere Daten, mehr lebendige Details, Beleuchtung, weniger flache Farben.
illus01 v1.7
nbep11 v0.96
Mehr Trainingsbilder.
Dann feingetunt auf kleinem „Wallpaper“-Datensatz (echte Spiel-Wallpaper, beste Qualität, ~100 Bilder). Mehr Details (besonders Haut, Haare) und Kontrast verbessert.
nbep11 v0.58
Mehr Bilder. Trainingsparameter näher an NoobAI-Basismodell angepasst.
illus01 v1.3
nbep11 v0.30
Mehr Bilder.
nbep11 v0.11: Trainiert auf NoobAI epsilon pred v1.1.
Verbesserte Datensatz-Tags, verbesserte LoRA-Struktur und Gewichtsverteilung. Stabiler mit weniger Bildkompositionswirkung.
illus01 v1.1
Trainiert auf illustriousXL v0.1.
nbep10 v0.10
Trainiert auf NoobAI epsilon pred v1.0.
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.












