Stabilizer IL/NAI - illus01 v1.121
Verwandte Schlüsselwörter & Tags
Empfohlene Prompts
depth of field
Empfohlene Negative Prompts
warm color
Empfohlene Parameter
samplers
steps
cfg
clip skip
resolution
other models
Tipps
Wende den Stabilizer LoRA auf Vanilla Basismodelle wie NoobAI oder RouWei mit einer Stärke zwischen 0,5 und 0,8 für optimale Ergebnisse an.
Nutze 1 bis 3 Stil-Tags oder LoRAs zusammen mit Stabilizer, um Kreativität zu bewahren ohne Standardstil oder Overfitting-Effekte.
Vermeide Basismodelle mit starkem Standard-AI-Stil, da diese den Effekt von Stabilizer unterdrücken und Stilverschiebungen verursachen können.
Hinterlasse ausführliches Feedback im Kommentarbereich und nicht im Civitai-Bewertungssystem für bessere Sichtbarkeit.
Verwende die „c“-Version für bunte, auffällige Bilder und die Nicht-„c“-Version für natürliche Texturen und genaue Stil-Reproduktion.
Cover-Bilder stammen direkt vom Vanilla (dem originalen) Basismodell in a1111, mit 1MP Auflösung. Kein Upscale, keine Plugins (Face/Hand Inpaint Fixes, CFG Rescale etc.), nicht mal negative Prompts. Du kannst diese Bilder in a1111 laden und reproduzieren. Sie enthalten Metadaten. Falls du glaubst, es seien hochskalierten Bilder, hat dieser LoRA seine Aufgabe gut erfüllt.
Das Teilen von Merges mit diesem LoRA und das Nachdrucken auf anderen Plattformen ist verboten. Dieses Modell wird nur auf Civitai und TensorArt veröffentlicht. Wenn du "me" und diesen Satz auf anderen Plattformen siehst, sind das Fälschungen und du benutzt eine Piratenplattform.
Stabilizer
Es ist ein All-in-One LoRA Basismodell ohne Standardstil.
Wendest du es auf das Vanilla NoobAI e-pred v1.1 an, erhältst du das feinabgestimmte Basismodell.
Es enthält alle üblichen Verbesserungen: Natürliches Licht und Details, stabile Prompt-Verständnis, bessere Hintergründe, bessere Hände ...
Es ist kein überangepasster Style-LoRA (mit nur Dutzenden Trainingsbildern). Es gibt keinen Standardstil. Das Basismodell behält seine maximale Kreativität, hat aber deutlich weniger Overfitting-Effekte.
Du kannst Tausende integrierte Stil-Tags sowie allgemeine Stile, die das originale SDXL versteht, verwenden und bekommst ein sauberes Bild wie es sein sollte. Kein Stilpollution, keine Overfitting-Effekte. Egal ob 2D, 3D, abstrakt oder realistisch.
Du bekommst nicht immer wieder dieselben Gesichter, Hintergründe usw. (Im Vergleich zu Basismodellen, die mit vielen überangepassten Style-LoRAs gemerged sind.)
Das Trainingsset enthält nur hochauflösende Bilder (durchschnittlich > 3MP, ca. 1800x1800). Null KI-Bilder. So erhältst du echte Texturen und Details jenseits der Pixel-Ebene, anstelle von gefälschten Kanten und glatten Oberflächen ohne Struktur (wie bei KI-Bildern).
Da es ein LoRA ist, kannst du es jederzeit mit einstellbarer Stärke auf jedes Basismodell anwenden.
Warum All-in-One? Weil wenn du 10 LoRAs mit 10 verschiedenen Datensätzen für verschiedene Aspekte trainierst und stapelst, platzt dein Basismodell. Trainierst du alle Datensätze auf einmal, gibt es keine Konflikte.
Warum nicht das komplette Basismodell feinabstimmen? Ich bin kein Gigachad und habe keine Millionen Trainingsbilder, daher ist das Finetuning des gesamten Basismodells nicht nötig.
Warum empfehlst du NoobAI, aber hast die NoobAI-Version dieses LoRAs fallen gelassen? 1. Je größer der Datensatz, desto aufwändiger und zeitintensiver das Training. 2. Ich bemerkte keine Verschlechterung bei der Verwendung der illus-Version auf NoobAI.
Das Teilen von Merges mit diesem LoRA ist verboten. Zur Info: Es gibt versteckte Trigger-Wörter für ein unsichtbares Wasserzeichen. Funktioniert selbst bei Merge-Stärke 0,05. Ich habe Wasserzeichen und Detektor selbst programmiert. Ich will es nicht nutzen, kann es aber.
Bitte hinterlasse Feedback im Kommentarfeld, damit es jeder sehen kann. Schreibe kein Feedback im Civitai-Bewertungssystem, das ist sehr schlecht gestaltet, niemand findet oder sieht die Bewertungen.
Viel Spaß.
Zur Klarstellung:
"Stabilizer" bedeutet: Wenn du es auf das Vanilla Basismodell anwendest, gibt es weniger Overfitting-Effekte und mehr Details. Siehe Coverbilder.
Es kann nicht dein Basismodell magisch reparieren, wenn es wegen zahlreicher gestapelter LoRAs bereits defekt ist.
Anwendung
Versions-Präfix:
illus01 = Trainiert auf Illustrious v0.1. (Empfohlen, auch für NoobAI)
nbep11 = Trainiert auf NoobAI e-pred v1.1. (Eingestellt)
"c" Version (nach illus v1.152):
"c" steht für „colorful“, „creative“, manchmal „chaotisch“. Diese Version enthält sehr auffällige Trainingsbilder, z.B.: Sehr bunt, hoher Kontrast, starke Nachbearbeitung, komplexe Lichtverhältnisse, Objekte und Muster überall. Du bekommst "auffällige" aber weniger "natürliche" Bilder. Beeinflusst Stile mit sanften Farben, z.B. kann das Bleistiftzeichnung-Textur nicht perfekt erzeugen wie die Nicht-c-Version.
Willst du nur etwas Cooles? Nutze die "c"-Version.
Willst du natürliche Texturen oder präzise Stilreproduktion? Benutze die Nicht-"c"-Version.
Empfohlene Nutzung:
Vanilla Basismodelle (NoobAI, RouWei usw.).
+ Diesen LoRA mit Stärke 0,5–0,8.
+ 1–3 Stil-Tags/LoRAs. (Wichtig!) Es gibt keinen Standardstil. Wenn du keinen Stil angibst, gibt das Modell einen zufälligen. Du kannst Tausende Danbooru Stil-Tags nutzen und jeden Stil, den das originale SDXL erkennt, ohne Overfitting-Effekte.
Nicht empfohlen: Basismodelle mit starkem AI-Standardstil.
Achtung: >90% der Basismodelle haben AI-Stil. Diese sind sehr sauber und konsistent, daher leicht trainier- und nutzbar.
Starke AI-Stile unterdrücken fast alle Effekte dieses LoRA und verursachen Stilverschiebungen. Siehe Vergleich. Oben Vanilla NoobAI, unten WAI mit starkem AI-Stil.
Wie erkennt man AI-Stil? Kein guter Weg. Meist wirken solche Stile glatt (keine Oberflächentextur, nur Kanten) und haben merkwürdige glänzende Reflektionen.
Alte Versionen:
Neue Version = neue Features und neue Ansätze.
Ein großer Vorteil von LoRA: Du kannst verschiedene Versionen sofort mischen.
Mehr Infos im „Update log“. Alte Versionen können sehr unterschiedliche Effekte haben.
Jetzt ~: Fokus auf natürliche Details und Texturen, stabile Prompt-Verständnis und mehr Kreativität.
Illus01 v1.23 / nbep11 0.138 ~: Fokus auf reinen Anime-Stil mit lebendigen Farben.
Illus01 v1.3 / nbep11 0.58 ~: Fokus auf Anime-Stil.
Datensatz
neueste oder jüngste Versionen
~7k Bilder insgesamt, alle handverlesen von mir.
Nur normale, gut aussehende Motive. Keine verrückten Kunststile, die sich nicht beschreiben lassen. Keine KI-Bilder, keine Wasserzeichen usw.
Nur hochauflösende Bilder. Durchschnittliche Bildgröße 3,37 MP, ca. 1800x1800.
Alle Bilder enthalten natürliche Bildunterschriften vom neuesten Google LLM.
Alle Anime-Charaktere wurden zuerst mit wd tagger v3 und dann mit Google LLM getaggt.
Enthält Natur, Außen- und Innenaufnahmen, Tiere, Alltagsgegenstände und vieles mehr, außer echte Menschen.
Enthält alle Helligkeitsbedingungen: sehr dunkel, sehr hell, sehr dunkel und sehr hell.
Weitere Tools
Einige Ideen, die Teil des Stabilizer sein sollten oder waren. Jetzt sind sie separate LoRAs, für mehr Flexibilität. Sammlung: https://civitai.com/collections/8274233.
Touching Grass: Ein LoRA, trainiert nur auf echten Weltdatensatz (kein Anime). Stärkerer Effekt. Bessere Hintergründe und Beleuchtung. Für Gigachad-Nutzer, die reine Konzepte bevorzugen und Gewichte selbst einstellen wollen.
Dark: Ein LoRA, das den hohen Helligkeitsbias bei einigen Basismodellen korrigiert. Trainiert auf dunklen Bildern aus dem Touching Grass Datensatz. Kein Mensch in Datensatz, daher keine Stiländerung.
Contrast Controller: Ein handgefertigter LoRA. (Nicht durch Training entstanden). Der kleinste 300KB LoRA, den du je gesehen hast. Regelt Kontrast wie ein Schieberegler am Monitor. Anders als andere "Contrast Enhancer" ist der Effekt dieses LoRA stabil, mathematisch linear und stilneutral.
Nützlich bei Übersättigungsproblemen im Basismodell oder wenn du etwas wirklich Farbenfrohes willst.
Beispiel:

Style Strength Controller: Oder Überfitting-Effekt-Reduzierer. Auch handgefertigter LoRA, nicht trainiert, daher keine Stilverfälschung, mathematisch linear. Kann alle Arten von Überfitting-Effekten (wie Bias bei Objekten, Helligkeit usw.) reduzieren.
Effekttest an Hassaku XL: Basismodell hat viele Bias, z.B. hohe Helligkeit, glatte und glänzende Oberflächen, Drucke an Wänden. Im Prompt steht "dark", aber das Modell ignoriert es fast. Bei Stärke 0,25 weniger Bias auf hohe Helligkeit, weniger merkwürdiges glattes Feeling, das Bild wirkt natürlicher.
Unterschiede zwischen Stabilizer:
Stabilizer wurde auf realen Daten trainiert. Er kann nur Überfitting-Effekte bezüglich Textur, Details und Hintergründen "reduzieren", indem er sie zurückgibt.
Style Controller ist nicht trainiert, eher eine "Rückgängigmachung" für das Basismodell, daher weniger overfitted. Kann mathematisch alle Überfitting-Effekte wie Bias bei Helligkeit und Objekten reduzieren.
Update-Verlauf
(21.6.2025) illus01 v1.185c:
Im Vergleich zu v1.165c.
+100% Klarheit und Schärfe. Linien jetzt mit 1-Pixel-Breite sichtbar. Man kann sogar die Textur von weißem Papier erkennen. (Kein Scherz, echtes Papier ist nicht reinweiß, sondern rauscht). Ein 1MP Bild fühlt sich jetzt an wie 2K.
-30% chaotische Bilder (nicht gut beschreibbar). Daher liefert die Version nicht mehr extrem hohen Kontrast, ist aber stabiler im Alltag.
(10.6.2025): illus01 v1.165c
Eine Spezialversion. Kein Update von v1.164. „c“ steht für „colorful“, „creative“, manchmal „chaotisch“.
Der Datensatz enthält sehr auffällige, aber manchmal schwer beschreibbare Bilder, z.B. sehr bunt, hoher Kontrast, komplexe Lichtverhältnisse, Objekte und Muster überall.
Daher bekommst du sehr auffällige, aber weniger natürliche Bilder. Beeinflusst Stile mit weichen Farben. Z.B. kann diese Version nicht "Bleistiftzeichnung"-Textur perfekt erzeugen wie v1.164.
(4.6.2025): illus01 v1.164
Besseres Prompt-Verständnis. Jedes Bild hat jetzt 3 natürliche Captions aus verschiedenen Perspektiven. Danbooru Tags geprüft von LLM, nur wichtige Tags werden zu den Captions hinzugefügt.
Anti-Überbelichtung. Bias hinzugefügt, um zu verhindern, dass das Modell #ffffff reinweiß ausgibt. Meist bedeutet #ffffff Überbelichtung mit Detailverlust.
Einige Trainingsparameter für bessere Kompatibilität mit NoobAI (e-pred und v-pred) geändert.
(19.5.2025): illus01 v1.152
Weiter Verbesserung von Licht, Texturen und Details.
+5k Bilder mehr, längere Trainingszeit, dadurch stärkere Effekte.
(9.5.2025): nbep11 v0.205:
Schnelle Korrektur von Helligkeits- und Farbproblemen in v0.198. Es sollte jetzt nicht mehr so dramatisch wie ein Foto die Farben und Helligkeit verändern. v0.198 war nicht schlecht, nur zu kreativ.
(7.5.2025): nbep11 v0.198:
Mehr dunkle Bilder hinzugefügt. Weniger deformierte Körper und Hintergründe in dunkler Umgebung.
Farb- und Kontrastverstärkung entfernt, da nicht mehr nötig. Nutze Contrast Controller.
(25.4.2025): nbep11 v0.172.
Gleiche Neuerungen wie bei illus01 v1.93 ~ v1.121. Zusammenfassung: Neuer Fotos-Datensatz "Touching Grass". Bessere natürliche Textur, Hintergrund, Beleuchtung. Schwächere Charaktereffekte für bessere Kompatibilität.
Bessere Farbgenauigkeit und Stabilität. (Im Vergleich zu nbep11 v0.160)
(17.4.2025): illus01 v1.121.
Rollback auf Illustrious v0.1. Illustrious v1.0 und neuere Versionen wurden bewusst mit KI-Bildern trainiert (ca. 30% des Datensatzes). Nicht ideal für LoRA. Erst beim Lesen des Papers bemerkt.
Weniger Charakterstil-Effekt. Auf v1.23 Niveau zurück. Weniger Details an Charakteren, dafür bessere Kompatibilität. Ein Kompromiss.
Sonst gleich wie unten (v1.113).
(10.4.2025): illus11 v1.113 ❌.
Update: Diese Version nur nutzen, wenn dein Basismodell auf Illustrious v1.1 basiert. Sonst illus01 v1.121 verwenden.
Trainiert auf Illustrious v1.1.
Neuer Datensatz "Touching Grass" hinzugefügt. Bessere natürliche Textur, Beleuchtung und Tiefenschärfe, stabilere Hintergrundstruktur. Weniger deformierte Hintergründe wie Räume, Gebäude.
Komplette natürliche Bildunterschriften vom LLM.
(30.3.2025): illus01 v1.93.
v1.72 wurde zu stark trainiert. Deshalb wurde die Gesamteffektstärke reduziert für bessere Kompatibilität.
(22.3.2025): nbep11 v0.160.
Gleiche Features wie illus v1.72.
(15.3.2025): illus01 v1.72
Neuer Datensatz mit Texturen und Beleuchtung, wie bei ani40z v0.4 weiter unten. Natürlichere Lichtverhältnisse und Texturen.
Zusätzlich ~100 Bilder für Handverbesserung, Fokus auf Hände für Aufgaben wie Halten von Glas oder Tasse.
Entfernung aller "einfachen Hintergrund"-Bilder (-200 Bilder).
Wechsel vom Trainingswerkzeug kohya zum onetrainer. Änderung der LoRA-Architektur zu DoRA.
(4.3.2025) ani40z v0.4
Trainiert auf Animagine XL 4.0 ani40zero.
~1k Datensatz hinzugefügt, Fokus auf natürliches dynamisches Licht und reale Texturen.
Natürlichere Beleuchtung und Texturen.
ani04 v0.1
Initialversion für Animagine XL 4.0. Hauptsächlich zur Behebung von Helligkeitsproblemen in Animagine 4.0. Besserer und höherer Kontrast.
illus01 v1.23
nbep11 v0.138
Einige furry/nicht-menschliche/andere Bilder hinzugefügt, um den Datensatz auszugleichen.
nbep11 v0.129
schlechte Version, Effekt zu schwach, einfach ignorieren
nbep11 v0.114
"Full range colors" implementiert. Balanciert automatisch das Bild zu "normal und gut aussehend". Denk an den "One-Click Foto Auto-Enhance" Button in vielen Bildbearbeitungsprogrammen. Nachteil: Verhindert starke Bias, z.B. wenn 95% des Bildes schwarz und 5% hell sein sollen anstatt 50/50.
Etwas realistischere Daten hinzugefügt. Lebendigere Details, Beleuchtung, weniger flache Farben.
illus01 v1.7
nbep11 v0.96
Mehr Trainingsbilder.
Dann nochmal Feintuning auf kleinem "Wallpaper"-Datensatz (echte Spiel-Wallpaper, höchstmögliche Qualität, ~100 Bilder). Verbesserungen bei Details (vor allem Haut, Haare) und Kontrast.
nbep11 v0.58
Mehr Bilder. Trainingsparameter näher an NoobAI Basismodell angepasst.
illus01 v1.3
nbep11 v0.30
Mehr Bilder.
nbep11 v0.11: Trainiert auf NoobAI epsilon pred v1.1.
Verbesserte Datensatz-Tags. Verbesserte LoRA-Struktur und Gewichtsverteilung. Soll stabiler sein und weniger Einfluss auf Bildkomposition haben.
illus01 v1.1
Trainiert auf illustriousXL v0.1.
nbep10 v0.10
Trainiert auf NoobAI epsilon pred v1.0.
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.






