Stabilizer IL/NAI - illus01 v1.198
Empfohlene Prompts
upper body
Empfohlene Parameter
samplers
steps
cfg
resolution
other models
Tipps
Lade diese LoRA zuerst in deinem LoRA-Stack, um unerwartete Änderungen durch dynamische Patch-Gewichte mit DoRA-Architektur zu minimieren.
Verwende sie als feinabgestimmtes Basismodell, indem du sie mit voller Stärke auf das vortrainierte Basismodell anwendest, für beste natürliche Details und Stilkontrolle.
Sei vorsichtig bei der Kombination mit stark gestylten Basismodellen, da dies die gewünschten Effekte verschlechtern kann.
Das Modell kann keine natürlichen Details zu Basismodellen hinzufügen, die stark mit KI-Stilbildern überangepasst sind.
Vermeide Feedback im Civitai-Bewertungssystem; hinterlasse Kommentare im bereitgestellten Abschnitt für bessere Sichtbarkeit.
Verwende ergänzende LoRAs wie Dark, Contrast Controller und Style Strength Controller für zusätzliche Anpassungen von Umgebung und Stil.
Ersteller-Sponsoren
Finde mich auf TensorArt
Neueste Aktualisierung:
(09.07.2025) Du findest mich auf TensorArt.
Stabilizer
Dies ist mein feinabgestimmtes Basismodell, aber in Form einer LoRA.
Dieses feinabgestimmte Basismodell:
Fokussiert auf Kreativität statt auf einen festen Stil. Der Datensatz ist sehr vielfältig. Daher hat dieses Modell keinen Standardstil (Bias), der seine Kreativität einschränkt.
Nur natürliche Texturen, Beleuchtung und feinste Details. Kein künstlicher KI-Stil. (Gleiche KI-Gesichter, Frisuren, glatte Oberflächen ohne Textur usw.). Ich habe jedes Bild im Datensatz handverlesen. Null KI-Bilder im Datensatz.
Weniger deformierte Bilder. Logischeres Ergebnis. Bessere Hintergründe und Komposition.
Besseres Verständnis der Eingabeaufforderung. Trainiert mit natürlichsprachlichen Beschreibungen.
(v-pred) Bessere und ausgewogene Beleuchtung, hoher Kontrast. Reines Schwarz (0) und Weiß (255) können im selben Bild, sogar an derselben Stelle vorkommen, ohne Übersättigung oder Überlauf.
Cover-Bilder sind die rohen Ausgaben in der Standardauflösung von 1MP. Kein Upscaling, keine Plugins, keine Inpainting-Korrekturen. Metadaten sind vorhanden, 100 % reproduzierbar.
Die Stile der Cover-Bilder stammen vom vortrainierten Basismodell und werden durch die Eingabe ausgelöst. Sie sind nicht in meinem Datensatz enthalten. Du kannst sehen, dass das vortrainierte Modell diese Stile kennt, sie aber nicht richtig generieren kann, weil es auf Anime-Daten überangepasst ist. Dieses Modell behebt das Überanpassungsproblem. Sieh den Abschnitt "Wie und warum es funktioniert" unten.
Warum kein Standardstil?
Was ist ein "Standardstil": Wenn ein Modell einen Standardstil (Bias) hat, bedeutet das, dass das Modell immer dieselben Dinge (Gesichter, Hintergründe, Gefühle) erzeugt, egal was du eingibst, und diese formen den Standardstil.
Vorteile: Es ist einfach zu verwenden, du musst keinen Stil mehr angeben.
Nachteile: Du kannst ihn auch nicht überschreiben. Wenn du etwas eingibst, das nicht zum Standardstil passt, ignoriert das Modell das einfach. Wenn du mehrere Stile übereinander legst, wird der Standardstil die anderen immer überlagern, verschmutzen oder einschränken.
"Kein Standardstil" bedeutet kein Bias, und du musst den gewünschten Stil explizit durch Tags oder LoRAs angeben. Dabei gibt es keine Überschneidungen oder Verschmutzungen durch diesen Modell. Du bekommst den Stil genau so, wie du ihn kombiniert hast.
Warum ist dieses "feinabgestimmte Basismodell" eine LoRA?
Ich bin kein Gigachad und habe keine Millionen Trainingsbilder. Das gesamte Basismodell zu finetunen ist nicht nötig, eine LoRA reicht aus.
Ich kann so viel VRAM sparen und einen größeren Batch verwenden.
Ich muss nur eine winzige 40 MiB Datei hochladen, und du nur herunterladen, statt eines 7 GiB großen Checkpoints. So sparst du 99,4 % Datenvolumen und Speicherplatz.
Also kann ich häufig Updates raushauen.Diese LoRA mag klein erscheinen, ist aber leistungsstark. Sie nutzt eine neue Architektur namens DoRA von Nvidia, die effizienter ist als traditionelle LoRA.
Wie bekomme ich dieses "feinabgestimmte Basismodell"?
Einfach.
vortrainiertes Basismodell + diese LoRA = das "feinabgestimmte Basismodell"
Lade einfach diese LoRA mit voller Stärke auf das vortrainierte Basismodell. Dann wird das vortrainierte Basismodell zum feinabgestimmten Modell. Sieh "Wie man es verwendet" unten.
Das Teilen von Merges mit diesem Modell ist verboten. Als Info, es gibt versteckte Trigger-Wörter für unsichtbare Wasserzeichen. Ich habe das Wasserzeichen und den Detektor selbst programmiert. Ich möchte es nicht nutzen, aber ich kann.
Dieses Modell ist nur auf Civitai und TensorArt veröffentlicht. Wenn du "mich" und diesen Text auf anderen Plattformen siehst, sind das Fälschungen und die Plattform ist eine Piratenplattform.
Bitte hinterlasse Feedback im Kommentarbereich, damit alle es sehen können. Schreibe kein Feedback im Civitai-Bewertungssystem, das ist sehr schlecht gestaltet und praktisch niemand findet oder sieht die Bewertungen.
Wie man es verwendet
Neueste Versionen:
nbvp10 v0.271 (trainiert auf NoobAI v-pred v1.0).
Genauere Farben und feinste Details. Das beste Modell bisher.
nbep10 v0.273 (trainiert auf NoobAI eps v1.0). Eingestellt.
Geringere Sättigung und Kontrast im Vergleich zu v-pred Modellen. Aufgrund eines "kleinen Designfehlers" in der Standard-Epsilon(Vorhersage). Begrenzt den Farbraum des Modells. Daher gibt es später v-pred.
illus01 v1.198 (trainiert auf Illustrious v0.1). Eingestellt.
Einfach zu alt...
Hinweis: Lade diese LoRA zuerst in deinem LoRA-Stack.
Diese LoRA nutzt eine neue Architektur namens DoRA von Nvidia, die effizienter ist als die traditionelle LoRA. Anders als die traditionelle LoRA mit statischem Patch-Gewicht, wird das Patch-Gewicht bei DoRA dynamisch basierend auf dem aktuell geladenen Basismodell-Gewicht berechnet (welches sich beim Laden von LoRAs ändert). Um unerwartete Änderungen zu minimieren, lade diese LoRA zuerst.
Zwei Wege, dieses Modell zu verwenden:
1). Als feinabgestimmtes Basismodell verwenden (Empfohlen):
Wenn du feinste und natürliche Details willst und die Stil-Kombination mit voller Kontrolle gestalten möchtest.
Lade diese LoRA einfach zuerst mit voller Stärke auf das vortrainierte Basismodell. Dann wird das vortrainierte Basismodell zum feinabgestimmten Modell.
2). Als LoRA auf einem anderen feinabgestimmten Basismodell verwenden.
Warum nicht, es ist schließlich eine LoRA.
Zu beachten:
Wichtig: Wenn du ein "illustrious" Basismodell nutzt. Du musst prüfen, auf welchem vortrainierten Basismodell dein Modell tatsächlich basiert. Die meisten populären "illustrious" Anime-Basismodelle basieren auf (oder nahe bei) NoobAI, nicht illustrious. Mehr dazu (warum diese Basismodelle falsch bezeichnet sind und wie du dein Basismodell testest) in der "Diskussion". Die LoRA muss zum vortrainierten Basismodell passen. Mismatches verschlechtern die Bildqualität.
Du möchtest zwei Basismodelle zusammenführen. Wenn dein Basismodell bereits einen sehr starken Standardstil hat, wird das einfache Hinzufügen dieser LoRA nicht das erwartete Ergebnis bringen. Du musst u.U. andere Gewichte (LoRAs, U-net-Blöcke, etc.) ausbalancieren.
Dieses Modell kann keine natürlichen Details zu Basismodellen mit KI-Stil hinzufügen (trainiert mit KI-Bildern, die alles glatt, glänzend und plastikartig machen). Wenn du dieses Modell wählst, um den glatten KI-Stil in deinem aktuellen Basismodell loszuwerden, wird es leider nicht funktionieren. KI-Stil ist extrem überangepasst (du lernst sofort, was du getan hast, wie beim KI-Modell mit KI-Bildern). Da KI-Bilder weniger Details als echte Weltbilder haben, lernt das Modell Details zu unterdrücken. Ein Problem, denn wenn der KI-Stil erstmal da ist, kriegst du ihn nicht mehr weg.
Dieses Modell ist kein magisches Tool, das dir erlaubt, mehr LoRAs auf ein Basismodell zu stapeln, ohne dass es kaputtgeht. Der Name kann irreführend sein.
Warum und wie das funktioniert:
Das Überanpassungsproblem:
Anime-Modelle werden auf Anime-Bildern trainiert. Anime-Bilder sind simpel und enthalten nur hochstufige "Konzepte", oft sehr abstrakt. Es gibt keine Hintergründe, Details oder Texturen.
Wir wollen, dass das Modell nur diese hochstufigen "Konzepte" lernt. Tatsächlich lernt es, was es sieht, nicht was du willst.
Nach dem Sehen von über 10 Millionen einfachen abstrakten Anime-Bildern lernt das Modell: 1) Es muss keine Details generieren, denn der Datensatz hat es nie verlangt. 2) Stattdessen generiert es einfache Bilder mit abstrakten Konzepten, auch wenn es sie nicht versteht. Das führt zu deformierten Bildern, genannt "Überanpassung".
Die Lösung:
Trainiere das Modell mit Anime- und realen Bildern, damit es Konzepte lernt, aber natürliche Details und Texturen behält, also weniger Überanpassung.
NoobAI macht das, indem es reale Cosplay-Bilder in den Datensatz mischt (soweit ich weiß, erwähnten die Entwickler das irgendwo).
Dieses Modell geht noch weiter: Es wurde auf ganz verschiedenen Bildern trainiert – Architektur, Alltagsgegenstände, Landschaften, … – und auf vollumfänglichen natürlichsprachlichen Beschreibungen, ähnlich wie das Original SDXL Training.
Das Ergebnis:
Siehe Vergleich ohne: 1 (Künstlerstile), 2 (allgemeine Stile)
Weniger Überanpassung, weniger deformierte Bilder. Mehr natürliche Texturen, Beleuchtung und Details. Du kannst jetzt tausende eingebaute Stil-Tags (Danbooru, e621) sowie allgemeine Stile, die SDXL versteht, benutzen und bekommst ein sauberes, detailliertes Bild. Egal ob 2D, 3D, abstrakt oder realistisch.
Immer noch maximale Kreativität dank des vielfältigen Datensatzes. Kein Standardstil. Dadurch wird die Kreativität des vortrainierten Modells sowie anderer Stil-LoRAs nicht eingeschränkt.
Datensatz
neueste oder kürzliche Versionen
Ca. 7.000 Bilder insgesamt. Nicht sehr groß (verglichen mit Gigachads, die Millionen Bilder nutzen), aber auch nicht klein. Jedes Bild wurde von mir handverlesen.
Nur normale, gut aussehende Motive. Kein verrückter Kunststil, der sich nicht beschreiben lässt. Keine KI-Bilder, keine Wasserzeichen etc.
Nur hochauflösende Bilder. Durchschnittliche Größe des Datensatzes: 3,37 MP, ca. 1800x1800 Pixel.
Alle Bilder haben natürlichsprachliche Beschreibungen vom neuesten Google LLM.
Alle Anime-Charaktere wurden erst mit wd tagger v3 und dann mit Google LLM getaggt.
Enthält Natur, Außen-, Innenaufnahme, Tiere, Alltagsgegenstände und vieles mehr, außer echten Menschen.
Enthält alle Arten von Helligkeitsbedingungen: sehr dunkel, sehr hell, sehr dunkel und sehr hell.
Weitere Tools
Einige Ideen, die Teil von Stabilizer sein sollten oder waren, sind jetzt getrennte LoRAs für bessere Flexibilität. Sammlung hier: https://civitai.com/collections/8274233.
Dark: Eine LoRA, die auf dunklere Umgebungen ausgelegt ist. Nützlich, um zu hohe Helligkeit in manchen Basismodellen zu korrigieren. Trainiert mit Bildern aus dunkler Umgebung. Kein Stil-Bias, also keine Stilverschmutzung.
Contrast Controller: Eine manuell erstellte LoRA. Kontrolliert den Kontrast wie ein Schieberegler am Monitor. Im Gegensatz zu anderen „Kontrastverstärkern“ ist der Effekt stabil, mathematisch linear und hat keinerlei Stilnebenwirkungen.
Nützlich, wenn dein Basismodell Übersättigung hat oder wenn du etwas sehr Farbintensives möchtest.
Beispiel:

Style Strength Controller: Oder Reduzierer für Überanpassungseffekte. Kann alle Arten von Überanpassung (Bias auf Objekte, Helligkeit etc.) mathematisch reduzieren – oder verstärken, wenn gewünscht.
Unterschiede zum Stabilizer:
Der Stabilizer wurde mit realen Daten trainiert. Er kann nur Überanpassungseffekte auf Textur, Details und Hintergründe "reduzieren", indem er diese zurückbringt.
Style Controller wurde nicht trainiert. Es ist eher ein "Undo" für das Basismodell-Training und kann Überanpassungseffekte auf Helligkeit und Objekte mathematisch verringern.
Alte Versionen:
Mehr Infos im "Update Log". Beachte, dass alte Versionen sehr unterschiedliche Effekte haben können.
Haupt-Zeitstrahl:
Jetzt ~: Natürliche Details und Texturen, stabiles Verständnis von Eingaben und mehr Kreativität. Nicht mehr nur 2D Anime-Stil.
illus01 v1.23 / nbep11 0.138 ~: Besserer Anime-Stil mit lebhaften Farben.
illus01 v1.3 / nbep11 0.58 ~: Besserer Anime-Stil.
Update-Log
(31.08.2025) NoobAI ep10 v0.273
Diese Version wurde von Anfang an auf NoobAI eps v1.0 trainiert.
Im Vergleich zu früherem illus01 v1.198:
Bessere und ausgewogene Helligkeit in Extrembedingungen. (wie nbvp v0.271)
Bessere Texturen und Details. Mehr Trainingsschritte bei hohen SNR-Zeitpunkten. (illus01 Versionen übersprangen diese Schritte für bessere Kompatibilität. Jetzt sind alle Basismodelle NoobAI, daher kein Überspringen mehr.)
(24.08.2025) NoobAI v-pred v0.271:
Im Vergleich zu v0.264:
Bessere und ausgewogene Beleuchtung unter Extrembedingungen, weniger Bias.
Hoher Kontrast, reine schwarze 0 und weiße 255 Werte im gleichen Bild an gleicher Stelle, ohne Überlauf oder Übersättigung. Nun kannst du alle gleichzeitig haben.
(alte v0.264 versuchte das Bild zwischen 10~250 zu begrenzen, um Überlauf zu vermeiden, hatte aber immer noch hörbare Bias-Probleme, das Bild war insgesamt zu dunkel oder zu hell.)
Wie v0.264, bevorzugt hohe oder volle Stärke (0,9~1).
(17.08.2025) NoobAI v-pred v0.264:
Erste Version mit Training auf NoobAI v-pred.
Bessere Beleuchtung, weniger Überlauf.
Hinweis: Bevorzuge hohe oder volle Stärke (0,9~1).
(28.07.2025) illus01 v1.198
Hauptsächlich im Vergleich zu v1.185c:
Ende der "c" Version. Obwohl "visuell auffällig" gut ist, gab es Kompatibilitätsprobleme, z.B. wenn dein Basismodell bereits eine ähnliche Kontrastverstärkung hat. Zwei Kontrastverstärker stapeln ist schlecht. Keine verrückten Post-Effekte (hoher Kontrast, Sättigung, etc.) mehr.
Stattdessen mehr Texturen und Details. Kino-Beleuchtung. Bessere Kompatibilität.
Diese Version änderte viel, inklusive Dataset-Überarbeitung, daher sind die Effekte anders als bei vorherigen Versionen.
Für alle, die den verrückten v1.185c Look zurück wollen: Reine und spezielle Kunststile findest du auf dieser Seite. Wenn das Dataset groß genug für eine LoRA ist, könnte ich eine trainieren.
(21.06.2025) illus01 v1.185c:
Im Vergleich zu v1.165c.
+100 % Klarheit und Schärfe.
-30 % zu chaotische Bilder (die man nicht gut beschreiben kann). Daher liefert diese Version keinen extrem hohen Kontrast mehr, ist aber im Normalfall stabiler.
(10.06.2025): illus01 v1.165c
Eine besondere Version. Kein Upgrade von v1.164. "c" steht für "colorful", "creative", manchmal "chaotic".
Der Datensatz enthält Bilder, die sehr visuell auffällig sind, aber manchmal schwer zu beschreiben, z.B. sehr farbenfroh, hoher Kontrast, komplexe Beleuchtung, Objekte und komplexe Muster überall.
Du bekommst "visuell auffällig", aber auf Kosten von "natürlich". Stile mit sanften Farben können beeinträchtigt sein, z.B. kann diese Version keine "Bleistiftzeichnung"-Textur wie v1.164 perfekt generieren.
(04.06.2025): illus01 v1.164
Besseres Verständnis von Eingaben. Jedes Bild hat jetzt 3 natürliche Beschreibungen aus verschiedenen Perspektiven. Danbooru-Tags wurden vom LLM geprüft, nur wichtige Tags ausgewählt und in die natürliche Beschreibung eingefügt.
Anti-Überbelichtung. Bias hinzugefügt, um reine weiße (#ffffff) Ausgaben zu verhindern. #ffffff bedeutet meist überbelichtet, wodurch Details verloren gehen.
Einige Trainingsparameter wurden angepasst. Bessere Kompatibilität mit NoobAI, sowohl e-pred als auch v-pred.
(19.05.2025): illus01 v1.152
Weiterentwicklung von Beleuchtung, Texturen und Details.
5.000 zusätzliche Bilder, mehr Training, stärkere Effekte.
(09.05.2025): nbep11 v0.205:
Schnelle Behebung von Helligkeits- und Farbproblemen in v0.198. Die Helligkeit und Farben ändern sich jetzt nicht mehr so drastisch wie bei einem echten Foto. v0.198 war nicht schlecht, nur zu kreativ.
(07.05.2025): nbep11 v0.198:
Mehr dunkle Bilder hinzugefügt. Weniger deformierte Körper und Hintergründe in dunkler Umgebung.
Farb- und Kontrastverstärkung entfernt. Nicht mehr notwendig. Stattdessen Contrast Controller benutzen.
(25.04.2025): nbep11 v0.172.
Gleiches neues Dataset wie in illus01 v1.93 ~ v1.121: Neue Fotodaten "Touching Grass". Bessere natürliche Texturen, Hintergründe, Beleuchtung. Schwächere Charaktereffekte für bessere Kompatibilität.
Bessere Farbtongenauigkeit und Stabilität. (Verglichen mit nbep11 v0.160)
(17.04.2025): illus01 v1.121.
Zurückgesetzt auf illustrious v0.1. Illustrious v1.0 und neuere Versionen wurden absichtlich mit KI-Bildern (ca. 30 % des Datensatzes) trainiert, was für LoRA-Training suboptimal ist. Ich bemerkte es erst, als ich das Paper las.
Weniger Charakterstil. Zurück auf v1.23-Niveau. Charaktere haben weniger Details von dieser LoRA, aber bessere Kompatibilität. Kompromiss.
Sonst gleich wie unten (v1.113).
(10.04.2025): illus11 v1.113 ❌.
Update: Nutze diese Version nur, wenn dein Basismodell auf Illustrious v1.1 basiert. Sonst illus01 v1.121 verwenden.
Trainiert auf Illustrious v1.1.
Neues Dataset "Touching Grass" hinzugefügt. Bessere natürliche Texturen, Beleuchtung und Tiefenschärfe. Bessere Stabilität der Hintergrundstruktur. Weniger deformierter Hintergrund wie deformierte Räume oder Gebäude.
Volle natürlichsprachliche Beschreibungen vom LLM.
(30.03.2025): illus01 v1.93.
v1.72 wurde zu stark trainiert. Ich habe die Gesamtstärke reduziert. Sollte bessere Kompatibilität bieten.
(22.03.2025): nbep11 v0.160.
Gleiche Neuerungen wie in illus v1.72.
(15.03.2025): illus01 v1.72
Gleiches neues Textur- und Beleuchtungsdataset wie in ani40z v0.4 unten. Mehr natürliche Beleuchtung und Texturen.
Ein kleines Dataset mit ca. 100 Bildern für Hand-Verbesserung hinzugefügt, Fokus auf Hände mit verschiedenen Aufgaben wie Glas oder Tasse halten.
Alle "einfachen Hintergrund"-Bilder entfernt. -200 Bilder.
Trainingswerkzeug von kohya auf onetrainer gewechselt. LoRA-Architektur zu DoRA gewechselt.
(04.03.2025) ani40z v0.4
Trainiert auf Animagine XL 4.0 ani40zero.
Ca. 1.000 Bilder mit Fokus auf natürliche dynamische Beleuchtung und realweltliche Textur hinzugefügt.
Mehr natürliche Beleuchtung und Texturen.
ani04 v0.1
Erstfassung für Animagine XL 4.0. Hauptzweck: Helligkeitsprobleme von Animagine 4.0 beheben. Bessere und höhere Kontraste.
illus01 v1.23
nbep11 v0.138
Einige Furry-/Nicht-Mensch-/andere Bilder hinzugefügt, um den Datensatz auszugleichen.
nbep11 v0.129
Schlechte Version, Effekt zu schwach, einfach ignorieren.
nbep11 v0.114
"Full range colors" implementiert. Balanciert automatisch in Richtung "normal und gut aussehend". Ähnlich wie der "One-Click-Foto-Auto-Enhance" Button in Fotobearbeitungsprogrammen. Nachteil: Verhindert hohen Bias, z.B. wenn du 95 % schwarz und 5 % hell willst statt 50/50.
Etwas realistischere Daten hinzugefügt. Lebendigere Details, Beleuchtung, weniger flache Farben.
illus01 v1.7
nbep11 v0.96
Mehr Trainingsbilder.
Dann wieder feinjustiert auf kleinem "Wallpaper"-Datensatz (echte Spiel-Hintergründe, beste Qualität, ca. 100 Bilder). Verbesserungen bei Details (z.B. Haut, Haare) und Kontrast.
nbep11 v0.58
Mehr Bilder. Trainingsparameter näher an NoobAI Basismodell angepasst.
illus01 v1.3
nbep11 v0.30
Mehr Bilder.
nbep11 v0.11: Trainiert auf NoobAI epsilon pred v1.1.
Verbesserte Dataset-Tags. Verbesserte LoRA-Struktur und Gewichtverteilung. Stabiler, geringere Auswirkung auf Bildkomposition.
illus01 v1.1
Trainiert auf illustriousXL v0.1.
nbep10 v0.10
Trainiert auf NoobAI epsilon pred v1.0.
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.












