Anthro Hirsch-Hybrid weiblich mit roten Haaren, hält einen großen zerrissenen grünen Regenschirm, trägt ein Kleid aus Blättern, steht in einem Nadelwald unter bewölktem Himmel, Vögel sitzen in einem Nest auf ihrem Geweih.
Kawaii junge Frau mit hellblonden Haaren und blauen Augen, die aufgeregt lächelt und zwei Eistüten in einer urbanen Straßenszene mit Pastellfarben hält.

Empfohlene Prompts

<lora:illustriousXL_stabilizer_v1.72:0.8>1girl, masterpiece

Empfohlene Parameter

samplers

Euler a

steps

24 - 25

cfg

3 - 5.5

resolution

1024x1024, 832x1216

other models

illustriousXL_stabilizer_v1.72 (632563d18bb8), illustriousXL_v01 (3e15ba0038), waiNSFWIllustrious_v120 (89cb4ec0a9)

Empfohlene Hires (Hochauflösungs-) Parameter

upscaler

R-ESRGAN 4x+ Anime6B

upscale

1.5

denoising strength

0.25

Tipps

Lade diese LoRA zuerst in deinem LoRA-Stack, um unerwartete Änderungen durch dynamische Patch-Gewichte mit DoRA-Architektur zu minimieren.

Nutze sie als feinjustiertes Basismodell, indem du sie mit voller Stärke auf das vortrainierte Basismodell anwendest, für beste natürliche Details und Stilkontrolle.

Sei vorsichtig beim Stapeln mit stark gestylten Basismodellen, da das die gewünschten Effekte verschlechtern kann.

Das Modell kann keine natürlichen Details zu stark auf KI-Stil überangepassten Basismodellen hinzufügen.

Vermeide Feedback im Civitai-Bewertungssystem; hinterlasse Kommentare im bereitgestellten Kommentarbereich für bessere Sichtbarkeit.

Nutze ergänzende LoRAs wie Dark, Contrast Controller und Style Strength Controller für zusätzliche Umgebungs- und Stil-Anpassungen.

Ersteller-Sponsoren

Finde mich auf TensorArt

Aktuelles Update:

(09.07.2025) Du findest mich auf TensorArt.


Stabilizer

Dies ist mein feinjustiertes Basismodell, jedoch als LoRA.

Dieses feinjustierte Basismodell:

  • konzentriert sich auf Kreativität statt auf einen festen Stil. Der Datensatz ist sehr vielfältig. Somit besitzt dieses Modell keinen Standardstil (Bias), der die Kreativität einschränkt.

  • nur natürliche Texturen, Beleuchtung und feinste Details. Kein künstlicher KI-Stil. (Gleiche KI-Gesichter, Frisuren, glatte Oberflächen ohne Textur etc.). Ich habe jede Bildquelle im Datensatz sorgfältig ausgewählt. Kein KI-Bild im Datensatz.

  • Weniger verzerrte Bilder. Logischere Darstellungen. Besserer Hintergrund und Komposition.

  • Verbessertes Prompt-Verständnis. Trainiert mit natürlichen Sprachbeschreibungen.

  • (v-pred) Bessere und ausgewogene Beleuchtung, hoher Kontrast. Reines Schwarz (0) und Weiß (255) können im selben Bild, sogar am selben Ort erscheinen, ohne Überlauf oder Übersättigung.

Coverbilder sind Rohoutputs mit Standardauflösung von 1MP. Kein Upscaling, keine Plugins, keine Inpainting-Korrekturen. Mit Metadaten, 100 % reproduzierbar.

Die Stile in den Coverbildern stammen vom vortrainierten Basismodell, angestoßen durch den Prompt. Sie sind nicht in meinem Datensatz. Man sieht, dass das vortrainierte Modell diese Stile kennt, sie aber nicht ordentlich generieren kann, da es auf Anime-Daten überangepasst ist. Dieses Modell behebt dieses Overfitting-Problem. Siehe Abschnitt „Warum und wie es funktioniert“ unten.

Warum kein Standardstil?

  • Was ist „Standardstil“: Wenn ein Modell einen Standardstil (Bias) hat, bedeutet das, egal was du eingibst, das Modell generiert immer dieselben Dinge (Gesichter, Hintergründe, Stimmungen), die den Standardstil ausmachen.

  • Vorteile: Es ist leicht zu verwenden, man muss keinen Stil mehr angeben.

  • Nachteile: Man kann ihn aber auch nicht überschreiben. Wenn du etwas eingibst, das nicht zum Standardstil passt, ignoriert das Modell es einfach. Wenn du mehrere Stile übereinanderlegst, überlagert/verschmutzt/beschränkt der Standardstil immer die anderen.

  • „Kein Standardstil“ bedeutet kein Bias, und du musst den gewünschten Stil über Tags oder LoRAs angeben. Es gibt aber keine Stilüberlagerung/-verschmutzung von diesem Modell. Du erhältst den gestapelten Stil genau so, wie er sein soll.

Warum ist dieses „feinjustierte Basismodell“ eine LoRA?

  • Ich bin kein Gigachad und habe keine Millionen Trainingsbilder. Das Finetuning des gesamten Basismodells ist nicht notwendig, eine LoRA reicht.

  • Ich spare viel VRAM, sodass ich größere Batchgrößen nutzen kann.

  • Ich muss nur eine kleine 40 MiB Datei hochladen und du nur herunterladen, statt einen 7 GiB großen Checkpoint. Das spart 99,4 % Daten und Speicher. Deshalb kann ich Updates spammen.

  • Diese LoRA ist zwar klein, aber mächtig. Sie verwendet die neue von NVIDIA entwickelte DoRA-Architektur, die effizienter als traditionelle LoRA ist.

Wie erhalte ich dieses „feinjustierte Basismodell“?

Ganz einfach.

vortrainiertes Basismodell + diese LoRA = das „feinjustierte Basismodell“

Du lädst diese LoRA einfach mit voller Stärke auf das vortrainierte Basismodell. Dann wird das vortrainierte Basismodell zum feinjustierten Basismodell. Siehe unten „Wie benutzen“.

Das Teilen von Merges mit diesem Modell ist verboten. Zur Info: Es gibt versteckte Triggerwörter, die ein unsichtbares Wasserzeichen drucken. Ich habe Wasserzeichen und Detektor selbst programmiert. Ich will es nicht benutzen, kann es aber.

Dieses Modell ist nur auf Civitai und TensorArt veröffentlicht. Wenn du „mich“ und diesen Text auf anderen Plattformen siehst, sind das Fakes und die Plattform, die du nutzt, ist eine Piratenplattform.

Bitte hinterlasse Feedback im Kommentarbereich, damit alle es sehen können. Schreibe kein Feedback ins Civitai-Bewertungssystem, das ist so schlecht gestaltet, dass niemand Bewertungen finden und lesen kann.


Wie benutzen

Neueste Versionen:

  • nbvp10 v0.271 (trainiert auf NoobAI v-pred v1.0).

    • Exakte Farben und feinste Details. Das beste Modell bisher.

  • nbep10 v0.273 (trainiert auf NoobAI eps v1.0). Eingestellt.

    • Geringere Sättigung und Kontrast als bei v-pred-Modellen. Wegen eines „kleinen Designfehlers“ bei Standard-epsilon (eps)-Vorhersage, der das Erreichen eines breiteren Farbspektrums begrenzt. Deshalb gibt es v-pred später.

  • illus01 v1.198 (trainiert auf Illustrious v0.1). Eingestellt.

    • Zu alt...

Hinweis: Lade diese LoRA zuerst in deinem LoRA-Stack.

Diese LoRA verwendet die neue von Nvidia entwickelte DoRA-Architektur, die effizienter als herkömmliche LoRA ist. Im Gegensatz zur traditionellen LoRA mit statischem Patch-Gewicht, wird das Patch-Gewicht bei DoRA dynamisch anhand des aktuell geladenen Basismodell-Gewichts berechnet (das sich beim Laden von LoRAs ändert). Um unerwartete Änderungen zu minimieren, lade diese LoRA zuerst.

Zwei Nutzungsarten dieses Modells:

1). Als feinjustiertes Basismodell verwenden (empfohlen):

Für feinste und natürliche Details und den Aufbau der gewünschten Stilkombination mit voller Kontrolle.

Lade diese LoRA einfach zuerst mit voller Stärke auf das vortrainierte Basismodell, sodass das vortrainierte Basismodell zum feinjustierten Basismodell wird.

2). Als LoRA auf anderen feinjustierten Basismodellen nutzen.

Warum nicht, es ist schließlich eine LoRA.

Zu beachten:

  • Wichtig: Wenn du ein „illustrious“-Basismodell nutzt, musst du prüfen, auf welchem vortrainierten Basismodell dein Modell tatsächlich basiert. Die meisten populären „illustrious“-Anime-Basismodelle basieren auf (oder nahe bei) NoobAI, nicht illustrious. Mehr dazu im Diskussions-Thread. LoRA muss zum vortrainierten Basismodell passen. Unpassende Basismodelle verschlechtern die Bildqualität.

  • Du willst zwei Basismodelle mergen. Wenn dein Basismodell schon einen starken Standardstil hat, bringt das bloße Hinzufügen dieser LoRA meist nicht das gewünschte Ergebnis. Du musst eventuell andere Gewichte (LoRAs, U-Net-Blöcke etc.) ausbalancieren.

  • Dieses Modell kann keine natürlichen Details zu Basismodellen mit AI-Stil hinzufügen (trainiert mit KI-Bildern; alles erscheint glatt, glänzend, ohne Texturen und plastisch). Wenn du dieses Modell wählst, um die Glätte deines aktuellen AI-Stil-Basismodells zu entfernen, funktioniert das leider nicht, da AI-Stil extrem überangepasst ist (du lernst sofort, was du tust, wie beim Training mit KI-Bildern). Und AI-Bilder fehlen Details gegenüber echten Bildern, so lernt das Modell Details zu unterdrücken. Das ist problematisch. Ist der AI-Stil erst da, wirst du ihn nicht los.

  • Dieses Modell ist kein magisches Werkzeug, um mehr LoRAs auf einem Basismodell zu stapeln, ohne dass Probleme auftreten. Der Name kann irreführend sein.


Warum und wie das funktioniert:

Das Problem des Overfittings:

  • Anime-Modelle trainieren auf Anime-Bildern. Anime-Bilder sind einfach und enthalten nur abstrakte "Konzepte". Es gibt keine Hintergründe, Details oder Texturen.

  • Wir wollen, dass das Modell nur hohe "Konzepte" lernt. Die Realität: Es lernt, was es sieht, nicht, was du willst.

  • Nach dem Sehen von 10+ Mio einfachen, abstrakten Anime-Bildern lernt das Modell: 1) es muss keine Details generieren, weil du (der Datensatz) das nie gesagt hast. 2) Es muss einfache Bilder mit abstrakten Konzepten erzeugen, auch wenn es sie nicht versteht. Das führt zu verzerrten Bildern, also «Overfitting».

Die Lösung:

  • Trainiere mit Anime und realen Bildern. So lernt es Konzepte, behält aber natürliche Details und Texturen, also weniger Overfitting.

  • NoobAI mischte echte Cosplay-Bilder in den Datensatz. (Soweit ich weiß, erwähnten das die Entwickler irgendwo.)

  • Dieses Modell geht weiter und trainierte auf allem Möglichen: Architektur, Alltagsgegenstände, Kleidung, Landschaften ... Außerdem mit vollständigen, mehrstufigen, natürlichen Sprachbeschreibungen, um das ursprüngliche SDXL-Training nachzuahmen.

Das Ergebnis:

  • Siehe ohne Vergleich: 1 (Künstlerstile), 2 (allgemeine Stile)

  • Weniger Overfitting, weniger verzerrte Bilder. Natürlichere Texturen, Beleuchtung und Details. Du kannst Tausende integrierte Stil-Tags (Danbooru, e621), sowie allgemeine Stile verwenden, die das originale SDXL versteht, und erhältst saubere, detaillierte Bilder, egal ob 2D, 3D, abstrakt oder realistisch.

  • Maximale Kreativität wegen des vielfältigen Datensatzes. Kein Standardstil. Es begrenzt nicht die Kreativität des vortrainierten Modells oder anderer Stil-LoRAs.


Datensatz

neueste oder aktuelle Versionen

~7k Bilder insgesamt. Nicht riesig (im Vergleich zu Gigachads, die Modelle mit Millionen Bildern finetunen), aber auch nicht klein. Alle Bilder wurden von mir manuell ausgewählt.

  • Nur normale, gut aussehende Dinge. Kein verrückter Kunststil, der sich nicht beschreiben lässt. Keine KI-Bilder, keine Wasserzeichen etc.

  • Nur hochauflösende Bilder. Der durchschnittliche Pixelwert des Datensatzes beträgt 3,37 MP, ~1800x1800.

  • Alle Bilder haben natürliche Bildbeschreibungen vom neuesten Google LLM.

  • Alle Anime-Charaktere sind zuerst mit wd tagger v3 und dann mit Google LLM getaggt.

  • Enthält Natur, Außen- und Innenbereiche, Tiere, Alltagsgegenstände, viele Dinge, außer echten Menschen.

  • Enthält alle Helligkeitsbedingungen. Sehr dunkel, sehr hell, sehr dunkel und sehr hell zugleich.


Weitere Tools

Einige Ideen, die geplant waren oder früher Teil des Stabilizers waren, sind jetzt getrennte LoRAs für mehr Flexibilität. Sammlung: https://civitai.com/collections/8274233.

Dark: Eine LoRA, die dunkle Umgebungen bevorzugt. Nützlich, um eine hohe Helligkeits-Voreingenommenheit in manchen Basismodellen zu korrigieren. Trainiert mit dunklen Bildern. Kein Stil-Bias, daher keine Stilverschmutzung.

Contrast Controller: Eine handgefertigte LoRA. Kontrolliert den Kontrast wie ein Regler am Monitor. Anders als andere „Contrast Enhancer“ ist dieser Effekt stabil, mathematisch linear und hat keinen Stil-Nebeneffekt.

Nützlich bei Übersättigungsproblemen im Basismodell oder wenn du etwas sehr Farbintensives willst.

Beispiel:

Style Strength Controller: Oder Überangepasstheit-Reduzierer. Kann alle Arten von Overfitting (Bias bei Objekten, Helligkeit etc.) mathematisch verringern. Oder verstärken, wenn gewünscht.

Unterschiede zum Stabilizer:

  • Stabilizer wurde mit realen Daten trainiert und kann nur Overfitting bzgl. Textur, Details und Hintergrund „reduzieren“, indem es diese zurückgibt.

  • Style Controller wurde nicht trainiert, es „macht das Training rückgängig“, somit weniger Overfitting. Kann mathematisch alle Overfitting-Arten reduzieren wie Bias bei Helligkeit, Objekten.


Alte Versionen:

Mehr Infos im „Update-Log“. Alte Versionen können stark abweichende Effekte haben.

Hauptzeitstrahl:

  • Jetzt ~: Natürliche Details und Texturen, stabiles Prompt-Verständnis und mehr Kreativität. Nicht mehr auf reinen 2D-Anime-Stil begrenzt.

  • illus01 v1.23 / nbep11 0.138 ~: Besserer Anime-Stil mit lebendigen Farben.

  • illus01 v1.3 / nbep11 0.58 ~: Verbesserter Anime-Stil.


Update-Log

(31.08.2025) NoobAI ep10 v0.273

Diese Version wurde von Anfang an auf NoobAI eps v1.0 trainiert.

Im Vergleich zur vorherigen illus01 v1.198:

  • Besser ausgewogene Helligkeit bei Extremen. (wie nbvp v0.271)

  • Bessere Texturen und Details. Mehr Trainingsschritte bei hohen SNR-Timesteps. (illus01-Versionen übersprangen diese Steps für bessere Kompatibilität, jetzt sind alle Basismodelle NoobAI, daher keine Übersprünge mehr.)

(24.08.2025) NoobAI v-pred v0.271:

Im Vergleich zu früherem v0.264:

  • Bessere und ausgewogenere Beleuchtung bei Extremen, weniger Bias.

  • Hoher Kontrast, reines Schwarz (0) und Weiß (255) im selben Bild an der selben Stelle, ohne Überlauf oder Übersättigung. Nun sind sie vereint.

  • (Alte v0.264 begrenzte Bilder auf 10~250, um Überlauf zu verhindern, hatte aber trotzdem Bias, Bilder waren oft zu dunkel oder hell.)

  • Wie v0.264, bevorzugt starke oder volle Stärke (0.9~1).

(17.08.2025) NoobAI v-pred v0.264:

  • Erste Version trainiert auf NoobAI v-pred.

  • Bessere Beleuchtung, weniger Überlauf.

  • Hinweis: Bevorzuge hohe oder volle Stärke (0.9~1).

(28.07.2025) illus01 v1.198

Im Wesentlichen im Vergleich zu v1.185c:

  • Ende der „c“-Version. Obwohl „visuell auffällig“ gut ist, gab es Kompatibilitätsprobleme. Z.B. wenn dein Basismodell Kontraststeigerungen hat. Zwei Kontrastverbesserungen gestapelt sind schlecht. Deshalb keine starken Posteffekte mehr (hoher Kontrast, Sättigung etc.).

  • Dafür mehr Texturen und Details. Cinematische Beleuchtung. Bessere Kompatibilität.

  • Diese Version ändert vieles, inklusive des Datensatzes, daher andere Effekte als zuvor.

  • Wer die krassen Effekte von v1.185c mag, findet reine Kunststile auf dieser Seite. Wenn der Datensatz groß genug ist, könnte ich einen LoRA trainieren.

(21.06.2025) illus01 v1.185c:

Im Vergleich zu v1.165c.

  • +100 % Klarheit und Schärfe.

  • -30 % Bilder, die zu chaotisch sind (kaum beschreibbar). Daher bietet diese Version keinen extrem hohen Kontrast mehr, ist aber im Normalfall stabiler.

(10.06.2025): illus01 v1.165c

Eine besondere Version. Nicht nur eine Verbesserung zu v1.164. „c“ steht für „colorful“, „creative“, manchmal „chaotic“.

Der Datensatz enthält sehr visuell auffällige, aber schwer beschreibbare Bilder, z.B. sehr farbenfroh, hoher Kontrast, komplexe Lichtverhältnisse, viele komplexe Muster.

Du bekommst also „visuell auffällig“ auf Kosten von „natürlich“. Das kann Stile mit sanften Farben beeinflussen, z.B. kann diese Version „Bleistiftkunst“ nicht perfekt nachbilden wie v1.164.

(04.06.2025): illus01 v1.164

  • Besseres Prompt-Verständnis. Nun hat jedes Bild 3 natürliche Beschreibungen aus unterschiedlichen Perspektiven. Danbooru-Tags werden mit LLM überprüft, nur wichtige Tags ausgewählt und in die natürliche Beschreibung integriert.

  • Anti-Überbelichtung: Eine Bias eingefügt, um reine Weißwerte (#ffffff) zu vermeiden. Diese sind häufig überbelichtet und verlieren Details.

  • Trainings-Einstellungen verändert. Bessere Kompatibilität mit NoobAI, sowohl e-pred als auch v-pred.

(19.05.2025): illus01 v1.152

  • Weiterhin Verbesserungen bei Beleuchtung, Texturen und Details.

  • 5.000 weitere Bilder, mehr Trainingsschritte, dadurch stärkere Effekte.

(09.05.2025): nbep11 v0.205:

  • Schnelle Korrektur von Helligkeits- und Farbproblemen von v0.198. Nun sollten Helligkeit und Farben nicht mehr zu dramatisch wirken wie bei einem echten Foto. v0.198 war nicht schlecht, nur zu kreativ.

(07.05.2025): nbep11 v0.198:

  • Mehr dunkle Bilder hinzugefügt. Weniger deformierter Körper, Hintergründe unter dunkler Umgebung.

  • Farben- und Kontrast-Verbesserung entfernt. Nicht mehr nötig. Stattdessen Contrast Controller verwenden.

(25.04.2025): nbep11 v0.172.

  • Die gleichen Neuerungen wie in illus01 v1.93 ~ v1.121. Zusammenfassung: Neuer Foto-Datensatz „Touching Grass“. Bessere natürliche Textur, Hintergrund, Beleuchtung. Schwächere Charaktereffekte für bessere Kompatibilität.

  • Bessere Farbgenauigkeit und Stabilität. (Im Vergleich zu nbep11 v0.160)

(17.04.2025): illus01 v1.121.

  • Rollback auf illustrious v0.1. Illustrious v1.0 und neuere Versionen wurden absichtlich mit KI-Bildern trainiert (ca. 30 % des Datensatzes). Das ist nicht ideal für LoRA-Training. Das habe ich erst bemerkt, als ich die Paper las.

  • Geringerer Charakter-Stileffekt. Rückkehr auf v1.23-Niveau. Charaktere haben weniger Details von dieser LoRA, aber bessere Kompatibilität. Ein Kompromiss.

  • Andere Dinge sind wie unten (v1.113).

(10.04.2025): illus11 v1.113 ❌.

  • Update: Diese Version nur nutzen, wenn dein Basismodell auf Illustrious v1.1 basiert. Ansonsten illus01 v1.121 verwenden.

  • Trainiert auf Illustrious v1.1.

  • Neuer Datensatz „Touching Grass“ hinzugefügt. Bessere natürliche Textur, Beleuchtung und Tiefenschärfeeffekt. Stabilere Hintergrundstruktur. Weniger deformierte Hintergründe, z.B. Räume, Gebäude.

  • Volle natürliche Sprachbeschreibungen vom LLM.

(30.03.2025): illus01 v1.93.

  • v1.72 wurde zu stark trainiert. Deshalb wurde die Gesamtkraft reduziert. Bessere Kompatibilität.

(22.03.2025): nbep11 v0.160.

  • Die gleichen Inhalte wie illus v1.72.

(15.03.2025): illus01 v1.72

  • Gleicher neuer Textur- und Lichtdatensatz wie bei ani40z v0.4 unten. Natürlichere Beleuchtung und Texturen.

  • Kleiner ~100 Bilder umfassender Datensatz für Hand-Verbesserung, mit Fokus auf Hände bei verschiedenen Aufgaben wie Glas halten.

  • Alle „einfache Hintergrund“-Bilder aus Datensatz entfernt. -200 Bilder.

  • Trainings-Tool von kohya auf onetrainer gewechselt. LoRA-Architektur zu DoRA geändert.

(04.03.2025) ani40z v0.4

  • Trainiert auf Animagine XL 4.0 ani40zero.

  • Ca. 1.000 Bilder hinzugefügt mit Fokus auf natürliche dynamische Beleuchtung und reale Texturen.

  • Natürlichere Beleuchtung und Texturen.

ani04 v0.1

  • Initialversion für Animagine XL 4.0. Hauptsächlich zur Behebung von Helligkeitsproblemen in Animagine 4.0. Besserer und höherer Kontrast.

illus01 v1.23

nbep11 v0.138

  • Einige Furry-/Nicht-Mensch-/andere Bilder zur Ausgleichung des Datensatzes hinzugefügt.

nbep11 v0.129

  • Schlechte Version, Effekt zu schwach, einfach ignorieren.

nbep11 v0.114

  • „Full range colors“ implementiert. Balanciert automatisch in Richtung "normal und gut aussehend“. Vergleichbar mit „One-Click-Photo-Auto-Enhance“ in Bildbearbeitungsprogrammen. Nachteil: Es verhindert hohe Bias. Z.B. willst du 95 % schwarz und 5 % hell statt 50/50.

  • Ein bisschen realistischere Daten hinzugefügt. Lebendigere Details, Beleuchtung, weniger flache Farben.

illus01 v1.7

nbep11 v0.96

  • Mehr Trainingsbilder.

  • Dann erneutes Finetuning auf kleinem „Wallpaper“-Datensatz (echte Spielhintergründe, beste Qualität, ~100 Bilder). Verbesserte Details (sichtbar bei Haut, Haar) und Kontrast.

nbep11 v0.58

  • Mehr Bilder. Trainingsparameter näher an NoobAI Basismodell angepasst.

illus01 v1.3

nbep11 v0.30

  • Mehr Bilder.

nbep11 v0.11: Trainiert auf NoobAI epsilon pred v1.1.

  • Verbesserte Datensatz-Tags. Verbessertes LoRA-Struktur und Gewichtsverteilung. Stabiler und geringerer Einfluss auf Bildkomposition.

illus01 v1.1

  • Trainiert auf illustriousXL v0.1.

nbep10 v0.10

  • Trainiert auf NoobAI epsilon pred v1.0.

Zurück
Portraitstudie - Begleiter (ROGER HAUSS)
Weiter
✨ Lazy Embeddings für ALLE illustrious NoobAI Pony SDXL Modelle LazyPositive LazyNegative (Positiv und Negativ plus mehr!) - lazynsfw

Modell-Details

Modelltyp

LORA

Basismodell

Illustrious

Modellversion

illus01 v1.72

Modell-Hash

632563d18b

Ersteller

Diskussion

Bitte log in um einen Kommentar zu hinterlassen.