MarblingTIXL - v2.0
Empfohlene Prompts
award-winning Art Nouveau xlmrblng15-1300, analog realistic colour photo of a Japanese mermaid sitting on a rock in the midst of crashing waves, very detailed
cybernetic nun, xlmrblng15-1300
fantasy winter landscape, xlmrblng15-1300
(__Art_Movements__:0.5) xlmrblng15-1300, mature __Nationalities__ (__Character_MF__) riding a __BW_Animals__ in a white-tinted __Landscapes__, __Metal_Color__ filigree inlay
very detailed, intricate
Empfohlene Parameter
samplers
steps
cfg
resolution
vae
other models
Empfohlene Hires (Hochauflösungs-) Parameter
upscaler
upscale
steps
denoising strength
Tipps
Nutze 3 bis 5 Tokens vor dem TI-Token (z.B. 'PortrÀt einer Frau, xlmrblng15-1300'), um bessere Ergebnisse zu erzielen.
Beste Ergebnisse erhÀlt man mit Prompts zwischen 30 und 45 Tokens ohne negative Prompts.
Vermeide TI-Triggerwörter, die mit bekannten SDXL-Konzepten (wie 'marbling') ĂŒberschneiden, da das unerwartete Ergebnisse verursacht.
Nutze das Wildcard-System von Dynamic Prompts fĂŒr abwechslungsreiches und kreatives Prompting.
FĂŒr kohya_ss Training ist die Auswahl des Init-Wortes wichtig; 'pattern' bietet das beste Gleichgewicht, um sich wiederholende Muster zu vermeiden.
Das TI besteht aus 8 Vektoren fĂŒr stĂ€rkeren Effekt, was fĂŒr kurze/einfache Prompts ĂŒberpowert ist.
Verwende Sampler wie DPM++ 2M Karras mit CFG 7 und 40 Schritten fĂŒr die Bildgenerierung.
Auflösungen nahe 1MP (1024x1024, 960x1344, 1344x960) liefern gute QualitĂ€t; 1344x960 passt gut fĂŒr 7"x5" Drucke.
Versions-Highlights
Dies ist eine Neuauflage mit dem aktuellen kohya_ss (v22.6.0 zum Zeitpunkt des Schreibens), da die Einstellungen, die ich mit der alten Version verwendet habe, nicht das gleiche Ergebnis liefern. Trainingsdaten und Notizen sind fĂŒr Interessierte enthalten. Der Trainingslauf nutzte Gradient Accumulation = 4, daher entsprechen die 500 Schritte etwa 2000 Schritten ohne GA.
31. Jan 2024
v2.0 ist keine bessere Version von MarblingTIXL. Einfach anders. v1.0 funktioniert weiterhin gut.
Durch die Ănderungen in kohya stellte sich heraus, dass die Art, wie ich die erste Version dieses TI erstellt habe, nicht mehr funktioniert oder zumindest nichts wirklich NĂŒtzliches produziert.
Danke an @raken, der mich darauf hingewiesen hat.
Ich glaube weiterhin, dass SDXL Embeddings groĂes Potenzial haben, daher habe ich eine frische kohya_ss Installation (v22.6.0 zum Zeitpunkt des Schreibens) gemacht und mich durch verschiedene Parameter/Einstellungen gearbeitet, bis ich eine Kombination gefunden habe, die einem nah verwandt ist zum originalen MarblingTIXL.
Falls jemand Interesse an SDXL TIs hat (und ich weiĂ, dass da drauĂen mindestens 2 von euch sind!), habe ich meine Trainingsdaten und die kohya_ss Konfigurations-JSON beigefĂŒgt. Möglicherweise auch einige Notizen, falls mir etwas NĂŒtzliches einfĂ€llt.
Positiv ist, dass dieses TI schneller trainiert wurde... nachteilig ist, dass es nicht so konsistent ist wie das Àltere TI. Oder vielleicht habe ich noch nicht genug damit experimentiert. Wer kann das bei dieser cutting edge Technologie schon genau sagen?!
Wenn jemand Fragen, Beobachtungen, Meinungen oder Weisheiten hat, bitte unten kommentieren. Es gibt momentan kaum verlĂ€ssliche Informationen darĂŒber, wie man TI-Stile erstellt... Ich habe viele widersprĂŒchliche Ansichten gelesen/gesehen. Es ist aber machbar, und ich denke, es gibt Raum fĂŒr bessere TIs als das, was ich bisher geschafft habe.
Wettbewerb fĂŒr LoRAs? Nein, nicht wirklich - LoRAs fĂŒgen einem Checkpoint etwas hinzu, wĂ€hrend TIs das nutzen, was schon im Checkpoint steckt. Soweit ich das verstanden habe, ermöglichen TIs den Zugang zu Bereichen im Möglichkeitsraum eines Checkpoints, die sonst schwer konsistent erreichbar sind. Also sind TIs und LoRAs verschieden fĂŒr unterschiedliche Zwecke... die man zusammen verwenden kann. Also sind alle glĂŒcklich :-)
Es gibt technische Fachartikel dazu (was ein TI ist, wie man einen trainiert, Infos zu Text-Encodern etc.), aber ich bin meist schon nach der HĂ€lfte der ersten Seite ĂŒberfragt :-(
Soweit ich weiĂ, trainiert kohya_ss nur den ersten TE (Text Encoder) in SDXL. Das ist der von SD v1.x, der eigentlich in auto1111 SDXL Generation funktionieren sollte, aber nicht tut. (Einige berichten, dass SD v1.x TIs in Comfy funktionieren, aber die Erfahrung scheint uneinheitlich.) Den zweiten TE trainiert kohya_ss meines Wissens nach nicht (das ist der von SD v2.x). Oder vielleicht ist es eine Duplikation von TE1?
Ich habe es mit OneTrainer versucht (der Optionen fĂŒr beide TEs hat), hatte aber keinen Erfolg bei einigen wenigen Versuchen, also bleibe ich vorerst bei kohya_ss.
Als Referenz verwende ich eine RTX-3060 mit 12GB in einem ordentlichen PC. Aktuelle kohya_ss LĂ€ufe ĂŒbersteigen knapp die 12GB (+ weitere 6GB, wenn ich Samples generiere), daher ist es ressourcenintensiver als ein LoRA-Training. Ich dachte, TIs benötigen weniger (oder gleich viel) Ressourcen, deshalb bin ich etwas ĂŒberrascht. Vielleicht wird bei TIs noch nicht stark optimiert? Noch nicht :-)
Das TI hier wurde trainiert auf:
sd_xl_base_1.0_0.9vae.safetensors
Die Showcase-Bilder wurden erzeugt mit:
crystalClearXL_ccxl.safetensors [0b76532e03]
Das heiĂt, ein TI, der auf dem Vanilla-Base trainiert wurde, sollte mit anderen Checkpoints funktionieren.
Bilder werden in a1111 v1.7.0 erzeugt, Hires.fix wurde verwendet, keine weiteren Adjustments.
Die zusĂ€tzliche Galerie unten zeigt Vergleichsbilder ohne/mit, damit man sehen kann, wie das TI einige ausgewĂ€hlte Prompts beeinflusst. Label âxlmrblnh36-500â bedeutet ohne, âxlmrblng36-500â mit TI. Ich habe es so gemacht, damit die zwei Prompts so Ă€hnlich wie möglich bleiben.
Falls Interesse besteht: Das Trainingsdaten-Zip enthÀlt alle gespeicherten TIs in 25-Schritt (*4 Gradient Accumulation = 100 normale Schritte) Intervallen.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
HINWEIS: Es gibt ein Problem mit SDXL in der aktuellen Version des automatic1111 WebUI (v1.6.0). Wenn man einen Refiner-Checkpoint benutzt, vergisst WebUI alle Embeddings, bis man einen anderen Checkpoint lĂ€dt und dann den ursprĂŒnglichen wieder oder WebUI neu startet. Ich habe das den Entwicklern gemeldet:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/13117
Und es wurde als Bug bestÀtigt.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
***ZUSAMMENFASSUNG***
Dieses Embedding wendet eine surreale/fantastische Ăsthetik inspiriert von Vintage-Marmorpapier-Mustern an. Der Effekt variiert von gering bis extrem, je nachdem, wie ânahâ dein Prompt bereits an dieser Ăsthetik ist.
Das Training fĂŒr dieses TI beinhaltete keine KĂŒnstlerwerke oder Tags.
Kopiere die Generierungsdaten eines Showcase-Bildes und passe sie nach Geschmack an, oder starte mit einem Prompt wie diesem, der mit jedem Seed ein gutes Ergebnis liefern sollte:
preisgekröntes Art Nouveau xlmrblng15-1300, analog realistische Farbfoto einer japanischen Meerjungfrau sitzend auf einem Felsen inmitten brechender Wellen, sehr detailliert
Checkpoint: crystalClearXL_ccxl.safetensors [0b76532e03]
Sampler: DPM++ 2M Karras
Schritte: 40
CFG: 7
Höhe=Breite=1024
Dann variiere die Begriffe nach Belieben. Versuche, zwischen 3 und 5 Wörter vor âxlmrblng15-1300â zu halten.
Die einfachsten Prompts, die einen Versuch wert sind, sind solche:
cybernetische Nonne, xlmrblng15-1300
fantasievoller Winterlandschaft, xlmrblng15-1300
Aber in der Regel braucht man mehr Worte fĂŒr interessante Ergebnisse.
Nach viel Experimentieren fand ich die besten Ergebnisse mit Prompts zwischen 30 und 45 Tokens, ohne negative Prompts.
Ich habe einige Vorher/Nachher Bildpaare in den zusÀtzlichen Galerien unten bereitgestellt.
xlmrblnh15 = ohne dieses TI
xlmrblng15 = mit diesem TI
Wie du sehen wirst, tut dieses TI mehr als nur marmorierte Papiermuster hinzufĂŒgen :-)
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
***WEITERE DETAILS & TRAININGSINFOS***
Dies ist ein TI (Textual Inversion) Embedding, das deine Bildgenerierungen anpasst, indem es marmorierte Papiermuster hinzufĂŒgt oder Dinge je nach Prompt in Richtung marmoriertem Papier anpasst. Durch die Funktionsweise des SDXL-Systems ist der Effekt bei lĂ€ngeren/komplexeren Prompts oft strukturell statt einfach.
Es ist der SDXL-Nachfolger meines MarblingTI fĂŒr SD v1.5:
https://civitai.com/models/69768/marblingti
Wegen der vielen Ănderungen in SDXL hatte ich viele Fehlstarts (20+), aber ich denke, dieses neue TI ist nĂŒtzlicher als das alte... zumindest fĂŒr die surrealen/illustrativen Sachen, die ich gern erstelle.
Der Wechsel von automatic1111 zu kohya_ss fĂŒrs Training war kein leichter Prozess. Mehr dazu weiter unten.
Das TI besteht aus 8 Vektoren (d.h. es benötigt 8 Tokens deines Prompts). Es ist ĂŒberpowert fĂŒr kurze/einfache Prompts. Das ist gewollt - ich habe einige subtilere Versionen gemacht, aber die waren fĂŒr die lĂ€ngeren/komplexeren Prompts mit SDXL nicht hilfreich. Nach meinem VerstĂ€ndnis von Stable Diffusion sollten 4 Vektoren ausreichen, aber bei 4 Vektoren bekam ich keine konsistenten Ergebnisse.
Das Quellmaterial besteht aus Scans/Fotos von Vintage-Marmorpapier, die zu mehreren VorlĂ€ufer-TIs gemacht wurden, die dann genutzt wurden, um Hybridbilder zu erstellen, die die Eingaben fĂŒr dieses TI wurden.
FĂŒr Prompts solltest du 3 bis 5 Tokens voranstellen.
z.B.
PortrÀt einer Frau, xlmrblng15-1300
statt
xlmrblng15-1300, PortrÀt einer Frau
Wenn du einen kurzen/einfachen Prompt benutzt, bekommst du wahrscheinlich nur ein Vintage-Marmorpapier-Muster. Okay, aber langweilig. AuĂerdem kann das TI bei kurzen Prompts einen leichten GrĂŒnschleier in Bildern verursachen. Warum, weiĂ ich nicht; die Trainingsbilder haben keinen solchen Farbton.
Gewichtung/Fokus: von 0,81 bis 1,33 je nach Prompt verwendbar. Ich finde, konsistentere Ergebnisse bekomme ich, wenn ich das TI-Token verschiebe statt Gewichtungen zu nutzen.
Alle Bildgenerierungen fĂŒr dieses TI erfolgten in automatic1111 webui v1.6.0. Die einzige Nicht-Bordmittel-Erweiterung, die ich nutze, ist Dynamic Prompts (installiert via Extensions Tab). Ich habe weder Hires.fix noch In-/Outpainting, Detailiers oder andere TIs oder LoRAs benutzt, damit man an den Showcase-/Galeriebildern sehen kann, ob sich ein Versuch mit diesem TI lohnt.
https://github.com/AUTOMATIC1111/stable-diffusion-webui
https://github.com/adieyal/sd-dynamic-prompts
Ich nutze meist den CrystalClearXL:
https://civitai.com/models/122822?modelVersionId=133832
oder SDXL FaeTastic
https://civitai.com/models/129681?modelVersionId=157988
Checkpoints fĂŒr SDXL Bildgenerierung, aber dieses TI funktioniert mit jedem SDXL Checkpoint, den ich probiert habe.
Wegen der Funktionsweise von Prompts, wenn du die Effekte mit/ohne TI sehen willst, Àndere nur einen Buchstaben.
z.B.
MIT: cybernetische Nonne, xlmrblng15-1300
OHNE: cybernetische Nonne, xlmrblnh15-1300
Du kannst das Trigger-Wort Ă€ndern, indem du die heruntergeladene Safetensors-Datei umbenennst. PROBLEM: Wenn du das Trigger in ein Wort Ă€nderst, das SDXL âkenntâ, wie marbling, erhĂ€ltst du unerwartete Ergebnisse. Selbst wenn du Wörter zusammenfĂŒgst wie newmarbling, erkennt SDXL ânewâ und âmarblingâ und macht, Ă€hm, Dinge mit denen statt mit dem TI.
Der Name, den ich verwendet habe, sagt mir, dass es ein SDXL TI ist, es geht um marbling (mrblng) und es ist die 1300 Schritt Iteration der Version 15.
Ich nutze oft eine Kunstrichtung am Anfang meiner Prompts, z.B. Art Nouveau, entweder so oder gewichtet auf ca. 0,3 bis 0,5. Anlaufstellen zu Kunstrichtungen:
https://de.wikipedia.org/wiki/Liste_von_Kunstrichtungen
https://de.wikipedia.org/wiki/Zeitalter_der_Moderne
Wenn das fĂŒr Puristen nicht passt, probiere z.B. âaward-winning illustrativeâ. FĂŒr mich bedeutet das HinzufĂŒgen einer geliebten Kunstrichtung, dass ich den Rest des Prompts nicht so stark anpassen muss, um einen Ă€hnlichen Effekt zu erzielen. Die kurze Liste meiner Lieblings-Kunstrichtungen steht in einer txt-Datei im Dynamic Prompts Wildcards-Ordner, sodass ich nur __Art_Movements__ verwenden muss.
Als Regel nutze ich keine KĂŒnstlernamen, auĂer gelegentlich posthum, um einen ganz bestimmten Effekt zu erzielen, z.B. RenĂ© Lalique
https://de.wikipedia.org/wiki/Ren%C3%A9_Lalique
Ich nutze kohya_ss (v21.8.9) fĂŒr TI-Training, da automatic1111 wohl kein SDXL-Training ins WebUI einbauen wird.
https://github.com/bmaltais/kohya_ss
Es gibt viele Einstellungen/Konfigurationen in kohya_ss und ich verstehe noch nicht mal die HÀlfte davon :-( Dennoch versuche ich hier Infos, die Leuten helfen könnten, SDXL Textual Inversion Stile mit kohya_ss zu trainieren. Ich habe kein SDXL TI Objekt ausprobiert und bekomme kein LoRA-Training mit kohya_ss zum Laufen (es startet entweder nicht oder bricht ab).
Ich kann nur die Settings beschreiben, die auf meinem PC funktioniert haben, hoffe aber, dass sie auch fĂŒr Ă€hnliche PCs relevant sind. Also...
Mein PC:
Nvidia 3060/12GB (nicht Ti), MSI X570 Board, Ryzen 7-2700 (8c/16t), 64GB RAM, mehrere SSDs, Win10pro.
Ordnerstruktur:
XLmrblng15
\--img
\--\--50_XLmrblng15 style
\--log
\--model
Trainingsbilder:
Ich erstellte 45 Bilder mit 1024x1024 und legte sie im Ordner â50_XLmrblng15 styleâ ab. Dann eine .caption-Datei fĂŒr jedes Bild. Beispiel:
cliff with waterfall.png
cliff with waterfall.caption
Caption-Dateien sind reine Textdateien, ich nutzte einfach einen Texteditor. Inhalt jeder .caption folgt folgendem Muster:
xlmrblng15, cliff with waterfall
Das ist der Name des TI, ein Komma, ein Leerzeichen und der beschreibende Dateiname.
Ich nutze keine Captioning-Utilities.
Wenn weiter unten kein Parameter erwÀhnt, habe ich ihn auf Standard gelassen.
Im Haupt-Tab âTextual Inversionâ bei kohya_ss:
Reiter Source Model:
Model Quick Pick = custom
âSave trained model asâ = safetensors
Pretrained model name or path = G:/stable-diffusion-webui-master/webui/models/Stable-diffusion/SDXL/sd_xl_base_1.0_0.9vae.safetensors
SDXL model = angehakt
Reiter Folders:
Image folder = G:/KOHYA/TRAIN/XLmrblng15/img
Output folder = G:/KOHYA/TRAIN/XLmrblng15/model
Logging folder = G:/KOHYA/TRAIN/XLmrblng15/log
Model output name = xlmrblng15
Parameter (basic) Tab:
Token string = xlmrblng
Init word = pattern
Vectors = 8
Template = caption
Mixed precision = bf16
Save precision = bf16
Number of CPU threads per core = 1
Cache latents = angehakt
Cache latents to disk = angehakt
LR Scheduler = constant
Optimizer = AdamW8bit
Learning rate = 0.001
Max resolution = 1024,1024
No half VAE = angehakt
Parameter (advanced) Tab:
VAE = G:/KOHYA/sdxl_vae.safetensors
Save every N steps = 100
Gradient checkpointing = angehakt
Memory efficient attention = angehakt
Max num workers for DataLoader = 4
Parameter (samples) Tab:
Sample every n steps = 100
Sample prompts =
ein analog realistisches Foto eines prÀchtigen Krug auf einem Tisch mit GlÀsern, sehr detailliert, komplex, xlmrblng15 --w 1024 --h 1024
xlmrblng15, ein analog realistisches Foto einer prÀchtigen englischen Dame in viktorianischem Badeanzug, sehr detailliert, komplex, --w 1024 --h 1024
Mit all den genannten Einstellungen lag die Trainingszeit bei ca. 6s/Iteration. Variabel, weil ich den PC nebenbei fĂŒr andere (einfache!) Dinge nutzte, wĂ€hrend kohya lief. Das xlmrblng15-1300 wurde ca. nach 2 Std 10 Min produziert.
WĂ€hrend des Trainings lag die GPU RAM Nutzung knapp innerhalb der 12GB meiner 3060. Beim Sample-Generieren und Speichern des TIs alle 100 Schritte kamen aber ca. 7GB dazu (also 19GB gesamt). Diese 7GB stammen aus dem "Shared GPU Memory", also dem Hauptsystem RAM. Nach der Sample-Generierung fiel die Nutzung zurĂŒck auf nur die 12GB GPU RAM.
Das Verlangsamen bei Nutzung von "Shared GPU Memory" war etwa 10-fach. Sehr Àrgerlich :-(
Die Samples von kohya sind im Vergleich zur Benutzung des Basis SDXL Modells in automatic1111 webui qualitativ sehr schlecht. Ich habe sie trotzdem drin gelassen, denn so konnte ich wenigstens grob sehen, ob das Training in die richtige Richtung geht.
SelbstverstÀndlich ist dein Trainingsdatensatz sehr wichtig. Ich probierte viele Kombinationen aus generierten und realen Bildern, bis ich einen Satz hatte, der das TI auf dieser Seite ergab.
FĂŒr 45 Bilder und BatchgröĂe 1 (Standard) sagt der spezielle Ordnername â50_XLmrblng15 styleâ kohya, die Bilder 45 Mal zu durchlaufen. 45 * 50 = 2250 Schritte gesamt. Nach Testen der verschiedenen gespeicherten TIs bei 100, 200, 300 Schritten usw., entschied ich, dass der bei 1300 Schritten am besten arbeitete.
Im Parameters-Basic Tab gibt es ein Feld âInit wordâ. Ich fand, dass das Training sehr empfindlich ist, was ich hier nutze. In diesem Fall nutzte ich âpatternâ, ein 1-Token-Wort aus SDXL-Sicht. Theoretisch hĂ€tte ich eine 8-Token-Phrase nutzen mĂŒssen (kohya gibt Warnung, wenn Vectors und Init Tokens nicht ĂŒbereinstimmen). Bei einigen LĂ€ufen nutzte ich mehr Tokens und erhielt interessante TIs, aber nicht das, was ich suchte.
Die Nutzung von âpatternâ hat einen Nachteil: je nach Prompt kann es zu vielen Wiederholungen kommen - wie ein sich wiederholendes Muster auf Tapete oder Geschenkpapier.
âmarblngâ oder âpaper marblingâ funktionierte nicht: Im Vergleich zu SDv1.x kennt SDXL viel mehr ĂŒber Marmorierung. Probiere es in deinen Prompts! Fordere Marmor/Marmorierung/marmorierte Dinge an und SDXL macht so viel besser als SDv1.x. Immer wenn ich ein TI mit init word marbling oder einem verwandten Begriff gemacht habe, bekam ich eher das eingebaute Marmorieren von SDXL, nicht das Training meines Datensatzes. :-(
Ich untersuchte die Geschichte des marmorierten Papiers und probierte Begriffe wie âebruâ, die tĂŒrkische Variante von marmoriertem Papier. Das funktionierte auch nicht gut. Am Ende gab mir der sehr breite Begriff âpatternâ das meiste, was ich wollte.
Kohya_ss hat die Option eines âstyleâ Templates im Parameters-Basic Tab. Ich hatte einige ordentliche Ergebnisse mit âstyleâ bei einigen meiner nicht veröffentlichten SDXL TIs, aber beim marmorierten Papier waren die Ergebnisse nicht gut.
Textual Inversion vs. LoRA
Ich konzentriere mich auf TIs, weil (a) ich kein LoRA erfolgreich trainieren kann und (b) ich den Inhalt in SDXL nutzen möchte, statt mehr Daten darĂŒberzulegen. Ich bin nicht gegen LoRAs - ganz im Gegenteil! Ich habe viel SpaĂ mit LoRAs von konyconi und anderen. Tolles Wow!-Ergebnis :-)
Aber ich fĂŒhle mich momentan mehr zu TIs hingezogen. Wie ich es sehe, erlauben TIs die Anpassung der Prompts in SDXL-Bereiche, die einfache Worte nicht erreichen können, wĂ€hrend LoRAs neue Inhalte auf SDXL legen, die man dann ĂŒber Prompts âmischtâ.
Das ist sehr vereinfacht, aber ich will hier keine Diskussion ĂŒber den vollen Sampleraum von SDXL vs. dessen Wahrscheinlichkeitsraum und Supersets starten. Das ist fĂŒr mich ein Hobby, kein Job :-)
Als letztes noch, ich nutze das Wildcard-System von Dynamic Prompts stark. Meine typischen Prompts mit diesem xlmrblng15-1300 TI sehen so aus:
(__Art_Movements__:0.5) xlmrblng15-1300, reifer __Nationalities__ (__Character_MF__) reitet ein __BW_Animals__ in einer weià getönten __Landscapes__, __Metal_Color__ Filigran-Einlage
Konkrete Prompts (also nach AusfĂŒhrung von Dynamic Prompts) sind meist zwischen 30 und 45 Tokens lang.
Wenn ich ein generiertes Bild in den âPNG Infoâ Tab von automatic1111 webui ziehe, ist ein typisches Ergebnis dieses dynamischen Prompts 34 Tokens lang:
(Surrealismus:0.5) xlmrblng15-1300, reifer schwedischer (mĂ€nnlicher Vampir) reitet einen Dalmatiner in weiĂ getĂŒnchten WattflĂ€chen mit scharlachroten Kranichen, schwarzer Filigran-Einlage
Warum NationalitĂ€ten einbauen, wenn SDXL da in lĂ€ngeren Prompts wenig drauf achtet? Weil SDXL voreingenommen ist und kleine Extras je nach NationalitĂ€t hinzufĂŒgt. Das kann z.B. rote Haare bei "schottisch", Pyramiden bei "Ă€gyptisch" oder den Mt. Fuji bei "japanisch" sein. Funktioniert auch bei anderen Dingen; KontextverknĂŒpfungen/Assoziationen sind in SDXL stĂ€rker als bei SDv1.x. Es ist schwierig, das zu kontrollieren :-(
Auflösungen fĂŒr SDXL nutze ich ĂŒblicherweise 1024x1024, 960x1344 und 1344x960. Empfohlene Auflösungen im Netz schlagen vor, die Basis von 1MP (1024x1024) und andere Auflösungen nahe 1MP zu nutzen. Also sollte ich bei 1344 Breite 768 Höhe nehmen. Das probierte ich, empfand die QualitĂ€t von 1344x768 als deutlich schlechter als bei 1024x1024 oder 1344x960. AuĂerdem skaliert 1344x960 exakt auf mein 7"x5" Foto-Papier. Also das :-)
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Trainierte Wörter
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.







