Stabilizer IL/NAI - illus01 v1.72
Prompt Consigliati
<lora:illustriousXL_stabilizer_v1.72:0.8>1girl, masterpiece
Parametri Consigliati
samplers
steps
cfg
resolution
other models
Parametri Consigliati per Alta Risoluzione
upscaler
upscale
denoising strength
Suggerimenti
Carica prima questo LoRA nella tua pila LoRA per minimizzare cambiamenti indesiderati dovuti ai pesi patch dinamici con architettura DoRA.
Usalo come modello base finemente ottimizzato applicando forza piena sul modello base preaddestrato per i migliori dettagli naturali e controllo dello stile.
Fai attenzione quando lo sovrapponi a modelli base molto stilizzati perché può degradare gli effetti desiderati.
Il modello non può aggiungere dettagli naturali a modelli base fortemente sovra-adattati con immagini in stile AI.
Evita di lasciare feedback nel sistema di recensioni Civitai; lascia invece commenti nella sezione fornita per maggiore visibilità.
Usa LoRA complementari come Dark, Contrast Controller e Style Strength Controller per ulteriori regolazioni di ambiente e stile.
Sponsor del Creatore
Trovarmi su TensorArt
Aggiornamento più recente:
(9/7/2025) Puoi trovarmi su TensorArt.
Stabilizer
Questo è il mio modello base finemente ottimizzato, ma in forma LoRA.
Questo modello base finemente ottimizzato:
Si concentra sulla creatività, piuttosto che su uno stile fisso. Il dataset è molto vario. Quindi questo modello non ha uno stile predefinito (bias) che limita la sua creatività.
Solo texture naturali, illuminazione e dettagli più fini. Niente stile AI plastificato. (Facce AI uguali, acconciature, superfici lisce senza texture, ecc.). Ho selezionato manualmente ogni immagine nel dataset. Zero immagini AI nel dataset.
Immagini meno deformate. Più logiche. Migliore sfondo e composizione.
Migliore comprensione del prompt. Allenato con didascalie in linguaggio naturale.
(v-pred) Illuminazione migliore e bilanciata, alto contrasto. Nero puro 0 e bianco 255 possono coesistere nella stessa immagine, anche nello stesso punto, senza traboccamenti o sovrasaturazione.
Le immagini di copertina sono output grezzi, risoluzione predefinita 1MP. Nessun upscaling, plugin o correzioni inpainting. Con metadati, 100% riproducibili.
Gli stili nelle immagini di copertina provengono dal modello base preaddestrato, attivati dal prompt. Non fanno parte del mio dataset. Puoi vedere che il modello preaddestrato conosce quegli stili, ma non può generarli correttamente perché è sovra-adattato ai dati anime. Questo modello risolve il problema dell’overfitting. Vedi sezione "come e perché funziona" sotto.
Perché nessuno stile predefinito?
Cosa significa "stile predefinito": se un modello ha uno stile predefinito (bias), significa che indipendentemente da cosa chiedi, il modello genererà sempre le stesse cose (facce, sfondi, sensazioni) che compongono lo stile predefinito.
Pro: è facile da usare, non devi più specificare lo stile nei prompt.
Contro: non puoi neanche sovrascriverlo. Se chiedi qualcosa che non si adatta allo stile predefinito, il modello lo ignorerà. Se sovrapponi altri stili, quello predefinito li sovrapporrà/inquinerà/limiterà sempre.
"Nessuno stile predefinito" significa nessun bias; devi specificare lo stile desiderato tramite tag o LoRA. Ma non ci sarà sovrapposizione o inquinamento di stile da questo modello. Otterrai esattamente lo stile che hai scelto.
Perché questo "modello base finemente ottimizzato" è un LoRA?
Non sono un "gigachad" e non ho milioni di immagini per l'addestramento. Affinare tutto il modello base non è necessario, un LoRA è sufficiente.
Risparmio molta VRAM e posso usare batch più grandi.
Devo solo caricare e tu scaricare un file piccolo di 40MiB invece di un checkpoint grosso da 7GiB, risparmiando il 99.4% di dati e spazio.
Così posso aggiornare spesso.Questo LoRA può sembrare piccolo, ma è potente. Perché usa la nuova architettura DoRA di Nvidia, più efficiente del LoRA tradizionale.
Come si ottiene questo "modello base finemente ottimizzato"?
Semplice.
modello base preaddestrato + questo LoRA = "modello base finemente ottimizzato"
Carica questo LoRA sul modello base preaddestrato a piena intensità. Il modello base preaddestrato diventerà il modello base finemente ottimizzato. Vedi sotto "Come usarlo".
Condividere merge usando questo modello è proibito. Nota che ci sono parole trigger nascoste per stampare watermark invisibili. Ho codificato io stesso watermark e rilevatore. Non voglio usarli, ma posso.
Questo modello è pubblicato solo su Civitai e TensorArt. Se vedi "me" e questa frase su altre piattaforme, sono tutte false e la piattaforma che usi è una piattaforma pirata.
Lascia feedback nella sezione commenti così tutti possono vederlo. Non scrivere il feedback nel sistema di recensioni di Civitai, è progettato così male che nessuno riesce a trovarle o vederle.
Come usare
Versioni più recenti:
nbvp10 v0.271 (allenato su NoobAI v-pred v1.0).
Colori accurati e dettagli finissimi. Il miglior modello finora.
nbep10 v0.273 (allenato su NoobAI eps v1.0). Discontinuato.
Meno saturazione e contrasto rispetto ai modelli v-pred per un "piccolo difetto di progettazione" nella predizione epsilon standard. Limita la gamma cromatica. Per questo abbiamo in seguito v-pred.
illus01 v1.198 (allenato su Illustrious v0.1). Discontinuato.
Troppo vecchio...
Nota: carica prima questo LoRA nella tua pila LoRA.
Questo LoRA usa la nuova architettura DoRA di Nvidia, più efficiente del LoRA tradizionale. A differenza di quest'ultimo che ha pesi patch statici, i pesi patch di DoRA sono dinamici e calcolati in base al peso del modello base caricato (che cambia caricando altri LoRA). Per minimizzare cambiamenti inattesi, carica questo LoRA prima.
Due modi per usare questo modello:
1). Usalo come modello base finemente ottimizzato (consigliato):
Se vuoi dettagli naturali finissimi e costruire la combinazione di stili che desideri con pieno controllo.
Carica questo LoRA prima sul modello base preaddestrato a piena intensità. Il modello base preaddestrato diventerà il modello base finemente ottimizzato.
2). Usalo come LoRA su altri modelli base finemente ottimizzati.
Perché no, dopotutto è un LoRA.
Cose da notare:
Importante: se usi un modello base "illustrious". Devi verificare su quale modello base preaddestrato è effettivamente basato il tuo modello base. La maggior parte dei modelli base "illustrious" anime più diffusi sono basati (o vicini) a NoobAI, non illustrious. Per approfondire (perché alcuni modelli base sono etichettati male e come testare il tuo modello base), vedi "Discussione". LoRA deve corrispondere al modello base preaddestrato; basi sbagliate degradano la qualità dell’immagine.
Stai per unire due modelli base. Se il tuo modello base ha uno stile predefinito molto forte, aggiungere questo LoRA di solito non ti darà il risultato atteso. Potresti dover bilanciare altri pesi (LoRA, blocchi U-net, ecc.).
Questo modello non può aggiungere dettagli naturali a modelli base con stili AI (allenati con immagini AI, tutto liscio, lucido, senza texture, plastificato). So che alcuni lo scelgono per eliminare la liscezza dello stile AI nel modello base attuale. Purtroppo non funziona, lo stile AI è estremamente sovra-adattato (puoi capirlo subito, anche se alleni un modello AI con immagini AI) e, poiché le immagini AI mancano di dettagli rispetto al mondo reale, il modello ha imparato a sopprimere i dettagli, che è un problema serio. Una volta presente lo stile AI, non puoi sbarazzartene.
Questo modello non è uno strumento magico che ti permette di sovrapporre più LoRA senza danni. Il nome può essere fuorviante.
Perché e come funziona:
Il problema dell’overfitting:
I modelli anime sono addestrati su immagini anime. Queste sono semplici e contengono solo "concetti" di alto livello, spesso astratti. Mancano sfondi, dettagli e texture.
Vogliamo che il modello impari solo concetti di alto livello. La realtà è che imparano ciò che vedono, non ciò che vuoi tu.
Dopo aver visto oltre 10 milioni di semplici immagini anime astratte, il modello impara che: 1) non deve generare dettagli, perché il dataset non glieli ha mai chiesti; 2) deve generare immagini semplici con concetti astratti anche se non capirebbe. Questo porta a immagini deformate, ovvero "overfitting".
La soluzione:
Allenare il modello su immagini anime e immagini del mondo reale, così da apprendere concetti mantenendo dettagli e texture naturali, riducendo l’overfitting.
NoobAI ha fatto questo mescolando alcune immagini reali di cosplay nel dataset. (se ricordo bene, gli sviluppatori lo hanno menzionato da qualche parte)
Questo modello fa di più, è stato addestrato su un po’ di tutto: architettura, oggetti quotidiani, abbigliamento, paesaggi... e su didascalie in linguaggio naturale multilivello completo, per imitare la configurazione di addestramento originale SDXL.
Il risultato:
Vedi confronti senza: 1 (stili artistici), 2 (stili generali)
Meno overfitting, meno immagini deformate. Più texture, illuminazione e dettagli naturali. Ora puoi usare migliaia di tag stile integrati (tag Danbooru, e621), oltre a stili generali che SDXL originale comprende, ottenendo un’immagine pulita e dettagliata come dovrebbe essere. Che sia 2D o 3D, astratta o realistica.
Massima creatività grazie al dataset vario. Nessuno stile predefinito, quindi non limita la creatività del modello preaddestrato né degli altri LoRA di stile.
Dataset
versione più recente o versioni recenti
Circa 7k immagini totali. Non enormi (rispetto ai gigachad che amano affinare modelli con milioni di immagini), ma neanche poche. Ogni immagine scelta personalmente da me.
Solo cose belle e normali. Nessuno stile d’arte folle che non si può descrivere. Niente immagini AI, nessun watermark, ecc.
Solo immagini ad alta risoluzione. Media pixel totali del dataset 3.37 MP, circa 1800x1800.
Tutte le immagini hanno didascalie naturali generate dall’ultimo LLM di Google.
Tutti i personaggi anime sono taggati prima da wd tagger v3 e poi da LLM di Google.
Contiene natura, all’aperto, interni, animali, oggetti quotidiani, molte cose, escluso essere umani reali.
Contiene ogni tipo di condizioni di luminosità. Molto scuro, molto luminoso, molto scuro e molto luminoso.
Altri strumenti
Alcune idee che dovevano essere parte di Stabilizer, ora sono LoRA separati per miglior flessibilità. Link alla collezione: https://civitai.com/collections/8274233.
Dark: Un LoRA con bias verso ambienti più scuri. Utile per correggere bias di alta luminosità in alcuni modelli base. Allenato su immagini a bassa luminosità. Senza bias di stile, quindi senza inquinamento di stile.
Contrast Controller: Un LoRA realizzato a mano. Controlla il contrasto come uno slider del monitor. Diverso dagli "enhancer" di contrasto allenati, il suo effetto è stabile, linearmente matematico e non influenza lo stile.
Utile se il tuo modello base ha problemi di sovrasaturazione o vuoi un colore più vivace.
Esempio:

Style Strength Controller: Riduttore di effetto overfitting. Può ridurre tutti gli effetti di overfitting (bias su oggetti, luminosità, ecc.) matematicamente, o amplificarli se vuoi.
Differenze rispetto a Stabilizer:
Stabilizer è stato addestrato su dati del mondo reale. Può solo "ridurre" gli effetti overfitting di texture, dettagli e sfondo, aggiungendoli di nuovo.
Style Controller non deriva dall’allenamento. È più un "annulla" addestramento per il modello base, per ridurre l’overfitting. Può ridurre matematicamente tutti gli effetti di overfitting, come bias su luminosità e oggetti.
Versioni precedenti:
Puoi trovare più info nel "Log aggiornamenti". Attenzione che le versioni vecchie possono avere effetti molto diversi.
Linea temporale principale:
Ora ~: Dettagli naturali e texture, comprensione stabile del prompt e più creatività. Non limitato più allo stile anime 2D puro.
illus01 v1.23 / nbep11 0.138 ~: Stile anime migliore con colori vivaci.
illus01 v1.3 / nbep11 0.58 ~: Stile anime migliorato.
Log aggiornamenti
(31/8/2025) NoobAI ep10 v0.273
Questa versione è stata addestrata da zero su NoobAI eps v1.0.
Rispetto alla precedente illus01 v1.198:
Luminosità migliore e bilanciata in condizioni estreme. (come nbvp v0.271)
Texture e dettagli migliori. Più passaggi di addestramento su timesteps ad alto SNR. (le versioni illus01 saltavano questi timesteps per compatibilità, ora non serve più grazie a NoobAI)
(24/8/2025) NoobAI v-pred v0.271:
Rispetto alla versione v0.264:
Illuminazione migliore e bilanciata in condizioni estreme, meno bias.
Alto contrasto, nero puro 0 e bianco 255 nella stessa immagine anche nello stesso punto, senza traboccamenti o sovrasaturazione. Ora puoi avere tutto contemporaneamente.
(la vecchia v0.264 cercava di limitare l’immagine tra 10 e 250 per evitare traboccamenti, ma aveva ancora problemi di bias, immagine complessivamente troppo scura o chiara)
Come v0.264, preferibile averla a forza alta o massima (0.9~1).
(17/8/2025) NoobAI v-pred v0.264:
Prima versione addestrata su NoobAI v-pred.
Fornisce illuminazione migliore, meno traboccamenti.
Nota: preferibile forza alta o massima (0.9~1).
(28/7/2025) illus01 v1.198
Rispetto a v1.185c:
Fine versione "c". Sebbene "visivamente d’impatto" fosse buono, aveva problemi di compatibilità. Esempio: se il modello base ha già potenziamenti di contrasto simili, sovrapporli è molto negativo. Quindi niente più effetti folli post-produzione (alto contrasto e saturazione, ecc.).
Invece più texture e dettagli. Illuminazione a livello cinematografico. Migliore compatibilità.
Questa versione ha cambiato molte cose, inclusa revisione del dataset, quindi l’effetto sarà diverso dalle versioni precedenti.
Per chi vuole tornare agli effetti folli di v1.185c. Puoi trovare stili artistici puri e dedicati in questa pagina. Se il dataset è abbastanza grande per un LoRA, potrei allenarne uno.
(21/6/2025) illus01 v1.185c:
Rispetto a v1.165c.
+100% chiarezza e nitidezza.
-30% immagini troppo caotiche (non descrivibili bene). Quindi questa versione non fornisce più un livello altissimo di contrasto, ma è più stabile in casi d’uso normali.
(10/6/2025): illus01 v1.165c
Versione speciale. Non è un miglioramento di v1.164. "c" sta per "colorato", "creativo", a volte "caotico".
Il dataset contiene immagini molto visivamente d’impatto, ma a volte difficili da descrivere, es.: molto colorate, alto contrasto, condizioni di luce complesse, oggetti e motivi complessi ovunque.
Quindi ottieni "visivamente d’impatto", ma a spese di "naturalezza". Può influenzare stili con colori morbidi, ecc. Ad esempio questa versione non genera perfettamente texture "matita" come v1.164.
(4/6/2025): illus01 v1.164
Migliore comprensione del prompt. Ora ogni immagine ha 3 didascalie naturali da prospettive diverse. I tag Danbooru sono verificati da LLM, solo i tag importanti sono inclusi nella didascalia naturale.
Anti-sovraesposizione. Aggiunto bias per evitare che il modello generi pixel puro #ffffff bianco totale. Di solito #ffffff == sovraesposto, perde molti dettagli.
Cambiati alcuni parametri di addestramento. Più compatibile con NoobAI sia e-pred che v-pred.
(19/5/2025): illus01 v1.152
Continuo miglioramento di illuminazione, texture e dettagli.
+5000 immagini, più passaggi di addestramento, effetto più forte.
(9/5/2025): nbep11 v0.205:
Riparazione rapida di problemi di luminosità e colore in v0.198. Ora non cambia luminosità e colori drasticamente come una foto reale. v0.198 non è cattivo, solo troppo creativo.
(7/5/2025): nbep11 v0.198:
Più immagini scure. Meno corpi deformati e sfondi in ambienti scuri.
Rimosso potenziamento colore e contrasto. Non più necessario. Usa Contrast Controller al suo posto.
(25/4/2025): nbep11 v0.172.
Stesse novità di illus01 v1.93 ~ v1.121. Riassunto: nuovo dataset fotografico "Touching Grass". Texture naturale, sfondo e illuminazione migliori. Effetti personaggi più deboli per compatibilità.
Migliore accuratezza e stabilità del colore. (Rispetto a nbep11 v0.160)
(17/4/2025): illus01 v1.121.
Ritornato a illustrious v0.1. Versioni illustrious v1.0 e successive erano state addestrate deliberatamente con immagini AI (forse il 30% del dataset), non ideale per allenare LoRA. Me ne sono accorto dopo aver letto il paper.
Effetto stile personaggio ridotto. Tornato al livello v1.23. Dettagli personaggi inferiori ma migliore compatibilità. È un compromesso.
Altre cose uguali a quelle di v1.113 sotto.
(10/4/2025): illus11 v1.113 ❌.
Aggiornamento: usa questa versione solo se sai che il tuo modello base è basato su Illustrious v1.1. Altrimenti usa illus01 v1.121.
Addestrato su Illustrious v1.1.
Aggiunto nuovo dataset "Touching Grass". Texture naturale, illuminazione e profondità di campo migliori. Struttura dello sfondo più stabile. Meno sfondo deformato come stanze o edifici deformati.
Didascalie in linguaggio naturale complete da LLM.
(30/3/2025): illus01 v1.93.
v1.72 era stato allenato troppo intensamente, quindi ho ridotto la forza complessiva. Compatibilità migliore.
(22/3/2025): nbep11 v0.160.
Stesse cose di illus v1.72.
(15/3/2025): illus01 v1.72
Stesso nuovo dataset di texture e luce menzionato in ani40z v0.4 sotto. Illuminazione e texture più naturali.
Aggiunto piccolo dataset di circa 100 immagini per miglioramento mani, focalizzato su mani con vari compiti come tenere bicchieri o tazze.
Rimossi tutti dati con "sfondo semplice" dal dataset (-200 immagini).
Passato da kohya a onetrainer per l’addestramento. Cambiata architettura LoRA a DoRA.
(4/3/2025) ani40z v0.4
Addestrato su Animagine XL 4.0 ani40zero.
Aggiunto ~1000 immagini focalizzate su illuminazione dinamica naturale e texture reali.
Illuminazione e texture più naturali.
ani04 v0.1
Versione iniziale per Animagine XL 4.0. Principalmente per correggere problemi di luminosità. Migliore contrasto e luminosità.
illus01 v1.23
nbep11 v0.138
Aggiunte alcune immagini furry/non-umane/altre per bilanciare il dataset.
nbep11 v0.129
Versione scarsa, effetto troppo debole, ignorala.
nbep11 v0.114
Implementato "colori a gamma completa". Bilancia automaticamente le cose verso "normali e gradevoli". Pensalo come il pulsante "auto migliora foto" di molti strumenti di editing. Un lato negativo è che previene bias alti. Per esempio, vuoi il 95% dell’immagine nero e 5% luminoso, non 50/50.
Aggiunti dati più realistici. Dettagli, luce più vividi, colori meno piatti.
illus01 v1.7
nbep11 v0.96
Più immagini per l’addestramento.
Poi affinato ancora su un piccolo dataset "wallpaper" (wallpaper di giochi reali, la migliore qualità trovata, circa 100 immagini). Miglioramenti di dettagli (pelle, capelli) e contrasto.
nbep11 v0.58
Più immagini. Parametri di training più vicini a modello base NoobAI.
illus01 v1.3
nbep11 v0.30
Più immagini.
nbep11 v0.11: Allenato su NoobAI epsilon pred v1.1.
Tag del dataset migliorati. Struttura LoRA e distribuzione dei pesi migliorate. Più stabile e meno impatto sulla composizione immagine.
illus01 v1.1
Allenato su illustriousXL v0.1.
nbep10 v0.10
Allenato su NoobAI epsilon pred v1.0.
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.












