Stabilizer IL/NAI - illus01 v1.198
Prompt Consigliati
upper body
Parametri Consigliati
samplers
steps
cfg
resolution
other models
Suggerimenti
Carica questa LoRA per prima nella tua pila di LoRA per minimizzare cambiamenti imprevisti dovuti ai pesi patch dinamici con architettura DoRA.
Usala come modello base finemente tarato applicandola a piena potenza sul modello base pretrained per i migliori dettagli naturali e controllo dello stile.
Fai attenzione quando la combini con modelli base dallo stile molto forte, può degradare gli effetti desiderati.
Il modello non può aggiungere dettagli naturali a modelli base fortemente overfittati con immagini in stile AI.
Evita di lasciare feedback nel sistema di recensioni di Civitai; utilizza la sezione commenti fornita per maggiore visibilità.
Usa LoRA complementari come Dark, Contrast Controller e Style Strength Controller per ulteriori aggiustamenti di ambiente e stile.
Sponsor del Creatore
Trova me su TensorArt
Aggiornamento più recente:
(9/7/2025) Puoi trovarmi su TensorArt.
Stabilizer
Questo è il mio modello base finemente tarato, ma in forma LoRA.
Questo modello base finemente tarato:
Si concentra sulla creatività, piuttosto che su uno stile fisso. Il dataset è molto vario. Quindi questo modello non ha uno stile predefinito (bias) che limiti la sua creatività.
Solo texture naturali, illuminazione e dettagli più fini. Nessuno stile AI plastificato. (Facce AI simili, stile capelli, superfici lisce senza texture, ecc...). Ho selezionato a mano ogni immagine nel dataset. Zero immagini AI nel dataset.
Immagini meno deformate. Più logiche. Sfondo e composizione migliori.
Migliore comprensione del prompt. Addestrato con didascalie in linguaggio naturale.
(v-pred) Illuminazione migliore e bilanciata, alto contrasto. Nero puro 0 e bianco puro 255 possono coesistere nella stessa immagine, anche nello stesso punto, senza trabocchi o sovrasaturazione.
Le immagini di copertina sono output grezzi, a risoluzione predefinita di 1MP. Nessun upscaling, nessun plugin, nessuna correzione di inpainting. Metadata presenti, risultano 100% riproducibili.
Gli stili nelle immagini di copertina provengono dal modello base pretrained, attivati dal prompt. Non sono nel mio dataset. Puoi vedere che il modello pretrained conosce quegli stili, ma non riesce a generarli correttamente perché è overfittato ai dati anime. Questo modello ha risolto il problema dell'overfitting. Vedi la sezione "come e perché funziona" sotto.
Perché nessuno stile predefinito?
Cos'è uno "stile predefinito": Se un modello ha uno stile predefinito (bias), significa che indipendentemente da cosa scrivi nel prompt, il modello genererà sempre le stesse cose (facce, sfondi, sensazioni) che costituiscono quello stile predefinito.
Pro: È facile da usare, non devi più specificare lo stile nel prompt.
Contro: Ma non puoi neanche sovrascriverlo. Se scrivi qualcosa che non si adatta allo stile predefinito, il modello lo ignorerà. Se aggiungi altri stili, lo stile predefinito sovrapporrà/inquinerà/limiterà gli altri stili.
"nessuno stile predefinito" significa nessun bias, e devi specificare lo stile desiderato, tramite tag o LoRA. Ma non ci sarà sovrapposizione/inquinamento di stile da questo modello. Otterrai lo stile combinato esattamente come dovrebbe essere.
Perché questo "modello base finemente tarato" è una LoRA?
Non sono un gigachad e non ho milioni di immagini di training. Non è necessario fare il fine-tuning dell'intero modello base, una LoRA è sufficiente.
Posso risparmiare molta VRAM per usare batch size più grandi.
Devi solo caricare, e tu devi solo scaricare, un piccolo file di 40MiB, invece di un checkpoint pesante da 7GiB, risparmiando il 99,4% di dati e spazio.
Quindi posso spammare aggiornamenti.Questa LoRA sembra piccola, ma è potente. Usa una nuova architettura chiamata DoRA di Nvidia, più efficiente della LoRA tradizionale.
Come ottengo questo "modello base finemente tarato"?
Semplice.
modello base pretrained + Questa LoRA = il "modello base finemente tarato"
Basta caricare questa LoRA sul modello base pretrained a piena potenza. Il modello base pretrained diventerà il modello base finemente tarato. Vedi sotto "Come usare".
È vietato condividere fusioni che usano questo modello. Per tua informazione, ci sono parole trigger nascoste che stampano watermark invisibili. Ho creato watermark e detector personalmente. Non voglio usarlo, ma posso.
Questo modello è pubblicato solo su Civitai e TensorArt. Se vedi "me" e questa frase su altre piattaforme, sono tutte false e la piattaforma che stai usando è pirata.
Lascia feedback nella sezione commenti. Così tutti possono vederlo. Non scrivere feedback nel sistema di recensioni di Civitai, è mal progettato e nessuno può trovare o vedere la recensione.
Come usare
Versioni più recenti:
nbvp10 v0.271 (addestrato su NoobAI v-pred v1.0).
Colori accurati e dettagli finissimi. Questo è il miglior modello finora.
nbep10 v0.273 (addestrato su NoobAI eps v1.0). Discontinuato.
Meno saturazione e contrasto rispetto ai modelli v-pred. A causa di una "piccola imperfezione" nella predizione epsilon (eps) standard. Limita il modello a raggiungere una gamma colori più ampia. Per questo abbiamo poi v-pred.
illus01 v1.198 (addestrato su Illustrious v0.1). Discontinuato.
Troppo vecchio...
Nota: carica prima questa LoRA nella tua pila di LoRA.
Questa LoRA usa una nuova architettura chiamata DoRA di Nvidia, più efficiente della LoRA tradizionale. A differenza della LoRA tradizionale, che ha un peso di patch statico, il peso di patch di DoRA è calcolato dinamicamente in base al peso del modello base caricato (che cambia quando carichi LoRA). Per minimizzare cambiamenti imprevisti, carica questa LoRA per prima.
Due modi per usare questo modello:
1). Usalo come modello base finemente tarato (Consigliato):
Se vuoi i dettagli naturali più fini e creare la combinazione di stili desiderata, con pieno controllo.
Carica questa LoRA per prima sul modello base pretrained a piena potenza. Il modello base pretrained diventerà il modello base finemente tarato.
2). Usalo come LoRA su altri modelli base finemente tarati.
Perché no, dopotutto è una LoRA.
Cose da notare:
Importante: se usi un modello base "illustrious". Devi verificare su quale modello base pretrained è basato effettivamente il tuo modello base. La maggior parte dei modelli base "illustrious" anime più popolari si basa (o è vicino) a NoobAI, non illustrious. Leggi di più (perché quei modelli base sono etichettati male e come testare il tuo modello base) in "Discussione". La LoRA deve corrispondere al modello base pretrained. Un modello base non corrispondente peggiorerà la qualità dell'immagine.
Stai per fondere due modelli base. Se il tuo modello base ha già un forte stile predefinito, semplicemente aggiungere questa LoRA al tuo modello base solitamente non ti darà ciò che ti aspetti. Potresti dover bilanciare altri pesi (LoRA, blocchi U-net, ecc.).
Questo modello non può aggiungere dettagli naturali a modelli base con stili AI (addestrati con immagini AI, si percepisce tutto liscio, lucido, senza texture, plastificato). So che alcuni di voi scelgono questo modello per eliminare la levigatezza dello stile AI nel modello base attuale. Purtroppo non funziona, perché lo stile AI è estremamente overfittato (puoi imparare subito cosa hai fatto. uguale al modello AI se lo addestri con immagini AI). E dato che le immagini AI mancano di dettagli rispetto a quelle reali, il modello ha imparato anche a sopprimere i dettagli. Questo è un problema serio. Una volta che lo stile AI c'è, non puoi liberartene.
Questo modello non è uno strumento magico che ti permette di aggiungere più LoRA su un modello base senza romperlo. So che il nome può trarre in inganno.
Perché e come funziona:
Il problema dell'overfitting:
I modelli anime sono addestrati su immagini anime. Le immagini anime sono semplici e contengono solo "concetti" ad alto livello, spesso molto astratti. Mancano sfondi, dettagli e texture.
Vogliamo che il modello impari solo "concetti" ad alto livello. Il fatto è che il modello impara ciò che vede, non ciò che vuoi.
Dopo aver visto più di 10 milioni di immagini anime semplici e astratte, il modello imparerà che 1) non serve generare dettagli. Perché il dataset non glielo ha mai detto. 2) Deve generare immagini semplici con concetti astratti anche se non li comprende. Questo porta a immagini deformate, ovvero "overfitting".
La soluzione:
Addestrare il modello con immagini anime e immagini reali. Così può imparare i concetti mantenendo dettagli e texture naturali, ovvero meno overfitting.
NoobAI ha fatto questo mescolando alcune immagini cosplay reali nel dataset. (se ricordo bene, i suoi sviluppatori lo hanno menzionato da qualche parte)
Questo modello va oltre, è stato addestrato un po' su tutto. Architettura, oggetti quotidiani, abbigliamento, paesaggi, ... . Inoltre con didascalie naturali multilivello, imitando il setup di addestramento originale di SDXL.
Il risultato:
Vedi confronti senza: 1 (stili artistici), 2 (stili generali)
Meno overfitting, immagini meno deformate. Più texture, illuminazione e dettagli naturali. Ora puoi usare migliaia di tag di stile incorporati (tag Danbooru, e621), oltre agli stili generali che l'originale SDXL comprende, ottenendo immagini pulite e dettagliate come dovrebbero essere. Che siano 2D o 3D, astratte o realistiche.
Sempre creatività massima. Grazie al dataset diversificato. Non c'è uno stile predefinito. Quindi non limita la creatività del modello pretrained, né delle altre LoRA di stile.
Dataset
versione più recente o versioni recenti
~7k immagini totali. Non enorme (rispetto ai gigachad che amano rifinire modelli con milioni di immagini), ma neanche piccolo. E ogni immagine è stata selezionata a mano da me.
Solo cose normalmente belle. Nessuno stile artistico folle che non si può descrivere. Niente immagini AI, nessun watermark, ecc.
Solo immagini ad alta risoluzione. La media di pixel del dataset è 3.37 MP, ~1800x1800.
Tutte le immagini hanno didascalie naturali dal più recente LLM di Google.
Tutti i personaggi anime sono taggati prima con wd tagger v3 e poi con LLM Google.
Contiene natura, ambienti esterni, interni, animali, oggetti quotidiani, molte cose, eccetto esseri umani reali.
Contiene tutte le condizioni di luminosità. Molto scuro, molto luminoso, molto scuro e molto luminoso insieme.
Altri strumenti
Alcune idee che dovevano o usavano essere parte di Stabilizer. Ora sono LoRA separati. Per maggiore flessibilità. Link alla collezione: https://civitai.com/collections/8274233.
Dark: Una LoRA incentrata su ambienti più scuri. Utile per correggere il bias di alta luminosità in alcuni modelli base. Addestrato su immagini a bassa luminosità. Nessun bias di stile, quindi nessuna contaminazione di stile.
Contrast Controller: Una LoRA artigianale. Controlla il contrasto come faresti con un cursore nel tuo monitor. Diversamente dagli "enhancer di contrasto" addestrati, l'effetto di questa LoRA è stabile, matematicamente lineare e senza effetti collaterali sullo stile.
Utile quando il tuo modello base ha problemi di sovrasaturazione o vuoi qualcosa di veramente colorato.
Esempio:

Style Strength Controller: O riduttore dell'effetto overfitting. Può ridurre tutti i tipi di effetti di overfitting (bias su oggetti, luminosità, ecc.), matematicamente. Oppure amplificarli, se vuoi.
Differenze rispetto a Stabilizer:
Stabilizer è stato addestrato su dati del mondo reale. Può solo "ridurre" gli effetti di overfitting su texture, dettagli e sfondi, aggiungendoli indietro.
Style Controller non deriva dall'addestramento. È più come "annullare" l'addestramento del modello base, rendendolo meno overfittato. Può matematicamente ridurre tutti gli effetti di overfitting, come bias su luminosità, oggetti.
Vecchie versioni:
Puoi trovare più info in "Registro aggiornamenti". Attenzione che le vecchie versioni possono avere effetti molto diversi.
Linea temporale principale:
Adesso ~: Dettagli e texture naturali, comprensione stabile del prompt e più creatività. Non limitato più allo stile anime 2D puro.
illus01 v1.23 / nbep11 0.138 ~: Stile anime migliorato con colori vividi.
illus01 v1.3 / nbep11 0.58 ~: Stile anime migliorato.
Registro aggiornamenti
(31/8/2025) NoobAI ep10 v0.273
Questa versione è addestrata da zero su NoobAI eps v1.0.
Rispetto alla precedente illus01 v1.198:
Illuminazione migliore e bilanciata in condizioni estreme. (come nbvp v0.271)
Texture e dettagli migliori. Ha più passi di addestramento su timestep ad alto SNR. (le versioni illus01 saltavano questi timestep per migliore compatibilità. Ora tutti i modelli base sono NoobAI, non serve saltarli)
(24/8/2025) NoobAI v-pred v0.271:
Rispetto alla versione precedente v0.264:
Illuminazione migliore e bilanciata in condizioni estreme, meno bias.
Alto contrasto, nero puro 0 e bianco 255 nella stessa immagine, anche nello stesso punto, senza trabocchi o sovrasaturazione. Ora puoi averli entrambi contemporaneamente.
(La vecchia v0.264 cercava di limitare l'immagine tra 10~250 per evitare trabocchi, ma aveva comunque bias, quindi immagine poteva risultare troppo scura o chiara)
Come v0.264, preferibile forza alta o piena (0.9~1).
(17/8/2025) NoobAI v-pred v0.264:
Prima versione addestrata su NoobAI v-pred.
Offre migliore illuminazione, meno trabocchi.
Nota: preferibile forza alta o piena (0.9~1).
(28/7/2025) illus01 v1.198
Principalmente rispetto a v1.185c:
Fine della versione "c". Anche se "visivamente impattante" è buono, aveva problemi di compatibilità. Es: se il tuo modello base ha già miglioramenti simili per contrasto. Porre due enhancer per contrasto è davvero pessimo. Perciò, niente più effetti folli post (alto contrasto e saturazione, ecc.).
Invece, più texture e dettagli. Illuminazione da livello cinematografico. Migliore compatibilità.
Questa versione ha cambiato molte cose, incluso un rinnovo del dataset, quindi gli effetti sono abbastanza diversi dalle versioni precedenti.
Per chi vuole tornare agli effetti folli di v1.185c, puoi trovare stili artistici puri e dedicati in questa pagina. Se il dataset è abbastanza grande per una LoRA, potrei addestrarne una.
(21/6/2025) illus01 v1.185c:
Rispetto a v1.165c.
+100% nitidezza e chiarezza.
-30% immagini troppo caotiche (difficili da descrivere). Quindi potresti notare che questa versione non porta più a livelli di contrasto folli, ma è più stabile negli usi normali.
(10/6/2025): illus01 v1.165c
Questa è una versione speciale. Non è un miglioramento di v1.164. "c" sta per "colorato", "creativo", a volte "caotico".
Il dataset contiene immagini molto visivamente impattanti, ma a volte difficili da descrivere, es: molto colorate. Alto contrasto. Condizioni di luce complesse. Oggetti e motivi complessi ovunque.
Quindi otterrai "visivamente impattante", ma a scapito della "naturalità". Può influenzare stili con colori soft, ecc. Per es., questa versione non genera perfettamente la texture "arte a matita" come v1.164.
(4/6/2025): illus01 v1.164
Migliore comprensione del prompt. Ora ogni immagine ha 3 didascalie naturali, da prospettive diverse. I tag Danbooru sono controllati dal LLM, solo i tag importanti vengono scelti e fusi nella didascalia naturale.
Anti sovraesposizione. Aggiunto bias per evitare che l'output arrivi al bianco puro #ffffff. Nella maggior parte dei casi #ffffff equivale a sovraesposizione, con perdita di molti dettagli.
Cambiati alcuni parametri di addestramento. Più compatibile con NoobAI, sia e-pred che v-pred.
(19/5/2025): illus01 v1.152
Miglioramento continuo di illuminazione, texture e dettagli.
5K immagini in più, più passi di addestramento, di conseguenza effetto più forte.
(9/5/2025): nbep11 v0.205:
Correzione rapida per problemi di luminosità e colore in v0.198. Ora non dovrebbe cambiare luminosità e colori in modo così drammatico come una fotografia reale. v0.198 non era male, solo troppo creativo.
(7/5/2025): nbep11 v0.198:
Aggiunte più immagini scure. Meno corpi deformati, sfondo in scena scura.
Rimosso potenziamento di colori e contrasto. Non più necessario. Usa Contrast Controller al suo posto.
(25/4/2025): nbep11 v0.172.
Stesse novità di illus01 v1.93 ~ v1.121. Sintesi: Nuovo dataset fotografico "Touching Grass". Migliori texture naturali, sfondo, illuminazione. Effetto personaggi più debole per miglior compatibilità.
Migliore accuratezza e stabilità colori. (Rispetto a nbep11 v0.160)
(17/4/2025): illus01 v1.121.
Tornato a illustrious v0.1. illustrious v1.0 e versioni più recenti sono state addestrate deliberatamente con immagini AI (forse 30% del dataset). Non ideale per training LoRA. Non me ne ero accorto finché non ho letto il paper.
Effetto stile personaggio ridotto. Tornato al livello v1.23. I personaggi avranno meno dettagli da questa LoRA, ma maggiore compatibilità. È un compromesso.
Altre cose come sotto (v1.113).
(10/4/2025): illus11 v1.113 ❌.
Aggiornamento: usa questa versione solo se il tuo modello base è basato su Illustrious v1.1. Altrimenti, usa illus01 v1.121.
Addestrato su Illustrious v1.1.
Aggiunto nuovo dataset "Touching Grass". Texture naturale migliore, illuminazione e profondità di campo. Maggiore stabilità strutturale dello sfondo. Sfondo meno deformato, tipo stanze o edifici deformati.
Didascalie naturali complete da LLM.
(30/3/2025): illus01 v1.93.
v1.72 era troppo spinto. Quindi ho ridotto la sua forza totale. Ora dovrebbe essere più compatibile.
(22/3/2025): nbep11 v0.160.
Stesse novità di illus v1.72.
(15/3/2025): illus01 v1.72
Stesso nuovo dataset per texture e illuminazione menzionato in ani40z v0.4 più sotto. Illuminazione e texture più naturali.
Aggiunto piccolo dataset di ~100 immagini per migliorare mani, con diverse attività tipo tenere un bicchiere o una tazza.
Rimosse tutte le immagini con "sfondo semplice" dal dataset. -200 immagini.
Passato da kohya a onetrainer per training. Cambiata architettura LoRA a DoRA.
(4/3/2025) ani40z v0.4
Addestrato su Animagine XL 4.0 ani40zero.
Aggiunto dataset di ~1k immagini focalizzato su illuminazione dinamica naturale e texture del mondo reale.
Più illuminazione naturale e texture naturali.
ani04 v0.1
Versione iniziale per Animagine XL 4.0. Principalmente per correggere problemi di luminosità di Animagine 4.0. Migliore e maggiore contrasto.
illus01 v1.23
nbep11 v0.138
Aggiunte immagini furry/non-umane/altre per bilanciare il dataset.
nbep11 v0.129
Versione scadente, effetto troppo debole, ignorala.
nbep11 v0.114
Implementato "Colori a gamma completa". Bilancia automaticamente verso cose "normali e belle". Consideralo come il pulsante "auto migliora foto" nella maggior parte degli editor fotografici. Un lato negativo: previene bias elevati. Per esempio, se vuoi che il 95% dell'immagine sia nero e il 5% luminoso, invece che 50/50%.
Aggiunti dati un po' più realistici. Dettagli più vivi, illuminazione, colori meno piatti.
illus01 v1.7
nbep11 v0.96
Più immagini di training.
Poi rifinito su piccolo dataset "wallpaper" (wallpaper di videogiochi reali, alta qualità, ~100 immagini). Migliorati dettagli (notabili su pelle e capelli) e contrasto.
nbep11 v0.58
Più immagini. Parametri di addestramento modificati per essere il più vicino possibile al modello base NoobAI.
illus01 v1.3
nbep11 v0.30
Più immagini.
nbep11 v0.11: Addestrato su NoobAI epsilon pred v1.1.
Tag dataset migliorati. Struttura LoRA e distribuzione pesi migliorata. Dovrebbe essere più stabile e avere meno impatto sulla composizione dell'immagine.
illus01 v1.1
Addestrato su illustriousXL v0.1.
nbep10 v0.10
Addestrato su NoobAI epsilon pred v1.0.
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.












