modelli/Stabilizer IL/NAI - nbep11 v0.205

Stabilizer IL/NAI - nbep11 v0.205

|
9/16/2025
|
1:13:23 AM
| Discussion|
0
Primo piano di una ragazza con gli occhi socchiusi che lecca un lecca lecca rosa lucido con labbra scintillanti e saliva visibile contro uno sfondo astratto acqua.
Una ragazza fantasy con capelli bianchi, orecchie da gatto e coda soffice vestita con un abito da suora in lattice nero, che impugna una spada luminosa con sullo sfondo un castello e un cielo rosa.

Prompt Consigliati

masterpiece

Parametri Consigliati

samplers

Euler a

steps

20 - 30

cfg

4 - 5

resolution

1024x1024, 896x1152, 832x1216, 864x1152

other models

noobai_ep11_stabilizer_v0.205_fp16 (2537f78755e8), noobaiXLNAIXL_epsilonPred11Version (6681e8e4b1), illustriousXLv01_stable_dark_v0.3 (583a239afed0), style_strength_controller_nbep11_v1 (0efb1a289d8a), stable_dark_nbep10_v0.3 (6d24d1f152c8), contract_controller_illus01_v1 (f5f09fd929e7)

Suggerimenti

Carica prima questa LoRA nella tua pila LoRA per minimizzare cambiamenti imprevisti.

Usa come modello base fine-tuned caricandola su modello base pretrained a forza completa per i migliori dettagli naturali e controllo stile.

Se usi un modello base "illustrious", verifica il modello base pretrained per evitare peggioramenti di qualità.

Questo modello non può aggiungere dettagli naturali a modelli base con overfitting stile AI.

Regola con cura altri pesi quando accumuli più LoRA per evitare risultati rotti.

Lascia feedback nella sezione commenti per visibilità, non nel sistema recensioni Civitai.

Evita di condividere merge usando questo modello a causa di trigger di watermark invisibili incorporati.

Sponsor del Creatore

Aggiornamento più recente:

(7/9/2025) Puoi trovarmi su TensorArt.

Aggiornamento più recente:

(7/9/2025) Puoi trovarmi su TensorArt.


Stabilizer

Questo è il mio modello base fine-tuned, ma in forma LoRA.

Questo modello base fine-tuned:

  • Si concentra sulla creatività, piuttosto che su uno stile fisso. Il dataset è molto vario. Quindi questo modello non ha uno stile predefinito (bias) che limiti la sua creatività.

  • Solo texture naturali, illuminazione e dettagli fini. Nessuno stile AI plastico. (Volti AI identici, stili di capelli, superfici lisce senza texture, ecc...). Ho selezionato manualmente tutte le immagini nel dataset. Zero immagini AI nel dataset.

  • Immagini meno deformate. Più logico. Migliore sfondo e composizione.

  • Migliore comprensione del prompt. Addestrato con didascalie in linguaggio naturale.

  • (v-pred) Illuminazione migliore e bilanciata, alto contrasto. Nero puro 0 e bianco 255 possono essere nella stessa immagine, anche nello stesso punto, ma senza traboccamenti o saturazione eccessiva.

Le immagini di copertina sono output raw, a risoluzione predefinita di 1MP. Nessun upscaling, nessun plugin, nessuna correzione inpainting. Con metadata, 100% riproducibili.

Gli stili nelle immagini di copertina provengono dal modello base pretrained, attivati dal prompt. Non fanno parte del mio dataset. Puoi notare che il modello pretrained conosce quegli stili, ma non può generarli correttamente perché è overfittato ai dati anime. Questo modello risolve il problema dell'overfitting. Vedi la sezione "come e perché funziona" qui sotto.

Perché nessuno stile predefinito?

  • Cos'è lo "stile predefinito": se un modello ha uno stile predefinito (bias), significa che indipendentemente da quello che chiedi, il modello deve generare le stesse cose (volti, sfondi, sensazioni) che definiscono quello stile.

  • Vantaggi: è facile da usare, non devi più specificare lo stile nel prompt.

  • Svantaggi: non puoi nemmeno sovrascriverlo. Se chiedi qualcosa che non si adatta allo stile predefinito, il modello lo ignorerà. Se accumuli più stili, lo stile predefinito sovrapporrà/inquinerà/limiterà sempre gli altri stili.

  • "Nessuno stile predefinito" significa assenza di bias, e devi specificare lo stile che vuoi tramite tag o LoRA. Ma non ci sarà sovrapposizione/inquinamento di stili da questo modello. Otterrai esattamente lo stile che hai composto.

Perché questo "modello base fine-tuned" è una LoRA?

  • Non sono un gigachad e non ho milioni di immagini per l'addestramento. Il fine-tuning dell'intero modello base non è necessario, una LoRA è sufficiente.

  • Posso risparmiare molta VRAM e usare dimensioni di batch maggiori.

  • Devo solo caricare un piccolo file di 40MiB e tu devi scaricare solo quello, invece di un checkpoint enorme da 7GiB, risparmiando il 99,4% dei dati e dello spazio. Quindi posso pubblicare aggiornamenti frequenti.

  • Questa LoRA può sembrare piccola, ma è potente. Usa una nuova architettura chiamata DoRA di Nvidia, più efficiente della LoRA tradizionale.

Come ottenere questo "modello base fine-tuned"?

Semplice.

modello base pretrained + questa LoRA = "modello base fine-tuned"

Basta caricare questa LoRA sul modello base pretrained con forza completa. Il modello base pretrained diventerà il modello base fine-tuned. Vedi sotto "Come usare".

È vietato condividere merge usando questo modello. Per tua informazione, ci sono parole trigger nascoste per stampare watermark invisibili. Ho codificato personalmente watermark e rilevatore. Non voglio usarli, ma posso farlo.

Questo modello è pubblicato solo su Civitai e TensorArt. Se vedi "me" e questa frase su altre piattaforme, sono tutti falsi e la piattaforma che stai usando è pirata.

Per favore lascia feedback nella sezione commenti, così tutti lo possono vedere. Non scrivere feedback nel sistema di recensioni di Civitai, è mal progettato e nessuno può trovare o vedere le recensioni.


Come usare

Versioni più recenti:

  • nbvp10 v0.271 (addestrato su NoobAI v-pred v1.0).

    • Colori accurati e dettagli fini. Questo è il miglior modello finora.

  • nbep10 v0.273 (addestrato su NoobAI eps v1.0). Discontinuato.

    • Meno saturazione e contrasto rispetto ai modelli v-pred. A causa di una "piccola falla di progettazione" nella predizione epsilon standard (eps). Limita il modello a una gamma cromatica più ristretta. Per questo abbiamo poi v-pred.

  • illus01 v1.198 (addestrato su Illustrious v0.1). Discontinuato.

    • Troppo vecchio...

Nota: carica prima questa LoRA nella tua pila LoRA.

Questa LoRA usa una nuova architettura chiamata DoRA di Nvidia, più efficiente della LoRA tradizionale. A differenza della LoRA tradizionale con peso patch statico, il peso patch di DoRA è calcolato dinamicamente in base al peso del modello base caricato (che cambia al caricamento di altre LoRA). Per minimizzare cambiamenti imprevisti, carica prima questa LoRA.

Due modi per usare questo modello:

1). Usalo come modello base fine-tuned (Consigliato):

Se vuoi i dettagli più fini e naturali e costruire la combinazione di stili che vuoi, con pieno controllo.

Basta caricare prima questa LoRA sul modello base pretrained con forza completa. Così il modello base pretrained diventa il modello base fine-tuned.

2). Usalo come LoRA su un altro modello base fine-tuned.

Perché no, è pur sempre una LoRA.

Cose da notare:

  • Importante: se usi un modello base "illustrious". Devi verificare su quale modello base pretrained si basa effettivamente il tuo modello base. Molti modelli base anime "illustrious" popolari si basano su (o sono vicini a) NoobAI, non illustrious. Leggi di più (perché questi modelli base sono etichettati male e come testare il tuo modello base) nel "Discussion". La LoRA deve corrispondere al modello base pretrained. Disallineamenti peggiorano la qualità dell'immagine.

  • Stai per unire due modelli base. Se il tuo modello base ha già uno stile predefinito molto forte, semplicemente aggiungere questa LoRA al modello base non darà ciò che ti aspetti. Potrebbe essere necessario bilanciare altri pesi (LoRA, blocchi U-net, ecc.).

  • Questo modello non può aggiungere dettagli naturali a modelli base con stile AI (addestrati con immagini AI; si nota che tutto è liscio, lucido, senza texture, sembra plastica). So che alcuni scelgono questo modello per rimuovere la morbidezza dello stile AI nel loro modello base attuale. Sfortunatamente non funziona, perché lo stile AI è estremamente overfittato (puoi capire subito cosa hai fatto, come con il modello AI addestrato su immagini AI). E poiché le immagini AI mancano di dettagli rispetto alle immagini del mondo reale, il modello ha imparato anche a sopprimere i dettagli. Questo è un grosso problema. Una volta che lo stile AI è presente, non puoi eliminarlo.

  • Questo modello non è uno strumento magico che permette di accumulare più LoRA su un modello base senza problemi. So che il nome può essere fuorviante.


Perché e come funziona:

Il problema dell'overfitting:

  • I modelli anime sono addestrati su immagini anime. Le immagini anime sono semplici e contengono solo "concetti" ad alto livello, spesso molto astratti. Non hanno sfondi, dettagli o texture.

  • Vogliamo che il modello impari solo i "concetti" ad alto livello. La realtà è che il modello impara ciò che vede, non ciò che vuoi.

  • Dopo aver visto oltre 10 milioni di immagini anime semplici e astratte, il modello imparerà che 1) non ha bisogno di generare dettagli, perché il dataset non glielo ha mai detto; 2) deve generare immagini semplici con concetti astratti anche se non li capisce. Questo porta a immagini deformate, cioè "overfitting".

La soluzione:

  • Addestrare il modello con immagini anime e immagini del mondo reale. Così può imparare concetti mantenendo in mente texture e dettagli naturali, cioè meno overfitting.

  • NoobAI l'ha fatto mescolando alcune immagini cosplay reali nel dataset. (se ricordo bene, gli sviluppatori l'hanno menzionato da qualche parte)

  • Questo modello va oltre, è addestrato su un po' di tutto: architettura, oggetti quotidiani, abbigliamento, paesaggi, ... . Include anche didascalie in linguaggio naturale multistrato, per imitare il setup originale di addestramento SDXL.

Il risultato:

  • Vedi confronti senza: 1 (stili artistici), 2 (stili generali)

  • Meno overfitting, meno immagini deformate. Più texture, illuminazione e dettagli naturali. Ora puoi usare migliaia di tag di stile integrati (Danbooru, tag e621), così come stili generali che SDXL originale capisce, e ottenere immagini pulite e dettagliate come dovrebbero essere. Sia 2D che 3D, astratte o realistiche.

  • Mantenuta massima creatività. Grazie alla varietà del dataset. Non esiste uno stile predefinito che limiti la creatività del modello pretrained o di altre LoRA di stile.


Dataset

versione più recente o recenti

~7k immagini totali. Non molto grande (rispetto ai gigachad che amano addestrare modelli con milioni di immagini), ma nemmeno piccolo. Ogni immagine è stata selezionata manualmente da me.

  • Solo cose normali e belle. Nessuno stile artistico folle che non si può descrivere. Nessuna immagine AI, nessun watermark, ecc.

  • Solo immagini ad alta risoluzione. La media del dataset è 3.37 MP, circa 1800x1800.

  • Tutte le immagini hanno didascalie naturali dal più recente LLM di Google.

  • Tutti i personaggi anime sono stati taggati prima con wd tagger v3 e poi con Google LLM.

  • Contiene natura, esterni, interni, animali, oggetti quotidiani, molte cose, escluso l'essere umano reale.

  • Contiene tutte le condizioni di luminosità. Molto scuro, molto luminoso, molto scuro e molto luminoso.


Altri strumenti

Alcune idee che dovevano o sono state parte di Stabilizer. Ora sono LoRA separate per maggiore flessibilità. Link raccolta: https://civitai.com/collections/8274233.

Dark: Una LoRA orientata a ambienti più scuri. Utile per correggere il bias di alta luminosità in alcuni modelli base. Addestrata su immagini a bassa luminosità. Nessun bias di stile, quindi nessun inquinamento di stile.

Contrast Controller: Una LoRA artigianale. Controlla il contrasto come uno slider del monitor. A differenza di altri "enhancer di contrasto" addestrati, l'effetto di questa LoRA è stabile, matematicamente lineare e senza effetti collaterali sullo stile.

Utile quando il tuo modello base ha problemi di oversaturazione o vuoi qualcosa di molto colorato.

Esempio:

Style Strength Controller: O riduttore effetti overfitting. Può ridurre tutti gli effetti di overfitting (bias su oggetti, luminosità, ecc.) matematicamente. O amplificarli, se vuoi.

Differenze con Stabilizer:

  • Stabilizer è addestrato su dati del mondo reale. Può solo "ridurre" gli effetti di overfitting riguardo texture, dettagli e sfondi, aggiungendoli indietro.

  • Style Controller non deriva dall'addestramento. È più come "annullare" l'addestramento del modello base, per renderlo meno overfittato. Può matematicamente ridurre tutti gli effetti d'overfitting, come il bias su luminosità, oggetti.


Versioni vecchie:

Puoi trovare più info nel "Log aggiornamenti". Attenzione che le versioni vecchie possono avere effetti molto diversi.

Linea temporale principale:

  • Ora ~: Dettagli naturali e texture, comprensione stabile del prompt e più creatività. Non più limitato allo stile anime 2D puro.

  • illus01 v1.23 / nbep11 0.138 ~: Stile anime migliore con colori vividi.

  • illus01 v1.3 / nbep11 0.58 ~: Stile anime migliore.


Log aggiornamenti

(31/8/2025) NoobAI ep10 v0.273

Questa versione è addestrata dall'inizio su NoobAI eps v1.0.

Rispetto alla precedente illus01 v1.198:

  • Luminosità migliore e bilanciata in condizioni estreme. (come nbvp v0.271)

  • Texture e dettagli migliorati. Più passaggi di addestramento a timestep con alto SNR. (Le versioni illus01 saltavano questi timestep per compatibilità; ora che tutti i modelli base sono NoobAI, non serve più saltarli.)

(24/8/2025) NoobAI v-pred v0.271:

Rispetto alla v0.264 precedente:

  • Illuminazione migliore e bilanciata in condizioni estreme, meno bias.

  • Alto contrasto, nero puro 0 e bianco 255 nella stessa immagine, anche nello stesso punto, senza traboccamenti o saturazione eccessiva. Ora puoi avere tutto questo insieme.

  • (la vecchia v0.264 cercava di limitare l'immagine tra 10~250 per evitare traboccamenti, e aveva ancora problemi di bias. L'immagine complessiva poteva essere troppo scura o chiara)

  • Come la v0.264, si preferisce forza alta o piena (0.9~1).

(17/8/2025) NoobAI v-pred v0.264:

  • Prima versione addestrata su NoobAI v-pred.

  • Fornisce illuminazione migliore, meno traboccamenti.

  • Nota: preferisci forza alta o piena (0.9~1).

(28/7/2025) illus01 v1.198

Rispetto alla v1.185c:

  • Fine della versione "c". Sebbene "visivamente d'impatto" sia positivo, aveva problemi di compatibilità. Ad esempio, se il tuo modello base ha già una simile miglioramento del contrasto, accumulare due miglioratori di contrasto è molto negativo. Quindi niente più effetti folli (alto contrasto, saturazione, ecc.).

  • Invece, più texture e dettagli. Illuminazione da livello cinematografico. Migliore compatibilità.

  • Questa versione ha cambiato molto, inclusa la revisione del dataset, quindi l'effetto sarà abbastanza diverso dalle versioni precedenti.

  • Se vuoi tornare agli effetti folli v1.185c, puoi trovare stili artistici puri e dedicati in questa pagina. Se il dataset è abbastanza grande per una LoRA, potrei addestrarla.

(21/6/2025) illus01 v1.185c:

Rispetto alla v1.165c.

  • +100% nitidezza e chiarezza.

  • -30% immagini troppo caotiche (non descrivibili bene). Quindi questa versione probabilmente non darà più livelli di contrasto folli, ma sarà più stabile nell'uso normale.

(10/6/2025): illus01 v1.165c

Versione speciale. Non è un miglioramento della v1.164. "c" sta per "colorato", "creativo", a volte "caotico".

Il dataset contiene immagini molto visivamente d'impatto, ma a volte difficili da descrivere, ad esempio: molto colorate, alto contrasto, condizioni di illuminazione complesse, oggetti e motivi complessi ovunque.

Otterrai "visivamente d'impatto", ma al costo di "naturalezza". Può influenzare stili con colori soft, ecc. Ad esempio, questa versione non può generare perfettamente texture da "pencil art" come la v1.164.

(4/6/2025): illus01 v1.164

  • Migliore comprensione del prompt. Ora ogni immagine ha tre didascalie naturali, da prospettive diverse. I tag Danbooru sono controllati da LLM, solo i tag importanti sono estratti e fusi nella didascalia naturale.

  • Anti-sovraesposizione. Aggiunto bias per prevenire output modello che raggiungono il livello #ffffff bianco puro. La maggior parte delle volte #ffffff == sovraesposto, con perdita di dettagli.

  • Cambiamenti in alcune impostazioni di addestramento. Più compatibile con NoobAI, sia e-pred che v-pred.

(19/5/2025): illus01 v1.152

  • Continuazione del miglioramento di illuminazione, texture e dettagli.

  • 5k immagini in più, più passaggi di addestramento, effetto più forte.

(9/5/2025): nbep11 v0.205:

  • Correzione rapida di problemi di luminosità e colore nella v0.198. Ora non dovrebbe più cambiare drasticamente luminosità e colori come una foto reale. v0.198 non era cattiva, solo troppo creativa.

(7/5/2025): nbep11 v0.198:

  • Aggiunte più immagini scure. Corpo meno deformato, sfondo in ambienti scuri.

  • Rimosso miglioramento di colore e contrasto. Non più necessario. Usa Contrast Controller invece.

(25/4/2025): nbep11 v0.172.

  • Stesse novità di illus01 v1.93 ~ v1.121. Sintesi: Nuovo dataset fotografico "Touching Grass". Migliori texture naturali, sfondo e illuminazione. Effetti personaggi più deboli per migliore compatibilità.

  • Migliore accuratezza e stabilità colore. (Rispetto a nbep11 v0.160)

(17/4/2025): illus01 v1.121.

  • Tornato a illustrious v0.1. illustrious v1.0 e versioni più recenti sono stati addestrati volutamente con immagini AI (forse 30% del dataset). Non ideale per addestramento LoRA. Non me ne ero accorto finché non ho letto il suo paper.

  • Minore effetto stile personaggi. Tornato al livello di v1.23. I personaggi avranno meno dettagli da questa LoRA, ma migliore compatibilità. È un compromesso.

  • Altre cose uguali a v1.113 qui sotto.

(10/4/2025): illus11 v1.113 ❌.

  • Aggiornamento: usa questa versione solo se sai che il tuo modello base si basa su Illustrious v1.1. Altrimenti usa illus01 v1.121.

  • Addestrato su Illustrious v1.1.

  • Aggiunto nuovo dataset "Touching Grass". Migliori texture naturali, illuminazione e profondità di campo. Migliore stabilità strutturale dello sfondo. Sfondo meno deformato, come stanze o edifici deformati.

  • Didascalie in linguaggio naturale complete da LLM.

(30/3/2025): illus01 v1.93.

  • v1.72 è stata addestrata troppo intensamente. Ho ridotto la forza complessiva. Dovrebbe avere migliore compatibilità.

(22/3/2025): nbep11 v0.160.

  • Stessi contenuti di illus v1.72.

(15/3/2025): illus01 v1.72

  • Stesso dataset texture e illuminazione nuovo menzionato in ani40z v0.4 sotto. Illuminazione e texture più naturali.

  • Aggiunto piccolo dataset di circa 100 immagini focalizzato sul miglioramento delle mani, con diverse attività come tenere un bicchiere o una tazza.

  • Rimossi tutte le immagini con "sfondo semplice" dal dataset. -200 immagini.

  • Cambiato strumento di addestramento da kohya a onetrainer. Cambiata architettura LoRA a DoRA.

(4/3/2025) ani40z v0.4

  • Addestrato su Animagine XL 4.0 ani40zero.

  • Aggiunto dataset di ~1k immagini focalizzato su illuminazione dinamica naturale e texture reali.

  • Illuminazione e texture più naturali.

ani04 v0.1

  • Versione iniziale per Animagine XL 4.0. Principalmente per correggere problemi di luminosità di Animagine 4.0. Migliore e più alto contrasto.

illus01 v1.23

nbep11 v0.138

  • Aggiunte alcune immagini furry/non-umane/altre per bilanciare il dataset.

nbep11 v0.129

  • Versione cattiva, effetto troppo debole, ignorala.

nbep11 v0.114

  • Implementati "Colori a gamma completa". Bilancia automaticamente verso "normale e bello". Pensa a questo come al pulsante "auto enhance" in tanti strumenti di fotoritocco. Un lato negativo: impedisce bias forti. Per esempio vuoi il 95% dell'immagine nero e 5% luminoso invece di 50/50.

  • Aggiunti dati un po' realistici. Dettagli più vivid, illuminazione, colori meno piatti.

illus01 v1.7

nbep11 v0.96

  • Più immagini per addestramento.

  • Fine-tuning aggiuntivo su piccolo dataset "wallpaper" (sfondi di gioco reali, qualità massima trovata. Circa 100 immagini). Miglioramenti nei dettagli (visibile su pelle, capelli) e contrasto.

nbep11 v0.58

  • Più immagini. Cambiati parametri addestramento per avvicinarsi al modello base NoobAI.

illus01 v1.3

nbep11 v0.30

  • Più immagini.

nbep11 v0.11: Addestrato su NoobAI epsilon pred v1.1.

  • Tag migliorati nel dataset. Struttura LoRA e distribuzione peso migliorate. Più stabile e meno impatto sulla composizione immagine.

illus01 v1.1

  • Addestrato su illustriousXL v0.1.

nbep10 v0.10

  • Addestrato su NoobAI epsilon pred v1.0.

Precedente
Flux Unchained di SCG - FU(t5_16xfp8_e4m3fn)_v1.1
Successivo
Stile Mark Maggiori - v2.0

Dettagli del Modello

Tipo di modello

LORA

Modello base

NoobAI

Versione del modello

nbep11 v0.205

Hash del modello

2537f78755

Creatore

Discussione

Per favore log in per lasciare un commento.