NoobAI-XL (NAI-XL) - Versione V-Pred-1.0
Prompt Consigliati
masterpiece, best quality, newest, absurdres, highres, safe
year 2024, long hair, best quality, masterpiece, absurdres, newest, highres
Prompt Negativi Consigliati
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Parametri Consigliati
samplers
steps
cfg
resolution
other models
Parametri Consigliati per Alta Risoluzione
upscaler
upscale
steps
denoising strength
Suggerimenti
Questo modello funziona diversamente dai modelli EPS e richiede l'uso esclusivo del campionatore Euler.
Il CFG raccomandato va da 4 a 5 per risultati ottimali.
I passaggi consigliati sono tra 28 e 35.
Usa preset di risoluzione intorno a 1024x1024 per la migliore qualità dell'immagine.
Rispetta le restrizioni d'uso: nessun impiego dannoso, malizioso o commerciale.
I prompt dovrebbero includere 'masterpiece, best quality, newest, absurdres, highres, safe' come prefisso positivo.
I prompt negativi devono escludere nsfw, aspetti di bassa qualità, mani cattive, mani mutate e contenuti indesiderati.
Consulta il manuale e i tutorial per istruzioni dettagliate sull'uso e l'addestramento LoRA.
Il supporto della comunità è disponibile tramite gruppi QQ e Discord.
Punti Salienti della Versione
Buon Natale! NOOBAI XL-VPred 1.0 è stato rilasciato! La serie V prediction si è conclusa con successo, ed è stato un viaggio molto interessante. Chissà, potremmo avere l'opportunità di rifarlo in futuro. Con questo, il piano di aggiornamento settimanale del nostro Laxhar Lab si conclude in grande stile!
A proposito, ecco i vantaggi di questa versione:
1. Ottimizzato con dataset di alta qualità: abbiamo migliorato il modello per accuratezza anatomica e razionalità compositiva attraverso aggiustamenti meticolosi con dataset di alta qualità.
2. Pesi di combinazione di stili flessibili: il modello ora offre maggiore flessibilità nella combinazione di diversi stili di pittura, con miglior robustezza quando si sovrappongono più stili.
3. Maggiore utilità delle parole di qualità: l'efficacia delle parole di qualità è diventata più marcata in questa versione.
4. Fusione di caratteristiche delle versioni standard e S: lo stile cromatico è vibrante ma meno soggetto a sovraesposizione, combinando il meglio di entrambi.
Raccomandazioni d'uso e lavori futuri:
1. Uso con plugin dynamic CFG: consigliamo di usare il plugin dynamic CFG & CFG Rescale quando si impiega il modello V prediction per evitare sovrasaturazione o immagini troppo grigie. Si può fare riferimento alla configurazione 0.2 per i migliori risultati.
2. Scelta dei metodi di campionamento: anche se NOOBAI XL-VPred 1.0 supporta la maggior parte dei metodi di campionamento, la V prediction non supporta la serie Karras. Pertanto, suggeriamo di usare i metodi Euler e DDIM per risultati più stabili.
3. Aggiornamenti e supporto continui: continueremo ad aggiornare VPred 1.0, incluso il modello ControlNet e altri plugin. Il modello principale sarà aggiornato in modo irregolare in presenza di miglioramenti significativi (vedremo come va l'effetto DIT di NAI4 e impareremo da esso), quindi restate sintonizzati!
Infine, devo condividere una raccomandazione personale: il recente gioco "MiSide" è davvero un ottimo gioco. È passato molto tempo dall'ultima volta che un gioco in solitaria mi ha emozionato così tanto. Lo consiglio vivamente. Auguro a tutti un felice Natale. Dopo un anno di duro lavoro, è tempo di riposare. Ci rivediamo presto in questo mondo di possibilità ミ(・・)ミ
Sponsor del Creatore
Sponsorizzato da Lanyun Cloud, Civitai & Seaart
Introduzione al Modello
Questo modello di generazione immagini, basato su Laxhar/noobai-XL_v1.0, sfrutta i dataset completi Danbooru ed e621 con tag nativi e didascalie in linguaggio naturale.
Implementato come modello a v-prediction (diverso dalla eps-prediction), richiede configurazioni parametriche specifiche, dettagliate nelle sezioni seguenti.
Ringraziamenti speciali al mio collega euge per il lavoro di codifica, e siamo grati per il supporto tecnico di molti membri della comunità.
⚠️ AVVISO IMPORTANTE ⚠️
QUESTO MODELLO FUNZIONA DIVERSAMENTE DAI MODELLI EPS!
LEGGERE ATTENTAMENTE LA GUIDA!
Dettagli del Modello
Sviluppato da: Laxhar Lab
Tipo di Modello: Modello generativo testo-immagine basato su diffusione
Ottimizzato da: Laxhar/noobai-XL_v1.0
Sponsorizzato da:
Test collaborativi:
Come Usare il Modello.
Manuale per NoobAI XL:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
Lista consigliata di LoRa per NoobAI XL:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
Metodo I: reForge
(Se non hai installato reForge) Installa reForge seguendo le istruzioni nel repository;
Avvia WebUI e usa il modello come di consueto!
Metodo II: ComfyUI
SAMPLE con NODI
Metodo III: WebUI
Nota che il branch dev non è stabile e può contenere bug.
1. (Se non hai installato WebUI) Installa WebUI seguendo le istruzioni nel repository. Per semplicità
2. Passa al branch dev:
git switch dev
3. Recupera gli ultimi aggiornamenti:
git pull
4. Avvia WebUI e usa il modello come di consueto!
Metodo IV: Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
Nota: Assicurati che Git sia installato e l'ambiente sia configurato correttamente sulla tua macchina.
Impostazioni Consigliate
Parametri
CFG: 4 ~ 5
Passaggi: 28 ~ 35
Metodo di Campionamento: Euler (⚠️ Altri campionatori non funzioneranno correttamente)
Risoluzione: Area totale intorno a 1024x1024. È meglio scegliere tra: 768x1344, 832x1216, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768
Prompt
Prefisso Prompt:
masterpiece, best quality, newest, absurdres, highres, safe,
Prompt Negativo:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Linee Guida per l'Uso
Didascalia
<1girl/1boy/1other/...>, <character>, <series>, <artists>, <special tags>, <general tags>, <other tags>
Tag di Qualità
Per i tag di qualità, abbiamo valutato la popolarità delle immagini tramite il seguente processo:
Normalizzazione dei dati basata su varie fonti e valutazioni.
Applicazione di coefficienti di decadimento basati sul tempo secondo la data di recentezza.
Classifica delle immagini all'interno dell'intero dataset basata su questo processo.
Il nostro obiettivo finale è garantire che i tag di qualità seguano efficacemente le preferenze degli utenti negli ultimi anni.
Gamma PercentileTag di Qualità> 95° capolavoro> 85°, <= 95° migliore qualità> 60°, <= 85° buona qualità> 30°, <= 60° qualità normale<= 30° qualità peggiore
Tag Estetici
TagDescrizionevery awaTop 5% delle immagini in termini di punteggio estetico da waifu-scorerworst aestheticTutte le ultime 5% delle immagini in termini di punteggio estetico da waifu-scorer e aesthetic-shadow-v2......
Tag Data
Ci sono due tipi di tag data: tag anno e tag periodo. Per i tag anno, usare il formato year xxxx, es., year 2021. Per i tag periodo, fare riferimento alla tabella seguente:
Intervallo AnniTag periodo2005-2010vecchio2011-2014iniziale2014-2017medio2018-2020recente2021-2024nuovo
Dataset
Le ultime immagini Danbooru fino alla data di addestramento (approssimativamente prima del 2024-10-23)
Dataset di immagini E621 e621-2024-webp-4Mpixel su Hugging Face
Comunicazione
Gruppi QQ:
657327419
875042008
914818692
635772191
870086562
Discord: Laxhar Dream Lab SDXL NOOB
Come addestrare una LoRA sul modello v-pred SDXL
Un tutorial pensato per allenatori LoRA basato su sd-scripts.
Link all'articolo: https://civitai.com/articles/8723
Strumento Utility
Laxhar Lab sta addestrando un modello ControlNet dedicato per NoobXL, e i modelli vengono rilasciati progressivamente. Finora sono stati rilasciati quelli normale, depth e canny.
Link al modello: https://civitai.com/models/929685
Licenza del Modello
La licenza di questo modello eredita da https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 fair-ai-public-license-1.0-sd e aggiunge i seguenti termini. Qualsiasi utilizzo di questo modello e delle sue varianti è vincolato da questa licenza.
I. Restrizioni d'Uso
Vietato l'uso per attività dannose, maliziose o illegali, inclusi ma non limitati a molestie, minacce e diffusione di disinformazione.
Vietata la generazione di contenuti non etici o offensivi.
Vietata la violazione di leggi e regolamenti nella giurisdizione dell'utente.
II. Divieto Commerciale
Proibiamo ogni forma di commercializzazione, inclusi ma non limitati a monetizzazione o uso commerciale del modello, modelli derivati o prodotti generati dal modello.
III. Comunità Open Source
Per favorire una comunità open source viva, gli utenti DEVONO rispettare i seguenti requisiti:
Rilasciare come open source modelli derivati, modelli uniti, LoRA e prodotti basati sui modelli sopra indicati.
Condividere dettagli di lavoro come formule di sintesi, prompt e flussi di lavoro.
Seguire la fair-ai-public-license per assicurare che le opere derivate rimangano open source.
IV. Disclaimer
I modelli generati possono produrre output imprevisti o dannosi. Gli utenti devono assumersi tutti i rischi e le potenziali conseguenze dell'uso.
Partecipanti e Collaboratori
Partecipanti
L_A_X: Civitai | Liblib.art | Huggingface
li_li: Civitai | Huggingface
nebulae: Civitai | Huggingface
Chenkin: Civitai | Huggingface
Euge: Civitai | Huggingface | Github
Collaboratori
Narugo1992: Grazie a narugo1992 e al team deepghs per aver rilasciato open source varie raccolte di addestramento, strumenti di elaborazione immagini e modelli.
Onommai: Grazie a OnommAI per aver rilasciato open source un potente modello base.
V-Prediction: Grazie ai seguenti individui per le loro istruzioni dettagliate e sperimentazioni.
adsfssdf
madmanfourohfour
Comunità: aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀,David, 年糕特工队,
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.
