NoobAI-XL (NAI-XL) - V-Pred-1.0-Version
Empfohlene Prompts
masterpiece, best quality, newest, absurdres, highres, safe
year 2024, long hair, best quality, masterpiece, absurdres, newest, highres
Empfohlene Negative Prompts
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Empfohlene Parameter
samplers
steps
cfg
resolution
other models
Empfohlene Hires (Hochauflösungs-) Parameter
upscaler
upscale
steps
denoising strength
Tipps
Dieses Modell funktioniert anders als EPS-Modelle und erfordert ausschließlich die Verwendung des Euler-Samplers.
Empfohlener CFG-Bereich liegt für optimale Ergebnisse zwischen 4 und 5.
Empfohlene Schritte liegen zwischen 28 und 35.
Verwenden Sie Auflösungsvoreinstellungen um 1024x1024 für beste Bildqualität.
Befolgen Sie die Nutzungsbeschränkungen: keine schädliche, bösartige oder kommerzielle Nutzung.
Prompts sollten 'masterpiece, best quality, newest, absurdres, highres, safe' als positive Prompt-Präfixe enthalten.
Negative Prompts sollten nsfw, niedrige Qualität, schlechte Hände, mutierte Hände und unerwünschte Inhalte ausschließen.
Siehe Handbuch und Tutorials für detaillierte Nutzung und LoRA-Training.
Community-Unterstützung ist über QQ-Gruppen und Discord verfügbar.
Versions-Highlights
Frohe Weihnachten! NOOBAI XL-VPred 1.0 wurde veröffentlicht! Die V-Prediction-Serie ist erfolgreich zu Ende gegangen und es war eine interessante Reise. Wer weiß, vielleicht haben wir in Zukunft die Gelegenheit, dies erneut zu tun. Damit erreicht unser wöchentlicher Update-Plan von Laxhar Lab einen großen Abschluss!
Übrigens, hier sind die Vorteile dieser Version:
1. Feinabstimmung mit hochwertigen Datensätzen: Wir haben das Modell durch sorgfältige Anpassungen mit hochwertigen Datensätzen für anatomische Genauigkeit und kompositorische Rationalität optimiert.
2. Flexible Gewichtung bei Stil-Kombinationen: Das Modell bietet jetzt mehr Flexibilität bei der Kombination verschiedener Malstile und zeigt eine verbesserte Robustheit beim Überlagern mehrerer Stile.
3. Verbesserte Wirkung von Qualitätswörtern: Die Wirksamkeit von Qualitätswörtern ist in dieser Version deutlicher geworden.
4. Eine Mischung aus Merkmalen der Standard- und S-Versionen: Der Farbstil ist lebendig, neigt aber weniger zu Überbelichtung und vereint das Beste aus beiden Welten.
Empfehlungen zur Nutzung und zukünftige Arbeiten:
1. Verwendung mit dynamischem CFG-Plugin: Wir empfehlen die Nutzung des dynamischen CFG- & CFG Rescale-Plugins beim Einsatz des V-Prediction-Modells, um Übersättigung oder zu graue Bilder zu vermeiden. Die Konfiguration 0.2 liefert die besten Ergebnisse.
2. Auswahl der Sampling-Methoden: Obwohl NOOBAI XL-VPred 1.0 die meisten Sampling-Methoden unterstützt, wird die Karras-Reihe beim V-Prediction nicht unterstützt. Daher empfehlen wir Euler- und DDIM-Sampling für stabilere Ergebnisse.
3. Laufende Updates und Support: Wir werden VPred 1.0 weiterhin aktualisieren, einschließlich des ControlNet-Modells und anderer Plugins. Das Hauptmodell wird ebenfalls unregelmäßig bei bedeutenden Verbesserungen aktualisiert (wir schauen uns den DIT-Effekt von NAI4 an und lernen daraus), also bleiben Sie dran!
Zum Schluss möchte ich eine persönliche Empfehlung teilen: Das kürzliche Spiel "MiSide" ist wirklich großartig. Es ist lange her, dass mich ein Einzelspieler-Spiel so berührt hat. Ich empfehle es sehr. Frohe Weihnachten allen! Nach einem Jahr harter Arbeit ist es Zeit zur Erholung. Bis wir uns wieder in dieser Welt der Möglichkeiten treffen ミ(・・)ミ
Ersteller-Sponsoren
Gesponsert von Lanyun Cloud, Civitai & Seaart
Modellvorstellung
Dieses Bilderzeugungsmodell basiert auf Laxhar/noobai-XL_v1.0 und nutzt die vollständigen Datensätze von Danbooru und e621 mit nativen Tags und natürlicher Sprachbeschriftung.
Implementiert als V-Prediction-Modell (unterscheidet sich von eps-prediction), erfordert es spezifische Parameterkonfigurationen – Details finden sich in den folgenden Abschnitten.
Besonderer Dank gilt meinem Teamkollegen euge für die Programmierarbeit sowie der technischen Unterstützung vieler hilfsbereiter Community-Mitglieder.
⚠️ WICHTIGER HINWEIS ⚠️
DIESES MODELL FUNKTIONIERT ANDERS ALS EPS-MODELLE!
BITTE LESEN SIE DIE ANLEITUNG SORGFÄLTIG!
Modell-Details
Entwickelt von: Laxhar Lab
Modelltyp: Diffusionsbasiertes Text-zu-Bild-Generierungsmodell
Feinabgestimmt von: Laxhar/noobai-XL_v1.0
Gesponsert von:
Gemeinsames Testen:
Wie man das Modell verwendet.
Leitfaden für NoobAI XL:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
Empfohlene LoRa-Liste für NoobAI XL:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
Methode I: reForge
(Wenn Sie reForge noch nicht installiert haben) Installieren Sie reForge gemäß den Anweisungen im Repository;
Starten Sie WebUI und verwenden Sie das Modell wie gewohnt!
Methode II: ComfyUI
BEISPIEL mit NODES
Methode III: WebUI
Beachten Sie, dass der dev-Branch instabil sein kann und Fehler enthalten kann.
1. (Wenn Sie WebUI noch nicht installiert haben) Installieren Sie WebUI gemäß den Anweisungen im Repository. Für simp
2. Wechseln Sie zum dev-Branch:
git switch dev
3. Ziehen Sie die neuesten Updates:
git pull
4. Starten Sie WebUI und verwenden Sie das Modell wie gewohnt!
Methode IV: Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
Hinweis: Bitte stellen Sie sicher, dass Git installiert ist und die Umgebung auf Ihrem Gerät richtig konfiguriert wurde.
Empfohlene Einstellungen
Parameter
CFG: 4 ~ 5
Schritte: 28 ~ 35
Sampling-Methode: Euler (⚠️ Andere Sampler funktionieren nicht richtig)
Auflösung: Gesamtfläche um 1024x1024. Am besten wählen aus: 768x1344, 832x1216, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768
Prompts
Prompt-Präfix:
masterpiece, best quality, newest, absurdres, highres, safe,
Negativer Prompt:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Nutzungsrichtlinien
Beschriftung
<1girl/1boy/1other/...>, <character>, <series>, <artists>, <special tags>, <general tags>, <other tags>
Qualitäts-Tags
Für Qualitäts-Tags haben wir die Beliebtheit der Bilder durch folgenden Prozess bewertet:
Daten-Normalisierung basierend auf verschiedenen Quellen und Bewertungen.
Anwendung von zeitabhängigen Zerfallskoeffizienten gemäß dem Aktualitätsdatum.
Rangordnung der Bilder im gesamten Datensatz basierend auf dieser Verarbeitung.
Unser ultimatives Ziel ist es, sicherzustellen, dass Qualitäts-Tags effektiv die Nutzerpräferenzen der letzten Jahre widerspiegeln.
Perzentil-BereichQualitäts-Tags> 95. Hauptwerk> 85., <= 95. Beste Qualität> 60., <= 85. Gute Qualität> 30., <= 60. Normale Qualität<= 30. Schlechteste Qualität
Ästhetik-Tags
TagBeschreibungsehr awaTop 5 % der Bilder im ästhetischen Score nach waifu-scorerschlechteste ÄsthetikAlle untersten 5 % der Bilder im ästhetischen Score nach waifu-scorer und aesthetic-shadow-v2......
Datums-Tags
Es gibt zwei Arten von Datums-Tags: Jahres-Tags und Perioden-Tags. Für Jahres-Tags wird das Format year xxxx verwendet, z.B. year 2021. Für Perioden-Tags beachten Sie bitte die folgende Tabelle:
JahresbereichPerioden-Tag2005-2010alt2011-2014früh2014-2017mittel2018-2020aktuell2021-2024neuest
Datensatz
Die neuesten Danbooru-Bilder bis zum Trainingsdatum (ungefähr vor dem 23.10.2024)
E621-Bilder aus dem e621-2024-webp-4Mpixel-Datensatz auf Hugging Face
Kommunikation
QQ-Gruppen:
657327419
875042008
914818692
635772191
870086562
Discord: Laxhar Dream Lab SDXL NOOB
Wie man eine LoRA auf dem v-pred SDXL Modell trainiert
Ein Tutorial, das sich an LoRA-Trainer auf Basis von sd-scripts richtet.
Artikel-Link: https://civitai.com/articles/8723
Hilfs-Tool
Laxhar Lab trainiert ein dediziertes ControlNet-Modell für NoobXL, die Modelle werden schrittweise veröffentlicht. Bisher sind normal, depth und canny erschienen.
Modell-Link: https://civitai.com/models/929685
Modell-Lizenz
Die Lizenz dieses Modells basiert auf der https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 fair-ai-public-license-1.0-sd und ergänzt folgende Bedingungen. Jede Nutzung dieses Modells und seiner Varianten unterliegt dieser Lizenz.
I. Nutzungsbeschränkungen
Verbotene Nutzung für schädliche, bösartige oder illegale Aktivitäten, einschließlich, aber nicht beschränkt auf Belästigung, Bedrohungen und Verbreitung von Fehlinformationen.
Verbot der Erzeugung unethischer oder beleidigender Inhalte.
Verbot der Verletzung von Gesetzen und Vorschriften im Zuständigkeitsbereich des Nutzers.
II. Kommerzielle Untersagung
Es ist jegliche Form der Kommerzialisierung untersagt, einschließlich, aber nicht beschränkt auf Monetarisierung oder kommerzielle Nutzung des Modells, abgeleiteten Modellen oder modellgenerierten Produkten.
III. Open Source Gemeinschaft
Um eine florierende Open-Source-Gemeinschaft zu fördern, MÜSSEN Nutzer folgende Anforderungen erfüllen:
Freigabe von abgeleiteten Modellen, zusammengeführten Modellen, LoRAs und Produkten auf Basis der genannten Modelle als Open Source.
Teilen von Arbeitsdetails wie Syntheseformeln, Prompts und Workflows.
Befolgung der fair-ai-public-license, um sicherzustellen, dass abgeleitete Werke Open Source bleiben.
IV. Haftungsausschluss
Generierte Modelle können unerwartete oder schädliche Ergebnisse produzieren. Nutzer müssen alle Risiken und potenziellen Folgen der Nutzung übernehmen.
Teilnehmer und Mitwirkende
Teilnehmer
L_A_X: Civitai | Liblib.art | Huggingface
li_li: Civitai | Huggingface
nebulae: Civitai | Huggingface
Chenkin: Civitai | Huggingface
Euge: Civitai | Huggingface | Github
Mitwirkende
Narugo1992: Danke an narugo1992 und das deepghs-Team für die Freigabe verschiedener Trainingsdatensätze, Bildbearbeitungswerkzeuge und Modelle.
Onommai: Danke an OnommAI für die Freigabe eines leistungsstarken Basismodells.
V-Prediction: Danke an die folgenden Personen für ihre detaillierten Anweisungen und Experimente.
adsfssdf
madmanfourohfour
Community: aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀,David, 年糕特工队,
Modell-Details
Modelltyp
Basismodell
Modellversion
Modell-Hash
Ersteller
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.
