NoobAI-XL (NAI-XL) - Wersja V-Pred-1.0
Zalecane podpowiedzi
masterpiece, best quality, newest, absurdres, highres, safe
year 2024, long hair, best quality, masterpiece, absurdres, newest, highres
Zalecane negatywne podpowiedzi
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Zalecane parametry
samplers
steps
cfg
resolution
other models
Zalecane parametry wysokiej rozdzielczości
upscaler
upscale
steps
denoising strength
Wskazówki
Ten model działa inaczej niż modele EPS i wymaga użycia wyłącznie samplera Euler.
Zalecany zakres CFG to 4 do 5 dla optymalnych rezultatów.
Zalecane kroki to 28 do 35.
Używaj presetów rozdzielczości około 1024x1024 dla najlepszej jakości obrazu.
Przestrzegaj ograniczeń użytkowania: brak szkodliwego, złośliwego lub komercyjnego użycia.
Prompt'y powinny zaczynać się od 'masterpiece, best quality, newest, absurdres, highres, safe' jako pozytywny prefiks.
Negatywne prompt'y powinny wykluczać nsfw, niską jakość, złe ręce, zdeformowane ręce oraz niepożądane treści.
Zapoznaj się z poradnikiem i tutorialami dotyczącymi szczegółowego użytkowania i treningu LoRA.
Wsparcie społeczności dostępne jest za pośrednictwem grup QQ i Discord.
Najważniejsze informacje o wersji
Wesołych Świąt! NOOBAI XL-VPred 1.0 został wydany! Seria predykcji V zakończyła się sukcesem i była to bardzo interesująca podróż. Kto wie, może w przyszłości znowu się tego podejmiemy. Z tym kończy się cotygodniowy plan aktualizacji naszego Laxhar Lab w wielkim stylu!
Oto zalety tej wersji:
1. Dopasowany do wysokiej jakości zestawów danych: zoptymalizowaliśmy model pod kątem dokładności anatomicznej i racjonalności kompozycji poprzez starannie wykonane dostrojenia z użyciem wysokiej jakości datasetów.
2. Elastyczne wagi łączenia stylów: model teraz oferuje większą elastyczność w łączeniu różnych stylów malarskich, z poprawioną odpornością przy nakładaniu wielu styli.
3. Ulepszona skuteczność słów jakości: skuteczność słów jakości stała się bardziej wyraźna w tej wersji.
4. Mieszanka cech wersji standardowej i S: styl kolorystyczny jest żywy, lecz mniej podatny na prześwietlenia, łącząc to, co najlepsze z obu wersji.
Zalecenia użytkowania i przyszłe prace:
1. Używaj z dynamiczną wtyczką CFG: zalecamy stosowanie wtyczki dynamicznego CFG oraz CFG Rescale podczas używania modelu predykcji V, aby uniknąć przejaskrawienia lub zbyt szarych obrazów. Możesz odnieść się do konfiguracji 0.2 dla najlepszych efektów.
2. Wybór metod próbkowania: chociaż NOOBAI XL-VPred 1.0 wspiera większość metod próbkowania, predykcja V nie jest kompatybilna z serią Karras. Dlatego sugerujemy użycie metod Euler i DDIM dla stabilniejszych wyników.
3. Ciągłe aktualizacje i wsparcie: będziemy kontynuować aktualizacje VPred 1.0, w tym model ControlNet i inne wtyczki. Główny model będzie również aktualizowany nieregularnie przy znaczących ulepszeniach (zobaczymy efekt DIT NAI4 i się nauczymy), więc bądźcie czujni!
Na koniec, chciałbym podzielić się osobistą rekomendacją: niedawna gra "MiSide" to naprawdę świetna gra. Od dawna żadna gra singleplayer mnie tak nie poruszyła. Gorąco polecam. Życzę Wesołych Świąt. Po roku ciężkiej pracy czas na odpoczynek. Do zobaczenia ponownie w tym świecie możliwości ミ(・・)ミ
Sponsorzy twórcy
Sponsorowane przez Lanyun Cloud, Civitai & Seaart
Wprowadzenie do modelu
Ten model generacji obrazów, bazujący na Laxhar/noobai-XL_v1.0, wykorzystuje pełne zbiory danych Danbooru i e621 z natywnymi tagami i naturalnym opisem językowym.
Jest zaimplementowany jako model predykcji v (różniący się od predykcji eps), wymaga specyficznych konfiguracji parametrów - szczegóły w dalszych sekcjach.
Specjalne podziękowania dla mojego współpracownika euge za prace programistyczne i dziękujemy za wsparcie techniczne wielu pomocnym członkom społeczności.
⚠️ WAŻNE POWIADOMIENIE ⚠️
MODEL DZIAŁA INACZEJ NIŻ MODELE EPS!
PROSZĘ DOKŁADNIE PRZECZYTAĆ PORADNIK!
Szczegóły modelu
Stworzony przez: Laxhar Lab
Typ modelu: Generatywny model tekst-na-obraz oparty na dyfuzji
Wytrenowany na bazie: Laxhar/noobai-XL_v1.0
Sponsorzy:
Testy współpracy:
Jak korzystać z modelu.
Poradnik dla NoobAI XL:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
Zalecana lista LoRa dla NoobAI XL:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
Metoda I: reForge
(Jeśli nie masz zainstalowanego reForge) Zainstaluj reForge, postępując zgodnie z instrukcjami w repozytorium;
Uruchom WebUI i używaj modelu jak zwykle!
Metoda II: ComfyUI
PRZYKŁAD Z UŻYCIEM NODÓW
Metoda III: WebUI
Zwróć uwagę, że gałąź dev nie jest stabilna i może zawierać błędy.
1. (Jeśli nie masz zainstalowanego WebUI) Zainstaluj WebUI według instrukcji w repozytorium.
2. Przełącz się na gałąź dev:
git switch dev
3. Pobierz najnowsze aktualizacje:
git pull
4. Uruchom WebUI i używaj modelu jak zwykle!
Metoda IV: Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
Uwaga: Upewnij się, że Git jest zainstalowany i środowisko odpowiednio skonfigurowane na Twoim komputerze.
Zalecane ustawienia
Parametry
CFG: 4 ~ 5
Kroki: 28 ~ 35
Metoda próbkowania: Euler (⚠️ Inne samplery nie będą działać prawidłowo)
Rozdzielczość: Całkowita powierzchnia około 1024x1024. Najlepiej wybierać spośród: 768x1344, 832x1216, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768
Prompt-y
Prefiks promptu:
masterpiece, best quality, newest, absurdres, highres, safe,
Negative prompt:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Zasady użytkowania
Podpis
<1girl/1boy/1other/...>, <character>, <series>, <artists>, <special tags>, <general tags>, <other tags>
Tagi jakości
Do oceny popularności obrazów wykorzystaliśmy następujący proces:
Normalizacja danych na podstawie różnych źródeł i ocen.
Stosowanie współczynników zaniku w czasie zgodnie z aktualnością daty.
Ranking obrazów w całym zbiorze danych na podstawie tych analiz.
Naszym ostatecznym celem jest zapewnienie, że tagi jakości skutecznie odzwierciedlają preferencje użytkowników z ostatnich lat.
Zakres percentyliTagi jakości> 95 mistrzowskie> 85 <= 95 najlepsza jakość> 60 <= 85 dobra jakość> 30 <= 60 normalna jakość<= 30 najgorsza jakość
Tagi estetyczne
TagOpisbardzo awaTop 5% obrazów pod względem oceny estetycznej wg waifu-scorernajgorsza estetykaDolne 5% obrazów wg oceny estetycznej przez waifu-scorer oraz aesthetic-shadow-v2......
Tagi daty
Są dwa rodzaje tagów daty: tag i rok oraz tag okresu. Dla tagów roku używaj formatu rok xxxx, np. rok 2021. Dla tagów okresu, odwołaj się do poniższej tabeli:
Zakres latTag okresu2005-2010stary2011-2014wczesny2014-2017środkowy2018-2020najnowszy2021-2024najświeższy
Zbiór danych
Najnowsze obrazy Danbooru do daty treningu (około przed 2024-10-23)
Zbiór obrazów E621 e621-2024-webp-4Mpixel na Hugging Face
Komunikacja
Grupy QQ:
657327419
875042008
914818692
635772191
870086562
Discord: Laxhar Dream Lab SDXL NOOB
Jak trenować LoRĘ na modelu v-pred SDXL
Poradnik przeznaczony dla trenerów LoRA bazujących na sd-scripts.
link do artykułu: https://civitai.com/articles/8723
Narzędzie użytkowe
Laxhar Lab trenuje dedykowany model ControlNet dla NoobXL, modele są stopniowo wydawane. Do tej pory opublikowano modele normalne, depth i canny.
Link do modelu: https://civitai.com/models/929685
Licencja modelu
Licencja modelu dziedziczy warunki z https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 fair-ai-public-license-1.0-sd i dodaje poniższe warunki. Każde użycie modelu i jego wariantów jest objęte tą licencją.
I. Ograniczenia użytkowania
Zabronione użycie do szkodliwych, złośliwych lub nielegalnych działań, w tym lecz nie tylko nękania, gróźb czy rozpowszechniania dezinformacji.
Zabroniona generacja nieetycznych lub obraźliwych treści.
Zabronione łamanie prawa i przepisów w jurysdykcji użytkownika.
II. Zakaz komercjalizacji
Zabrania się wszelkich form komercjalizacji, w tym monetyzacji lub komercyjnego użycia modelu, modeli pochodnych lub produktów generowanych przez model.
III. Społeczność open source
Aby wspierać rozwijającą się społeczność open source, użytkownicy MUSZĄ spełnić następujące warunki:
Otwarcie udostępniać modele pochodne, modele scalone, LoRY i produkty oparte na tych modelach.
Dzielić się szczegółami pracy, takimi jak formuły syntezy, promptami i workflow.
Przestrzegać fair-ai-public-license, aby zapewnić otwartość dzieł pochodnych.
IV. Zastrzeżenia
Generowane modele mogą produkować niespodziewane lub szkodliwe wyniki. Użytkownicy ponoszą wszelkie ryzyko i potencjalne konsekwencje korzystania.
Uczestnicy i współtwórcy
Uczestnicy
L_A_X: Civitai | Liblib.art | Huggingface
li_li: Civitai | Huggingface
nebulae: Civitai | Huggingface
Chenkin: Civitai | Huggingface
Euge: Civitai | Huggingface | Github
Współtwórcy
Narugo1992: Podziękowania dla narugo1992 oraz zespołu deepghs za udostępnienie różnorodnych zbiorów treningowych, narzędzi do przetwarzania obrazów i modeli.
Onommai: Podziękowania dla OnommAI za udostępnienie potężnego modelu bazowego.
V-Prediction: Podziękowania dla następujących osób za szczegółowe instrukcje i eksperymenty.
adsfssdf
madmanfourohfour
Społeczność: aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀,David, 年糕特工队,
Szczegóły modelu
Typ modelu
Model bazowy
Wersja modelu
Hash modelu
Twórca
Dyskusja
Proszę się log in, aby dodać komentarz.
