NoobAI-XL (NAI-XL) - V-Pred-1.0-Version
Prompts Recomendados
masterpiece, best quality, newest, absurdres, highres, safe
year 2024, long hair, best quality, masterpiece, absurdres, newest, highres
Prompts Negativos Recomendados
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Parâmetros Recomendados
samplers
steps
cfg
resolution
other models
Parâmetros Recomendados para Alta Resolução
upscaler
upscale
steps
denoising strength
Dicas
Este modelo funciona de forma diferente dos modelos EPS e requer o uso apenas do sampler Euler.
O CFG recomendado varia de 4 a 5 para resultados ótimos.
Os passos recomendados são entre 28 e 35.
Use predefinições de resolução em torno de 1024x1024 para melhor qualidade de imagem.
Siga as restrições de uso: nada de uso nocivo, malicioso ou comercial.
Os prompts devem incluir 'masterpiece, best quality, newest, absurdres, highres, safe' como prefixo positivo.
Prompts negativos devem excluir nsfw, aspectos de baixa qualidade, mãos ruins, mãos mutadas e conteúdo indesejado.
Consulte o manual e os tutoriais para uso detalhado e treinamento LoRA.
Suporte comunitário está disponível via grupos QQ e Discord.
Destaques da Versão
Feliz Natal! NOOBAI XL-VPred 1.0 foi lançado! A série de previsão V chegou a um final bem-sucedido, e que jornada interessante foi essa. Quem sabe, talvez tenhamos a chance de fazer isso novamente no futuro. Com isso, o plano semanal de atualizações do Laxhar Lab chega a um grande final!
Aliás, aqui estão as vantagens desta versão:
1. Ajustado com datasets de alta qualidade: Otimizamos o modelo para precisão anatômica e racionalidade composicional por meio de ajustes meticulosos com datasets de alta qualidade.
2. Pesos flexíveis para combinação de estilos: O modelo agora oferece mais flexibilidade na combinação de diferentes estilos de pintura, com maior robustez ao sobrepor múltiplos estilos.
3. Utilidade aprimorada das palavras de qualidade: A eficácia das palavras de qualidade tornou-se mais pronunciada nesta versão.
4. Uma mistura de características das versões padrão e S: O estilo de cores é vibrante, porém menos propenso a superexposição, combinando o melhor dos dois mundos.
Recomendações de uso e trabalhos futuros:
1. Uso com plugin dynamic CFG: Recomendamos o uso do plugin dynamic CFG & CFG Rescale ao utilizar o modelo de previsão V para evitar saturação excessiva ou imagens muito cinzentas. Você pode consultar a configuração 0.2 para melhores resultados.
2. Escolha dos métodos de amostragem: Embora o NOOBAI XL-VPred 1.0 suporte a maioria dos métodos de amostragem, a previsão V não suporta a série Karras de amostragem. Portanto, sugerimos usar os métodos Euler e DDIM para resultados mais estáveis.
3. Atualizações contínuas e suporte: Continuaremos atualizando o VPred 1.0, incluindo o modelo ControlNet e outros plugins. O modelo principal também será atualizado de forma irregular quando houver melhorias significativas (vamos ver como é o efeito DIT do NAI4 e aprender com ele), então fique atento!
Por último, devo compartilhar uma recomendação pessoal: o jogo recente "MiSide" é realmente um ótimo jogo. Faz tempo que um jogo solo não me emocionava tanto. Recomendo fortemente. Desejo a todos um Feliz Natal. Após um ano de muito trabalho, é hora de descansar. Até nos encontrarmos novamente neste mundo de possibilidades ミ(・・)ミ
Patrocinadores do Criador
Patrocinado por Lanyun Cloud, Civitai & Seaart
Introdução do Modelo
Este modelo de geração de imagens, baseado em Laxhar/noobai-XL_v1.0, utiliza os conjuntos completos de dados Danbooru e e621 com tags nativas e legendas em linguagem natural.
Implementado como um modelo de previsão v (diferente da previsão eps), requer configurações específicas de parâmetros - detalhadas nas seções seguintes.
Agradecimentos especiais ao meu colega euge pelo trabalho de codificação, e somos gratos pelo suporte técnico de muitos membros prestativos da comunidade.
⚠️ AVISO IMPORTANTE ⚠️
ESTE MODELO FUNCIONA DE FORMA DIFERENTE DOS MODELOS EPS!
POR FAVOR, LEIA O GUIA COM ATENÇÃO!
Detalhes do Modelo
Desenvolvido por: Laxhar Lab
Tipo de Modelo: Modelo generativo de texto para imagem baseado em difusão
Ajustado a partir de: Laxhar/noobai-XL_v1.0
Patrocinado por:
Testes colaborativos:
Como Usar o Modelo.
Manual para NoobAI XL:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
Lista Recomendada de LoRa para NoobAI XL:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
Método I: reForge
(Se você ainda não instalou o reForge) Instale o reForge seguindo as instruções no repositório;
Inicie o WebUI e use o modelo normalmente!
Método II: ComfyUI
AMOSTRA com NÓS
Método III: WebUI
Note que o ramo dev não é estável e pode conter bugs.
1. (Se você ainda não instalou o WebUI) Instale o WebUI seguindo as instruções no repositório. Para simplicidade
2. Mude para o ramo dev:
git switch dev
3. Puxe as últimas atualizações:
git pull
4. Inicie o WebUI e use o modelo normalmente!
Método IV: Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
Nota: Por favor, certifique-se de que o Git está instalado e que o ambiente está configurado corretamente em sua máquina.
Configurações Recomendadas
Parâmetros
CFG: 4 ~ 5
Passos: 28 ~ 35
Método de Amostragem: Euler (⚠️ Outros samplers não funcionarão corretamente)
Resolução: Área total em torno de 1024x1024. Melhor escolher entre: 768x1344, 832x1216, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768
Prompts
Prefixo do Prompt:
masterpiece, best quality, newest, absurdres, highres, safe,
Prompt Negativo:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Diretrizes de Uso
Legenda
<1girl/1boy/1other/...>, <character>, <series>, <artists>, <special tags>, <general tags>, <other tags>
Tags de Qualidade
Para as tags de qualidade, avaliamos a popularidade das imagens através do seguinte processo:
Normalização de dados baseada em várias fontes e avaliações.
Aplicação de coeficientes de decaimento baseados no tempo de acordo com a recência das datas.
Ranking das imagens dentro de todo o conjunto de dados baseado neste processamento.
Nosso objetivo final é garantir que as tags de qualidade acompanhem efetivamente as preferências dos usuários nos últimos anos.
Faixa PercentilTags de Qualidade> 95º obra-prima> 85º, <= 95º melhor qualidade> 60º, <= 85º boa qualidade> 30º, <= 60º qualidade normal<= 30º pior qualidade
Tags Estéticas
TagDescriçãomuito awaTop 5% das imagens em termos de pontuação estética por waifu-scorerpior estéticaTodos os 5% inferiores das imagens em termos de pontuação estética por waifu-scorer e aesthetic-shadow-v2......
Tags de Data
Existem dois tipos de tags de data: tags de ano e tags de período. Para tags de ano, use o formato year xxxx, ou seja, year 2021. Para tags de período, consulte a tabela a seguir:
Faixa de AnoTag de período2005-2010antigo2011-2014inicial2014-2017meio2018-2020recente2021-2024mais novo
Conjunto de Dados
As imagens mais recentes do Danbooru até a data de treinamento (aproximadamente antes de 2024-10-23)
Imagens e621 e621-2024-webp-4Mpixel no Hugging Face
Comunicação
Grupos QQ:
657327419
875042008
914818692
635772191
870086562
Discord: Laxhar Dream Lab SDXL NOOB
Como treinar um LoRA no modelo v-pred SDXL
Um tutorial destinado a treinadores de LoRA baseado em sd-scripts.
link do artigo: https://civitai.com/articles/8723
Ferramenta Útil
Laxhar Lab está treinando um modelo ControlNet dedicado para NoobXL, e os modelos estão sendo lançados progressivamente. Até agora, os modelos normal, depth e canny foram lançados.
link do modelo: https://civitai.com/models/929685
Licença do Modelo
A licença deste modelo é derivada da https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 fair-ai-public-license-1.0-sd e adiciona os seguintes termos. Qualquer uso deste modelo e suas variantes está sujeito a esta licença.
I. Restrições de Uso
Uso proibido para atividades nocivas, maliciosas ou ilegais, incluindo mas não se limitando a assédio, ameaças e disseminação de desinformação.
Geração proibida de conteúdo antiético ou ofensivo.
Violação proibida de leis e regulamentos na jurisdição do usuário.
II. Proibição Comercial
Proibimos qualquer forma de comercialização, incluindo, mas não se limitando a, monetização ou uso comercial do modelo, modelos derivados ou produtos gerados pelo modelo.
III. Comunidade Open Source
Para fomentar uma comunidade open source próspera, os usuários DEVEM cumprir os seguintes requisitos:
Tornar open source os modelos derivados, modelos mesclados, LoRAs e produtos baseados nos modelos acima.
Compartilhar detalhes do trabalho, como fórmulas de síntese, prompts e fluxos de trabalho.
Seguir a fair-ai-public-license para garantir que os trabalhos derivados permaneçam open source.
IV. Isenção de Responsabilidade
Modelos gerados podem produzir resultados inesperados ou prejudiciais. Os usuários devem assumir todos os riscos e possíveis consequências do uso.
Participantes e Contribuidores
Participantes
L_A_X: Civitai | Liblib.art | Huggingface
li_li: Civitai | Huggingface
nebulae: Civitai | Huggingface
Chenkin: Civitai | Huggingface
Euge: Civitai | Huggingface | Github
Contribuidores
Narugo1992: Agradecimentos a narugo1992 e à equipe deepghs por disponibilizar vários conjuntos de treinamento, ferramentas de processamento de imagens e modelos.
Onommai: Agradecimentos a OnommAI por disponibilizar um poderoso modelo base.
V-Prediction: Agradecimentos às seguintes pessoas por suas instruções detalhadas e experimentos.
adsfssdf
madmanfourohfour
Comunidade: aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀,David, 年糕特工队,
Detalhes do Modelo
Tipo de modelo
Modelo base
Versão do modelo
Hash do modelo
Criador
Discussão
Por favor, faça log in para deixar um comentário.
