modelos/Stabilizer IL/NAI - illus01 v1.198

Stabilizer IL/NAI - illus01 v1.198

|
10/5/2025
|
1:10:46 AM
| Discussion|
0
Um policial agachado acariciando um grande monstro ciclope com cabelo multicolorido em um caminho sombreado da floresta iluminado por luz solar filtrada.
Imagem em close-up HD detalhada de um pombo fofo sentado em um ninho com penas ao redor, olhando para cima com olhos brilhantes.

Prompts Recomendados

upper body

Parâmetros Recomendados

samplers

Euler, Euler a

steps

23 - 31

cfg

4 - 5

resolution

1024x1024, 896x1152

other models

illustriousXLv01_stabilizer_v1.198_1 (28e331428bc0), noobaiXLNAIXL_epsilonPred11Version (6681e8e4b1), illus01_style_collection_elpe_v0.22 (7a21c1c0c77c), noobai_ep10_stabilizer_v0.251_1_fp16 (582bf9ad100e), illustriousXLv01_stable_dark_v0.3 (583a239afed0), illustriousXLv01_stabilizer_v1.200_1 (5982a1c7f4b1), illus01_style_collection_dcr_v0.7 (bbe3bdfa5585)

Dicas

Carregue este LoRA primeiro em sua pilha LoRA para minimizar mudanças inesperadas devido ao peso dinâmico do patch na arquitetura DoRA.

Use como modelo base ajustado aplicando força total no modelo base pré-treinado para melhores detalhes naturais e controle de estilo.

Tenha cautela ao usar junto com modelos base com estilo forte, pois pode degradar efeitos desejados.

O modelo não pode adicionar detalhes naturais a modelos base excessivamente ajustados com imagens de estilo AI.

Evite enviar feedback no sistema de avaliação do Civitai; deixe comentários na seção de comentários fornecida para melhor visibilidade.

Use LoRAs complementares como Dark, Contrast Controller e Style Strength Controller para ajustes adicionais de ambiente e estilo.

Patrocinadores do Criador

Encontre-me em TensorArt

Última atualização:

(09/07/2025) Você pode me encontrar no TensorArt.


Stabilizer

Este é meu modelo base ajustado, mas em formato LoRA.

Este modelo base ajustado:

  • Foca na criatividade, em vez de um estilo fixo. O conjunto de dados é muito diversificado. Portanto, este modelo não tem estilo padrão (viés) que limite sua criatividade.

  • Apenas texturas naturais, iluminação e os mínimos detalhes. Sem estilo plástico de IA. (Mesmos rostos AI, estilo de cabelo, superfícies lisas sem textura, etc...). Eu selecionei manualmente todas as imagens do conjunto de dados. Zero imagem AI no conjunto.

  • Menos imagens deformadas. Mais lógico. Melhor fundo e composição.

  • Melhor compreensão do prompt. Treinado com legendas em linguagem natural.

  • (v-pred) Iluminação melhor e balanceada, alto contraste. Preto puro 0 e branco 255 podem estar na mesma imagem, até no mesmo local, mas ainda sem estouro ou super saturação.

As imagens de capa são as saídas brutas, na resolução padrão de 1MP. Sem upscaling, plugins ou correções de inpainting. Possuem metadados, 100% reproduzíveis.

Os estilos nas imagens de capa são do modelo base pré-treinado, acionados pelo prompt. Eles não estão no meu conjunto de dados. Você pode ver que o modelo pré-treinado conhece esses estilos, mas não consegue gerá-los adequadamente porque está sobreajustado em dados de anime. Este modelo corrigiu o problema de overfitting. Veja a seção "como e por que funciona" abaixo.

Por que não há estilo padrão?

  • O que é "estilo padrão": Se um modelo tem um estilo padrão (viés), significa que não importa o que você promptar, o modelo deve gerar as mesmas coisas (rostos, fundos, sentimentos) que compõem o estilo padrão.

  • Prós: É fácil de usar, você não precisará mais especificar o estilo no prompt.

  • Contras: Mas você também não pode sobrescrevê-lo. Se você promptar algo que não se encaixa no estilo padrão, o modelo simplesmente irá ignorar. Se você empilhar mais estilos, o estilo padrão sempre irá sobrepor/poluir/limitar outros estilos.

  • "sem estilo padrão" significa sem viés, e você precisa especificar o estilo desejado, por tags ou LoRAs. Mas não haverá sobreposição ou poluição de estilo deste modelo. Você terá o estilo empilhado exatamente como deveria ser.

Por que este "modelo base ajustado" é um LoRA?

  • Não sou um gigachad e não tenho milhões de imagens para treinamento. Ajustar o modelo base inteiro não é necessário, um LoRA é suficiente.

  • Posso economizar muita VRAM para usar tamanhos maiores de batch.

  • Eu só preciso enviar, e você baixar, um arquivo pequeno de 40MiB, em vez de um checkpoint grande de 7GiB, economizando 99,4% de dados e armazenamento. Então posso atualizar com mais frequência.

  • Este LoRA pode parecer pequeno, mas é poderoso. Porque usa uma nova arquitetura chamada DoRA da Nvidia, que é mais eficiente que o LoRA tradicional.

Como obter este "modelo base ajustado"?

Simples.

modelo base pré-treinado + Este LoRA = o "modelo base ajustado"

Basta carregar este LoRA no modelo base pré-treinado com força total. O modelo base pré-treinado se tornará o modelo base ajustado. Veja abaixo "Como usar".

Compartilhar merges usando este modelo é proibido. Para sua informação, há palavras-chave ocultas para imprimir marca d'água invisível. Eu codifiquei a marca d'água e o detector eu mesmo. Não quero usar, mas posso.

Este modelo é publicado apenas em Civitai e TensorArt. Se você me vir e esta frase em outras plataformas, todas são falsas e a plataforma que você está usando é pirata.

Por favor, deixe feedback na seção de comentários. Para que todos possam ver. Não envie feedback no sistema de revisão do Civitai, que é mal projetado e ninguém consegue encontrar ou ver as avaliações.


Como usar

Versões mais recentes:

  • nbvp10 v0.271 (treinado em NoobAI v-pred v1.0).

    • Cores precisas e mínimos detalhes. Este é o melhor modelo até agora.

  • nbep10 v0.273 (treinado em NoobAI eps v1.0). Descontinuado.

    • Menos saturação e contraste comparado aos modelos v-pred. Devido a uma "pequena falha de design" na predição epsilon padrão (eps). Limita o alcance de cores do modelo. Por isso temos o v-pred depois.

  • illus01 v1.198 (treinado em Illustrious v0.1). Descontinuado.

    • Simplesmente muito antigo...

Atenção: carregue este LoRA primeiro em sua pilha de LoRA.

Este LoRA usa uma nova arquitetura chamada DoRA da Nvidia, mais eficiente que o LoRA tradicional. Porém, ao contrário do LoRA tradicional, que tem peso estático para o patch, o peso do patch no DoRA é calculado dinamicamente baseado no peso do modelo base atualmente carregado (que muda ao carregar LoRAs). Para minimizar mudanças inesperadas, carregue este LoRA primeiro.

Duas formas de usar este modelo:

1). Use como modelo base ajustado (Recomendado):

Se deseja os detalhes naturais mais refinados e construir a combinação de estilos que quiser, com controle total.

Basta carregar este LoRA primeiro no modelo base pré-treinado com força total. Assim o modelo base será ajustado.

2). Use como LoRA em outros modelos base ajustados.

Porque, afinal, é um LoRA.

Atenção:

  • Importante: se usar um modelo base "illustrious". Você precisa verificar qual o modelo base pré-treinado realmente usado. Os modelos base "illustrious" de anime mais populares são baseados (ou próximos) do NoobAI, não illustrious. Leia mais (por que esses modelos estão rotulados incorretamente e como testar seu modelo base) em "Discussão". O LoRA precisa combinar com o modelo base pré-treinado. Modelos base incompatíveis degradam a qualidade da imagem.

  • Você está prestes a mesclar dois modelos base. Se seu modelo base já tem um estilo padrão muito forte, simplesmente adicionar este LoRA geralmente não dará o resultado esperado. Pode precisar balancear outros pesos (LoRAs, blocos U-net, etc.).

  • Este modelo não pode adicionar detalhes naturais a modelos base com estilos AI (treinados com imagens de IA, nas quais tudo parece liso, brilhante, sem textura e plástico). Sei que alguns escolhem este modelo para remover a suavidade do estilo IA em seus modelos base atuais. Infelizmente não funciona, porque estilo AI é extremamente sobreajustado (você pode aprender isso instantaneamente. igual ao modelo AI se treinado com imagens AI). E como imagens AI têm menos detalhes que imagens reais, o modelo aprendeu a suprimir detalhes. Isso é realmente problemático. Uma vez que o estilo AI está presente, não se pode removê-lo.

  • Este modelo não é uma ferramenta mágica para empilhar mais LoRAs em um modelo base sem quebrar. Eu sei que o nome pode ser enganador.


Por que e como isso funciona:

O problema do overfitting:

  • Modelos de anime treinados em imagens de anime. Imagens de anime são simples e contêm apenas "conceitos" em alto nível, frequentemente abstratos. Sem fundos, detalhes ou texturas.

  • Queremos que o modelo aprenda apenas os "conceitos" em alto nível. Mas o modelo aprende o que vê, não o que você quer.

  • Após ver 10+ milhões de imagens simples e abstratas de anime, o modelo aprende que 1) não precisa gerar detalhes. Porque o conjunto de dados nunca o instruiu a fazê-lo. 2) Deve gerar imagens simples com conceitos abstratos mesmo sem entender. Isso gera imagens deformadas, chamado "overfitting".

A solução:

  • Treinar o modelo com imagens de anime e do mundo real. Assim, ele aprende conceitos enquanto mantém detalhes e texturas naturais, ou seja, menos sobreajuste.

  • NoobAI fez isso misturando imagens reais de cosplay no conjunto de dados. (se não me engano, os desenvolvedores mencionaram isso).

  • Este modelo vai além, treinado em um pouco de tudo: arquitetura, objetos cotidianos, roupas, paisagens... Também com legendas em linguagem natural em múltiplos níveis, simulando o treinamento original do SDXL.

O resultado:

  • Veja comparações sem: 1 (estilos de artista), 2 (estilos gerais)

  • Menos overfitting, menos imagens deformadas. Mais texturas naturais, iluminação e detalhes. Agora você pode usar milhares de tags de estilo embutidas (Danbooru, e621), assim como estilos gerais que o SDXL original entende, e obter imagens limpas e detalhadas como deveriam ser. Seja 2D ou 3D, abstrato ou realista.

  • Ainda máxima criatividade. Por conta do conjunto de dados diversificado. Sem estilo padrão. Então não limita a criatividade do modelo pré-treinado, nem de outras LoRAs de estilo.


Conjunto de dados

Versão recente ou mais recente

~7 mil imagens no total. Não tão grande (comparado a gigachads que treinam com milhões de imagens), mas não pequeno. E cada imagem foi selecionada manualmente por mim.

  • Apenas coisas normais e bonitas. Sem estilo louco que não possa ser descrito. Sem imagens AI, sem marcas d’água, etc.

  • Apenas imagens em alta resolução. A média do conjunto tem 3,37 MP, ~1800x1800.

  • Todas as imagens têm legendas naturais do último LLM do Google.

  • Todos os personagens de anime são marcados primeiro com o wd tagger v3 e depois pelo LLM do Google.

  • Contém natureza, exteriores, interiores, animais, objetos diários, muitas coisas, exceto humanos reais.

  • Contém todos os tipos de condições de luminosidade. Muito escuro, muito claro, muito escuro e muito claro.


Outras ferramentas

Algumas ideias que estavam para, ou costumavam fazer parte do Stabilizer. Agora são LoRAs separados para melhor flexibilidade. Link da coleção: https://civitai.com/collections/8274233.

Dark: LoRA com viés para ambientes mais escuros. Útil para corrigir viés de alta luminosidade em alguns modelos base. Treinado em imagens de baixa luminosidade. Sem viés de estilo, sem poluição de estilo.

Contrast Controller: LoRA artesanal. Controla o contraste como um controle deslizante no monitor. Diferente dos treinados "reforçadores de contraste", o efeito deste LoRA é estável, matematicamente linear e não afeta o estilo.

Útil quando seu modelo base tem problema de oversaturação ou se quer algo bem colorido.

Exemplo:

Style Strength Controller: Ou redutor de efeito de overfitting. Pode reduzir todos os tipos de overfitting (viés em objetos, luminosidade, etc.) de forma matemática. Ou amplificá-lo, se quiser.

Diferenças com o Stabilizer:

  • Stabilizer foi treinado em dados do mundo real. Ele só pode "reduzir" efeitos de overfitting relacionados a textura, detalhes e fundos, adicionando-os de volta.

  • Style Controller não é do treinamento. É como "desfazer" o treinamento do modelo base para que seja menos sobreajustado. Pode reduzir matematicamente todos os efeitos de overfitting, como viés de luminosidade e objetos.


Versões antigas:

Mais informações na "Lista de atualizações". Atenção que versões antigas podem produzir efeitos bem diferentes.

Linha do tempo principal:

  • Agora ~: Detalhes e texturas naturais, entendimento estável de prompt e mais criatividade. Não limitado ao puro estilo 2D anime.

  • illus01 v1.23 / nbep11 0.138 ~: Estilo anime melhor com cores vívidas.

  • illus01 v1.3 / nbep11 0.58 ~: Estilo anime melhorado.


Lista de atualizações

(31/08/2025) NoobAI ep10 v0.273

Versão treinada desde o início no NoobAI eps v1.0.

Comparado ao anterior illus01 v1.198:

  • Iluminação melhor e equilibrada em condições extremas. (igual ao nbvp v0.271)

  • Texturas e detalhes melhores. Tem mais passos de treino em timesteps com alta SNR. (versões illus01 pulavam esses timesteps para melhor compatibilidade. Agora que todos os modelos base são NoobAI, não precisa pular.)

(24/08/2025) NoobAI v-pred v0.271:

Comparado ao v0.264 anterior:

  • Iluminação melhor e equilibrada em condições extremas, menos viés.

  • Alto contraste, preto puro 0 e branco 255 na mesma imagem, até no mesmo local, sem estouro ou super saturação. Agora você pode ter tudo de uma vez.

  • (v0.264 antigo tentava limitar a imagem entre 10~250 para evitar estouro, ainda com viés visível, a imagem geral podia ficar escura ou clara demais)

  • Igual ao v0.264, prefira força alta ou total (0.9~1).

(17/08/2025) NoobAI v-pred v0.264:

  • Primeira versão treinada no NoobAI v-pred.

  • Proporciona melhor iluminação, menos estouro.

  • Atenção: prefira força alta ou total (0.9~1).

(28/07/2025) illus01 v1.198

Principalmente comparado a v1.185c:

  • Fim da versão "c". Embora "visualmente impactante" seja bom, tinha problemas de compatibilidade. Ex.: Seu modelo base já tinha melhora similar de contraste. Empilhar duas melhora de contraste é ruim. Então, nada mais de pós-efeitos exagerados (alto contraste e saturação, etc.).

  • Em vez disso, mais texturas e detalhes. Iluminação nível cinematográfico. Melhor compatibilidade.

  • Essa versão mudou muitas coisas, incluindo revisão do conjunto de dados, então o efeito será bem diferente das versões anteriores.

  • Para quem quer os efeitos loucos da v1.185c de volta. Você pode encontrar estilos de arte puros e dedicados nesta página. Se o conjunto de dados for grande o suficiente para um LoRA, posso treinar um.

(21/06/2025) illus01 v1.185c:

Comparado a v1.165c.

  • +100% clareza e nitidez.

  • -30% imagens muito caóticas (que não podem ser descritas bem). Então talvez você perceba que esta versão não gera mais níveis de contraste muito altos, mas deve ser mais estável no uso normal.

(10/06/2025): illus01 v1.165c

Esta é uma versão especial. Não é uma melhoria da v1.164. "c" significa "colorido", "criativo", às vezes "caótico".

O conjunto de dados contém imagens muito visualmente impactantes, mas às vezes difíceis de descrever, ex.: Muito coloridas. Alto contraste. Condição complexa de iluminação. Objetos, padrões complexos por todo lado.

Então você terá "visual impactante", mas ao custo do "natural". Pode afetar estilos com cores suaves, etc. Ex.: Esta versão não gera a textura "arte a lápis" perfeitamente como v1.164.

(04/06/2025): illus01 v1.164

  • Melhor compreensão do prompt. Agora cada imagem tem 3 legendas naturais, de diferentes perspectivas. Tags Danbooru checadas pelo LLM, só as importantes são selecionadas e fundidas na legenda natural.

  • Anti superexposição. Adicionado viés para prevenir saída do modelo chegando a #ffffff branco puro. Na maioria das vezes #ffffff == superexposto, perda de muitos detalhes.

  • Alteradas algumas configurações de treinamento. Mais compatível com NoobAI, tanto e-pred quanto v-pred.

(19/05/2025): illus01 v1.152

  • Continuação da melhora em iluminação, texturas e detalhes.

  • Mais 5 mil imagens, mais passos de treino, resultado: efeito mais forte.

(09/05/2025): nbep11 v0.205:

  • Correção rápida de problemas de brilho e cor na v0.198. Agora não altera o brilho e cores dramaticamente como foto real. v0.198 não é ruim, só criativa demais.

(07/05/2025): nbep11 v0.198:

  • Adicionadas mais imagens escuras. Corpo menos deformado, fundo em ambiente escuro.

  • Removido reforço de cor e contraste. Porque não é mais necessário. Use Contrast Controller.

(25/04/2025): nbep11 v0.172.

  • Mesmas novidades do illus01 v1.93 ~ v1.121. Resumo: Novo conjunto "Touching Grass". Melhor textura natural, fundo, iluminação. Efeitos de personagens mais fracos para melhor compatibilidade.

  • Melhor precisão e estabilidade de cores. (Comparado a nbep11 v0.160)

(17/04/2025): illus01 v1.121.

  • Reverteu para illustrious v0.1. Illustrious v1.0 e mais recentes foram treinados com imagens AI deliberadamente (talvez 30% do conjunto), o que não é ideal para treinamento LoRA. Não percebi até ler o paper.

  • Efeito de estilo de personagem reduzido. Voltou ao nível v1.23. Personagens terão menos detalhes deste LoRA, mas melhor compatibilidade. É uma troca.

  • Outras coisas iguais à v1.113 abaixo.

(10/04/2025): illus11 v1.113 ❌.

  • Atualização: use esta versão só se seu modelo base é baseado no Illustrious v1.1. Caso contrário, use illus01 v1.121.

  • Treinado em Illustrious v1.1.

  • Adicionado novo conjunto "Touching Grass". Melhor textura natural, iluminação e efeito de profundidade. Melhor estabilidade estrutural do fundo. Fundo menos deformado, como salas e prédios deformados.

  • Legendas totalmente naturais do LLM.

(30/03/2025): illus01 v1.93.

  • A força da v1.72 foi reduzida para melhor compatibilidade.

(22/03/2025): nbep11 v0.160.

  • Mesmas coisas da illus v1.72.

(15/03/2025): illus01 v1.72

  • Mesmo novo conjunto de texturas e iluminação mencionado no ani40z v0.4 abaixo. Iluminação natural e texturas naturais aprimoradas.

  • Adicionado pequeno conjunto de ~100 imagens para aprimoramento de mãos, focando em mãos com diferentes tarefas, como segurar copo ou algo.

  • Removidas todas as imagens com "fundo simples" do conjunto de dados. -200 imagens.

  • Alterado ferramenta de treino de kohya para onetrainer. Arquitetura LoRA trocada para DoRA.

(04/03/2025) ani40z v0.4

  • Treinado em Animagine XL 4.0 ani40zero.

  • Adicionado ~1k conjunto focado em iluminação dinâmica natural e textura do mundo real.

  • Mais iluminação e texturas naturais.

ani04 v0.1

  • Versão inicial para Animagine XL 4.0. Principalmente para corrigir problemas de luminosidade do Animagine 4.0. Iluminação melhor e contraste mais alto.

illus01 v1.23

nbep11 v0.138

  • Adicionadas algumas imagens peludas/não-humanas/outras para balancear o conjunto.

nbep11 v0.129

  • Versão ruim, efeito muito fraco, ignore.

nbep11 v0.114

  • Implementado "Cores de faixa completa". Equilibra automaticamente as coisas para "normal e bonitos". Pense nisso como botão "auto melhorar foto com um clique" nos editores de foto. Desvantagem: previne forte viés. Exemplo, se quiser 95% da imagem preta e 5% clara, ao invés de 50/50%.

  • Adicionado dados um pouco realistas. Detalhes mais vívidos, iluminação, menos cores chapadas.

illus01 v1.7

nbep11 v0.96

  • Mais imagens para treino.

  • Ajustado novamente em pequeno conjunto "wallpaper" (papéis de parede reais, de melhor qualidade possível. ~100 imagens). Melhora nos detalhes (visível em pele, cabelo) e contraste.

nbep11 v0.58

  • Mais imagens. Parâmetros de treino próximos do modelo base NoobAI.

illus01 v1.3

nbep11 v0.30

  • Mais imagens.

nbep11 v0.11: Treinado no NoobAI epsilon pred v1.1.

  • Melhorou tags do conjunto. Estrutura LoRA e distribuição de peso aprimoradas. Deve ser mais estável e impactar menos a composição da imagem.

illus01 v1.1

  • Treinado no illustriousXL v0.1.

nbep10 v0.10

  • Treinado no NoobAI epsilon pred v1.0.

Anterior
Elfo sangrento (World of Warcraft) - v1.0
Próximo
Estilos Fantásticos Míticos de Velvet | Flux + Pony + illustrious - illustrious Dark Lines

Detalhes do Modelo

Tipo de modelo

LORA

Modelo base

Illustrious

Versão do modelo

illus01 v1.198

Hash do modelo

c502b406ef

Discussão

Por favor, faça log in para deixar um comentário.