Femme hybride de cerf anthro aux cheveux rouges tenant un grand parapluie vert déchiré, portant une robe en feuilles, debout dans une forêt de conifères sous un ciel nuageux, des oiseaux perchés sur ses bois dans un nid.
Jeune femme kawaii aux cheveux blonds clairs et yeux bleus souriant avec enthousiasme, tenant deux cornets de glace dans un décor urbain aux couleurs pastels.

Prompts recommandés

<lora:illustriousXL_stabilizer_v1.72:0.8>1girl, masterpiece

Paramètres recommandés

samplers

Euler a

steps

24 - 25

cfg

3 - 5.5

resolution

1024x1024, 832x1216

other models

illustriousXL_stabilizer_v1.72 (632563d18bb8), illustriousXL_v01 (3e15ba0038), waiNSFWIllustrious_v120 (89cb4ec0a9)

Paramètres haute résolution recommandés

upscaler

R-ESRGAN 4x+ Anime6B

upscale

1.5

denoising strength

0.25

Conseils

Chargez ce LoRA en premier dans votre pile de LoRA pour minimiser les changements inattendus dus aux poids patch dynamiques avec l'architecture DoRA.

Utilisez-le comme modèle de base affiné en appliquant une pleine intensité sur le modèle de base pré-entraîné pour obtenir les meilleurs détails naturels et contrôle du style.

Soyez prudent en empilant avec des modèles de base fortement stylisés car cela peut dégrader les effets désirés.

Le modèle ne peut pas ajouter des détails naturels aux modèles de base fortement surajustés avec des images de style IA.

Évitez de laisser des retours dans le système de revue Civitai; laissez des commentaires dans la section prévue pour une meilleure visibilité.

Utilisez des LoRAs complémentaires comme Dark, Contrast Controller et Style Strength Controller pour des ajustements supplémentaires d'environnement et de style.

Sponsors du créateur

Retrouvez-moi sur TensorArt

Dernière mise à jour :

(07/09/2025) Vous pouvez me trouver sur TensorArt.


Stabilizer

Ceci est mon modèle de base affiné, mais sous forme de LoRA.

Ce modèle de base affiné :

  • Mise sur la créativité, plutôt qu'un style fixe. Le jeu de données est très diversifié. Ainsi, ce modèle n'a pas de style par défaut (biais) limitant sa créativité.

  • Uniquement des textures naturelles, un éclairage et des détails fins. Pas de style IA plastique. (Mêmes visages IA, coiffures, surfaces lisses sans texture, etc...). J'ai sélectionné chaque image du jeu de données. Zéro image IA dans le jeu de données.

  • Moins d'images déformées. Plus logique. Meilleur arrière-plan et composition.

  • Meilleure compréhension des prompts. Entraîné avec des légendes en langage naturel.

  • (v-pred) Éclairage meilleur et équilibré, contraste élevé. Noir pur 0 et blanc 255 peuvent apparaître dans la même image, même au même endroit, sans débordement ni surexposition.

Les images de couverture sont les sorties brutes, résolution par défaut de 1MP. Pas d'upscale, pas de plugins, pas de corrections par inpainting. Métadonnées présentes, 100% reproductibles.

Les styles des images de couverture proviennent du modèle de base pré-entraîné, activés par l'invite. Ils ne font pas partie de mon jeu de données. Vous pouvez voir que le modèle pré-entraîné connaît ces styles, mais ne peut pas les générer correctement car il est surajusté aux données anime. Ce modèle corrige ce problème de surajustement. Voir la section "comment et pourquoi ça fonctionne" ci-dessous.

Pourquoi pas de style par défaut ?

  • Qu'est-ce qu'un "style par défaut" : Si un modèle a un style par défaut (biais), cela signifie que peu importe ce que vous décrivez, le modèle doit générer les mêmes éléments (visages, arrière-plans, sensations) qui composent ce style par défaut.

  • Avantages : C'est facile à utiliser, plus besoin de spécifier le style.

  • Inconvénients : Mais vous ne pouvez pas le remplacer non plus. Si vous demandez quelque chose qui ne correspond pas au style par défaut, le modèle l'ignorera. Si vous empilez plusieurs styles, le style par défaut chevauchera/polluera/limitera toujours les autres styles.

  • "Pas de style par défaut" signifie pas de biais, et vous devez spécifier le style désiré via des tags ou des LoRA. Mais il n'y aura pas de chevauchement ou pollution de style de ce modèle. Vous obtenez le style empilé exactement comme il doit être.

Pourquoi ce "modèle de base affiné" est-il un LoRA ?

  • Je ne suis pas un gigachad et je n'ai pas des millions d'images d'entraînement. Affiner tout le modèle de base n'est pas nécessaire, un LoRA suffit.

  • Je peux économiser beaucoup de VRAM pour utiliser une taille de lot plus grande.

  • Je n'ai qu'à télécharger, et vous n'avez qu'à télécharger un petit fichier de 40MiB au lieu d'un checkpoint de 7GiB, économisant 99,4% de données et de stockage. Je peux donc spammer ses mises à jour.

  • Ce LoRA peut sembler petit, il est pourtant puissant. Car il utilise une nouvelle architecture appelée DoRA de Nvidia, plus efficace que le LoRA traditionnel.

Alors comment obtenir ce "modèle de base affiné" ?

Simple.

modèle de base pré-entraîné + ce LoRA = le "modèle de base affiné"

Chargez juste ce LoRA sur le modèle de base pré-entraîné avec pleine intensité. Le modèle de base pré-entraîné deviendra alors le modèle de base affiné. Voir ci-dessous "Comment utiliser".

Le partage de merges utilisant ce modèle est interdit. À noter, il y a des mots-clés cachés pour imprimer un watermark invisible. J'ai codé moi-même le watermark et le détecteur. Je ne veux pas l'utiliser, mais je peux.

Ce modèle est uniquement publié sur Civitai et TensorArt. Si vous me voyez et trouvez cette phrase sur d'autres plateformes, ce sont des faux et la plateforme que vous utilisez est un site pirate.

Merci de laisser un retour dans la section commentaires. Ainsi tout le monde peut le voir. Ne laissez pas de feedback dans le système de revue Civitai, il est très mal conçu, personne ne peut trouver ou voir les avis.


Comment utiliser

Dernières versions :

  • nbvp10 v0.271 (entraîné sur NoobAI v-pred v1.0).

    • Couleurs précises et détails fins. C'est le meilleur modèle jusqu'à présent.

  • nbep10 v0.273 (entraîné sur NoobAI eps v1.0). Abandonné.

    • Moins de saturation et de contraste comparé aux modèles v-pred à cause d'un "petit défaut de conception" dans la prédiction epsilon (eps) standard. Cela limite la gamme de couleurs accessible au modèle. D'où la version v-pred plus tard.

  • illus01 v1.198 (entraîné sur Illustrious v0.1). Abandonné.

    • Trop ancien...

Note : chargez ce LoRA en premier dans votre pile de LoRA.

Ce LoRA utilise une nouvelle architecture appelée DoRA de Nvidia, plus efficace que le LoRA traditionnel. Cependant, contrairement au LoRA traditionnel avec un poids patch statique, le poids patch de DoRA est calculé dynamiquement en fonction du poids du modèle de base chargé (qui change avec le chargement de LoRA). Pour minimiser les changements inattendus, chargez ce LoRA en premier.

Deux façons d'utiliser ce modèle :

1). Utilisez-le comme modèle de base affiné (Recommandé) :

Si vous voulez des détails naturels fins et construire la combinaison de styles désirée, avec un contrôle complet.

Chargez simplement ce LoRA en premier sur le modèle de base pré-entraîné avec pleine intensité. Le modèle de base pré-entraîné deviendra le modèle de base affiné.

2). Utilisez-le comme LoRA sur un autre modèle de base affiné.

Parce que pourquoi pas, c'est un LoRA après tout.

Points à noter :

  • Important : Si vous utilisez un modèle de base "illustrious". Vous devez vérifier sur quel modèle de base pré-entraîné votre modèle est réellement basé. La plupart des modèles "illustrious" pour anime sont basés (ou proches) de NoobAI, pas illustrious. Lire plus (pourquoi ces modèles sont mal étiquetés et comment tester votre modèle de base) dans la "Discussion". La LoRA doit correspondre au modèle de base pré-entraîné. Une incompatibilité dégrade la qualité d'image.

  • Vous allez fusionner deux modèles de base. Si votre modèle de base a déjà un style par défaut très marqué, ajouter ce LoRA à votre modèle ne donnera probablement pas le résultat attendu. Vous devrez équilibrer d'autres poids (LoRA, blocs U-net, etc.).

  • Ce modèle ne peut pas ajouter des détails naturels aux modèles de base avec styles IA (entraînés avec des images IA, vous ressentez tout lisse, brillant, sans texture, ressemblant à du plastique). Je sais que certains choisissent ce modèle pour éliminer la douceur du style IA, mais cela ne fonctionnera pas car le style IA est extrêmement surajusté (on apprend instantanément ce que vous venez de faire, comme le modèle IA s'il est entraîné avec des images IA). De plus, les images IA manquent de détails comparé au monde réel, le modèle apprend à réprimer les détails. Ce qui est problématique. Une fois un style IA présent, impossible de s'en débarrasser.

  • Ce modèle n'est pas un outil magique permettant d'empiler plus de LoRA sur un modèle de base sans problème. Je sais que le nom peut induire en erreur.


Pourquoi et comment ça fonctionne :

Le problème du surapprentissage :

  • Les modèles anime sont entraînés sur des images anime. Ces images sont simples et ne contiennent que des "concepts" abstraits de haut niveau. Pas d'arrière-plans, pas de détails ni de textures.

  • Nous voulons que le modèle apprenne seulement ces "concepts" haut niveau. En réalité, il apprend ce qu'il voit, pas ce que vous voulez.

  • Après avoir vu plus de 10 millions d'images anime simples et abstraites, le modèle apprend que 1) il ne doit pas générer de détails car le jeu de données ne lui a jamais dit; 2) il doit générer des images simples avec des concepts abstraits même s'il ne les comprend pas, ce qui conduit à des images déformées, c'est-à-dire du "surapprentissage".

La solution :

  • Entraîner le modèle avec des images anime et du monde réel. Ainsi il peut apprendre les concepts tout en gardant les détails naturels et textures, réduisant le surapprentissage.

  • NoobAI le fait en mélangeant quelques images cosplay réelles dans son dataset. (si je me souviens bien, les développeurs en ont parlé quelque part)

  • Ce modèle va plus loin, il a été entraîné sur un peu de tout : architecture, objets quotidiens, vêtements, paysages... Avec des légendes en langage naturel multi-niveau pour imiter la configuration d'entraînement originale de SDXL.

Le résultat :

  • Voir comparaisons sans : 1 (styles d'artistes), 2 (styles généraux)

  • Moins de surapprentissage, moins d'images déformées. Plus de textures, éclairages et détails naturels. Vous pouvez utiliser des milliers de tags de style intégrés (Danbooru, e621), ainsi que des styles généraux compris par le SDXL original, pour obtenir une image propre et détaillée comme il se doit. Que ce soit en 2D ou 3D, abstrait ou réaliste.

  • Créativité maximale toujours. Grâce au dataset diversifié. Pas de style par défaut. Donc pas de limitation à la créativité du modèle pré-entraîné ni aux autres LoRA de style.


Jeu de données

dernières versions ou versions récentes

~7k images au total. Pas énorme (comparé aux gigachads qui aiment entraîner sur des millions d'images), mais pas petit non plus. Chaque image est sélectionnée à la main par moi.

  • Uniquement des choses normales et esthétiques. Pas de style artistique fou indéfinissable. Pas d'images IA, pas de watermarks, etc.

  • Uniquement des images haute résolution. La moyenne du dataset est de 3.37 MP, environ 1800x1800 pixels.

  • Toutes les images ont des légendes naturelles du dernier LLM de Google.

  • Tous les personnages anime sont d'abord tagués par wd tagger v3 puis par Google LLM.

  • Contient nature, extérieur, intérieur, animaux, objets quotidiens, beaucoup de choses, sauf humain réel.

  • Différents niveaux de luminosité. Très sombre, très clair, très sombre et très clair.


Autres outils

Quelques idées qui devaient ou ont été partie du Stabilizer. Maintenant ce sont des LoRA séparés pour plus de flexibilité. Lien de la collection : https://civitai.com/collections/8274233.

Dark : Une LoRA biaisée sur des environnements plus sombres. Utile pour corriger le biais de forte luminosité dans certains modèles de base. Entraîné sur images à faible luminosité. Pas de biais de style, donc pas de pollution de style.

Contrast Controller : Une LoRA artisanale. Contrôle le contraste comme un curseur sur votre écran. Contrairement aux autres "améliorateurs de contraste" entraînés, l'effet de cette LoRA est stable, mathématiquement linéaire, sans effet secondaire sur le style.

Utile quand votre modèle de base présente un problème de surexposition ou si vous voulez quelque chose de très coloré.

Exemple :

Style Strength Controller : Ou réducteur d'effet surajusté. Peut réduire tous types d'effets de surajustement (biais sur objets, luminosité, etc.) mathématiquement. Ou les amplifier, si vous le souhaitez.

Différences avec Stabilizer :

  • Stabilizer a été entraîné sur des données du monde réel. Il peut seulement "réduire" les effets de surajustement liés aux textures, détails et arrière-plans, en les rajoutant.

  • Style Controller n'est pas d'entraînement. C'est plus un "undo" de l'entraînement du modèle de base, ainsi il sera moins surajusté. Peut réduire mathématiquement tous les surajustements, comme des biais sur la luminosité, objets.


Anciennes versions :

Vous pouvez trouver plus d'infos dans le "journal des mises à jour". Attention, les anciennes versions ont des effets très différents.

Ligne temporelle principale :

  • Maintenant ~ : détails et textures naturelles, meilleure compréhension des prompts et plus de créativité. Plus limité au style animé 2D pur.

  • illus01 v1.23 / nbep11 0.138 ~ : meilleur style anime avec couleurs vives.

  • illus01 v1.3 / nbep11 0.58 ~ : meilleur style anime.


Journal des mises à jour

(31/08/2025) NoobAI ep10 v0.273

Cette version est entraînée depuis le début sur NoobAI eps v1.0.

Comparé à l'ancien illus01 v1.198 :

  • Meilleure luminosité équilibrée en conditions extrêmes. (idem nbvp v0.271)

  • Meilleures textures et détails. Plus d'étapes d'entraînement sur les timesteps à haut SNR. (les versions illus01 passaient ces étapes pour compatibilité. Maintenant tous les modèles base sont NoobAI, plus besoin.)

(24/08/2025) NoobAI v-pred v0.271 :

Comparé à la version précédente v0.264 :

  • Éclairage meilleur et équilibré en conditions extrêmes, moins de biais.

  • Contraste élevé, noir pur 0 et blanc 255 dans la même image, même au même endroit, sans débordement ni surexposition. Maintenant vous pouvez tout avoir à la fois.

  • (ancienne v0.264 essayait de limiter l'image entre 10~250 pour éviter débordement, mais présentait toujours un biais notable, image globalement trop sombre ou claire)

  • Comme v0.264, préférez intensité élevée ou complète (0.9~1).

(17/08/2025) NoobAI v-pred v0.264 :

  • Première version entraînée sur NoobAI v-pred.

  • Donne un meilleur éclairage, moins de débordement.

  • Note : préférez intensité élevée ou complète (0.9~1).

(28/07/2025) illus01 v1.198

Comparé à v1.185c :

  • Fin de la version "c". Bien que "visuellement marquant" soit bien, elle a des problèmes de compatibilité. Par exemple, si votre modèle base a déjà une amélioration du contraste similaire. Empiler deux améliorations contraste est très mauvais. Donc, plus d'effets post-traitement extrêmes (contraste élevé et saturation, etc.).

  • À la place, plus de textures et détails. Éclairage de niveau cinématographique. Meilleure compatibilité.

  • Cette version a changé beaucoup de choses, y compris une refonte du dataset, l'effet sera donc très différent des versions précédentes.

  • Pour ceux qui veulent retrouver les effets fous de v1.185c. Vous pouvez trouver des styles d'art purs et dédiés sur cette page. Si le dataset est assez grand pour une LoRA, je pourrai en entraîner une.

(21/06/2025) illus01 v1.185c :

Comparé à v1.165c.

  • +100% clarté et netteté.

  • -30% d'images trop chaotiques (impossibles à décrire correctement). Vous pourrez remarquer que cette version ne donne plus un contraste très élevé, mais devrait être plus stable en usage normal.

(10/06/2025) : illus01 v1.165c

Version spéciale. Ce n'est pas une amélioration de v1.164. "c" signifie "coloré", "créatif", parfois "chaotique".

Le dataset contient des images très visuellement marquantes, parfois difficiles à décrire ex : très colorées, contraste élevé, conditions d'éclairage complexes, objets et patterns complexes partout.

Vous aurez donc un rendu "visuellement frappant", mais aux dépens du naturel. Peut affecter des styles aux couleurs douces, etc. Par exemple, cette version ne peut pas générer parfaitement une texture "pinceau crayon" comme v1.164.

(04/06/2025) : illus01 v1.164

  • Meilleure compréhension des prompts. Chaque image a maintenant 3 légendes naturelles, vues sous différents angles. Les tags Danbooru sont vérifiés par LLM, seuls les tags importants sont choisis et fusionnés dans la légende naturelle.

  • Anti-surexposition. Ajout d'un biais pour empêcher que la sortie atteigne #ffffff (blanc pur). La plupart du temps #ffffff = surexposition, perte de détails.

  • Modifications des paramètres d'entraînement. Meilleure compatibilité avec NoobAI, e-pred et v-pred.

(19/05/2025) : illus01 v1.152

  • Amélioration continue de l'éclairage, textures et détails.

  • +5 000 images, plus d'étapes d'entraînement, effet plus fort.

(09/05/2025) : nbep11 v0.205 :

  • Correction rapide des problèmes de luminosité et de couleurs dans v0.198. Désormais, cela ne devrait plus changer la luminosité ou les couleurs aussi dramatiquement qu'une vraie photo. v0.198 n'était pas mauvais, juste trop créatif.

(07/05/2025) : nbep11 v0.198 :

  • Ajout d'images plus sombres. Moins de déformations du corps, arrière-plan en environnement sombre.

  • Suppression de l'amélioration des couleurs et du contraste. Plus nécessaire. Utilisez Contrast Controller à la place.

(25/04/2025) : nbep11 v0.172.

  • Mêmes nouveautés que illus01 v1.93 ~ v1.121. En résumé : nouveau dataset de photos "Touching Grass". Meilleure texture naturelle, arrière-plan, éclairage. Effets personnages plus faibles pour meilleure compatibilité.

  • Meilleure précision et stabilité des couleurs. (comparé à nbep11 v0.160)

(17/04/2025) : illus01 v1.121.

  • Retour à illustrious v0.1. illustrious v1.0 et versions plus récentes ont été entraînées délibérément avec des images IA (~30% du dataset). Ce n'est pas idéal pour l'entraînement LoRA. Je ne l'avais pas remarqué avant de lire le papier.

  • Effet style personnage plus faible. Retour au niveau v1.23. Moins de détails pour les personnages, mais meilleure compatibilité. Un compromis.

  • Autres éléments identiques à ci-dessous (v1.113).

(10/04/2025) : illus11 v1.113 ❌.

  • Mise à jour : n'utilisez cette version que si vous savez que votre modèle de base est basé sur Illustrious v1.1. Sinon, utilisez illus01 v1.121.

  • Entraîné sur Illustrious v1.1.

  • Nouveau dataset "Touching Grass" ajouté. Meilleure texture naturelle, éclairage et profondeur de champ. Meilleure stabilité structurelle de l'arrière-plan. Moins d'arrière-plans déformés, comme des pièces ou bâtiments déformés.

  • Légendes en langage naturel complètes venant du LLM.

(30/03/2025) : illus01 v1.93.

  • v1.72 était trop fort en entraînement. J'ai donc réduit sa force globale. Doit être plus compatible.

(22/03/2025) : nbep11 v0.160.

  • Mêmes éléments que illus v1.72.

(15/03/2025) illus01 v1.72

  • Même nouveau dataset textures et éclairage que mentionné dans ani40z v0.4 ci-dessous. Plus d'éclairage naturel et textures naturelles.

  • Ajout d'un petit dataset ~100 images dédié à l'amélioration des mains, axé sur les mains avec différentes tâches, comme tenir un verre ou une tasse.

  • Suppression de toutes les images "arrière-plans simples" du dataset. -200 images.

  • Changement de l'outil d'entraînement de kohya à onetrainer. Changement de l'architecture LoRA en DoRA.

(04/03/2025) ani40z v0.4

  • Entraîné sur Animagine XL 4.0 ani40zero.

  • Ajout d'un dataset ~1k axé sur l'éclairage dynamique naturel et les textures du monde réel.

  • Plus d'éclairage naturel et textures naturelles.

ani04 v0.1

  • Version initiale pour Animagine XL 4.0. Principalement pour corriger les problèmes de luminosité d'Animagine 4.0. Meilleur et plus haut contraste.

illus01 v1.23

nbep11 v0.138

  • Ajout d'images furry/non-humain/autres pour équilibrer le dataset.

nbep11 v0.129

  • Mauvaise version, effet trop faible, ignorez-la.

nbep11 v0.114

  • Mise en place des "couleurs sur toute la gamme". Cela équilibre automatiquement les éléments vers du "normal et esthétique". Pensez-y comme un bouton "amélioration photo automatique en un clic" dans la plupart des outils d'édition photo. Un inconvénient : empêche des biais trop élevés. Par exemple, vouloir 95% de l'image en noir et 5% en clair au lieu de 50/50%.

  • Ajout de données un peu réalistes. Détails et éclairage plus vifs, couleurs moins plates.

illus01 v1.7

nbep11 v0.96

  • Plus d'images d'entraînement.

  • Puis affinement sur un petit dataset "wallpaper" (fonds d'écran de jeu réels, meilleure qualité trouvée, ~100 images). Améliorations sur les détails (visible sur peau, cheveux) et le contraste.

nbep11 v0.58

  • Plus d'images. Paramètres d'entraînement rapprochés du modèle de base NoobAI.

illus01 v1.3

nbep11 v0.30

  • Plus d'images.

nbep11 v0.11 : Entraîné sur NoobAI epsilon pred v1.1.

  • Amélioration des tags du dataset. Amélioration de la structure LoRA et répartition des poids. Plus stable et moins d'impact sur la composition d'image.

illus01 v1.1

  • Entraîné sur illustriousXL v0.1.

nbep10 v0.10

  • Entraîné sur NoobAI epsilon pred v1.0.

Précédent
Étude de portrait - Companion (ROGER HAUSS)
Suivant
✨ Lazy Embeddings pour TOUS les modèles célèbres NoobAI Pony SDXL LazyPositive LazyNegative (Positif et Négatif plus encore !) - lazynsfw

Détails du modèle

Type de modèle

LORA

Modèle de base

Illustrious

Version du modèle

illus01 v1.72

Hash du modèle

632563d18b

Créateur

Discussion

Veuillez vous log in pour laisser un commentaire.