Stabilizer IL/NAI - illus01 v1.121
Prompts recommandés
depth of field
Prompts négatifs recommandés
warm color
Paramètres recommandés
samplers
steps
cfg
clip skip
resolution
other models
Conseils
Appliquez le LoRA Stabilizer sur des modèles de base vanilla comme NoobAI ou RouWei avec une force comprise entre 0,5 et 0,8 pour des résultats optimaux.
Utilisez de 1 à 3 tags de style ou LoRAs avec Stabilizer pour maintenir la créativité sans style par défaut ni effets de surapprentissage.
Évitez les modèles de base avec un style IA par défaut fort, car ils peuvent supprimer l’effet du Stabilizer provoquant un décalage de style.
Laissez un retour détaillé dans la section des commentaires plutôt que dans le système de revue de Civitai pour une meilleure visibilité.
Utilisez la version “c” pour des images colorées et visuellement frappantes, et la version non "c" pour des textures naturelles et une reproduction précise des styles.
Les images de couverture proviennent directement du modèle de base vanilla (original) dans a1111, à une résolution de 1MP. Pas de mise à l’échelle, pas de plugins (corrections de visage/mains inpaint, CFG Rescale, etc.), même pas de prompt négatif. Vous pouvez déposer et reproduire ces images dans a1111. Elles contiennent des métadonnées. Si vous pensez qu’il s’agit d’images mises à l’échelle, alors ce LoRA a bien fait son travail.
Le partage des merges utilisant ce LoRA, ou sa republication sur d’autres plateformes, est interdit. Ce modèle est uniquement publié sur Civitai et TensorArt. Si vous voyez "moi" et cette phrase sur d’autres plateformes, ce sont des contrefaçons et la plateforme que vous utilisez est une plateforme pirate.
Stabilizer
C’est un LoRA finement ajusté, sans style par défaut, tout-en-un, basé sur un modèle de base.
Si vous l’appliquez au NoobAI e-pred v1.1 vanilla, vous obtiendrez alors le modèle de base finement ajusté.
Il contient toutes les améliorations courantes nécessaires. Éclairage naturel et détails, compréhension stable du prompt, arrière-plan amélioré, meilleures mains...
Ce n’est pas un LoRA de style surajusté (ayant seulement quelques dizaines d’images d’entraînement). Il n’y a aucun style par défaut. Le modèle de base conserve sa créativité maximale, avec bien moins d’effets de surapprentissage.
Vous pouvez utiliser des milliers de tags de style intégrés, ainsi que des styles généraux compris par le SDXL original, et obtenir une image propre comme il se doit. Pas de pollution de style, pas d’effets de surapprentissage. Peu importe s’il s’agit de 2D, 3D, abstrait ou réaliste.
Vous n’obtiendrez pas les mêmes éléments (visages, arrière-plans, etc.) encore et encore. (Comparé aux modèles de base fusionnés avec une multitude de LoRAs de style surajustés.)
Le jeu de données d’entraînement contient uniquement des images haute résolution (moyenne des pixels > 3MP, environ 1800x1800). Aucune image IA. Vous obtiendrez donc une texture et des détails réels au-delà du niveau des pixels, au lieu de bords faux et de surfaces lisses sans texture (car ces dernières ont été entraînées sur des images IA).
Cependant, étant un LoRA, vous pouvez l’appliquer à n’importe quel modèle de base que vous souhaitez avec une force réglable en une seconde.
Pourquoi tout-en-un ? Parce que si vous entraînez 10 LoRAs avec 10 ensembles de données différents pour divers aspects, et que vous les empilez, votre modèle de base va exploser. Si vous entraînez ces ensembles en une seule fois, il n’y aura pas de conflits.
Pourquoi ne pas affiner le modèle de base complet ? Je ne suis pas un gigachad et je n’ai pas des millions d’images d’entraînement, donc affiner tout le modèle de base n’est pas nécessaire.
Pourquoi recommandez-vous NoobAI mais avez abandonné la version NoobAI de ce LoRA ? 1. Au fur et à mesure que l’ensemble de données grandit, l’entraînement devient plus coûteux et long. 2. Je n’ai pas constaté de dégradation en utilisant la version illus sur NoobAI.
Le partage des merges utilisant ce LoRA est interdit. À titre d’information, des mots déclencheurs cachés impriment un filigrane invisible. Il fonctionne bien même si la force de merge est de 0.05. J’ai codé le filigrane et le détecteur moi-même. Je ne souhaite pas l’utiliser, mais je peux.
N’oubliez pas de laisser un retour dans la section des commentaires. Ainsi tout le monde peut le voir. N’écrivez pas de retour dans le système de revue de Civitai, il est très mal conçu, littéralement personne ne peut trouver et voir les revues.
Amusez-vous bien.
Désambiguïsation :
"Stabilizer" signifie : lorsque vous l’appliquez au modèle de base vanilla. Il aura moins d’effets de surapprentissage, plus de détails. Voir les images de couverture.
Il NE PEUT PAS réparer magiquement votre modèle de base si vous avez déjà empilé de nombreux LoRAs dessus et qu’il est cassé.
Comment utiliser
Préfixe de version :
illus01 = Entraîné sur Illustrious v0.1. (Recommandé, même pour NoobAI)
nbep11 = Entraîné sur NoobAI e-pred v1.1. (abandonné)
Version "c" (après illus v1.152) :
"c" signifie "coloré", "créatif", parfois "chaotique". Cette version contient des images d'entraînement très visuellement frappantes, par exemple : très colorées, contraste élevé, post-effets puissants, conditions d'éclairage complexes, objets et motifs complexes partout. Vous obtiendrez des images "visuellement frappantes", mais moins "naturelles". Cela peut affecter les styles aux couleurs douces. Par exemple, elle ne peut pas générer parfaitement la texture d’un dessin au crayon comme la version non "c".
Si vous voulez quelque chose qui a juste l’air cool, utilisez la version "c".
Si vous voulez une texture naturelle ou reproduire fidèlement certains styles, utilisez la version non "c".
Usage recommandé :
Modèles de base vanilla (NoobAI, RouWei, etc.).
+ Ce LoRA avec une force entre 0.5 et 0.8.
+ 1 à 3 tags/LoRAs de style. (Important !!) Il n’y a pas de style par défaut. Si vous ne spécifiez pas de style, le modèle en donnera un au hasard. N’oubliez pas que vous pouvez maintenant utiliser des milliers de tags de style Danbooru, et tous styles compris par le SDXL original, sans effets de surapprentissage.
Non recommandé: Modèles de base avec un style IA par défaut fort.
Attention, plus de 90% des modèles de base ont un style IA intégré. Car les styles IA sont très propres et cohérents, donc très faciles à entraîner et utiliser.
Les styles IA forts supprimeront presque tous les effets de ce LoRA. Ce qui provoque un décalage de style. Voir comparaison. En haut NoobAI vanilla. En bas WAI, qui a un style IA fort.
Comment savoir si un modèle a un style IA ? Pas de méthode fiable. La plupart des styles IA sont lisses (aucune texture sur les surfaces, seulement des contours). Et d’étranges reflets brillants partout.
Anciennes versions :
Nouvelle version = nouvelles fonctionnalités et nouvelles tentatives.
Un grand avantage du LoRA est que vous pouvez toujours mélanger différentes versions en une seconde.
Plus d’infos dans le "journal des mises à jour". Attention, les anciennes versions peuvent avoir des effets très différents.
Maintenant ~ : Accent sur détails et textures naturels, compréhension stable du prompt et plus de créativité.
Illus01 v1.23 / nbep11 0.138 ~ : Accent sur style anime pur avec couleurs vives.
Illus01 v1.3 / nbep11 0.58 ~ : Accent sur style anime.
Jeu de données
version la plus récente ou versions récentes
~7k images au total. Chaque image a été triée à la main par moi.
Seulement des choses normales et esthétiques. Pas de style artistique fou impossible à décrire. Pas d'images IA, pas de filigranes, etc.
Uniquement des images en haute résolution. La moyenne des pixels du dataset est de 3,37 MP, environ 1800x1800.
Toutes les images ont des légendes naturelles générées par le dernier LLM de Google.
Tous les personnages d’anime sont taggés d’abord par wd tagger v3, puis par Google LLM.
Contient nature, extérieur, intérieur, animaux, objets quotidiens, beaucoup d’éléments, sauf humains réels.
Contient toutes sortes de conditions d’éclairage. Très sombre, très lumineux, très sombre et très lumineux à la fois.
Autres outils
Quelques idées qui allaient ou ont été intégrées à Stabilizer. Maintenant ce sont des LoRAs séparés. Pour une meilleure flexibilité. Lien vers la collection : https://civitai.com/collections/8274233.
Touching Grass : Un LoRA entraîné uniquement sur un dataset du monde réel (pas de dataset anime). Effet plus fort. Meilleur arrière-plan et éclairage. Utile pour les utilisateurs gigachad qui aiment les concepts purs et gérer eux-mêmes le poids des modèles.
Dark : Un LoRA qui corrige le biais de haute luminosité dans certains modèles de base. Entraîné sur des images à faible luminosité dans le dataset Touching Grass. Pas d’humains dans le dataset, donc pas d’effet sur le style.
Contrast Controller : Un LoRA fait à la main (pas issu d’un entraînement). Le plus petit LoRA de 300Ko que vous ayez jamais vu. Contrôle le contraste comme un curseur sur votre écran. Contrairement aux autres "améliorateurs de contraste" entraînés, cet effet est stable, mathématiquement linéaire, et sans effet secondaire sur le style.
Utile si votre modèle de base a un problème de saturation excessive ou si vous voulez quelque chose de vraiment coloré.
Exemple :

Style Strength Controller : Ou réducteur d’effets de surapprentissage. Aussi un LoRA fait à la main, pas issu d’un entraînement, donc sans effets secondaires sur le style et effets mathématiquement linéaires. Peut réduire tous les types d’effets de surapprentissage (biais sur objets, luminosité, etc.).
Test d’effet sur Hassaku XL : le modèle de base a beaucoup de biais, ex. haute luminosité, surfaces lisses et brillantes, inscriptions murales... Le prompt contient le mot "dark", mais le modèle l’ignore presque. À la force 0.25, moins de biais de haute luminosité, moins de sensation lisse étrange sur toutes les surfaces, image plus naturelle.
Différences avec Stabilizer :
Stabilizer a été entraîné sur des données du monde réel. Il peut seulement "réduire" les effets de surapprentissage sur textures, détails et arrière-plans, en les ajoutant.
Style Controller n’est pas issu d’un entraînement. Il "annule" l’entraînement pour le modèle de base, donc il réduit le surapprentissage. Peut mathématiquement réduire tous les effets de surapprentissage, comme les biais sur luminosité, objets.
Journal des mises à jour
(21/06/2025) illus01 v1.185c :
Comparé à la v1.165c.
+100% clarté et netteté. Vous pouvez voir des lignes d’un pixel de largeur. Vous pouvez même voir la texture du papier blanc. (Sans blague, le papier réaliste n’est pas purement blanc, il a du bruit). Une image 1MP ressemble maintenant à du 2K.
-30% d’images trop chaotiques (difficiles à décrire). Vous ne verrez plus de niveau de contraste extrême, mais la version sera plus stable dans des cas normaux.
(10/06/2025) : illus01 v1.165c
C’est une version spéciale. Ce n’est pas une amélioration de v1.164. "c" signifie "coloré", "créatif", parfois "chaotique".
Le dataset contient des images très visuellement frappantes, mais parfois difficiles à décrire, par ex. : très colorées, contraste élevé, éclairage complexe, objets et motifs en abondance.
Vous obtiendrez donc des images "visuellement frappantes", mais au prix de la "naturelité". Peut affecter les styles aux couleurs douces, etc. Par exemple, cette version ne génère pas parfaitement la texture "crayon" comme la v1.164.
(04/06/2025) : illus01 v1.164
Meilleure compréhension du prompt. Chaque image a maintenant 3 légendes naturelles, de perspectives différentes. Les tags Danbooru sont vérifiés par LLM, seuls les tags importants sont fusionnés dans la description naturelle.
Anti-surexposition. Ajout d’un biais pour empêcher la sortie du modèle de dépasser #ffffff blanc pur. La plupart du temps #ffffff = surexposition, perte de nombreux détails.
Modification de certains réglages d’entraînement pour meilleure compatibilité avec NoobAI, e-pred et v-pred.
(19/05/2025) : illus01 v1.152
Amélioration continue de l’éclairage, textures et détails.
5k images supplémentaires, plus d’étapes d’entraînement, effet renforcé.
(09/05/2025) : nbep11 v0.205 :
Correction rapide des problèmes de luminosité et couleur sur v0.198. Ne devrait plus changer la luminosité et les couleurs de manière trop dramatique comme une photo réelle. v0.198 n’était pas mauvaise, juste trop créative.
(07/05/2025) : nbep11 v0.198 :
Ajout d’images plus sombres. Moins de déformations du corps, arrière-plan sombre.
Suppression de l’amélioration couleur et contraste. Plus nécessaire, utilisez Contrast Controller.
(25/04/2025) : nbep11 v0.172.
Mêmes nouveautés d’illus01 v1.93 à v1.121. Résumé : Nouveau dataset photo "Touching Grass". Texture naturelle, arrière-plan, éclairage améliorés. Effets personnages moins marqués pour meilleure compatibilité.
Meilleure précision et stabilité des couleurs. (Comparé à nbep11 v0.160)
(17/04/2025) : illus01 v1.121.
Retour à illustrious v0.1. Les versions v1.0 et supérieures ont été entraînées délibérément avec des images IA (environ 30% du dataset), ce qui n’est pas idéal pour l’entraînement LoRA. Je ne m’en étais pas aperçu avant de lire l’article.
Effet de style personnage réduit. Retour au niveau de v1.23. Moins de détails sur les personnages avec ce LoRA, mais meilleure compatibilité. C’est un compromis.
Autres aspects semblables à ceux de v1.113.
(10/04/2025) : illus11 v1.113 ❌.
Mise à jour : utilisez cette version uniquement si votre modèle de base est basé sur Illustrious v1.1. Sinon, utilisez illus01 v1.121.
Entraîné sur Illustrious v1.1.
Nouveau dataset "Touching Grass" ajouté. Texte naturel, éclairage et profondeur de champ améliorés. Meilleure stabilité structurelle des arrière-plans. Moins de déformations de fond, comme pièces ou bâtiments.
Légendes en langage naturel complètes par LLM.
(30/03/2025) : illus01 v1.93.
v1.72 a été trop entraîné. J’ai réduit sa force générale. Meilleure compatibilité attendue.
(22/03/2025) : nbep11 v0.160.
Mêmes éléments dans illus v1.72.
(15/03/2025) : illus01 v1.72
Même nouveau dataset texture et éclairage que dans ani40z v0.4 ci-dessous. Plus d’éclairage naturel et textures naturelles.
Ajout d’un petit dataset de ~100 images pour amélioration des mains, avec différentes tâches, par ex. tenir un verre ou une tasse.
Suppression des images à arrière-plan "simple" (-200 images).
Changement de l’outil d’entraînement de kohya à onetrainer. Architecture LoRA changée en DoRA.
(04/03/2025) ani40z v0.4
Entraîné sur Animagine XL 4.0 ani40zero.
Ajout d’un dataset de ~1k focalisé sur l’éclairage dynamique naturel et texture monde réel.
Plus d’éclairage naturel et de textures naturelles.
ani04 v0.1
Version initiale pour Animagine XL 4.0. Principalement pour corriger les problèmes de luminosité d’Animagine 4.0. Meilleur contraste et luminosité.
illus01 v1.23
nbep11 v0.138
Ajout d’images furry/non-humaines/autres pour équilibrer le dataset.
nbep11 v0.129
Mauvaise version, effet trop faible, ignorez-la.
nbep11 v0.114
Implémenté "couleurs pleine gamme". Cela équilibre automatiquement vers "normal et esthétique". Pensez à un bouton "amélioration automatique" dans un logiciel photo. Inconvénient : empêche un fort biais. Par exemple, vous voulez 95% de noir et 5% de clair, au lieu de 50/50%.
Ajout de données réalistes. Détails et éclairage plus vifs, couleurs moins plates.
illus01 v1.7
nbep11 v0.96
Plus d’images d’entraînement.
Puis affinage sur un petit dataset "wallpaper" (fonds d’écran de jeu, la meilleure qualité trouvée, ~100 images). Améliorations des détails (peau, cheveux) et du contraste.
nbep11 v0.58
Plus d’images. Paramètres d’entraînement rapprochés de ceux du modèle de base NoobAI.
illus01 v1.3
nbep11 v0.30
Plus d’images.
nbep11 v0.11 : Entraîné sur NoobAI epsilon pred v1.1.
Amélioration des tags de dataset. Amélioration de la structure LoRA et de la distribution des poids. Doit être plus stable et avoir moins d’impact sur la composition d’image.
illus01 v1.1
Entraîné sur illustriousXL v0.1.
nbep10 v0.10
Entraîné sur NoobAI epsilon pred v1.0.
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.






