Stabilizer IL/NAI - illus01 v1.23
Prompts recommandés
<lora:illustriousXL_stabilizer_v1.23:0.8>1girl, upper body, masterpiece, best quality
Paramètres recommandés
samplers
steps
cfg
resolution
other models
Paramètres haute résolution recommandés
upscaler
upscale
denoising strength
Conseils
Utilisez ce LoRA avec des modèles de base vanilla comme NoobAI ou RouWei pour un meilleur effet.
La force recommandée pour ce LoRA est entre 0.5 et 0.8 avec 1 à 3 tags de style.
Évitez les modèles de base avec un style IA fort par défaut pour ne pas supprimer les effets de ce LoRA.
Laissez vos retours dans la section commentaires de la page du modèle plutôt que dans le système de revue Civitai.
Le LoRA contient des mots déclencheurs cachés pour un filigrane invisible empêchant le partage non autorisé.
Sponsors du créateur
Découvrez des LoRAs associés comme Touching Grass pour l'amélioration des textures du monde réel, Dark pour corriger le biais de luminosité, Contrast Controller pour l'ajustement du contraste, et Style Strength Controller pour réduire les effets de sur-ajustement.
Explorez la collection complète ici.
Les images de couverture proviennent directement du modèle de base vanilla (original) dans a1111, à une résolution de 1MP. Pas de suréchantillonnage, pas de plugins (corrections de visage/mains, CFG Rescale, etc.), même pas de prompt négatif. Vous pouvez déposer et reproduire ces images dans a1111. Elles contiennent des métadonnées.
Le partage des merges utilisant ce LoRA et leur republication sur d'autres plateformes est interdit. Ce modèle est uniquement publié sur Civitai et TensorArt. Si vous voyez "moi" et cette phrase sur d'autres plateformes, tout cela est faux et la plateforme que vous utilisez est un voleur.
Mise à jour de la dernière version
(21/06/2025) illus01 v1.185c :
+100% de détails et de netteté. Vous pouvez obtenir des lignes d'une largeur d'un pixel. Vous pouvez même percevoir la texture d'un papier blanc. (Ce n'est pas une blague, le papier réaliste n'est pas purement blanc, il a du bruit). Une image 1MP donne désormais une sensation de 2K. Ceci est réalisé en utilisant un mode d’interpolation mixte avant le traitement par le VAE. (Nearest + Lanczos). Cela exploite presque toutes les capacités du VAE pour générer des images aussi nettes que possible.

-30% d’images (du dataset v1.165c) trop chaotiques (impossibles à décrire correctement)
Autres changements que j'ai oubliés. 20 versions intermédiaires. J'ai perdu le fil.
Stabilizer
C'est un LoRA modèle de base affiné tout-en-un sans style par défaut. Si vous l'appliquez au NoobAI e-pred v1.1 vanilla, vous obtiendrez mon modèle de base "affiné" personnel.
Il comprend toutes les améliorations courantes nécessaires. Éclairage naturel et détails, compréhension stable des prompts, meilleure arrière-plan, meilleures mains…
Il n'y a pas de style par défaut. Ce n’est pas un LoRA de style sur-ajusté (qui ne contient qu'une vingtaine d'images d'entraînement). Lorsque vous l’appliquez au modèle de base vanilla, ce dernier conserve sa créativité maximale. Contrairement à d'autres modèles "fusionnés" qui combinent généralement des tonnes de LoRAs. Vous n’aurez pas les mêmes choses (visages, arrière-plans, etc.) répétées sans cesse.
Vous pouvez obtenir un style/personnage clair comme il se doit. Pas de pollution de style, pas d'effets de sur-apprentissage. Que ce soit en 2D, 3D, humain ou non humain.
Le jeu de données d’entraînement contient uniquement des images haute résolution (pixels moyens > 3MP, ~1800x1800). Zéro image IA. Ainsi, vous obtenez une texture et des détails réels au-delà du niveau pixel, au lieu de bords artificiels et surfaces lisses sans texture (car ils ont été entraînés sur des images IA).
Pourquoi tout-en-un ? Parce que si vous entraînez 10 LoRAs avec 10 jeux de données différents pour différents aspects, et que vous les empilez, votre modèle de base explosera. Si vous entraînez ces jeux de données en une seule fois, il n’y aura pas de conflits.
Pourquoi ne pas affiner le modèle de base complet ? Je ne suis pas un gigachad et je n'ai pas des millions d’images d’entraînement, donc affiner le modèle complet n’est pas nécessaire.
Le partage des merges utilisant ce LoRA est interdit. Notez qu’il y a des mots déclencheurs cachés pour imprimer un filigrane invisible. Il fonctionne bien même si la force du merge est de 0.05. J’ai codé moi-même le filigrane et le détecteur. Je n’ai pas envie de l’utiliser, mais je peux.
Pensez à laisser un retour dans la section commentaires. Ainsi tout le monde peut le voir. Ne laissez pas de retours dans le système de revue Civitai, il est mal conçu et personne ne peut trouver ni voir les avis.
Amusez-vous bien.
Désambiguïsation :
"Stabilizer" signifie : lorsque vous l’appliquez au modèle de base vanilla. Il y aura moins d’effets de sur-apprentissage, plus de détails. Voir les images de couverture.
Il NE PEUT PAS magiquement réparer un modèle de base dégradé sur lequel vous avez déjà empilé des tonnes de LoRAs.
Comment l'utiliser
Préfixe de version :
illus01 = Entraîné sur Illustrious v0.1. (Recommandé, même pour NoobAI)
nbep11 = Entraîné sur NoobAI e-pred v1.1. (Abandonné)
Version "c" (après illus v1.152) :
"c" signifie "coloré", "créatif", parfois "chaotique". Cette version contient des images d'entraînement très visuellement frappantes, parfois difficiles à décrire ex : très colorées, contraste élevé, post-effets forts, conditions d'éclairage complexes. Objets, motifs complexes partout. Vous obtiendrez donc des images "visuellement frappantes", mais moins "naturelles". Cela peut affecter les styles avec des couleurs douces.
Si vous voulez quelque chose de cool, utilisez la version "c".
Si vous voulez une texture naturelle ou reproduire fidèlement certains styles, utilisez la version non "c".
Usage recommandé :
Modèles de base vanilla (NoobAI, RouWei, etc.).
+ Ce LoRA avec une force entre 0.5 et 0.8.
+ 1 à 3 tags de style. N'oubliez pas qu'il existe des milliers de tags de style Danbooru.
À ne PAS recommander : modèles de base avec un style IA par défaut fort.
Sachez que plus de 90% des modèles de base ont un style IA intégré. Parce que les styles IA sont très propres et cohérents, ils sont faciles à entraîner et à utiliser.
Les styles IA forts supprimeront presque tous les effets de ce LoRA, causant un décalage de style. Voir comparaison. En haut NoobAI vanilla. En bas WAI, qui a un style IA fort.
Comment savoir si un modèle a un style IA ? Pas de bonne méthode. La plupart des styles IA semblent lisses (pas de texture sur les surfaces, seulement des contours). Et des reflets brillants bizarres partout.
Anciennes versions :
Nouvelle version == nouvelles fonctionnalités et nouvelles tentatives.
Un grand avantage du LoRA est que vous pouvez toujours mixer différentes versions en une seconde.
Vous pouvez trouver plus d’infos dans le "Journal des mises à jour". Sachez que les anciennes versions peuvent avoir des effets très différents.
Maintenant ~ : Mise en avant des détails et textures naturelles, compréhension stable du prompt et plus de créativité.
Illus01 v1.23 / nbep11 0.138 ~ : Mise en avant du style anime pur avec des couleurs vives.
Illus01 v1.3 / nbep11 0.58 ~ : Mise en avant du style anime.
Jeu de données
version la plus récente ou versions récentes
~7k images au total. Chaque image est soigneusement sélectionnée par moi.
Uniquement de belles images normales. Pas de style d'art fou difficile à décrire. Pas d'images IA, pas de filigranes, etc.
Uniquement des images haute résolution. La moyenne des pixels de tout le jeu de données est 3.37 MP, ~1800x1800.
Toutes les images ont des légendes naturelles générées par le dernier LLM de Google.
Tous les personnages d’anime sont d’abord tagués par wd tagger v3 puis par Google LLM.
Contient nature, extérieur, intérieur, animaux, objets quotidiens, beaucoup de choses, sauf humains réels.
Contient tous types de conditions de luminosité. Très sombre, très clair, très sombre et très clair.
Autres outils
Quelques idées qui allaient ou ont été utilisées comme partie du Stabilizer. Maintenant ce sont des LoRAs séparés. Pour plus de flexibilité. Lien de la collection : https://civitai.com/collections/8274233.
Touching Grass : Un LoRA entraîné uniquement sur un dataset du monde réel (pas de dataset anime). Effet plus fort. Meilleur arrière-plan et éclairage. Utile pour les utilisateurs gigachad qui aiment les concepts purs et équilibrer eux-mêmes les poids.
Dark : Un LoRA qui peut corriger le biais de haute luminosité dans certains modèles de base. Entraîné sur des images à faible luminosité dans le dataset Touching Grass. Pas d'humains dans le dataset. N’affecte donc pas le style.
Contrast Controller : Un LoRA conçu à la main. (Ce n’est pas issu d’un entraînement). Le plus petit LoRA de 300KB que vous ayez jamais vu. Contrôle le contraste comme un curseur sur votre écran. Contrairement aux autres "améliorateurs de contraste" entraînés, l’effet de ce LoRA est stable, mathématiquement linéaire, sans effet secondaire sur le style.
Utile si votre modèle de base a un problème de sursaturation, ou si vous voulez quelque chose de vraiment coloré.
Exemple :

Style Strength Controller : Ou réducteur d'effet de sur-ajustement. Également un LoRA fait main, non issu d'un entraînement, donc sans effet secondaire sur le style et effets mathématiquement linéaires. Peut réduire tous types d'effets de sur-ajustement (biais sur objets, luminosité, etc.).
Test d’effet sur Hassaku XL : Le modèle de base présente de nombreux biais, par ex. haute luminosité, surfaces lisses et brillantes, impressions murales... Le prompt contient le mot-clé "dark", mais le modèle l’ignore presque. Remarquez qu’à une force de 0.25, le biais de haute luminosité diminue, la sensation étrange de surfaces lisses aussi, l’image paraît plus naturelle.
Différences avec Stabilizer :
Stabilizer a été entraîné sur des données du monde réel. Il ne peut que "réduire" les effets de sur-ajustement concernant la texture, les détails et les arrière-plans, en les réintroduisant.
Style Controller n’est pas issu d’un entraînement. C’est plus comme "annuler" l’entraînement du modèle de base, donc il réduit le sur-ajustement. Peut mathématiquement réduire tous les effets de sur-ajustement, comme les biais sur la luminosité, les objets.
Journal des mises à jour
(10/06/2025): illus01 v1.165c
Ceci est une version spéciale. Ce n’est pas une amélioration de la v1.164. "c" signifie "coloré", "créatif", parfois "chaotique".
Le dataset contient des images très visuellement frappantes, mais parfois difficiles à décrire ex : très colorées, contraste élevé, conditions d’éclairage complexes, objets et motifs complexes partout.
Vous aurez donc des images "visuellement frappantes", mais au détriment du naturel. Peut affecter les styles aux couleurs douces, etc. Par exemple, cette version ne génère pas parfaitement la texture de "dessin au crayon" comme la v1.164.
(04/06/2025): illus01 v1.164
Meilleure compréhension des prompts. Maintenant chaque image a 3 légendes naturelles, sous des perspectives différentes. Les tags Danbooru sont vérifiés par LLM, seuls les tags importants sont extraits et fusionnés dans la légende naturelle.
Anti surexposition. Ajout d’un biais pour empêcher la sortie du modèle d’atteindre le blanc pur #ffffff. La plupart du temps #ffffff signifie surexposition, ce qui fait perdre beaucoup de détails.
Changement de certains réglages d’entraînement. Meilleure compatibilité avec NoobAI, e-pred et v-pred.
(19/05/2025): illus01 v1.152
Amélioration continue de l’éclairage, des textures et des détails.
5K images supplémentaires, plus d’étapes d’entraînement, résultat : effet renforcé.
(09/05/2025): nbep11 v0.205 :
Correction rapide des problèmes de luminosité et de couleur en v0.198. Maintenant il ne devrait plus y avoir de changements drastiques de luminosité et de couleurs comme sur une photo réelle. V0.198 n’était pas mauvaise, juste créative, mais trop.
(07/05/2025): nbep11 v0.198 :
Ajout de plus d’images sombres. Moins de corps déformés, arrière-plan en environnement sombre.
Suppression de l’amélioration couleur et contraste. Ce n’est plus nécessaire. Utilisez Contrast Controller à la place.
(25/04/2025): nbep11 v0.172.
Mêmes nouveautés que dans illus01 v1.93 ~ v1.121. Résumé : nouveau dataset photographique "Touching Grass". Meilleure texture naturelle, arrière-plan, éclairage. Effets de personnage atténués pour meilleure compatibilité.
Meilleure précision et stabilité des couleurs. (Comparé à nbep11 v0.160)
(17/04/2025): illus01 v1.121.
Retour à Illustrious v0.1. Illustrious v1.0 et versions plus récentes ont été entraînées avec des images IA délibérément (peut-être 30% de son dataset). Ce qui n’est pas idéal pour l’entraînement LoRA. Je ne l’ai pas remarqué avant d’avoir lu son article.
Moins d’effets de style personnage. Retour au niveau de la v1.23. Les personnages auront moins de détails grâce à ce LoRA, mais une meilleure compatibilité. C’est un compromis.
Autres points identiques à ceux de la v1.113 ci-dessous.
(10/04/2025): illus11 v1.113 ❌.
Mise à jour : utilisez cette version seulement si vous savez que votre modèle de base est basé sur Illustrious v1.1. Sinon, utilisez illus01 v1.121.
Entraîné sur Illustrious v1.1.
Nouveau dataset "Touching Grass" ajouté. Meilleure texture naturelle, éclairage et effet de profondeur de champ. Stabilité structurelle améliorée des arrière-plans. Moins d’arrière-plans déformés, comme salles et bâtiments déformés.
Légendes en langage naturel complètes depuis LLM.
(30/03/2025) : illus01 v1.93.
v1.72 a été trop entraîné. J’ai donc réduit sa force globale. Devrait avoir une meilleure compatibilité.
(22/03/2025) : nbep11 v0.160.
Mêmes nouveautés que dans illus v1.72.
(15/03/2025): illus01 v1.72
Même nouveau dataset de textures et d’éclairage naturels que mentionné dans ani40z v0.4 ci-dessous. Lumière et textures plus naturelles.
Ajout d’un petit dataset d’environ 100 images pour amélioration des mains, focus sur les mains avec différentes tâches, comme tenir un verre ou une tasse.
Suppression de toutes les images à "arrière-plan simple" du dataset. -200 images.
Passage de l’outil d’entraînement de kohya à onetrainer. Changement de l’architecture LoRA vers DoRA.
(04/03/2025) ani40z v0.4
Entraîné sur Animagine XL 4.0 ani40zero.
Ajout d’environ 1k images centrées sur l’éclairage dynamique naturel et la texture du monde réel.
Lumière et textures plus naturelles.
ani04 v0.1
Version initiale pour Animagine XL 4.0. Principalement pour corriger les problèmes de luminosité d’Animagine 4.0. Meilleur contraste et plus élevé.
illus01 v1.23
nbep11 v0.138
Ajout de quelques images furry/non-humaines/autres pour équilibrer le dataset.
nbep11 v0.129
Mauvaise version, effet trop faible, ignorez-la.
nbep11 v0.114
Mise en œuvre des "couleurs à pleine gamme". Cela équilibre automatiquement vers des choses "normales et esthétiques". Pensez-y comme au bouton "amélioration photo automatique en un clic" dans la plupart des outils d’édition photo. Un inconvénient : cela empêche un biais élevé. Par exemple, vouloir que 95% de l’image soit noir et 5% clair, au lieu de 50/50%.
Ajout de données un peu plus réalistes. Détails plus vifs, éclairage, couleurs moins plates.
illus01 v1.7
nbep11 v0.96
Plus d’images d’entraînement.
Finement affiné à nouveau sur un petit dataset "wallpaper" (fonds d’écran de jeux réels, la meilleure qualité disponible, ~100 images). Améliorations des détails (notables sur peau, cheveux) et du contraste.
nbep11 v0.58
Plus d’images. Paramètres d’entraînement rapprochés du modèle de base NoobAI.
illus01 v1.3
nbep11 v0.30
Plus d’images.
nbep11 v0.11: Entraîné sur NoobAI epsilon pred v1.1.
Amélioration des tags du dataset. Amélioration de la structure LoRA et de la distribution des poids. Devrait être plus stable et avoir moins d’impact sur la composition de l’image.
illus01 v1.1
Entraîné sur illustriousXL v0.1.
nbep10 v0.10
Entraîné sur NoobAI epsilon pred v1.0.
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.






