Stabilizer IL/NAI - illus01 v1.198
Prompts recommandés
upper body
Paramètres recommandés
samplers
steps
cfg
resolution
other models
Conseils
Chargez cette LoRA en premier dans votre pile LoRA pour minimiser les changements inattendus dus aux poids dynamiques avec l’architecture DoRA.
Utilisez-la comme modèle de base affiné en appliquant la pleine puissance sur le modèle base pré-entraîné pour obtenir les meilleurs détails naturels et contrôle de style.
Soyez prudent lors de la superposition avec des modèles base fortement stylisés car cela peut dégrader les effets désirés.
Le modèle ne peut pas ajouter de détails naturels à des modèles base fortement surappris par des images de style AI.
Évitez de laisser des retours dans le système d’évaluation de Civitai ; préférez la section commentaires fournie pour une meilleure visibilité.
Utilisez les LoRAs complémentaires comme Dark, Contrast Controller et Style Strength Controller pour des ajustements supplémentaires d’environnement et de style.
Sponsors du créateur
Retrouvez-moi sur TensorArt
Dernière mise à jour :
(09/07/2025) Vous pouvez me trouver sur TensorArt.
Stabilizer
Ceci est mon modèle de base affiné, mais sous forme de LoRA.
Ce modèle de base affiné :
Se concentre sur la créativité, plutôt que sur un style figé. Le jeu de données est très diversifié. Ce modèle ne possède donc pas de style par défaut (biais) qui limiterait sa créativité.
Uniquement des textures naturelles, un éclairage et des détails fins. Pas de style AI plastique. (Mêmes visages d’IA, coiffures, surfaces lisses sans texture, etc.). J’ai soigneusement sélectionné chaque image dans le jeu de données. Zéro image AI dans le jeu de données.
Moins d’images déformées. Plus logique. Meilleur arrière-plan et composition.
Meilleure compréhension des prompts. Entraîné avec des légendes en langage naturel.
(v-pred) Éclairage meilleur et équilibré, haut contraste. Le noir pur 0 et le blanc pur 255 peuvent coexister dans la même image, même au même endroit, sans débordement ni sursaturation.
Les images de couverture sont les sorties brutes, en résolution standard de 1MP. Pas de suréchantillonnage, pas de plugins, pas de retouches par inpainting. Contiennent des métadonnées, 100% reproductibles.
Les styles des images de couverture proviennent du modèle de base pré-entraîné, déclenchés par le prompt. Ils ne font pas partie de mon jeu de données. Vous pouvez constater que le modèle pré-entraîné connaît ces styles, mais ne peut pas les générer correctement à cause de son surapprentissage aux données anime. Ce modèle corrige ce problème de surapprentissage. Voir la section "comment et pourquoi ça marche" ci-dessous.
Pourquoi pas de style par défaut ?
Qu’est-ce que le "style par défaut" : Si un modèle a un style par défaut (biais), cela signifie que peu importe votre prompt, le modèle génère toujours les mêmes éléments (visages, arrière-plans, ambiances) du style par défaut.
Avantages : C’est facile à utiliser, plus besoin de spécifier un style dans le prompt.
Inconvénients : Mais vous ne pouvez pas non plus le modifier. Si vous demandez un style différent, le modèle l’ignore. Si vous superposez des styles, le style par défaut pollue et limite les autres styles.
"Pas de style par défaut" signifie pas de biais, et vous devez spécifier le style désiré via des tags ou LoRAs. Il n’y aura aucune pollution ni superposition de styles par ce modèle. Vous obtenez exactement le style tel que vous l’avez demandé.
Pourquoi ce "modèle de base affiné" est-il une LoRA ?
Je ne suis pas un gigachad et je n’ai pas des millions d’images d’entraînement. Affiner tout le modèle de base n’est pas nécessaire, une LoRA suffit.
Je peux économiser beaucoup de VRAM pour utiliser des lots plus grands.
Le fichier à uploader et à télécharger ne fait que 40MiB, au lieu d’un checkpoint volumineux de 7GiB, économisant 99,4% de données et de stockage.
Je peux donc le mettre à jour fréquemment.Cette LoRA peut sembler petite, mais elle est puissante. Car elle utilise une nouvelle architecture appelée DoRA de Nvidia, plus efficace que les LoRA traditionnelles.
Alors comment obtenir ce "modèle de base affiné" ?
C’est simple.
modèle de base pré-entraîné + cette LoRA = "modèle de base affiné"
Il suffit de charger cette LoRA sur le modèle de base pré-entraîné à pleine puissance. Le modèle pré-entraîné deviendra alors le modèle affiné. Voir ci-dessous "Comment utiliser".
Partager des merges utilisant ce modèle est interdit. Pour info, il y a des mots-clés cachés imprimant un watermark invisible. J’ai codé le watermark et le détecteur moi-même. Je ne souhaite pas l’utiliser, mais je le peux.
Ce modèle est uniquement publié sur Civitai et TensorArt. Si vous me voyez et cette phrase sur d’autres plateformes, ce sont toutes des fausses versions provenant de plateformes pirates.
Merci de laisser vos retours dans la section commentaires pour que tout le monde puisse les voir. Ne pas écrire de retours dans le système d’évaluation de Civitai, il est très mal conçu et personne ne trouve ni ne voit les avis.
Comment utiliser
Dernières versions :
nbvp10 v0.271 (entraîné sur NoobAI v-pred v1.0).
Couleurs précises et détails fins. C’est le meilleur modèle à ce jour.
nbep10 v0.273 (entraîné sur NoobAI eps v1.0). Abandonné.
Maturation moindre et moins de contraste comparé aux modèles v-pred. En raison d'une "petite faille" dans la prédiction epsilon standard (eps) qui limite la gamme de couleurs. D’où l’arrivée des modèles v-pred.
illus01 v1.198 (entraîné sur Illustrious v0.1). Abandonné.
Trop ancien…
Note : chargez cette LoRA en premier dans votre pile LoRA.
Cette LoRA utilise une nouvelle architecture appelée DoRA de Nvidia, plus efficace que les LoRA traditionnelles. Contrairement à ces dernières qui ont un poids statique de patch, DoRA calcule dynamiquement ce poids selon le poids du modèle de base chargé (qui change quand vous chargez d’autres LoRA). Pour minimiser les changements inattendus, chargez cette LoRA en premier.
Deux manières d’utiliser ce modèle :
1). L’utiliser comme modèle de base affiné (Recommandé) :
Si vous voulez des détails fins et naturels et construire la combinaison de styles souhaitée, avec un contrôle complet.
Chargez simplement cette LoRA en premier sur le modèle de base pré-entraîné à pleine puissance. Le modèle pré-entraîné deviendra alors votre modèle affiné.
2). L’utiliser comme LoRA sur un autre modèle de base affiné.
Pourquoi pas, c’est une LoRA après tout.
À noter :
Important : si vous utilisez un modèle base "illustrious". Vous devez vérifier sur quel modèle base pré-entraîné il est réellement basé. La plupart des modèles base "illustrious" anime populaires sont basés sur (ou proches de) NoobAI, pas sur illustrious. Plus d’informations (pourquoi ces modèles sont mal étiquetés et comment tester votre modèle base) dans la "Discussion". La LoRA doit correspondre au modèle base pré-entraîné. Un mauvais appariement dégrade la qualité des images.
Vous êtes sur le point de fusionner deux modèles base. Si votre modèle base a déjà un style par défaut très fort, simplement ajouter cette LoRA ne vous donnera pas le résultat attendu. Vous devrez peut-être équilibrer d’autres poids (LoRAs, blocs U-net, etc.).
Ce modèle ne peut pas ajouter des détails naturels à des modèles base très surappris avec des styles AI (entraînés avec des images AI, où tout semble lisse, brillant, sans texture et plastique). Je sais que certains choisissent ce modèle pour éliminer cette douceur AI dans leur modèle base actuel. Malheureusement, ça ne fonctionnera pas car ce style AI est extrêmement surappris (vous le verrez instantanément, comme si votre modèle était entraîné avec des images AI). Et parce que les images AI manquent de détails qu’ont les images réelles, le modèle a aussi appris à supprimer les détails. Problématique. Une fois le style AI présent, vous ne pouvez pas vous en débarrasser.
Ce modèle n’est pas un outil magique pour empiler plus de LoRAs sans problème. Son nom peut induire en erreur.
Pourquoi et comment ça marche :
Le problème du surapprentissage :
Les modèles anime sont entraînés sur des images anime. Celles-ci sont simples et ne contiennent que des "concepts" abstraits et très haut niveau. Pas de détails, ni textures ou arrière-plans.
On souhaite que le modèle n’apprenne que ces "concepts". En fait, le modèle apprend ce qu’il voit, pas ce que vous voulez.
Après avoir vu 10+ millions d’images anime abstraites simples, le modèle apprend que 1) il n’a pas besoin de générer des détails car le dataset ne lui en a jamais demandé, 2) il doit générer des images simples avec des concepts abstraits même s’il ne comprend pas. Cela produit des images déformées, dit « surapprentissage ».
La solution :
Entraîner le modèle avec des images anime et du réel. Pour apprendre les concepts tout en gardant à l’esprit détails et textures naturelles, donc moins de surapprentissage.
NoobAI a fait cela en mélangeant quelques images cosplay réelles dans son dataset. (les développeurs l’ont mentionné quelque part)
Ce modèle va plus loin, il a été entraîné sur un peu de tout : architecture, objets du quotidien, vêtements, paysages, ... ainsi que des légendes en langage naturel multi-niveaux, mimant l’entraînement d’origine SDXL.
Le résultat :
Voir comparaisons sans/sans : 1 (styles d’artiste), 2 (styles généraux)
Moins de surapprentissage, moins d’images déformées. Textures, éclairages et détails plus naturels. Vous pouvez utiliser des milliers de tags style intégrés (Danbooru, e621), ainsi que les styles généraux compris par SDXL, pour obtenir une image propre et détaillée, qu'elle soit 2D, 3D, abstraite ou réaliste.
Créativité maximale grâce à la diversité du dataset. Pas de style par défaut, donc pas de limitation de créativité du modèle pré-entraîné ou d’autres LoRA styles.
Jeu de données
dernière version ou versions récentes
~7k images au total. Pas énorme (comparé aux gigachads qui aiment affiner avec des millions d’images), mais pas petit non plus. Chaque image est sélectionnée manuellement par moi.
Seulement des choses normales et esthétiques. Pas de style d’art fou non descriptible. Pas d’images AI, ni watermark, etc.
Uniquement des images haute résolution. La moyenne est 3.37 MP, ~1800x1800.
Toutes les images ont des légendes naturelles créées par le dernier LLM de Google.
Tous les personnages anime sont tagués d’abord par wd tagger v3, puis validés par Google LLM.
Contient nature, extérieur, intérieur, animaux, objets quotidiens, beaucoup d’éléments, sauf humains réels.
Contient toutes sortes de conditions d’éclairage. Très sombre, très clair, les deux ensemble.
Autres outils
Quelques idées qui devaient être, ou ont été, partie intégrante du Stabilizer mais deviennent désormais des LoRAs séparées pour plus de flexibilité. Collection : https://civitai.com/collections/8274233.
Dark : une LoRA favorisant les environnements sombres. Utile pour corriger un biais de trop grande luminosité dans certains modèles base. Entraîné sur images à faible luminosité. Pas de biais de style, pas de pollution.
Contrast Controller : une LoRA artisanale. Contrôle le contraste comme un curseur sur votre écran. Contrairement aux "améliorateurs de contraste" entraînés, l’effet est stable, linéaire mathématiquement et sans effet secondaire sur le style.
Utile si votre modèle base souffre de sursaturation ou si vous voulez des couleurs vraiment vives.
Exemple :

Style Strength Controller : ou réducteur d’effet de surapprentissage. Peut réduire mathématiquement divers effets de surapprentissage (biais sur objets, luminosité, etc.) ou les amplifier, selon votre souhait.
Différences avec Stabilizer :
Stabilizer a été entraîné sur des données du monde réel. Il peut uniquement "réduire" les effets de surapprentissage concernant texture, détails et arrière-plans, en les rajoutant.
Style Controller ne vient pas de l’entraînement. C’est plutôt une "annulation" de l’entraînement du modèle base, le rendant moins surappris. Peut réduire mathématiquement tout surapprentissage, comme les biais sur luminosité, objets.
Anciennes versions :
Plus d’infos dans le "Journal des mises à jour". Attention, les anciennes versions peuvent avoir des effets très différents.
Chronologie principale :
Depuis maintenant ~ : Détails et textures naturelles, compréhension stable des prompts et plus de créativité. Plus limité au style anime 2D pur.
illus01 v1.23 / nbep11 0.138 ~ : Style anime amélioré avec couleurs vives.
illus01 v1.3 / nbep11 0.58 ~ : Style anime amélioré.
Journal des mises à jour
(31/08/2025) NoobAI ep10 v0.273
Version entraînée dès le départ sur NoobAI eps v1.0.
Comparé à illus01 v1.198 précédent :
Meilleure et équilibrée luminosité en conditions extrêmes. (idem nbvp v0.271)
Meilleures textures et détails. Plus d’étapes d’entraînement sur les timesteps à SNR élevé. (les versions illus01 avaient sauté ces timesteps pour compatibilité; ce n’est plus nécessaire car tous les modèles base sont NoobAI maintenant.)
(24/08/2025) NoobAI v-pred v0.271 :
Comparé au v0.264 précédent :
Meilleur éclairage équilibré en conditions extrêmes, moins de biais.
Haut contraste, noir pur 0 et blanc pur 255 dans la même image, même au même endroit, sans débordement ni sursaturation. Vous pouvez avoir tous en même temps.
(ancienne v0.264 limitait l’image entre 10~250 pour éviter débordement, mais avait un biais visible, image parfois trop sombre ou claire)
Comme v0.264, préférer force haute ou pleine (0.9~1).
(17/08/2025) NoobAI v-pred v0.264 :
Première version entraînée sur NoobAI v-pred.
Donne un meilleur éclairage, moins de débordement.
Note : préférez force haute ou pleine (0.9~1).
(28/07/2025) illus01 v1.198
Comparé au v1.185c :
Fin de la version "c". Même si "visuellement frappante" est bien, elle posait des problèmes de compatibilité. Par exemple, si votre modèle base a déjà un renforcement du contraste. Empiler deux améliorements de contraste est très mauvais. Donc plus d’effets post-traitement trop marqués (contraste élevé, saturation, etc.).
Au lieu de ça, plus de textures et détails. Niveau cinématographique d’éclairage. Meilleure compatibilité.
Cette version a beaucoup changé, y compris la refonte du dataset, donc l’effet est très différent des versions précédentes.
Pour ceux qui veulent retrouver les effets "dingo" de v1.185c, vous pouvez trouver des styles d’art purs et dédiés sur cette page. Si le dataset est assez grand pour une LoRA, je pourrais en entraîner une.
(21/06/2025) illus01 v1.185c :
Comparé à v1.165c.
+100% nette et précision.
-30% d’images trop chaotiques (difficiles à décrire). Vous pouvez donc constater que cette version ne génère plus des contrastes aussi extrêmes, mais est plus stable en usage normal.
(10/06/2025) : illus01 v1.165c
Version spéciale. Ce n’est pas une amélioration de v1.164. "c" signifie "coloré", "créatif", parfois "chaotique".
Le dataset contient des images très visuellement frappantes, mais parfois difficiles à décrire comme : très colorées, contraste élevé, éclairage complexe, objets et motifs complexes partout.
On obtient un rendu "visuellement frappant", au détriment du naturel. Cela peut affecter les styles avec couleurs douces, etc. Par ex. cette version ne génère pas la texture "art au crayon" parfaitement comme v1.164.
(04/06/2025) : illus01 v1.164
Meilleure compréhension des prompts. Chaque image a maintenant 3 légendes naturelles, de perspectives différentes. Les tags Danbooru sont vérifiés par LLM, seuls les tags importants sont conservés et fusionnés dans la légende naturelle.
Anti-sursaturation. Ajout d’un biais empêchant que le modèle produise du blanc pur #ffffff, souvent synonyme de surexposition et perte de détails.
Changement de certains paramètres d’entraînement. Plus compatible avec NoobAI, e-pred et v-pred.
(19/05/2025) : illus01 v1.152
Amélioration continue de la lumière, textures et détails.
5k images supplémentaires, plus d’étapes d’entraînement, résultat plus fort.
(09/05/2025) : nbep11 v0.205 :
Correction rapide de problèmes de luminosité et couleur dans v0.198. Moins de changements dramatiques dans luminosité et couleurs comme une vraie photo. v0.198 n’était pas mauvais, juste trop créatif.
(07/05/2025) : nbep11 v0.198 :
Ajout d’images plus sombres. Moins de corps déformés, arrière-plan sombre.
Retrait de l’amélioration couleur et contraste. Pas nécessaire. Utilisez Contrast Controller.
(25/04/2025) : nbep11 v0.172.
Mêmes nouveautés que dans illus01 v1.93 ~ v1.121. Résumé : nouveau dataset photo "Touching Grass". Meilleure texture naturelle, arrière-plan, éclairage. Moins d’effets sur les personnages pour meilleure compatibilité.
Meilleure précision et stabilité des couleurs. (comparé à nbep11 v0.160)
(17/04/2025) : illus01 v1.121.
Retour à illustrious v0.1. Les versions illustrious v1.0 et supérieures ont été entraînées délibérément avec des images AI (environ 30% du dataset), ce qui n'est pas idéal pour la formation LoRA. Je ne m’en étais pas rendu compte avant de lire leur article.
Effet de style personnage diminué. Retour au niveau v1.23. Les personnages ont moins de détails via cette LoRA mais meilleure compatibilité. C’est un compromis.
Autres éléments inchangés par rapport à v1.113 ci-dessous.
(10/04/2025) : illus11 v1.113 ❌.
Mise à jour : n’utilisez cette version que si vous savez que votre modèle base est basé sur Illustrious v1.1. Sinon, préférez illus01 v1.121.
Entraîné sur Illustrious v1.1.
Nouveau dataset "Touching Grass" ajouté. Meilleure texture naturelle, éclairage et profondeur de champ. Meilleure stabilité structurelle de l’arrière-plan. Moins d’arrière-plans déformés (pièces, bâtiments, etc.).
Légendes en langage naturel complètes générées par LLM.
(30/03/2025) : illus01 v1.93.
v1.72 a été trop entraîné. J’ai réduit la force globale. Meilleure compatibilité.
(22/03/2025) : nbep11 v0.160.
Mêmes éléments que dans illus v1.72.
(15/03/2025) : illus01 v1.72
Même nouveau dataset lumière et texture que dans ani40z v0.4 ci-dessous. Plus d’éclairage naturel et textures naturelles.
Ajout d’environ 100 images ciblées sur les mains, avec différentes tâches (tenir un verre, une tasse, etc.).
Suppression de toutes les images "arrière-plan simple" du dataset. -200 images.
Changement de l’outil d’entraînement kohya à onetrainer. Passage à l’architecture LoRA DoRA.
(04/03/2025) ani40z v0.4
Entraîné sur Animagine XL 4.0 ani40zero.
Ajout d’un dataset de ~1k focalisé sur l’éclairage dynamique naturel et les textures du monde réel.
Plus d’éclairage naturel et textures naturelles.
ani04 v0.1
Version initiale pour Animagine XL 4.0. Principalement pour corriger des problèmes de luminosité Animagine 4.0. Meilleur contraste et luminosité.
illus01 v1.23
nbep11 v0.138
Ajout d’images furry/non-humaines/autres pour équilibrer le dataset.
nbep11 v0.129
Mauvaise version, effet trop faible, ignorez-la.
nbep11 v0.114
Mise en œuvre des "couleurs pleine gamme". Équilibre automatique vers des images "normales et esthétiques". Comme un bouton « amélioration photo auto » dans la plupart des éditeurs photo. Un inconvénient : empêche un biais très fort, par ex. 95% de noir et 5% clair au lieu de 50/50.
Ajout de données un peu réalistes. Détails plus vifs, éclairage, moins de couleurs plates.
illus01 v1.7
nbep11 v0.96
Plus d’images d’entraînement.
Nouvel affinage sur un petit dataset "wallpaper" (fonds d’écran jeu vidéo réels, meilleure qualité trouvée, ~100 images). Amélioration des détails (visible sur peau, cheveux) et du contraste.
nbep11 v0.58
Plus d’images. Paramètres d’entraînement alignés sur NoobAI base model.
illus01 v1.3
nbep11 v0.30
Plus d’images.
nbep11 v0.11 : Entraîné sur NoobAI epsilon pred v1.1.
Tags du dataset améliorés. Structure et répartition des poids LoRA améliorées. Plus stable, moins d’impact sur la composition d’image.
illus01 v1.1
Entraîné sur illustriousXL v0.1.
nbep10 v0.10
Entraîné sur NoobAI epsilon pred v1.0.
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.












