Gros plan d'une fille aux yeux mi-clos léchant une sucette rose brillante avec des lèvres scintillantes et de la salive visible sur un fond abstrait aqua.
Une fille de fantaisie aux cheveux blancs, oreilles de chat et queue duveteuse habillée d'une tenue de nonne en latex noire, tenant une épée lumineuse avec un château et un ciel rose en arrière-plan.

Prompts recommandés

masterpiece

Paramètres recommandés

samplers

Euler a

steps

20 - 30

cfg

4 - 5

resolution

1024x1024, 896x1152, 832x1216, 864x1152

other models

noobai_ep11_stabilizer_v0.205_fp16 (2537f78755e8), noobaiXLNAIXL_epsilonPred11Version (6681e8e4b1), illustriousXLv01_stable_dark_v0.3 (583a239afed0), style_strength_controller_nbep11_v1 (0efb1a289d8a), stable_dark_nbep10_v0.3 (6d24d1f152c8), contract_controller_illus01_v1 (f5f09fd929e7)

Conseils

Chargez cette LoRA en premier dans votre pile de LoRAs pour minimiser les changements inattendus.

Utilisez-la comme modèle de base affiné en la chargeant sur un modèle de base pré-entraîné à pleine puissance pour obtenir les meilleurs détails naturels et contrôle de style.

Si vous utilisez un modèle de base "illustrious", vérifiez son modèle de base pré-entraîné pour éviter une dégradation de la qualité.

Ce modèle ne peut pas ajouter de détails naturels aux modèles de base avec surapprentissage style IA.

Ajustez les autres poids avec précaution lorsque vous superposez plusieurs LoRAs pour éviter d’endommager les résultats.

Laissez vos retours dans la section des commentaires pour visibilité, pas dans le système d’avis Civitai.

Évitez de partager des merges utilisant ce modèle à cause des déclencheurs de watermark invisible intégrés.

Sponsors du créateur

Dernière mise à jour :

(07/09/2025) Vous pouvez me trouver sur TensorArt.

Dernière mise à jour :

(07/09/2025) Vous pouvez me trouver sur TensorArt.


Stabilizer

Ceci est mon modèle de base affiné, mais sous forme de LoRA.

Ce modèle de base affiné :

  • Se concentre sur la créativité, plutôt que sur un style fixe. Le jeu de données est très diversifié. Donc ce modèle n'a pas de style par défaut (biais) limitant sa créativité.

  • Uniquement des textures naturelles, de l'éclairage et des détails fins. Pas de style IA plastique. (Mêmes visages IA, coiffures, surfaces lisses sans texture, etc...). J'ai trié manuellement chaque image du jeu de données. Aucune image IA dans le jeu de données.

  • Moins d'images déformées. Plus logique. Meilleur arrière-plan et composition.

  • Meilleure compréhension des prompts. Entraîné avec des légendes en langage naturel.

  • (v-pred) Éclairage meilleur et équilibré, fort contraste. Noir pur 0 et blanc 255 peuvent être dans la même image, même au même endroit, sans débordement ni sursaturation.

Les images de couverture sont les sorties brutes, en résolution par défaut 1MP. Pas d'upscale, pas de plugins, pas de corrections d'inpainting. Métadonnées incluses, 100% reproductible.

Les styles dans les images de couverture proviennent du modèle de base pré-entraîné, déclenchés par le prompt. Ils ne sont pas dans mon jeu de données. Vous pouvez voir que le modèle pré-entraîné connaît ces styles, mais ne peut pas les générer correctement car il est sur-adapté aux données anime. Ce modèle corrige ce problème de sur-apprentissage. Voir la section "comment et pourquoi ça fonctionne" ci-dessous.

Pourquoi pas de style par défaut ?

  • Qu'est-ce qu'un "style par défaut" : si un modèle a un style par défaut (biais), cela signifie que peu importe ce que vous entrez en prompt, le modèle générera toujours les mêmes éléments (visages, arrière-plans, sensations) qui définissent ce style par défaut.

  • Avantages : C'est facile à utiliser, vous n'avez plus besoin de préciser le style.

  • Inconvénients : vous ne pouvez pas non plus le modifier. Si vous donnez un prompt qui ne correspond pas au style par défaut, le modèle l'ignorera. Si vous superposez plusieurs styles, le style par défaut dominera et polluera les autres styles.

  • "pas de style par défaut" signifie pas de biais et vous devez spécifier le style souhaité via des tags ou des LoRAs. Mais il n'y aura pas de chevauchement ou pollution de style provenant de ce modèle. Vous obtiendrez exactement le style que vous avez empilé.

Pourquoi ce "modèle de base affiné" est une LoRA ?

  • Je ne suis pas un gigachad et je n'ai pas des millions d'images d'entraînement. Affiner tout le modèle de base n'est pas nécessaire, une LoRA suffit.

  • Je peux économiser beaucoup de VRAM pour utiliser une taille de batch plus grande.

  • Je n'ai qu'à uploader, et vous n'avez qu'à télécharger, un petit fichier de 40 Mio, au lieu d'un checkpoint gros de 7 Gio, ce qui représente une économie de 99,4% en données et stockage. Donc je peux le mettre à jour souvent.

  • Cette LoRA semble petite, mais reste puissante. Car elle utilise une nouvelle architecture appelée DoRA développée par Nvidia, plus efficace que la LoRA traditionnelle.

Alors comment obtenir ce "modèle de base affiné" ?

C'est simple.

modèle de base pré-entraîné + cette LoRA = modèle de base affiné

Chargez simplement cette LoRA sur le modèle de base pré-entraîné avec la force totale. Le modèle de base pré-entraîné deviendra alors le modèle de base affiné. Voir plus bas "Comment l'utiliser".

Le partage de merges utilisant ce modèle est interdit. Pour info, il y a des mots clés cachés pour imprimer un watermark invisible. J'ai codé moi-même le watermark et le détecteur. Je ne veux pas l'utiliser, mais je peux.

Ce modèle est uniquement publié sur Civitai et TensorArt. Si vous me voyez ainsi que cette phrase sur d’autres plateformes, ce sont des faux et la plateforme que vous utilisez est une plateforme pirate.

Merci de laisser vos retours dans la section des commentaires pour que tout le monde puisse les voir. Ne postez pas de retours dans le système de revue de Civitai, qui est mal conçu et que littéralement personne ne peut trouver ni voir.


Comment l'utiliser

Dernières versions :

  • nbvp10 v0.271 (entraîné sur NoobAI v-pred v1.0).

    • Couleurs précises et détails fins. C’est le meilleur modèle à ce jour.

  • nbep10 v0.273 (entraîné sur NoobAI eps v1.0). Abandonné.

    • Moins de saturation et contraste comparé aux modèles v-pred. À cause d’un "petit défaut de conception" dans la prédiction epsilon standard (eps). Cela limite la portée des couleurs. D’où l’apparition des versions v-pred ultérieures.

  • illus01 v1.198 (entraîné sur Illustrious v0.1). Abandonné.

    • Trop vieux...

Note : Chargez cette LoRA en premier dans votre pile de LoRAs.

Cette LoRA utilise une nouvelle architecture appelée DoRA de Nvidia, plus efficace que la LoRA traditionnelle. Mais contrairement à la LoRA traditionnelle qui a un poids patch statique, ici le poids du patch DoRA est calculé dynamiquement selon le poids du modèle de base chargé (qui change quand vous chargez d’autres LoRAs). Pour minimiser les changements inattendus, chargez cette LoRA en premier.

Deux façons d’utiliser ce modèle :

1). L’utiliser comme modèle de base affiné (Recommandé) :

Pour obtenir des détails naturels fins et bâtir la combinaison de style désirée avec un contrôle total.

Chargez cette LoRA en premier sur le modèle de base pré-entraîné avec la force maximale. Le modèle de base pré-entraîné deviendra alors le modèle de base affiné.

2). L’utiliser comme une LoRA sur un autre modèle de base affiné.

Pourquoi pas, c’est une LoRA après tout.

Points à noter :

  • Important : si vous utilisez un modèle de base "illustrious". Vous devez vérifier sur quel modèle de base pré-entraîné votre modèle est réellement basé. La plupart des modèles "illustrious" populaires sont en fait basés sur (ou proches de) NoobAI, pas illustrious. Plus d’informations (pourquoi ces modèles sont mal étiquetés et comment tester votre modèle de base) dans la "Discussion". La LoRA doit correspondre au modèle de base pré-entraîné. Un mauvais appariement dégradera la qualité des images.

  • Vous allez fusionner deux modèles de base. Si votre modèle de base a déjà un style par défaut très fort, ajouter cette LoRA ne vous donnera probablement pas ce que vous attendez. Vous devrez peut-être équilibrer d’autres poids (LoRAs, blocs U-net, etc.).

  • Ce modèle ne peut pas ajouter des détails naturels à des modèles de base avec style IA (entraîné avec des images IA, où tout paraît lisse, brillant, sans texture, et plastique). Je sais que certains choisissent ce modèle pour se débarrasser de cette douceur typique du style IA dans leur modèle actuel. Malheureusement, ça ne fonctionnera pas car le style IA est extrêmement sur-adapté (vous pouvez apprendre instantanément ce que vous venez de faire, comme un modèle IA entraîné avec des images IA). Et parce que les images IA manquent de détails par rapport aux images réelles, le modèle apprend aussi à supprimer les détails. Ce qui est problématique. Une fois le style IA installé, vous ne pouvez plus vous en débarrasser.

  • Ce modèle n’est pas un outil magique qui vous permet de superposer davantage de LoRAs sur un modèle de base sans risque de rupture. Je sais que le nom peut prêter à confusion.


Pourquoi et comment ça fonctionne :

Le problème du surapprentissage :

  • Les modèles anime sont entraînés sur des images d’anime. Les images d’anime sont simples et ne contiennent que des "concepts" de haut niveau, souvent très abstraits. Il n’y a pas d’arrière-plans, de détails ni de textures.

  • On veut que le modèle n’apprenne que les "concepts" de haut niveau. En réalité, le modèle apprend ce qu’il voit, pas ce que vous voulez.

  • Après avoir vu 10+ millions d’images d’anime abstraites, le modèle apprendra 1) qu’il n’a pas besoin de générer des détails, car le jeu de données ne le lui a jamais dit. 2) Au lieu de cela, il doit générer des images simples avec des concepts abstraits même s’il ne les comprend pas. Cela cause des images déformées, appelées "surapprentissage".

La solution :

  • Entraîner le modèle avec des images d’anime et du monde réel. Ainsi il peut apprendre les concepts tout en gardant en tête des détails naturels et textures, donc moins de surapprentissage.

  • NoobAI a fait cela en mélangeant quelques vraies images de cosplay dans son jeu de données. (il me semble que ses développeurs l’ont mentionné quelque part)

  • Ce modèle va plus loin, il a été entraîné sur un peu de tout : architecture, objets quotidiens, vêtements, paysages, etc. Aussi avec des légendes en langage naturel à plusieurs niveaux, pour imiter la configuration d’entraînement originale de SDXL.

Le résultat :

  • Voir sans comparaison : 1 (styles d’artistes), 2 (styles généraux)

  • Moins de surapprentissage, moins d’images déformées. Plus de textures, éclairages et détails naturels. Vous pouvez maintenant utiliser des milliers de tags de style intégrés (tags Danbooru, e621), ainsi que des styles généraux compris par SDXL original, et obtenir une image propre et détaillée comme attendu. Que ce soit en 2D, 3D, abstrait ou réaliste.

  • Créativité maximale. Grâce au jeu de données diversifié. Pas de style par défaut. Ainsi la créativité du modèle pré-entraîné et des autres LoRAs de style n’est pas limitée.


Jeu de données

version la plus récente ou versions récentes

Environ 7k images au total. Pas très grand (comparé aux gigachads qui aiment affiner des modèles avec des millions d’images), mais pas petit non plus. Et chaque image est triée à la main par moi.

  • Uniquement des choses normales et esthétiques. Pas de style artistique fou difficile à décrire. Pas d’images IA, pas de filigranes, etc.

  • Uniquement des images haute résolution. La moyenne pixels totale est 3,37 MP, environ 1800x1800.

  • Toutes les images ont des légendes naturelles générées par le dernier LLM de Google.

  • Tous les personnages anime sont d’abord taggés par wd tagger v3 puis par Google LLM.

  • Contient nature, extérieur, intérieur, animaux, objets quotidiens, plein de choses, sauf humains réels.

  • Contient toutes sortes de conditions de luminosité. Très sombre, très lumineux, très sombre et très lumineux.


Autres outils

Quelques idées prévues pour ou anciennement partie du Stabilizer. Maintenant ce sont des LoRAs séparés pour plus de flexibilité. Lien de la collection : https://civitai.com/collections/8274233.

Dark : Une LoRA biaisée vers un environnement plus sombre. Utile pour corriger le biais de forte luminosité dans certains modèles de base. Entraîné sur des images à faible luminosité. Pas de biais de style donc pas de pollution de style.

Contrast Controller : Une LoRA artisanale. Contrôle le contraste comme un curseur sur votre moniteur. Contrairement à d’autres "améliorateurs de contraste" entraînés, l’effet de cette LoRA est stable, mathématiquement linéaire, sans effet secondaire sur le style.

Utile quand votre modèle de base a un problème de sursaturation ou si vous voulez un rendu vraiment coloré.

Exemple :

Style Strength Controller : Ou réducteur d’effet de surapprentissage. Peut réduire tous types d’effets de surapprentissage (biais sur objets, luminosité, etc.) mathématiquement. Ou les amplifier si vous voulez.

Différences avec Stabilizer :

  • Stabilizer a été entraîné sur des données du monde réel. Il peut seulement "réduire" les effets de surapprentissage liés à la texture, détails et arrière-plans, en les réintégrant.

  • Style Controller n’est pas issu de l’entraînement. Il est plutôt comme un "undo" de l’entraînement pour le modèle de base, le rendant moins sur-adapté. Peut réduire mathématiquement tous les effets de surapprentissage, comme le biais sur la luminosité, objets.


Anciennes versions :

Vous pouvez trouver plus d’infos dans le "journal des mises à jour". Attention, les anciennes versions peuvent avoir des effets très différents.

Chronologie principale :

  • Maintenant ~ : Détails et textures naturels, compréhension stable des prompts et plus de créativité. Plus limité au pur style anime 2D.

  • illus01 v1.23 / nbep11 0.138 ~ : Style anime amélioré avec des couleurs vives.

  • illus01 v1.3 / nbep11 0.58 ~ : Meilleur style anime.


Journal des mises à jour

(31/08/2025) NoobAI ep10 v0.273

Cette version a été entraînée dès le départ sur NoobAI eps v1.0.

Comparé à l’ancienne illus01 v1.198 :

  • Meilleure luminosité équilibrée en conditions extrêmes. (comme nbvp v0.271)

  • Meilleures textures et détails. Plus d’étapes d’entraînement sur des timesteps à haut SNR. (Les versions illus01 ont sauté ces timesteps pour meilleure compatibilité. Maintenant tous les modèles de base sont NoobAI, plus besoin.)

(24/08/2025) NoobAI v-pred v0.271 :

Comparé à la version v0.264 :

  • Éclairage meilleur et équilibré en condition extrême, moins de biais.

  • Contraste élevé, noir pur 0 et blanc 255 dans la même image, même au même endroit, sans débordement ni sursaturation. Vous pouvez maintenant avoir tout ça simultanément.

  • (La v0.264 essayait de limiter l’image entre 10~250 pour éviter débordement, avec toujours un problème de biais visible, l’image pouvait être trop sombre ou lumineuse.)

  • Comme v0.264, préférez une force haute ou maximale (0.9~1).

(17/08/2025) NoobAI v-pred v0.264 :

  • Première version entraînée sur NoobAI v-pred.

  • Apporte un éclairage meilleur, moins de débordement.

  • Note : préférez une force haute ou maximale (0.9~1).

(28/07/2025) illus01 v1.198

Comparé à v1.185c :

  • Fin de la version "c". Bien que "visuellement frappante" soit bien, elle posait des problèmes de compatibilité. Par exemple, si votre modèle de base a déjà une amélioration pour le contraste, cumuler deux améliorations de contraste est très mauvais. Plus d’effets post-production extrêmes (contraste et saturation élevés, etc.).

  • Plus de textures et détails. Niveau cinématographique d’éclairage. Meilleure compatibilité.

  • Cette version a beaucoup changé, notamment le jeu de données, donc l’effet sera assez différent des versions précédentes.

  • Pour ceux qui veulent retrouver les effets extrêmes de v1.185c, vous pouvez trouver des styles d’art purs et dédiés sur cette page. Si le jeu de données est assez grand pour une LoRA, je peux en entraîner une.

(21/06/2025) illus01 v1.185c :

Comparé à v1.165c.

  • +100% netteté et clarté.

  • -30% d’images trop chaotiques (difficiles à décrire). Vous constaterez peut-être que cette version ne donne plus un contraste très élevé, mais est plus stable en utilisation normale.

(10/06/2025) : illus01 v1.165c

Ceci est une version spéciale. Ce n’est pas une amélioration de la v1.164. Le "c" signifie "coloré", "créatif", parfois "chaotique".

Le jeu de données contient des images très visuellement frappantes, mais parfois difficiles à décrire, par ex. : très colorées, contraste élevé, conditions d’éclairage complexes, objets et motifs complexes partout.

Vous aurez donc un rendu "visuellement frappant" au détriment du naturel. Cela peut affecter les styles aux couleurs douces, etc. Par ex. cette version ne génère pas parfaitement la texture "dessin au crayon" comme la v1.164.

(04/06/2025) : illus01 v1.164

  • Meilleure compréhension des prompts. Chaque image a maintenant 3 légendes naturelles, sous différents angles. Les tags Danbooru sont vérifiés par LLM, seuls les tags importants sont extraits et fusionnés dans la légende naturelle.

  • Anti surexposition. Ajout d’un biais pour éviter que la sortie dépasse #ffffff blanc pur. La plupart du temps #ffffff == surexposition, donc perte de détails.

  • Modification de certains paramètres d’entraînement. Meilleure compatibilité avec NoobAI, eps et v-pred.

(19/05/2025) : illus01 v1.152

  • Amélioration continue de l’éclairage, textures et détails.

  • +5k images, plus d’étapes d’entraînement, effet renforcé.

(09/05/2025) : nbep11 v0.205 :

  • Correction rapide des problèmes de luminosité et couleurs en v0.198. Ne change plus la luminosité et les couleurs aussi dramatiquement qu’une vraie photo. La v0.198 n’était pas mauvaise, juste trop créative.

(07/05/2025) : nbep11 v0.198 :

  • Ajout de plus d’images sombres. Moins de corps déformés, arrière-plan en environnement sombre.

  • Suppression de l’amélioration des couleurs et du contraste. Inutile maintenant. Utilisez plutôt Contrast Controller.

(25/04/2025) : nbep11 v0.172.

  • Même nouveautés que illus01 v1.93 ~ v1.121. Résumé : nouveau jeu de photos "Touching Grass". Meilleure texture naturelle, arrière-plan, éclairage. Effet de personnage amoindri pour meilleure compatibilité.

  • Meilleure précision et stabilité des couleurs. (Comparé à nbep11 v0.160)

(17/04/2025) : illus01 v1.121.

  • Retour à illustrious v0.1. Les versions illustrious v1.0 et plus récentes étaient entraînées avec des images IA délibérément (environ 30% du jeu de données). Ce qui n’est pas idéal pour le training de LoRA. Je ne l’ai remarqué qu’en lisant leur article.

  • Effet de style des personnages réduit. Retour au niveau v1.23. Les personnages ont moins de détails avec cette LoRA, mais meilleure compatibilité. C’est un compromis.

  • Autres éléments identiques à ci-dessous (v1.113).

(10/04/2025) : illus11 v1.113 ❌.

  • Mise à jour : n’utilisez cette version que si votre modèle de base est vraiment basé sur Illustrious v1.1. Sinon, utilisez illus01 v1.121.

  • Entraîné sur Illustrious v1.1.

  • Nouveau jeu de données "Touching Grass" ajouté. Meilleure texture naturelle, éclairage et profondeur de champ. Meilleure stabilité structurelle de l’arrière-plan. Moins d’arrière-plans déformés, comme des pièces ou bâtiments déformés.

  • Légendes complètes en langage naturel générées par LLM.

(30/03/2025) : illus01 v1.93.

  • v1.72 a été trop poussée. J’ai donc réduit la force globale. Meilleure compatibilité désormais.

(22/03/2025) : nbep11 v0.160.

  • Les mêmes améliorations que dans illus v1.72.

(15/03/2025) illus01 v1.72

  • Même nouveau jeu de textures et d’éclairage mentionné dans ani40z v0.4 ci-dessous. Éclairage et textures plus naturels.

  • Ajout d’environ 100 images focalisées sur l’amélioration des mains, avec différentes tâches (tenir un verre, une tasse, etc.).

  • Retrait de toutes les images à "arrière-plan simple" du jeu de données (-200 images).

  • Changement de l’outil d’entraînement de kohya à onetrainer. Passage à l’architecture LoRA DoRA.

(04/03/2025) ani40z v0.4

  • Entraîné sur Animagine XL 4.0 ani40zero.

  • Ajout d’environ 1000 images axées sur un éclairage naturel dynamique et textures du monde réel.

  • Éclairage plus naturel et textures naturelles.

ani04 v0.1

  • Version initiale pour Animagine XL 4.0. Principalement pour corriger les problèmes de luminosité d’Animagine 4.0. Meilleur et plus fort contraste.

illus01 v1.23

nbep11 v0.138

  • Ajout de quelques images furry/non-humaines/autres pour équilibrer le jeu de données.

nbep11 v0.129

  • Mauvaise version, effet trop faible, ignorez-la.

nbep11 v0.114

  • Implémentation des "couleurs pleine gamme". Cela équilibre automatiquement les images vers un aspect "normal et esthétique". Pensez-y comme au bouton "auto amélioration photo" dans la plupart des outils de retouche photo. L’inconvénient : cela empêche un fort biais. Par exemple, vous voulez que 95% de l’image soit noire et 5% lumineuse, au lieu de 50/50.

  • Ajout de données un peu réalistes. Détails plus vifs, éclairage amélioré, couleurs moins plates.

illus01 v1.7

nbep11 v0.96

  • Plus d’images d’entraînement.

  • Affinage sur un petit jeu de wallpapers (fonds d’écran de jeux réels, meilleure qualité possible, environ 100 images). Améliorations des détails (notamment peau, cheveux) et du contraste.

nbep11 v0.58

  • Plus d’images. Paramètres d’entraînement rapprochés du modèle de base NoobAI.

illus01 v1.3

nbep11 v0.30

  • Plus d’images.

nbep11 v0.11 : Entraîné sur NoobAI epsilon pred v1.1.

  • Amélioration des tags du jeu de données. Amélioration de la structure LoRA et répartition des poids. Plus stable et moins d’impact sur la composition d’image.

illus01 v1.1

  • Entraîné sur illustriousXL v0.1.

nbep10 v0.10

  • Entraîné sur NoobAI epsilon pred v1.0.

Précédent
Flux Unchained par SCG - FU(t5_16xfp8_e4m3fn)_v1.1
Suivant
Style Mark Maggiori - v2.0

Détails du modèle

Type de modèle

LORA

Modèle de base

NoobAI

Version du modèle

nbep11 v0.205

Hash du modèle

2537f78755

Créateur

Discussion

Veuillez vous log in pour laisser un commentaire.