AniVerse XL - v1.0
Mots-clés et tags associés
Prompts recommandés
(Type of Shoot), (Subject), adult, the description, (background), more details, depth of field, dynamic angle, fashion photography, sharp, hyperdetailed:1.15, 4n1v3rs3
Portrait, Zelda, adult, cute, seductive, innocent, light smile:0.3, plump lips, slender body, ankle-length pink dress, jeweled tiara, golden shoulder pads, a gold chain as a necklace, vibrant, fantasy, epic, heroic, cave background, depth of field, dynamic angle, fashion photography, sharp, hyperdetailed:1.15, 4n1v3rs3
4n1v3rs3, zPDXL2, (Oil Painting), woman, wearing red dress, (sunrise background), masterpiece, high details
4n1v3rs3, zPDXL2, (Anime 2.5D style), Rei Ayanami, wearing white EVA bodysuit, (sunrise background), masterpiece, high details
4n1v3rs3, zPDXL2, (Analog photo by Rutkowski), (Hindu young man), 25 years old, (elaborate ancient Hindu temple ruins background), (midnight hour, high quality, film grain), focus on orange and green
4n1v3rs3
Prompts négatifs recommandés
worst quality:1.4, low quality:1.4, front light, grayscale, ugly, fat, wide hips, curvy, child, young, kid, bad hands, interlocked fingers, extra finger, missing finger, fused fingers, bad anatomy
unaestheticXL_bp5, zPDXL2-neg, moles, freckles, ugly, artifacts
unaestheticXL_bp5
Paramètres recommandés
samplers
steps
cfg
clip skip
resolution
vae
other models
Paramètres haute résolution recommandés
upscaler
upscale
steps
denoising strength
Conseils
Un prompt négatif excessif peut dégrader la qualité d'image ; suivez les suggestions de l'auteur.
Essayez d'utiliser le modèle sans LoRA d'abord pour voir ses capacités avant d'ajouter des LoRAs.
Utilisez l'extension ADetailer dans Automatic1111 pour une meilleure amélioration des détails.
Utilisez l'optimisation d'attention croisée xFormers si disponible pour de meilleures performances.
Évitez certaines combinaisons de sampler et scheduler : (Euler a + Uniform), (Euler_max + SGM Uniform), (DPM++ 3M SDE + Exponentiel), (DPM++ 2M SDE + Exponentiel).
Pour les systèmes avec peu de VRAM, utilisez les options --medvram-sdxl ou --lowvram mais attendez-vous à une génération d'images plus lente.
Pour émuler la source de générateur de nombres aléatoires Nvidia GPU, sélectionnez 'NV' dans les paramètres.
Points forts de la version
Vous pouvez trouver mon modèle sur MAGE :
https://www.mage.space/play/d3699ef7c4a6e852e7e51e6755dffb13
->
Surpriiiiiiise !!!
Comme on dit : mieux vaut tard que jamais !
Tout d'abord :
Les images dans la galerie principale sont réparties ainsi :
J'ai créé les 8 premières images
Le reste a été réalisé par nuaion, qui est bien meilleur que moi !
Entrons directement dans les questions possibles pour lever tout doute :
Q) Avez-vous enfin acheté le nouveau PC ?
R) Non, j'économise encore pour l'acheter, comme je l'ai déjà mentionné, j'espère l'avoir d'ici la fin 2024 ou début 2025. Voici le PC que je souhaite assembler : https://www.amazon.it/hz/wishlist/ls/371J30CMA0EC5/ref=nav_wishlist_lists_2 Comme toujours, si vous souhaitez m'aider dans ce projet, vous pouvez faire un don via ma page Ko-Fi : https://ko-fi.com/samael1976
Q) Alors, comment avez-vous réussi à créer un modèle entraîné de SDXL ?
R) Ce fut difficile, mais après d'innombrables tentatives (pas exactement un million, mais vraiment beaucoup), j'ai réussi à faire fonctionner l'entraînement SDXL sur une 2060 avec 12 Go de VRAM.
Pour plus de détails, voici le lien vers mon article : https://civitai.com/articles/5672/how-to-train-a-sdxl-style-with-only-12gb-of-vram-rtx-2060-onetrainer
Q) Allez-vous arrêter l'entraînement pour Stable Diffusion 1.5 maintenant ?
R) Pas du tout. Pour moi, Stable Diffusion 1.5, malgré ses limites, reste une petite perle. Bien sûr, les projets liés à Stable Diffusion 1.5 seront retardés, mais pour le moment, je n’ai pas l’intention d’arrêter de créer des modèles pour Stable Diffusion 1.5.
Q) Ce modèle n’est pas comme AniVerse pour SD 1.5
R) Vous avez tout à fait raison ! J’ai beaucoup réfléchi avant de l’appeler AniVerse XL ou un autre nom. Finalement, j’ai choisi AniVerse XL car ce premier modèle n’est qu’un « test alpha ».
Considérez-le ainsi : créer le véritable AniVerse XL prendra du temps, et chaque nouvelle version se rapprochera de plus en plus d’AniVerse. En tout cas, il y a plusieurs tags dans l'entraînement. Si vous voulez une image plus proche du style AniVerse, incluez dans le prompt positif : 4n1v3rs3.
Q) Pourquoi cela prendra-t-il autant de temps ?
R) Malheureusement, injecter un style spécifique dans SDXL est très difficile, voire impossible. Cependant, à chaque nouvelle version, j'injecterai de plus en plus d’images d’AniVerse, ce qui devrait (théoriquement) lui faire ressembler un jour à AniVerse 1.5. Ce n’est pas garanti, mais c’est mon plan. De plus, avec une 2060, chaque session d'entraînement nécessite 25 à 30 jours de travail continu du PC uniquement pour l'entraînement.
Q) Est-il adapté pour créer des images NSFW ?
R) Non, désolé, cette version d’AniVerse XL n’a pas été conçue pour créer des images NSFW. Ce n’est pas impossible, mais vous aurez des difficultés.
Q) Allez-vous également faire une version Pony ?
R) Oui, elle est déjà en entraînement. (J’espère que l’entraînement se passera bien)
Q) Et pour l'avenir ?
R) À l'avenir, j’aimerais explorer d’autres modèles Open Source, principalement Pixart Sigma. C’est une période passionnante après la sortie de Stable Diffusion 3.
Q) Allez-vous créer un modèle pour Stable Diffusion 3 également ?
R) Il est trop tôt pour le dire. Il vient juste de sortir, et il y a encore beaucoup de problèmes, y compris la licence d’utilisation. Donc, je préfère attendre de voir comment la situation évolue.
Q) Avez-vous des réglages à suggérer pour votre modèle ?
R) Comme mentionné, je ne suis pas expert en SDXL, donc je compte sur vous pour m’aider à trouver les meilleurs réglages.
- Mais j’ai trouvé ces réglages :
VAE : un VAE spécial est déjà inclus, vous n'en avez pas besoin - (Merci à nuaion)
Clip skip : 2
Upscaler : 4x-Ultrasharp ou 4X NMKD Superscale
Largeur : 720 (ou 768) - (probablement plus, mais je n'ai pas testé)
Hauteur : 1280 - (probablement plus, mais je n'ai pas testé)
CFG Scale : 3~7 -> Étapes : 20~30 (aussi, je n'ai pas beaucoup testé)
Pour le 2D (ou très proche du 2D) - voir ce post comparatif
CFG : 3~7
Méthode d'échantillonnage favorite : Restart
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg (dans le prompt négatif), probablement le meilleur
Méthode d'échantillonnage alternative favorite : Euler a
Embedding à utiliser : zPDXL2 + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Peinture à l'huile), femme, portant une robe rouge, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 2.5D - voir ce post comparatif
CFG : 3~7
Méthode d'échantillonnage favorite : DPM++ 2M ou Euler_max
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts"
EXEMPLE DE MON PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Style Anime 2.5D), Rei Ayanami, portant un bodysuit EVA blanc, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)
PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 3D - Réalisme - voir ces posts comparatifs : 1 - 2 - 3 - 4 - 5
CFG : 2,5~7
Clip Skip : 1~2
Sampler & Scheduler(1) : DPM++ 2M & Karras
Sampler & Scheduler(2) : DPM++ SDE & Karras (le meilleur pour le réalisme, mais génération très lente)
Sampler & Scheduler(3) : Euler_max & Karras
Sampler & Scheduler(4) : UniPC & Exponentiel
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT POUR LE RÉALISME :
POSITIF : 4n1v3rs3, zPDXL2, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : 4n1v3rs3, zPDXL2, (Photo analogique par Rutkowski), (jeune homme hindou), 25 ans, (ruines détaillées d'un ancien temple hindou en arrière-plan), (heure de minuit, haute qualité, grain de film), accent sur l'orange et le vertNÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
PLUS D'INFOS (infos complètes du prompt) : Cliquez sur ce post, vous pouvez voir tous les réglages que j'ai utilisés et choisir votre échelle de CFG
Utilisation de Turbo ou Lightning - Voir ce post
CFG : 2,5~3,5
Clipskip : 2~3
LoRA à utiliser : SDXL Lightning LoRAs
Méthode d'échantillonnage : dpm 2 turbo
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
ÉVITEZ CETTE COMBINAISON : (Euler a + Uniform) - (Euler_max + SGM Uniform) - (DPM++ 3M SDE + Exponentiel) - (DPM++ 2M SDE + Exponentiel)
TÉLÉCHARGEZ TOUS LES EMBEDDINGS ET LORA QUE J'AI UTILISÉS :
unaestheticXL_bp5 (à mettre dans votre prompt négatif)
SimplePositiveXLv2 (à mettre dans votre prompt positif)
Ajouter des détails : Detail Tweaker (dans le prompt positif)
Embeddings négatifs Pony PDXL : Haute Qualité V2
Embeddings négatifs Pony PDXL : Photo Réaliste
LoRA lightning : SDXL Lightning LoRAs
------------------------------------------------------------------------------------------------
J'espère avoir levé tous les doutes.
Maintenant, les remerciements :
1) Un million de mercis à toutes les personnes du groupe civitai Italia sur Telegram, dont le soutien m’a empêché d’abandonner SDXL.
2) À nuaion, qui m’a soutenu en fournissant le modèle de base pour l’entraînement ainsi que des milliers d’images pour le dataset.
3) À GattaPlayer, sans qui je n’aurais jamais réussi à obtenir quoi que ce soit d’utile. Je ne sais pas combien d’heures nous avons passé à tester et configurer l’entraînement.
4) À MarkWar, car ce voyage n’aurait probablement pas eu lieu sans lui.
5) À Furkan, qui m’a montré comment entraîner avec 12 Go de VRAM. Son setup ne fonctionnait pas pour moi, mais il reste une personne merveilleuse, toujours prête à aider ceux dans le besoin.
6) À vous tous qui me soutenez avec vos gentils mots, commentaires, et en envoyant vos images. Je lis tous vos messages et regarde toujours toutes les images que vous créez !
Maintenant, c’est à vous de jouer ! Essayez le modèle, envoyez vos créations, et dites-moi ce que vous pensez de ce modèle dans les commentaires !
Je vous aime tous et j’espère que ce modèle vous plaira !
<----------------------------------------------->
------------- VERSION ITALIENNE ----------------
<----------------------------------------------->
Sorpresaaaaaa !!!
Comme on dit : mieux vaut tard que jamais !
J’espère que ce modèle vous plaira :)
Tout d'abord :
Les images de la galerie principale sont réparties ainsi
J’ai réalisé les 8 premières images
nuaion, qui est bien meilleur que moi, m’a gentiment créé les suivantes !
Passons directement aux questions-réponses pour lever vos doutes
Q) As-tu enfin acheté le nouveau PC ?
R) Non, j’économise encore pour l’acheter, comme je l’ai déjà dit, j’espère y arriver vers fin 2024, début 2025. Voici le PC que je souhaite monter : https://www.amazon.it/hz/wishlist/ls/371J30CMA0EC5/ref=nav_wishlist_lists_2 Comme toujours, si vous souhaitez m’aider dans ce projet, voici ma page Ko-Fi pour les dons : https://ko-fi.com/samael1976
Q) Comment as-tu réussi à créer un modèle entraîné de SDXL ?
R) Ce fut difficile, mais après un million d’essais (pas exactement un million, mais vraiment beaucoup), j’ai réussi à faire fonctionner l’entraînement de SDXL sur une 2060 avec 12 Go de VRAM.
Pour plus de détails, voici le lien vers mon article : https://civitai.com/articles/5672/how-to-train-a-sdxl-style-with-only-12gb-of-vram-rtx-2060-onetrainer
Q) Vas-tu arrêter de t’entraîner pour Stable Diffusion 1.5 ?
R) Pas du tout. Pour moi, Stable Diffusion 1.5, malgré ses limites, reste une petite perle. Bien sûr, les projets liés à Stable Diffusion 1.5 seront retardés, mais pour l’instant, je n’ai pas l’intention d’arrêter de créer des modèles pour Stable Diffusion 1.5.
Q) Ce modèle n’est pas comme AniVerse pour SD 1.5
R) Tu as tout à fait raison ! J’ai beaucoup réfléchi à lui donner le nom AniVerse XL ou un autre nom. Finalement, j’ai opté pour AniVerse XL car ce premier modèle n’est qu’un « test alpha ».
Considère-le ainsi : créer le véritable AniVerse XL prendra du temps, et chaque nouvelle version se rapprochera de plus en plus d’AniVerse.
Quoi qu’il en soit, dans l’entraînement, il y a plusieurs tags. Si tu veux une image plus proche du style AniVerse, insère dans le prompt positif : 4n1v3rs3
Q) Pourquoi cela prendra-t-il tout ce temps ?
R) Malheureusement, injecter un style spécifique à SDXL est très difficile, voire impossible. Mais à chaque nouvelle version, j’injecterai de plus en plus d’images d’AniVerse, ce qui devrait (en théorie) le faire ressembler à AniVerse 1.5 au fil du temps. Ce n’est pas certain, mais c’est dans ma tête. De plus, avec une 2060, chaque entraînement me prendra de 25 à 30 jours de travail en continu du PC uniquement pour l’entraînement.
Q) Est-il adapté pour les images NSFW ?
R) Non, désolé, cette version d’AniVerse XL n’a pas été conçue pour créer des images NSFW. Ce n’est pas impossible, mais tu auras des difficultés.
Q) Vas-tu faire une version Pony également ?
R) Oui, elle est déjà en entraînement. J’espère que le modèle final fonctionnera.
Q) Et pour l’avenir ?
R) À l’avenir, j’aimerais explorer d’autres modèles Open Source, principalement Pixart Sigma. C’est un moment dynamique après la sortie de Stable Diffusion 3.
Q) Vas-tu aussi créer un modèle pour Stable Diffusion 3 ?
R) Il est trop tôt pour le dire. Il vient juste de sortir, il y a encore beaucoup de problèmes, y compris sur la licence d’utilisation. Donc je préfère attendre en reculant pour voir comment la situation évoluera.
Q) As-tu des réglages à suggérer pour ton modèle ?
R) Voici ce que j’ai trouvé :
VAE : un VAE spécial est déjà inclus, vous n'en avez pas besoin - (Merci à nuaion)
Clip skip : 2
Upscaler : 4x-Ultrasharp ou 4X NMKD Superscale
Largeur : 720 (ou 768) - (probablement plus, mais je n'ai pas testé)
Hauteur : 1280 - (probablement plus, mais je n'ai pas testé)
CFG Scale : 3~7 -> Étapes : 20~30 (aussi, je n'ai pas beaucoup testé)
Pour le 2D (ou très proche du 2D) - voir ce post comparatif
CFG : 3~7
Méthode d'échantillonnage favorite : Restart
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg (dans le prompt négatif), probablement le meilleur
Méthode d'échantillonnage alternative favorite : Euler a
Embedding à utiliser : zPDXL2 + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Peinture à l'huile), femme, portant une robe rouge, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 2.5D - voir ce post comparatif
CFG : 3~7
Méthode d'échantillonnage favorite : DPM++ 2M ou Euler_max
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts"
EXEMPLE DE MON PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Style Anime 2.5D), Rei Ayanami, portant un bodysuit EVA blanc, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)
PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 3D - Réalisme - voir ces posts comparatifs : 1 - 2 - 3 - 4 - 5
CFG : 2,5~7
Clip Skip : 1~2
Sampler & Scheduler(1) : DPM++ 2M & Karras
Sampler & Scheduler(2) : DPM++ SDE & Karras (le meilleur pour le réalisme, mais génération très lente)
Sampler & Scheduler(3) : Euler_max & Karras
Sampler & Scheduler(4) : UniPC & Exponentiel
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT POUR LE RÉALISME :
POSITIF : 4n1v3rs3, zPDXL2, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : 4n1v3rs3, zPDXL2, (Photo analogique par Rutkowski), (jeune homme hindou), 25 ans, (ruines détaillées d'un ancien temple hindou en arrière-plan), (heure de minuit, haute qualité, grain de film), accent sur l'orange et le vertNÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
PLUS D'INFOS (infos complètes du prompt) : Cliquez sur ce post, vous pouvez voir tous les réglages que j'ai utilisés et choisir votre échelle de CFG
Utilisation de Turbo ou Lightning - Voir ce post
CFG : 2,5~3,5
Clipskip : 2~3
LoRA à utiliser : SDXL Lightning LoRAs
Méthode d'échantillonnage : dpm 2 turbo
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
ÉVITEZ CETTE COMBINAISON : (Euler a + Uniform) - (Euler_max + SGM Uniform) - (DPM++ 3M SDE + Exponentiel) - (DPM++ 2M SDE + Exponentiel)
TÉLÉCHARGEZ TOUS LES EMBEDDINGS ET LORA QUE J'AI UTILISÉS :
unaestheticXL_bp5 (à mettre dans votre prompt négatif)
SimplePositiveXLv2 (à mettre dans votre prompt positif)
Ajouter des détails : Detail Tweaker (dans le prompt positif)
Embeddings négatifs Pony PDXL : Haute Qualité V2
Embeddings négatifs Pony PDXL : Photo Réaliste
LoRA lightning : SDXL Lightning LoRAs
------------------------------------------------------------------------------------------------
J’espère avoir répondu à toutes vos questions.
Merci à :
1) Un million de mercis au groupe civitai Italia sur Telegram, dont le soutien m’a empêché d’abandonner SDXL.
2) À nuaion, qui m’a aidé en fournissant le modèle de base pour l’entraînement ainsi que des milliers d’images pour le dataset.
3) À GattaPlayer, sans qui je n’aurais jamais réussi à obtenir quelque chose d’utile. Je ne sais pas combien d’heures nous avons passé à tester et configurer l’entraînement.
4) À MarkWar, car ce voyage n’aurait probablement pas eu lieu sans lui.
5) À Furkan, qui m’a montré comment entraîner avec 12 Go de VRAM. Son setup ne fonctionnait pas pour moi, mais c’est une personne formidable, toujours prête à aider les autres.
6) À tous ceux qui me soutiennent avec leurs mots gentils, commentaires, et en envoyant leurs images. Je lis tous vos messages et regarde toutes les images que vous créez !
Maintenant, c’est à vous d’essayer le modèle, envoyez vos créations et dites-moi dans les commentaires ce que vous pensez de ce modèle !
Je vous adore tous !
Sponsors du créateur
Découvrez mes modèles EXCLUSIFS sur Mage.Space : AniMage PXL, AniReal PXL, Lucid Dream, AniMage SD1.5, Portrait Réaliste
Également en collaboration avec Shakker.ai
Si vous aimez mon travail, soutenez-moi en m'offrant un café ou une bière sur Ko-fi.
Liste de matériel : Liste Amazon
!!! LE TÉLÉVERSEMENT/ PARTAGE DE MES MODÈLES EN DEHORS DE CIVITAI EST STRICTEMENT INTERDIT* !!!
Découvrez mes modèles EXCLUSIFS sur Mage.Space : AniMage PXL • AniReal PXL • Lucid Dream • AniMage SD1.5 • Portrait Réaliste
SDXL - Pony : AniVerse PXL • AniMerge PXL • AniToon PXL • AniMics PXL • AniVerse XL
SD1.5 : AniVerse • AniThing • AniMerge • AniMesh • AniToon • AniMics
Également en collaboration avec Shakker.ai
Ce modèle est gratuit pour usage personnel et gratuit pour la fusion personnelle (*).
Pour un usage commercial, veuillez me contacter (Ko-fi) ou par e-mail : samuele[dot]bonzio[at]gmail[dot]com
⬇Lisez les informations ci-dessous pour obtenir des images de haute qualité (cliquez sur afficher plus)⬇
AniVerse XL - rendre l'impossible possible !
C'est un projet ambitieux, je souhaite implémenter quelque chose de nouveau à chaque mise à jour !
Le nom est une fusion des mots : Animation et Universe (et un jeu de mots : Any+Universe -> Anyverse -> AniVerse)
-> Si vous êtes satisfait d'utiliser mon modèle, appuyez sur ❤️ pour suivre les progrès et pensez à me laisser une critique 5⭐, c'est très important pour moi !
Merci d'avance 🙇
Et n'oubliez pas de publier vos créations utilisant ce modèle ! J'aimerais vraiment voir ce que votre imagination peut faire !
Paramètres recommandés :
Un prompt négatif excessif peut détériorer vos créations, suivez donc mes suggestions ci-dessous !
Avant d'appliquer une LoRA pour produire votre personnage préféré, essayez d'abord sans. Vous pourriez être surpris par ce que ce modèle peut faire !
VERSION 3 ET SUIVANTES :
Clip skip : 2
Largeur : 768
Hauteur : 1344
CFG : 5,5
Étapes : 30
Échantillonnage : DPM++ 2M ou Euler Max
Scheduler : Karras
Mot déclencheur : 4n1v3rs3
EXEMPLE DE PROMPT GÉNÉRAL :
POSITIF : (Type de prise), (Sujet), adulte, description, (arrière-plan), plus de détails, profondeur de champ, angle dynamique, photographie de mode, net, hyperdétaillé :1.15, 4n1v3rs3
EXEMPLE : Portrait, Zelda, adulte, mignon, séducteur, innocent, sourire léger :0.3, lèvres pulpeuses, corps svelte, robe rose jusqu'aux chevilles, diadème orné de bijoux, épaulières dorées, chaîne en or comme collier, vibrant, fantaisie, épique, héroïque, arrière-plan grotte, profondeur de champ, angle dynamique, photographie de mode, net, hyperdétaillé :1.15, 4n1v3rs3
NÉGATIF : pire qualité :1.4, basse qualité :1.4, lumière frontale, niveaux de gris, moche, gros, hanches larges, courbes, enfant, jeune, maladroit, mains mal faites, doigts entrelacés, doigt en trop, doigt manquant, doigts fusionnés, mauvaise anatomie
cause quelques problèmes avec les mains
retouche fortement la "créativité" de l'image.
Même avec des focales longues (prise de vue en pied), les visages ne se rendent pas aussi bien qu'ils devraient
CyberRealistic_Negative_PONY-neg
plus fidèle à l'image originale et fonctionne très bien.
Bien qu'il tendance à lisser un peu trop les images et les rendre plates, en éliminant certains détails.
il a tendance à rendre les visages un peu trop ronds (pour mon goût)
Il fonctionne beaucoup mieux avec Euler Max qu'avec DPM++ 2M
Parfait pour créer des figures masculines
À propos des SAMPLERS avec un scheduler Karras :
DPM++2M : c'est mon préféré, tant pour les couleurs que les détails, il donne un aspect plutôt 2.5D, idéal pour les portraits et les prises de vue de type cowboy.
Euler Max : il offre moins de détails, mais rend mieux les visages lors d'une prise de vue en pied et tend à se rapprocher davantage du 2D.
Vous décidez en fonction de vos besoins.
VERSION 1 ET 2 :
VAE : un VAE spécial est déjà inclus, vous n'en avez pas besoin - (Merci à nuaion)
Clip skip : 2
Upscaler : 4x-Ultrasharp ou 4X NMKD Superscale
Largeur : 720 (ou 768) - (probablement plus, mais je n'ai pas testé)
Hauteur : 1280 - (probablement plus, mais je n'ai pas testé)
CFG Scale : 3~7
Étapes : 20~30 (aussi, je n'ai pas beaucoup testé)
Pour le 2D (ou très proche du 2D) - voir ce post comparatif
CFG : 6
Étapes : 20
Méthode d'échantillonnage favorite : Restart
Scheduler : Polyexponential ou SGM Uniform
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg (dans le prompt négatif), probablement le meilleur
Méthode d'échantillonnage alternative favorite : Euler a
Embedding à utiliser : zPDXL2 + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Peinture à l'huile), femme, portant une robe rouge, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 2.5D - voir ce post comparatif
CFG : 6
Étapes : 20
Méthode d'échantillonnage favorite : DPM++ 2M ou Euler_max
Scheduler : Polyexponential
Embedding à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts"
EXEMPLE DE MON PROMPT GÉNÉRAL
PROMPT POSITIF : zPDXL2, 4n1v3rs3, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : zPDXL2, 4n1v3rs3, (Style Anime 2.5D), Rei Ayanami, portant un bodysuit EVA blanc, (arrière-plan lever de soleil), chef-d'œuvre, détails élevés... (etc, etc)
PROMPT NÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
Pour le 3D - Réalisme - voir ces posts comparatifs : 1 - 2 - 3 - 4 - 5
CFG : 2,5~7
Étapes : 20
Sampler (1) : DPM++ 2M
Sampler (2) : DPM++ SDE (le meilleur pour le réalisme, mais génération très lente)
Sampler (3) : Euler_max
Sampler (4) : UniPC
Scheduler : SGM Uniform ou Polyexponential
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
EXEMPLE DE PROMPT POUR LE RÉALISME :
POSITIF : 4n1v3rs3, zPDXL2, (Style de l'image), votre sujet, la description, (arrière-plan), plus de détails
EXEMPLE : 4n1v3rs3, zPDXL2, (Photo analogique par Rutkowski), (jeune homme hindou), 25 ans, (ruines détaillées d'un ancien temple hindou en arrière-plan), (heure de minuit, haute qualité, grain de film), accent sur l'orange et le vertNÉGATIF : unaestheticXL_bp5, zPDXL2-neg, grains de beauté, taches de rousseur, moche, artefacts
PLUS D'INFOS (infos complètes du prompt) : Cliquez sur ce post, vous pouvez voir tous les réglages que j'ai utilisés et choisir votre échelle de CFG
Utilisation de Turbo ou Lightning - Voir ce post
CFG : 2,5~3,5
Clipskip : 2~3
LoRA à utiliser : SDXL Lightning LoRAs
Méthode d'échantillonnage : dpm 2 turbo
Embeddings à utiliser : zPDXL2 + SimplePositiveXLv2 (dans le prompt positif) + unaestheticXL_bp5, zPDXL2-neg
ÉVITEZ CETTE COMBINAISON : (Euler a + Uniform) - (Euler_max + SGM Uniform) - (DPM++ 3M SDE + Exponentiel) - (DPM++ 2M SDE + Exponentiel)
TÉLÉCHARGEZ TOUS LES EMBEDDINGS ET LORA QUE J'AI UTILISÉS :
unaestheticXL_bp5 (à mettre dans votre prompt négatif)
SimplePositiveXLv2 (à mettre dans votre prompt positif)
Ajouter des détails : Detail Tweaker (dans le prompt positif)
Embeddings négatifs Pony PDXL : Haute Qualité V2
Embeddings négatifs Pony PDXL : Photo Réaliste
LoRA lightning : SDXL Lightning LoRAs
Paramètres A1111 :
Je lance mon PC à la maison A1111 avec ces paramètres :
définir COMMANDLINE_ARGS= --xformers --skip-torch-cuda-test --no-half-vae
(si vous avez peu de VRAM, essayez d'ajouter --medvram-sdxl ou --lowvram qui peuvent vous aider, mais ralentissent la création d'images)
Si vous ne pouvez pas installer xFormers (lisez ci-dessous), utilisez mes Paramètres Google Colab :
définir COMMANDLINE_ARGS= --disable-model-loading-ram-optimization --opt-sdp-no-mem-attention --no-half-vae
(si vous avez peu de VRAM, essayez d'ajouter --medvram-sdxl ou --lowvram qui peuvent vous aider, mais ralentissent la création d'images)
Ma version A1111 : version : v1.9.3 • python : 3.10.11 • torch : 2.1.2+cu121 • xformers : 0.0.23.post1 • gradio : 3.41.2 •
Si vous voulez activer l'optimisation xformers comme mon PC à la maison (Comment installer xFormers) :
Dans A1111, cliquez sur l'onglet "Paramètres"
Dans la colonne de gauche, cliquez sur "Optimisation"
Dans : "Optimisation de l'attention croisée", sélectionnez : "xformers"
Cliquez sur "Appliquer les paramètres"
Redémarrez votre Stable Diffusion
Si vous ne pouvez pas installer xFormers utilisez SDP-ATTENTION, comme mon Google Colab :
Dans A1111, cliquez sur l'onglet "Paramètres"
Dans la colonne de gauche, cliquez sur "Optimisation"
Dans : "Optimisation de l'attention croisée", sélectionnez : "sdp-no-mem - produit scalaire mis à l'échelle sans attention mémoire efficiente"
Cliquez sur "Appliquer les paramètres"
Redémarrez votre Stable Diffusion
Comment émuler le GPU Nvidia suivez ces étapes :
Dans A1111, cliquez sur l'onglet "Paramètres"
Dans la colonne de gauche, cliquez sur "Afficher toutes les pages"
Cherchez "Source du générateur de nombres aléatoires"
Sélectionnez la voix : "NV"
Cliquez sur "Appliquer les paramètres"
Redémarrez votre Stable Diffusion
Si vous utilisez mes modèles, installez l'extension ADetailer pour votre A1111.
Allez dans l'onglet "Extensions" de Stable Diffusion.
Allez dans la sous-section "Installer depuis l'URL".
Sous "URL du dépôt git de l'extension", mettez ce lien : https://github.com/Bing-su/adetailer
Cliquez sur le bouton "Installer" pour installer l'extension
Redémarrez votre Stable Diffusion
Comment installer le sampler Euler Max :
Dans A1111, cliquez sur l'onglet "Extensions"
Cliquez sur "Installer depuis l'URL"
Sous "URL du dépôt git de l'extension", mettez ce lien : https://github.com/licyk/advanced_euler_sampler_extension
Une fois installé, cliquez sur : "Installé"
Cliquez sur "Appliquer et quitter"
Redémarrez votre Stable Diffusion
Vous avez maintenant le nouveau sampler à la fin de la liste des samplers.
Paramètres HiRes.Fix :
Je n'utilise pas Hi.Res fix parce que :
1) sur mon ordinateur ça ne fonctionne pas
2) mes modèles n'en ont pas besoin. Utilisez txt2image, adetailer et l'upscaler suggéré dans l'onglet ressources.
Si vous souhaitez toujours l'utiliser, voici les paramètres envoyés par MarkWar (suivez-le pour voir ses créations ❤️).
Montée en résolution : 1.5
Étapes haute résolution : 20~30
Upscaler haute résolution : R-ESRGAN 4x + Anime6B,
Force de débruitage : 0.4
Adetailer : face_yolov8n
Comment installer et utiliser adetailer : Cliquez ici
Voici une critique (en espagnol) du modèle AniVerse XL (merci à Salió Aniverse XL | Stable Diffusion en español):
Vous aimez mon travail ?
Si vous le souhaitez, vous pouvez m’aider à acheter un nouveau PC pour Stable Diffusion !
❤️ Vous pouvez m’offrir un café (Espresso... je suis italien) ou une bière ❤️
Voici la liste du matériel si vous êtes curieux : Liste Amazon
Je dois remercier nuaion et GattaPlayer pour leur soutien
Vous êtes seul responsable de toute responsabilité légale résultant d'une utilisation non éthique de ce modèle
(**) Pourquoi ai-je établi des règles aussi strictes ? Parce que j’en ai assez de voir des sites comme Pixai (et beaucoup d'autres) s'enrichir sur le dos des créateurs de modèles sans rien rendre en retour.
(***) Les modèles Low Rank Adaptation (LoRAs) et Checkpoints créés par moi-même.
Selon la licence Creative ML OpenRAIL-M section III, le contenu dérivé (c'est-à-dire LoRA, Checkpoints, mixes et autres contenus dérivés) est libre d'être modifié pour redistribution. Dans ce cas, cette licence est fournie pour chaque modèle individuel sur Civitai.com. Tous les modèles que je produis interdisent l’hébergement, la republication, le re-téléversement ou toute autre utilisation de mes modèles sur d'autres sites fournissant un service de génération sans mon autorisation explicite.
(****) Selon la loi italienne (je suis italien) :
La loi sur le droit d'auteur (loi du 22 avril 1941, n. 633, et ses amendements, le dernier étant le décret législatif du 16 octobre 2017 n.148) prévoit la protection des "œuvres intellectuelles de nature créative", qui appartiennent à la littérature, la musique, les arts figuratifs, l’architecture, le théâtre et le cinéma, quelle que soit leur modalité ou forme d’expression.
Les modifications ultérieures, liées à l’évolution des technologies de l’information, ont étendu cette protection aux œuvres photographiques, aux programmes informatiques, aux bases de données et aux créations de design industriel.
Le droit d’auteur est acquis automatiquement dès qu’une œuvre est définie comme une création intellectuelle.
Également valable pour les États-Unis : https://ufficiobrevetti.it/copyright/copyright-usa/
Tous mes modèles Stable Diffusion sur Civitai (sous réserve de mon approbation) sont protégés par le droit d'auteur.
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Mots entraînés
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.
