Deep Negative V1x - V1 75T
Mots-clés et tags associés
Images en vedette
Prompts recommandés
masterpiece,PureErosFace_V1,best quality,[highly detailed face:0.1],1girl,a full body portrait of a 21 years old beautiful gorgeous cute busty Korean kpop girl,pink eyes,(jieunc_kor:0.8),long hair,slender body,black hair,detailed face,(grapefruit),perfect anatomy,(temple in background),contrapposto,sitting,Cannon EOS 5D MARK III,kimono,50mm Sigma f/1.4 ZEISS lens,medium breasts,F1.4,light smile,1/800s,arms behind back,ISO 100,photorealistic,trending on instagram
Prompts négatifs recommandés
disgusting,worst quality,low quality,logo,text,watermark,username
NG_DeepNegative_V1_75T,(worst quality,worst quality,low quality:1.4),low quality,logo,text,monochrome,nipples,nude
Paramètres recommandés
samplers
steps
cfg
resolution
Conseils
Utilisez l’embedding avec des prompts négatifs comme (worst quality, low quality, logo, text, watermark, username).
Pour les modèles entraînés avec plus de 75 tokens, envisagez d’utiliser des versions avec moins de tokens pour éviter des erreurs.
Points forts de la version
mettez-le dans les prompts négatifs
Sponsors du créateur
Si vous utilisez SDXL, recommandé ceci 👉 DeepNegative pour la version SDXL
Cette embedding vous dira ce qui est VRAIMENT DÉGOÛTANT🤢🤮
Merci donc de la mettre dans le prompt négatif😜
⚠Ce modèle n’est pas entraîné pour SDXL et peut produire des résultats indésirables lorsqu’il est utilisé avec SDXL.
Si vous utilisez SDXL, il est recommandé ceci 👇
un autre deep-negative :
version pony : https://civitai.com/models/831971
version SDXL : https://civitai.com/models/407448
QUESTIONS & RÉPONSES PRINCIPALES
comment utiliser le modèle TI ?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
qu’est-ce qu’un prompt négatif ?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Negative-prompt
[Rappel spécial] Si votre webui affiche les erreurs suivantes :
- CUDA : erreur CUDA : assertion déclenchée côté périphérique
- Assertion -sizes[i] <= index && index < sizes[i] && "index out of bounds" échouée
- XXX object n’a pas d’attribut 'text_cond'
Veuillez essayer d’utiliser une version du modèle autre que 75T.
> La raison est que de nombreux scripts ne gèrent pas correctement les mots de prompt négatif trop longs (supérieurs à 75 tokens), donc choisir une version avec moins de tokens peut améliorer cette situation.
[Mise à jour:230120] Que fait-il ?
Cette embedding apprend ce que sont les compositions et schémas de couleurs dégoûtants, y compris l’anatomie humaine défectueuse, les schémas de couleurs offensants, les structures spatiales à l’envers, et plus encore. La placer dans le négatif peut grandement aider à éviter ces éléments.
-
Qu’est-ce que 2T 4T 16T 32T ?
Nombre de vecteurs par token
[Mise à jour:230120] Qu’est-ce que 64T 75T ?
64T : Entraînement sur plus de 30 000 étapes sur des ensembles de données mixtes.
75T : taille maximale de l’embedding, entraînement sur 10 000 étapes avec un ensemble de données spécial (généré par plusieurs modèles sd différents et traitement inverse spécial)
Lequel choisir ?
75T : L’embedding la plus « facile à utiliser », entraînée à partir d’un ensemble de données précis créé de manière spéciale avec presque aucun effet secondaire. Elle contient assez d’informations pour couvrir divers scénarios d’utilisation. Mais pour certains "bons modèles entraînés", les effets peuvent être faibles
et les changements subtils et pas assez drastiques.
64T : Fonctionne avec tous les modèles, mais avec effet secondaire. Un certain réglage est donc nécessaire pour trouver le meilleur poids. recommandé : [( NG_DeepNegative_V1_64T :0.9) :0.1]
32T : Utile, mais trop important
16T : Réduit la chance de dessin d’anatomie incorrecte, mais peut produire des visages laids. Convient pour augmenter le niveau d’architecture.
4T : Réduit la chance de dessin d’anatomie incorrecte, mais a peu d’effet sur la lumière et l’ombre
2T : « facile à utiliser » comme T75, mais avec un effet moindre
Suggestion
Parce que cette embedding apprend à créer des concepts dégoûtants, elle ne peut pas améliorer la qualité de l’image avec précision, il est donc préférable de l’utiliser avec les prompts négatifs (worst quality, low quality, logo, text, watermark, username).
Bien sûr, il est tout à fait possible de l’utiliser avec d’autres embeddings négatifs similaires.
Plus d’exemples et tests
dessiner un bâtiment : https://imgur.com/5aX9yrP
correction de main : https://imgur.com/rDlsrgS
portrait (avec PureErosFace) : https://imgur.com/1Lqq595 https://imgur.com/V5kXBXz
fusion correction du corps :
Comment ça marche ?
J’ai essayé de faire apprendre à SD ce qui est vraiment dégoûtant avec l’algorithme deepdream, l’ensemble de données est imagenet-mini (1000 images choisies aléatoirement dans l’ensemble de données initial).
deepdream est VRAIMENTMMMMMMMMMMMMMMM dégoûtant 🤮 et le processus d’entraînement de ce modèle m’a vraiment fait éprouver un malaise physique 😂
Sauvegarde
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Mots entraînés
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.