modelle/Deep Negative V1x - V1 75T

Deep Negative V1x - V1 75T

|
5/18/2025
|
1:19:07 PM
| Discussion

Empfohlene Prompts

masterpiece,PureErosFace_V1,best quality,[highly detailed face:0.1],1girl,a full body portrait of a 21 years old beautiful gorgeous cute busty Korean kpop girl,pink eyes,(jieunc_kor:0.8),long hair,slender body,black hair,detailed face,(grapefruit),perfect anatomy,(temple in background),contrapposto,sitting,Cannon EOS 5D MARK III,kimono,50mm Sigma f/1.4 ZEISS lens,medium breasts,F1.4,light smile,1/800s,arms behind back,ISO 100,photorealistic,trending on instagram

Empfohlene Negative Prompts

disgusting,worst quality,low quality,logo,text,watermark,username

NG_DeepNegative_V1_75T,(worst quality,worst quality,low quality:1.4),low quality,logo,text,monochrome,nipples,nude

Empfohlene Parameter

samplers

Euler a

steps

20 - 40

cfg

11

resolution

512x768

Tipps

Verwende das Embedding mit negativen Prompts wie (worst quality, low quality, logo, text, watermark, username).

Für Modelle, die mit mehr als 75 Tokens trainiert wurden, sollte man kleinere Token-Versionen verwenden, um Fehler zu vermeiden.

Versions-Highlights

In negative Prompts einfügen

Ersteller-Sponsoren

Wenn du SDXL benutzt, wird dieses empfohlen 👉 DeepNegative für SDXL Version

Dieses Embedding sagt dir, was WIRKLICH EKKELHAFT ist 🤢🤮

Also bitte ins negative prompt setzen 😜

⚠ Dieses Modell ist nicht für SDXL trainiert und kann bei Nutzung in SDXL unerwünschte Ergebnisse liefern.

Wenn du SDXL benutzt, wird dieses 👇 empfohlen

ein anderes deep-negative:

TOP Q&A

  • Wie benutzt man das TI-Modell?

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion

  • Was ist ein negativer Prompt?

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Negative-prompt

[Besondere Erinnerung] Wenn dein WebUI folgende Fehler meldet:

- CUDA: CUDA error: device-side assert triggered

- Assertion -sizes[i] <= index && index < sizes[i] && "index out of bounds" failed

- XXX object has no attribute 'text_cond'

Versuche bitte, eine andere Modellversion als 75T zu verwenden.

> Der Grund ist, dass viele Skripte zu lange negative Prompt-Wörter (mehr als 75 Tokens) nicht richtig verarbeiten, daher kann eine kleinere Token-Version dies verbessern.

[Update:230120] Was macht es?

Dieses Embedding lernt, was ekelhafte Kompositionen und Farbmuster sind, einschließlich fehlerhafter menschlicher Anatomie, anstößiger Farbschemata, umgekehrter Raumstrukturen und mehr. Es im negativen Prompt zu verwenden, hilft stark, diese Dinge zu vermeiden.

-

Was ist 2T 4T 16T 32T?

Anzahl der Vektoren pro Token

[Update:230120] Was ist 64T 75T?

64T: Training über 30.000 Schritte auf gemischten Datensätzen.

75T: Embedding mit maximaler Größenbegrenzung, Training 10.000 Schritte auf einem speziellen Datensatz (generiert von vielen verschiedenen SD-Modellen und spezieller Rückverarbeitung)

Welches soll man wählen?

  • 75T: Das „am einfachsten zu verwendende“ Embedding, trainiert mit einem genauen Datensatz, der auf spezielle Weise erstellt wurde, mit fast keinen Nebenwirkungen. Es enthält ausreichend Informationen für verschiedene Nutzungsszenarien. Bei einigen „gut trainierten Modellen“ kann die Wirkung jedoch schwer spürbar oder subtil sein.

  • 64T: Funktioniert für alle Modelle, hat aber Nebenwirkungen. Daher ist etwas Feintuning zur Bestimmung des besten Gewichts erforderlich. Empfehlung: [( NG_DeepNegative_V1_64T :0.9) :0.1]

  • 32T: Nützlich, aber zu umfangreich.

  • 16T: Verringert die Chance auf schlechte Anatomiezeichnungen, kann aber hässliche Gesichter erzeugen. Geeignet, um das Architektur-Niveau zu erhöhen.

  • 4T: Verringert die Chance auf fehlerhafte Anatomie, hat aber nur geringe Auswirkungen auf Licht und Schatten.

  • 2T: „Leicht zu verwenden“ wie 75T, aber nur geringe Wirkung.

Vorschlag

Da dieses Embedding lernt, wie man ekelhafte Konzepte erzeugt, verbessert es die Bildqualität nicht präzise. Es wird daher empfohlen, es mit (worst quality, low quality, logo, text, watermark, username) als negative Prompts zu verwenden.

Natürlich ist es völlig in Ordnung, es mit anderen ähnlichen negativen Embeddings zu kombinieren.

Mehr Beispiele und Tests

Wie funktioniert es?

Ich habe versucht, SD mit dem deepdream Algorithmus zu lehren, was wirklich ekelhaft ist. Der Datensatz ist imagenet-mini (1000 zufällig ausgewählte Bilder aus dem Datensatz).

Deepdream ist WIRKLICH EKKELHAFT 🤮 und der Trainingsprozess dieses Modells hat mir körperliches Unwohlsein bereitet 😂

Backup

https://huggingface.co/lenML/DeepNegative/tree/main

Zurück
EasyNegative - EasyNegative_pt
Weiter
BadDream UnrealisticDream Negative Embeddings - BadDream v10

Modell-Details

Modelltyp

TextualInversion

Basismodell

SD 1.5

Modellversion

V1 75T

Modell-Hash

54e7e4826d

Trainierte Wörter

ng_deepnegative_v1_75t

Ersteller

Diskussion

Bitte log in um einen Kommentar zu hinterlassen.