HiDream Full GGUF-Q5_K_M UNCENSORED🔞 - v1.0
Prompt Negativi Consigliati
ugly, bad, wrong
Parametri Consigliati
samplers
steps
cfg
vae
Suggerimenti
Usa l'encoder di testo uncensored Meta Llama 3.1-8b-instruct-abliterated fornito per i migliori risultati.
Se si presentano problemi di VRAM, usa il file bat ottimizzato per VRAM run_nvidia_gpu_fp8vae.bat per avviare ComfyUI.
Prova diverse versioni uncensored di Meta Llama 3.1 come encoder di testo per sperimentare la qualità dell'immagine.
Usa il UNcensored HiDream-Full Workflow.json come workflow iniziale per testare il modello.
Punti Salienti della Versione
Questa raccolta di file contiene due elementi principali che rendono HiDream molto migliore e !UNCENSORED:
Trucco carino: viene usato converted-flan-t5-xxl-Q5_K_M.gguf invece di t5-v1_1-xxl-encoder-Q5_K_M.gguf per una migliore traduzione/codifica testo-vettore;
Ingrediente segreto principale: meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - invece di Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Leggi il processo di abliterazione/uncensura degli LLM qui: https://huggingface.co/blog/mlabonne/abliteration (ottieni altri LLM uncensored dai suoi repository su Huggingface...)
Estrai il file dall'archivio!
metti il file: hidream-i1-full-Q5_K_M.gguf nella cartella ComfyUI\models\unet;
metti i file: converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors nella cartella ComfyUI\models\text_encoders;
metti il file: HiDream.vae.safetensors nella cartella ComfyUI\models\vae;
usa il mio UNcensored HiDream-Full Workflow.json come workflow iniziale per testare il modello;
in caso di problemi di VRAM – usa il mio file bat ottimizzato per VRAM: run_nvidia_gpu_fp8vae.bat per avviare ComfyUI (mettilo direttamente nella cartella ComfyUI);
... in questo modo puoi avere una generazione di immagini HiDream-Full di alta qualità con 12GB di VRAM (testato!)
Usalo bene ;)
HFGL
Sponsor del Creatore
Leggi il processo di abliterazione/uncensura degli LLM qui: https://huggingface.co/blog/mlabonne/abliteration
Ottieni altri LLM uncensored su Huggingface dallo stesso autore.
Usa questa versione DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF: https://civitai.com/images/71818416
Controlla questo modello CLIP-G qui: https://civitai.com/models/1564749?modelVersionId=1773479
Questa è la quantizzazione più OTTIMALE (in termini di Qualità/Velocità|VRAM) del modello HiDream Full, dotata di un encoder di testo completamente "lobotomizzato"=uncensored (Meta Llama 3.1)
Questa raccolta di file contiene due elementi principali che rendono HiDream molto migliore e !UNCENSORED:
Trucco carino: viene usato converted-flan-t5-xxl-Q5_K_M.gguf invece di t5-v1_1-xxl-encoder-Q5_K_M.gguf per una migliore traduzione/codifica testo-vettore;
Ingrediente segreto principale: meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - invece di Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Leggi il processo di abliterazione/uncensura degli LLM qui: https://huggingface.co/blog/mlabonne/abliteration (ottieni altri LLM uncensored dai suoi repository su Huggingface...)
Quindi... semplicemente fai:
Estrai il file dall'archivio!
metti il file: hidream-i1-full-Q5_K_M.gguf nella cartella ComfyUI\models\unet;
metti i file: converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors nella cartella ComfyUI\models\text_encoders;
metti il file: HiDream.vae.safetensors nella cartella ComfyUI\models\vae;
usa il mio UNcensored HiDream-Full Workflow.json come workflow iniziale per testare come funziona;
in caso di problemi di VRAM – usa il mio file bat ottimizzato per VRAM: run_nvidia_gpu_fp8vae.bat per avviare ComfyUI (mettilo direttamente nella cartella ComfyUI);
... in questo modo puoi avere una produzione di immagini HiDream-Full di alta qualità con 12GB di VRAM (testato!)
Aggiornamento1: Puoi anche usare altre versioni uncensored di Meta Llama 3.1 nella parte encoder di testo, per esempio questa immagine: https://civitai.com/images/71818416 usa DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
Aggiornamento2: Prova questo CLIP-G --> https://civitai.com/models/1564749?modelVersionId=1773479
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.

