HiDream Full GGUF-Q5_K_M UNCENSORED🔞 - v1.0
Mots-clés et tags associés
Prompts négatifs recommandés
ugly, bad, wrong
Paramètres recommandés
samplers
steps
cfg
vae
Conseils
Utilisez l'encodeur de texte Meta Llama 3.1-8b-instruct-abliterated uncensuré fourni pour de meilleurs résultats.
En cas de problèmes de VRAM, utilisez le fichier run_nvidia_gpu_fp8vae.bat optimisé pour la VRAM afin de lancer ComfyUI.
Essayez différentes versions uncensurées de Meta Llama 3.1 comme encodeurs de texte pour expérimenter avec la qualité d'image.
Utilisez le UNcensored HiDream-Full Workflow.json comme workflow de départ pour tester le modèle.
Points forts de la version
Cette collection de fichiers contient deux ingrédients principaux qui rendent HiDream bien meilleur et !UNCensuré :
Astuce sympa : converted-flan-t5-xxl-Q5_K_M.gguf est utilisé à la place de t5-v1_1-xxl-encoder-Q5_K_M.gguf pour une meilleure traduction/encodage texte-vers-vecteur ;
L'ingrédient secret principal : meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - au lieu de Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Lisez le processus d'ablittération/uncensuration des LLM ici : https://huggingface.co/blog/mlabonne/abliteration (obtenez d'autres LLM uncensurés depuis ses dépôts sur Huggingface...)
Décompressez l'archive !
placez le fichier : hidream-i1-full-Q5_K_M.gguf dans le dossier ComfyUI\models\unet ;
placez les fichiers : converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors dans le dossier ComfyUI\models\text_encoders ;
placez : HiDream.vae.safetensors dans le dossier ComfyUI\models\vae ;
utilisez mon UNcensored HiDream-Full Workflow.json comme workflow de départ pour tester le fonctionnement ;
en cas de problèmes de VRAM, utilisez mon fichier bat optimisé pour VRAM : run_nvidia_gpu_fp8vae.bat pour lancer ComfyUI (placez-le directement dans le dossier ComfyUI) ;
... ainsi vous pouvez obtenir une génération d'images HiDream-Full de haute qualité avec 12 Go de VRAM (testé !)
Utilisez-le bien ;)
HFGL
Sponsors du créateur
Lisez sur le processus d'ablittération/uncensuration des LLM ici : https://huggingface.co/blog/mlabonne/abliteration
Obtenez d'autres LLM uncensurés sur Huggingface du même auteur.
Utilisez cette version DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF : https://civitai.com/images/71818416
Consultez ce modèle CLIP-G ici : https://civitai.com/models/1564749?modelVersionId=1773479
Ceci est la quantification la plus OPTIMALE (en termes de Qualité/Vitesse|VRAM) du modèle HiDream Full, équipée d'un encodeur de texte complètement "lobotomisé"=uncensuré (Meta Llama 3.1)
Cette collection de fichiers contient deux ingrédients principaux qui rendent HiDream bien meilleur et !UNCensuré :
Astuce sympa : converted-flan-t5-xxl-Q5_K_M.gguf est utilisé à la place de t5-v1_1-xxl-encoder-Q5_K_M.gguf pour une meilleure traduction/encodage texte-vers-vecteur ;
L'ingrédient secret principal : meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - au lieu de Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Lisez le processus d'ablittération/uncensuration des LLM ici : https://huggingface.co/blog/mlabonne/abliteration (obtenez d'autres LLM uncensurés depuis ses dépôts sur Huggingface...)
Donc ... c'est simple :
Décompressez l'archive !
placez le fichier : hidream-i1-full-Q5_K_M.gguf dans le dossier ComfyUI\models\unet ;
placez les fichiers : converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors dans le dossier ComfyUI\models\text_encoders ;
placez : HiDream.vae.safetensors dans le dossier ComfyUI\models\vae ;
utilisez mon UNcensored HiDream-Full Workflow.json comme workflow de départ pour tester le fonctionnement ;
en cas de problèmes de VRAM, utilisez mon fichier bat optimisé pour VRAM : run_nvidia_gpu_fp8vae.bat pour lancer ComfyUI (placez-le directement dans le dossier ComfyUI) ;
... ainsi vous pouvez obtenir une génération d'images HiDream-Full de haute qualité avec 12 Go de VRAM (testé !)
Update1 : Vous pouvez aussi utiliser d'autres versions uncensurées de Meta Llama 3.1 dans la partie encodeur de texte, par exemple cette image : https://civitai.com/images/71818416 utilise DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
Update2 : Essayez ce CLIP-G --> https://civitai.com/models/1564749?modelVersionId=1773479
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.

