HiDream Full GGUF-Q5_K_M UNCENSORED🔞 - v1.0
Powiązane słowa kluczowe i tagi
Zalecane negatywne podpowiedzi
ugly, bad, wrong
Zalecane parametry
samplers
steps
cfg
vae
Wskazówki
Używaj dostarczonego nieocenzurowanego enkodera tekstowego Meta Llama 3.1-8b-instruct-abliterated dla najlepszych efektów.
W przypadku problemów z VRAM korzystaj z zoptymalizowanego pod VRAM pliku run_nvidia_gpu_fp8vae.bat do uruchamiania ComfyUI.
Eksperymentuj z różnymi nieocenzurowanymi wersjami Meta Llama 3.1 jako enkoderami tekstu, aby poprawić jakość obrazów.
Używaj pliku UNcensored HiDream-Full Workflow.json jako startowego workflow do testowania modelu.
Najważniejsze informacje o wersji
Ten zbiór plików zawiera dwa główne składniki, które sprawiają, że HiDream jest znacznie lepszy i !nieocenzurowany:
Sprytny trik: zamiast t5-v1_1-xxl-encoder-Q5_K_M.gguf użyto converted-flan-t5-xxl-Q5_K_M.gguf dla lepszego tłumaczenia/enkodowania tekstu na wektor;
Główny sekret: meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - zamiast Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Przeczytaj o procesie abliteracji/odcenzurowania LLM tutaj: https://huggingface.co/blog/mlabonne/abliteration (pobierz inne nieocenzurowane LLM-y z jego repozytoriów na Huggingface...)
Rozpakuj plik archiwum!
umieść plik: hidream-i1-full-Q5_K_M.gguf w folderze ComfyUI\models\unet;
umieść pliki: converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors w folderze ComfyUI\models\text_encoders;
umieść plik: HiDream.vae.safetensors w folderze ComfyUI\models\vae;
użyj mojego pliku UNcensored HiDream-Full Workflow.json jako startowego workflow, aby przetestować działanie;
w przypadku problemów z VRAM - użyj mojego zoptymalizowanego pod VRAM pliku bat: run_nvidia_gpu_fp8vae.bat do uruchomienia ComfyUI (umieść go bezpośrednio w folderze ComfyUI);
... w ten sposób możesz osiągnąć wysoką jakość generowania obrazów HiDream-Full na 12Gb VRAM (przetestowane!)
Używaj z rozwagą ;)
HFGL
Sponsorzy twórcy
Przeczytaj o procesie abliteracji/odcenzurowania LLM tutaj: https://huggingface.co/blog/mlabonne/abliteration
Pobierz inne nieocenzurowane LLM-y na Huggingface od tego samego autora.
Użyj tej wersji DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF: https://civitai.com/images/71818416
Sprawdź ten model CLIP-G tutaj: https://civitai.com/models/1564749?modelVersionId=1773479
Jest to najbardziej OPTYMALNY (pod względem jakości/szybkości|VRAM) quant modelu HiDream Full wyposażony w całkowicie „lobotomizowany”=nieocenzurowany enkoder tekstu (Meta Llama 3.1)
Ten zbiór plików zawiera dwa główne składniki, które sprawiają, że HiDream jest znacznie lepszy i !nieocenzurowany:
Sprytny trik: zamiast t5-v1_1-xxl-encoder-Q5_K_M.gguf użyto converted-flan-t5-xxl-Q5_K_M.gguf dla lepszego tłumaczenia/enkodowania tekstu na wektor;
Główny sekret: meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf - zamiast Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf --> Przeczytaj o procesie abliteracji/odcenzurowania LLM tutaj: https://huggingface.co/blog/mlabonne/abliteration (pobierz inne nieocenzurowane LLM-y z jego repozytoriów na Huggingface...)
Więc … po prostu wykonaj:
Rozpakuj plik archiwum!
umieść plik: hidream-i1-full-Q5_K_M.gguf w folderze ComfyUI\models\unet;
umieść pliki: converted-flan-t5-xxl-Q5_K_M.gguf, meta-llama-3.1-8b-instruct-abliterated.Q5_K_M.gguf, clip_g_hidream.safetensors, clip_l_hidream.safetensors w folderze ComfyUI\models\text_encoders;
umieść plik: HiDream.vae.safetensors w folderze ComfyUI\models\vae;
użyj mojego pliku UNcensored HiDream-Full Workflow.json jako startowego workflow, aby przetestować działanie;
w przypadku problemów z VRAM - użyj mojego zoptymalizowanego pod VRAM pliku bat: run_nvidia_gpu_fp8vae.bat do uruchomienia ComfyUI (umieść go bezpośrednio w folderze ComfyUI);
... w ten sposób możesz osiągnąć wysoką jakość generowania obrazów HiDream-Full na 12Gb VRAM (przetestowane!)
Aktualizacja1: Możesz też korzystać z innych nieocenzurowanych wersji Meta Llama 3.1 w enkoderze tekstu, na przykład ten obraz: https://civitai.com/images/71818416 używa DarkIdol-Llama-3.1-8B-Instruct-1.2-Uncensored-GGUF
Aktualizacja2: Wypróbuj ten CLIP-G --> https://civitai.com/models/1564749?modelVersionId=1773479
Szczegóły modelu
Dyskusja
Proszę się log in, aby dodać komentarz.

