Wan2.1_14B_FusionX - FusionX_Text2Video
Powiązane słowa kluczowe i tagi
Zalecane negatywne podpowiedzi
色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走
Zalecane parametry
samplers
steps
cfg
resolution
Wskazówki
CGF musi być ustawiony na 1, aby uzyskać akceptowalne wyniki tekst na wideo i obraz na wideo.
Dla tekst na wideo wartości shift zaczynają się od 1 dla rozdzielczości 1024x576 i 2 dla 1080x720; niższe wartości shift są lepsze dla realizmu, wyższe dla stylizowanych wyglądów (3-9).
Dla obrazu na wideo zaleca się shift ustawiony na 2, ale zachęca się do eksperymentów.
Ustaw liczbę klatek na 121 i klatki na sekundę na 24, aby zwiększyć prędkość ruchu nawet o 50%.
Używaj custom noda Kaji Wan Wrapper dla najlepszych wyników i szybszego renderowania.
Unikaj ponownego dodawania CausVid, AccVideo lub MPS LoRAs, ponieważ są już wbudowane w model.
SageAttn zapewnia do 30% przyspieszenia, gdy jest włączony w wrapperze.
Nie używaj teacache z tym modelem z powodu niskiej liczby kroków.
Wypróbuj inne LoRAs dla dodatkowego stylizowania lub efektów eksperymentalnych.
Włącz block swapping, jeśli zabraknie VRAM; zacznij od 5 bloków i dostosuj.
Funkcję enhance video można używać z ustawieniami między 2-4, aby uzyskać bardziej żywe rezultaty.
Sponsorzy twórcy
☕ Podoba Ci się to, co robię? Wspieraj mnie tutaj: Kup mi kawę 💜
Każda kawa pomaga zasilać więcej darmowych LoRAs i workflow!
👉 Sprawdź FusionX Lightning Workflows dla szybszej generacji wideo w zaledwie 70 sekund!
🔗 Pobierz FusionX LoRAs tutaj dla większej kontroli z Twoją konfiguracją WAN2.1 + SkyReels.
🔗 Sprawdź Lightning Workflows tutaj dla przyspieszenia.
📌 Workflowy znajdziesz TUTAJ (w trakcie, więcej w drodze).
👉 Dołącz do społeczności Discord by rozmawiać, dzielić się pracami i otrzymywać wsparcie!
🌀 Wan2.1_14B_FusionX — Złączone modele dla szybszego, bogatszego ruchu i detali w zaledwie 8 krokach!
📢 Aktualizacja 7/1/2025!
Nowość: FusionX Lightning Workflows
Szukasz szybszej generacji wideo z WAN2.1? Sprawdź nowe FusionX_Lightning_Workflows — zoptymalizowane z LightX LoRA do renderowania wideo w zaledwie 70 sekund (4 kroki, 1024x576)!
🧩 Dostępne w:
• Native • Native GGUF • Wrapper
(Wkrótce VACE i Phantom)
🎞️ Image-to-Video otrzymał duży upgrade!!!!!!
Lepsze odwzorowanie promptu, więcej ruchu i płynniejsze dynamiki.
⚖️ FusionX vs Lightning?
Oryginał = maksymalny realizm.
Lightning = szybkość + niski VRAM, z podobną jakością przy użyciu inteligentnych promptów.
☕ Podoba Ci się to, co robię? Wspieraj mnie tutaj: Kup mi kawę 💜
Każda kawa pomaga zasilać więcej darmowych LoRAs i workflow!
📢 Czy wiesz, że możesz teraz używać FusionX jako LoRA zamiast pełnego modelu bazowego?
Idealne, jeśli chcesz większej kontroli pozostając przy własnej konfiguracji WAN2.1 + SkyReels.
🔗 Pobierz FusionX LoRAs TUTAJ
🔗 Lub sprawdź Lightning Workflows TUTAJ dla dużego przyspieszenia.
📌 Ważne szczegóły – Proszę przeczytaj pełny opis poniżej, ponieważ drobne zmiany ustawień mogą dać całkowicie odmienne, niepożądane efekty! Testowałem i już znalazłem lepsze ustawienia, więc proszę, czytaj uważnie! Dziękuję :)
💡Workflowy znajdziesz TUTAJ (to w trakcie opracowania, więcej wkrótce).
🛠️Sekcja aktualizacji została przeniesiona na koniec opisu.
Wysokowydajny model tekst na wideo oparty na bazowym modelu WAN 2.1 14B T2V — starannie połączony z wieloma modelami badawczymi by poprawić jakość ruchu, spójność sceny i detale wizualne, porównywalny z wieloma zamkniętymi modelami.
## 📢 Dołącz do społeczności!
Przyjazne miejsce do rozmów, dzielenia się kreacjami i uzyskiwania wsparcia.
👉 Kliknij tutaj, by dołączyć do Discord!
Przywitaj się na #welcome, przeczytaj zasady i pochwal się swoimi pracami! 🎨🧠
💡 Co zawiera ten model bazowy:
🧠 CausVid – przyczynowe modelowanie ruchu dla lepszego przepływu sceny i dramatycznego przyspieszenia
🎞️ AccVideo – poprawia dopasowanie temporalne i realizm oraz przyspiesza
🎨 MoviiGen1.1 – zapewnia kinową płynność i oświetlenie
🧬 MPS Reward LoRA – dopasowana do dynamiki ruchu i detali
✨ Własne LoRA (przeze mnie) – skupione na teksturze, klarowności i drobnych detalach. (Obie mają bardzo niskie wartości i niewielki wpływ)
🔥 Najważniejsze cechy:
📝 Akceptuje standardową konfigurację prompt + negative prompt
🌀 Dostosowany dla wysokiej spójności temporalnej i ekspresyjnych, kinowych scen
🔁 Bezproblemowy zamiennik dla WAN 2.1 T2V — po prostu lepszy
🚀 Renderuje do 50% szybciej niż model bazowy (zwłaszcza z włączonym SageAttn)
🧩 W pełni kompatybilny z VACE
🧠 Zoptymalizowany do użycia w ComfyUI, zarówno z wrapperem Kijai Wan, jak i natywnymi nodami.
📌 Ważne szczegóły dla tekst na wideo:
🔧 CGF musi być ustawiony na 1 — wyższe wartości nie dają akceptowalnych rezultatów.
🔧 Shift - Wyniki zależą od rozdzielczości. 1024x576 powinno zaczynać od 1, a 1080x720 od 2. Uwaga: dla realizmu potrzebne są niższe wartości shift. Dla stylizowanego wyglądu testuj wyższe wartości między 3-9.
Scheduler: Większość przykładów używa Uni_pc, ale możesz eksperymentować z innymi. Zauważyłem, że flowmatch_causvid także dobrze działa i pomaga w drobnych detalach.
📌 Ważne szczegóły dla obrazu na wideo:
🔧 CGF musi być ustawiony na 1 — wyższe wartości nie dają akceptowalnych rezultatów.
🔧 Shift - Dla image-to-video najlepsza jest wartość 2, ale zachęcam do eksperymentów.
Scheduler: Większość przykładów korzysta z dmp++_sde/beta i wydaje się być najlepszy, ale można eksperymentować.
Po testach, aby uzyskać więcej ruchu i zmniejszyć efekt slow-mo, ustaw liczbę klatek na 121 i 24 klatki na sekundę. Może to zwiększyć prędkość ruchu nawet o 50%.
📌Inne ważne informacje:
⚡ Generowanie wideo działa już przy 6 krokach, ale 8–10 kroków daje najlepszą jakość. Mniejsza liczba kroków sprawdza się do szybkich wersji roboczych z dużym przyspieszeniem.
🧩 Najlepsze wyniki przy użyciu Kaji Wan Wrapper custom noda:
https://github.com/kijai/ComfyUI-WanVideoWrapper🧪 Testowano też natywny workflow WAN, czas generacji jest trochę dłuższy, ale wyniki podobne do wrappera.
❗ Nie dodawaj ponownie CausVid, AccVideo ani MPS LoRAs — są już wbudowane w model i mogą powodować niepożądane efekty.
🎨 Możesz używać innych LoRAs do dodatkowego stylizowania — eksperymentuj śmiało.
📽️ Wszystkie demo wideo generowano w rozdzielczości 1024x576, 81 klatek, używając tylko tego modelu — bez upscalingu, interpolacji czy dodatkowych LoRAs.
🖥️ Renderowano na RTX 5090 — każde wideo zajmuje około 138 sekund przy wymienionych ustawieniach.
🧠 Jeśli zabraknie VRAM, włącz block swapping — zaczynaj od 5 bloków i dopasuj.
🚀 SageAttn był włączony, co dało do 30% przyspieszenia. (tylko wrapper)
Workflows dla każdego modelu są dostępne tutaj: TUTAJ
🚫 Nie używaj teacache — niepotrzebne przy niskiej liczbie kroków.
🔍 Funkcje “Enhance a video” i “SLG” nie były testowane — zachęcam do samodzielnych eksperymentów. -- Edycja. Przetestowałem "Enhance a video" i można uzyskać bardziej żywe rezultaty włączając tę opcję. Ustawienia między 2-4. Eksperymentuj! SLG mało testowany.
💬 Masz pytania? Możesz zostawić wiadomość lub dołączyć do społeczności:
👉 Kliknij tutaj, aby dołączyć do Discord!
📝 Chcesz lepsze prompty? Wszystkie przykładowe prompty do wideo tworzę za pomocą tego custom GPT:
🎬 WAN Cinematic Video Prompt Generator
Poproś o dodatkowe wizualne i kinowe detale — robi to zauważalną różnicę.
⚠️ Oświadczenie:
Wideo generowane tym modelem jest przeznaczone wyłącznie do osobistego, edukacyjnego lub eksperymentalnego użytku, o ile nie dopełniłeś własnych obowiązków prawnych.
Model to połączenie wielu modeli badawczych i nie jest gwarantowane, że nie zawiera danych chronionych prawem autorskim lub własnościowych.
Odpowiadasz samodzielnie za wszelkie treści generowane i ich użycie.
Jeśli zdecydujesz się używać wyników komercyjnie, przyjmujesz pełną odpowiedzialność prawną za naruszenie praw autorskich, niewłaściwe użycie lub naruszenie praw osób trzecich.
W razie wątpliwości, skonsultuj się z wykwalifikowanym doradcą prawnym przed komercjalizacją czy dystrybucją dowolnych treści generowanych.
### 🧠 Więcej wariantów GGUF
- 🖼️ [FusionX Image-to-Video (GGUF)]
- 🎥 [FusionX Text-to-Video (GGUF)]
- 🎞️ [FusionX T2V VACE GGUF (dla native)]
- 👻 [FusionX Phantom GGUF (dla native)]
###🧠 Wersje fp16 dostępne tutaj:
-- 🖼️fp16 FusionX Models
📌Porównania gguf!
Stopniowo dodaję do tej listy, ale tutaj możesz zobaczyć porównanie modeli względem głównego modelu.
Tekst na wideo:
--------
🛠️Aktualizacja 6/8/2025 - Opublikowano model image-to-video! Ustawienia użyte w przykładach: Kroki = 10 / cfg = 1 / shift = 2 / scheduler = dmp++_sde Wkrótce zamieszczę workflow.
🛠️Aktualizacja 6/7/2025 - Opublikowano model i2v phantom, który potrafi połączyć do 4 obrazów referencyjnych w wideo. Wkrótce workflow.
Workflow Phantom jest w trakcie dodawania.
🛠️Aktualizacja 6/6/2025 - Dodano nowy model gguf! Jeśli chcesz najwyższej jakości i masz wystarczająco VRAM, pobierz model V1.0, w przeciwnym razie gguf jest najlepszą alternatywą! Przy użyciu gguf czas generacji jest dłuższy, nawet na RTX 5090.
Szczegóły modelu
Typ modelu
Model bazowy
Wersja modelu
Hash modelu
Twórca
Dyskusja
Proszę się log in, aby dodać komentarz.
