Zalecane negatywne podpowiedzi

色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走

Zalecane parametry

samplers

Uni_pc, flowmatch_causvid, dmp++_sde, dmp++_sde/beta, UniPC

steps

6 - 10

cfg

1

resolution

1024x576, 1080x720

Wskazówki

CGF musi być ustawiony na 1, aby uzyskać akceptowalne wyniki tekst na wideo i obraz na wideo.

Dla tekst na wideo wartości shift zaczynają się od 1 dla rozdzielczości 1024x576 i 2 dla 1080x720; niższe wartości shift są lepsze dla realizmu, wyższe dla stylizowanych wyglądów (3-9).

Dla obrazu na wideo zaleca się shift ustawiony na 2, ale zachęca się do eksperymentów.

Ustaw liczbę klatek na 121 i klatki na sekundę na 24, aby zwiększyć prędkość ruchu nawet o 50%.

Używaj custom noda Kaji Wan Wrapper dla najlepszych wyników i szybszego renderowania.

Unikaj ponownego dodawania CausVid, AccVideo lub MPS LoRAs, ponieważ są już wbudowane w model.

SageAttn zapewnia do 30% przyspieszenia, gdy jest włączony w wrapperze.

Nie używaj teacache z tym modelem z powodu niskiej liczby kroków.

Wypróbuj inne LoRAs dla dodatkowego stylizowania lub efektów eksperymentalnych.

Włącz block swapping, jeśli zabraknie VRAM; zacznij od 5 bloków i dostosuj.

Funkcję enhance video można używać z ustawieniami między 2-4, aby uzyskać bardziej żywe rezultaty.

Sponsorzy twórcy

☕ Podoba Ci się to, co robię? Wspieraj mnie tutaj: Kup mi kawę 💜
Każda kawa pomaga zasilać więcej darmowych LoRAs i workflow!

👉 Sprawdź FusionX Lightning Workflows dla szybszej generacji wideo w zaledwie 70 sekund!

🔗 Pobierz FusionX LoRAs tutaj dla większej kontroli z Twoją konfiguracją WAN2.1 + SkyReels.

🔗 Sprawdź Lightning Workflows tutaj dla przyspieszenia.

📌 Workflowy znajdziesz TUTAJ (w trakcie, więcej w drodze).

👉 Dołącz do społeczności Discord by rozmawiać, dzielić się pracami i otrzymywać wsparcie!

🌀 Wan2.1_14B_FusionX — Złączone modele dla szybszego, bogatszego ruchu i detali w zaledwie 8 krokach!

📢 Aktualizacja 7/1/2025!

Nowość: FusionX Lightning Workflows

Szukasz szybszej generacji wideo z WAN2.1? Sprawdź nowe FusionX_Lightning_Workflows — zoptymalizowane z LightX LoRA do renderowania wideo w zaledwie 70 sekund (4 kroki, 1024x576)!

🧩 Dostępne w:
• Native • Native GGUF • Wrapper
(Wkrótce VACE i Phantom)

🎞️ Image-to-Video otrzymał duży upgrade!!!!!!
Lepsze odwzorowanie promptu, więcej ruchu i płynniejsze dynamiki.

⚖️ FusionX vs Lightning?
Oryginał = maksymalny realizm.
Lightning = szybkość + niski VRAM, z podobną jakością przy użyciu inteligentnych promptów.

👉 Sprawdź tutaj


☕ Podoba Ci się to, co robię? Wspieraj mnie tutaj: Kup mi kawę 💜
Każda kawa pomaga zasilać więcej darmowych LoRAs i workflow!


📢 Czy wiesz, że możesz teraz używać FusionX jako LoRA zamiast pełnego modelu bazowego?
Idealne, jeśli chcesz większej kontroli pozostając przy własnej konfiguracji WAN2.1 + SkyReels.

🔗 Pobierz FusionX LoRAs TUTAJ
🔗 Lub sprawdź Lightning Workflows TUTAJ dla dużego przyspieszenia.


📌 Ważne szczegóły – Proszę przeczytaj pełny opis poniżej, ponieważ drobne zmiany ustawień mogą dać całkowicie odmienne, niepożądane efekty! Testowałem i już znalazłem lepsze ustawienia, więc proszę, czytaj uważnie! Dziękuję :)

💡Workflowy znajdziesz TUTAJ (to w trakcie opracowania, więcej wkrótce).

🛠️Sekcja aktualizacji została przeniesiona na koniec opisu.

Wysokowydajny model tekst na wideo oparty na bazowym modelu WAN 2.1 14B T2V — starannie połączony z wieloma modelami badawczymi by poprawić jakość ruchu, spójność sceny i detale wizualne, porównywalny z wieloma zamkniętymi modelami.

## 📢 Dołącz do społeczności!

Przyjazne miejsce do rozmów, dzielenia się kreacjami i uzyskiwania wsparcia.

👉 Kliknij tutaj, by dołączyć do Discord!

Przywitaj się na #welcome, przeczytaj zasady i pochwal się swoimi pracami! 🎨🧠

💡 Co zawiera ten model bazowy:

  • 🧠 CausVid – przyczynowe modelowanie ruchu dla lepszego przepływu sceny i dramatycznego przyspieszenia

  • 🎞️ AccVideo – poprawia dopasowanie temporalne i realizm oraz przyspiesza

  • 🎨 MoviiGen1.1 – zapewnia kinową płynność i oświetlenie

  • 🧬 MPS Reward LoRA – dopasowana do dynamiki ruchu i detali

  • Własne LoRA (przeze mnie) – skupione na teksturze, klarowności i drobnych detalach. (Obie mają bardzo niskie wartości i niewielki wpływ)


🔥 Najważniejsze cechy:

  • 📝 Akceptuje standardową konfigurację prompt + negative prompt

  • 🌀 Dostosowany dla wysokiej spójności temporalnej i ekspresyjnych, kinowych scen

  • 🔁 Bezproblemowy zamiennik dla WAN 2.1 T2V — po prostu lepszy

  • 🚀 Renderuje do 50% szybciej niż model bazowy (zwłaszcza z włączonym SageAttn)

  • 🧩 W pełni kompatybilny z VACE

  • 🧠 Zoptymalizowany do użycia w ComfyUI, zarówno z wrapperem Kijai Wan, jak i natywnymi nodami.


📌 Ważne szczegóły dla tekst na wideo:

  • 🔧 CGF musi być ustawiony na 1 — wyższe wartości nie dają akceptowalnych rezultatów.

  • 🔧 Shift - Wyniki zależą od rozdzielczości. 1024x576 powinno zaczynać od 1, a 1080x720 od 2. Uwaga: dla realizmu potrzebne są niższe wartości shift. Dla stylizowanego wyglądu testuj wyższe wartości między 3-9.

  • Scheduler: Większość przykładów używa Uni_pc, ale możesz eksperymentować z innymi. Zauważyłem, że flowmatch_causvid także dobrze działa i pomaga w drobnych detalach.

📌 Ważne szczegóły dla obrazu na wideo:

  • 🔧 CGF musi być ustawiony na 1 — wyższe wartości nie dają akceptowalnych rezultatów.

  • 🔧 Shift - Dla image-to-video najlepsza jest wartość 2, ale zachęcam do eksperymentów.

  • Scheduler: Większość przykładów korzysta z dmp++_sde/beta i wydaje się być najlepszy, ale można eksperymentować.

  • Po testach, aby uzyskać więcej ruchu i zmniejszyć efekt slow-mo, ustaw liczbę klatek na 121 i 24 klatki na sekundę. Może to zwiększyć prędkość ruchu nawet o 50%.

📌Inne ważne informacje:

  • Generowanie wideo działa już przy 6 krokach, ale 8–10 kroków daje najlepszą jakość. Mniejsza liczba kroków sprawdza się do szybkich wersji roboczych z dużym przyspieszeniem.

  • 🧩 Najlepsze wyniki przy użyciu Kaji Wan Wrapper custom noda:
    https://github.com/kijai/ComfyUI-WanVideoWrapper

  • 🧪 Testowano też natywny workflow WAN, czas generacji jest trochę dłuższy, ale wyniki podobne do wrappera.

  • Nie dodawaj ponownie CausVid, AccVideo ani MPS LoRAs — są już wbudowane w model i mogą powodować niepożądane efekty.

  • 🎨 Możesz używać innych LoRAs do dodatkowego stylizowania — eksperymentuj śmiało.

  • 📽️ Wszystkie demo wideo generowano w rozdzielczości 1024x576, 81 klatek, używając tylko tego modelu — bez upscalingu, interpolacji czy dodatkowych LoRAs.

  • 🖥️ Renderowano na RTX 5090 — każde wideo zajmuje około 138 sekund przy wymienionych ustawieniach.

  • 🧠 Jeśli zabraknie VRAM, włącz block swapping — zaczynaj od 5 bloków i dopasuj.

  • 🚀 SageAttn był włączony, co dało do 30% przyspieszenia. (tylko wrapper)

  • Workflows dla każdego modelu są dostępne tutaj: TUTAJ

  • 🚫 Nie używaj teacache — niepotrzebne przy niskiej liczbie kroków.

  • 🔍 Funkcje “Enhance a video” i “SLGnie były testowane — zachęcam do samodzielnych eksperymentów. -- Edycja. Przetestowałem "Enhance a video" i można uzyskać bardziej żywe rezultaty włączając tę opcję. Ustawienia między 2-4. Eksperymentuj! SLG mało testowany.

  • 💬 Masz pytania? Możesz zostawić wiadomość lub dołączyć do społeczności:

    • 👉 Kliknij tutaj, aby dołączyć do Discord!

  • 📝 Chcesz lepsze prompty? Wszystkie przykładowe prompty do wideo tworzę za pomocą tego custom GPT:
    🎬 WAN Cinematic Video Prompt Generator
    Poproś o dodatkowe wizualne i kinowe detale — robi to zauważalną różnicę.


⚠️ Oświadczenie:

  • Wideo generowane tym modelem jest przeznaczone wyłącznie do osobistego, edukacyjnego lub eksperymentalnego użytku, o ile nie dopełniłeś własnych obowiązków prawnych.

  • Model to połączenie wielu modeli badawczych i nie jest gwarantowane, że nie zawiera danych chronionych prawem autorskim lub własnościowych.

  • Odpowiadasz samodzielnie za wszelkie treści generowane i ich użycie.

  • Jeśli zdecydujesz się używać wyników komercyjnie, przyjmujesz pełną odpowiedzialność prawną za naruszenie praw autorskich, niewłaściwe użycie lub naruszenie praw osób trzecich.

W razie wątpliwości, skonsultuj się z wykwalifikowanym doradcą prawnym przed komercjalizacją czy dystrybucją dowolnych treści generowanych.


### 🧠 Więcej wariantów GGUF

- 🖼️ [FusionX Image-to-Video (GGUF)]

- 🎥 [FusionX Text-to-Video (GGUF)]

- 🎞️ [FusionX T2V VACE GGUF (dla native)]

- 👻 [FusionX Phantom GGUF (dla native)]


###🧠 Wersje fp16 dostępne tutaj:

-- 🖼️fp16 FusionX Models



📌Porównania gguf!
Stopniowo dodaję do tej listy, ale tutaj możesz zobaczyć porównanie modeli względem głównego modelu.

Tekst na wideo:

--------

🛠️Aktualizacja 6/8/2025 - Opublikowano model image-to-video! Ustawienia użyte w przykładach: Kroki = 10 / cfg = 1 / shift = 2 / scheduler = dmp++_sde Wkrótce zamieszczę workflow.

🛠️Aktualizacja 6/7/2025 - Opublikowano model i2v phantom, który potrafi połączyć do 4 obrazów referencyjnych w wideo. Wkrótce workflow.

Workflow Phantom jest w trakcie dodawania.

🛠️Aktualizacja 6/6/2025 - Dodano nowy model gguf! Jeśli chcesz najwyższej jakości i masz wystarczająco VRAM, pobierz model V1.0, w przeciwnym razie gguf jest najlepszą alternatywą! Przy użyciu gguf czas generacji jest dłuższy, nawet na RTX 5090.

Poprzedni
Elegancka minimalistyczna grafika liniowa - Flux
Następny
Dodge Charger SRT Hellcat (SDXL) - v1.0

Szczegóły modelu

Typ modelu

Checkpoint

Model bazowy

Wan Video 14B t2v

Wersja modelu

FusionX_Text2Video

Hash modelu

f9dcda1af2

Dyskusja

Proszę się log in, aby dodać komentarz.

Obrazy autorstwa Wan2.1_14B_FusionX - FusionX_Text2Video

Obrazy z model bazowy