Empfohlene Negative Prompts

色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走

Empfohlene Parameter

samplers

Uni_pc, flowmatch_causvid, dmp++_sde, dmp++_sde/beta, UniPC

steps

6 - 10

cfg

1

resolution

1024x576, 1080x720

Tipps

CGF muss für akzeptable Text-zu-Video und Image-zu-Video Ergebnisse auf 1 gesetzt werden.

Für Text-zu-Video starten Shift-Werte bei 1 für 1024x576 Auflösung und bei 2 für 1080x720; niedrigere Shift-Werte sind besser für Realismus, höhere für stilisierte Looks (3-9).

Für Image-zu-Video wird Shift-Wert 2 empfohlen, aber Experimentieren ist erwünscht.

Setze die Frame-Anzahl auf 121 und Frames pro Sekunde auf 24, um die Bewegungsgeschwindigkeit um bis zu 50 % zu erhöhen.

Nutze den Kaji Wan Wrapper Custom Node für beste Ergebnisse und schnellere Renderzeiten.

Füge CausVid, AccVideo oder MPS LoRAs nicht erneut hinzu, da sie ins Modell eingebettet sind.

SageAttn bietet bis zu 30 % Geschwindigkeitsschub, wenn es im Wrapper aktiviert ist.

Verwende für dieses Modell kein Teacache wegen der niedrigen Schrittanzahl.

Teste andere LoRAs für zusätzlichen Stil oder experimentelle Effekte.

Aktiviere Block-Swapping bei VRAM-Mangel; beginne mit 5 Blöcken und passe an.

Die Funktion zur Verbesserung von Videos kann mit Einstellungen zwischen 2-4 genutzt werden, um lebendigere Ergebnisse zu erzielen.

Ersteller-Sponsoren

☕ Gefällt dir, was ich mache? Unterstütze mich hier: Buy Me A Coffee 💜
Jeder Kaffee ermöglicht mehr kostenlose LoRAs & Workflows!

👉 Entdecke FusionX Lightning Workflows für schnellere Videoerstellungen in nur 70 Sekunden!

🔗 Hol dir die FusionX LoRAs hier für mehr Kontrolle mit deinem WAN2.1 + SkyReels Setup.

🔗 Sieh dir die Lightning Workflows hier an für einen Geschwindigkeitsschub.

📌 Workflows findest du HIER (In Arbeit, mehr folgt).

👉 Tritt der Discord Community bei, um zu chatten, Kreationen zu teilen und Unterstützung zu erhalten!

🌀 Wan2.1_14B_FusionX — Zusammengeschlossene Modelle für schnellere, reichhaltigere Bewegung & Details in nur 8 Schritten!

📢 Update 01.07.2025!

Neu: FusionX Lightning Workflows

Suchst du schnellere Videogenerierung mit WAN2.1? Schau dir die neuen FusionX_Lightning_Workflows an — optimiert mit LightX LoRA, um Videos in nur 70 Sekunden (4 Schritte, 1024x576) zu rendern!

🧩 Verfügbar in:
• Native • Native GGUF • Wrapper
(VACE & Phantom folgen bald)

🎞️ Image-to-Video wurde stark verbessert!!!!!!
Bessere Prompt-Einhaltung, mehr Bewegung und flüssigere Dynamik.

⚖️ FusionX vs Lightning?
Original = maximale Realismus.
Lightning = Geschwindigkeit + wenig VRAM, mit ähnlicher Qualität durch smarte Prompts.

👉 Hier ansehen


☕ Gefällt dir, was ich mache? Unterstütze mich hier: Buy Me A Coffee 💜
Jede Kaffeeunterstützung ermöglicht mehr kostenlose LoRAs & Workflows!


📢 Wusstest du, dass du FusionX auch als LoRA anstelle eines vollständigen Basismodells verwenden kannst?
Perfekt, wenn du mehr Kontrolle möchtest und dein eigenes WAN2.1 + SkyReels-Setup beibehalten willst.

🔗 Hol dir die FusionX LoRAs HIER
🔗 Oder teste die Lightning Workflows HIER für einen massiven Geschwindigkeitsschub.


📌 Wichtige Details - Bitte lies die vollständige Beschreibung unten, da kleine Änderung der Einstellungen zu ganz anderen Ergebnissen führen können! Ich habe bereits bessere Einstellungen getestet, bitte genau lesen! Danke :)

💡Workflows findest du HIER (In Arbeit, weitere folgen bald.)

🛠️Update-Bereich wurde ans Ende der Beschreibung verschoben.

Ein leistungsstarkes Text-zu-Video Modell, aufgebaut auf dem Basis WAN 2.1 14B T2V Modell — sorgfältig zusammengeführt mit mehreren forschungsbasierten Modellen, um Bewegungsqualität, Szenenkonsistenz und visuelle Details zu verbessern, vergleichbar mit vielen Closed-Source-Modellen.

## 📢 Werde Teil der Community!

Ein freundlicher Raum zum Chatten, Teilen von Kreationen und zur Unterstützung.

👉 Hier dem Discord beitreten!

Komm im #welcome vorbei, lies die Regeln und zeige deine Arbeiten! 🎨🧠

💡 Das ist im Basismodell enthalten:

  • 🧠 CausVid – Kausales Bewegungsmodell für besseren Szenenfluss und dramatischen Geschwindigkeitsboost

  • 🎞️ AccVideo – Verbessert zeitliche Ausrichtung und Realismus sowie Geschwindigkeit

  • 🎨 MoviiGen1.1 – Bringt kinoreife Sanftheit und Beleuchtung

  • 🧬 MPS Reward LoRA – Abgestimmt auf Bewegungsdynamik und Details

  • Eigene LoRAs (von mir) – Fokus auf Textur, Klarheit und feine Details. (Diese beiden wurden sehr schwach eingestellt und haben nur kleinen Einfluss)


🔥 Highlights:

  • 📝 Akzeptiert Standard Prompt + Negativ-Prompt Setup

  • 🌀 Abgestimmt auf hohe zeitliche Kohärenz und ausdrucksstarke, kinoreife Szenen

  • 🔁 Drop-in Ersatz für WAN 2.1 T2V — einfach besser

  • 🚀 Rendert bis zu 50 % schneller als das Basismodell (besonders mit aktiviertem SageAttn)

  • 🧩 Voll kompatibel mit VACE

  • 🧠 Optimiert für Nutzung in ComfyUI, mit sowohl Kijai Wan Wrapper als auch nativen Nodes.


📌 Wichtige Details für Text-zu-Video:

  • 🔧 CGF muss auf 1 gesetzt sein — höher führt zu unakzeptablen Ergebnissen.

  • 🔧 Shift - Ergebnisse variieren je nach Auflösung. 1024x576 sollte bei 1 starten, bei 1080x720 bei 2. Hinweis: Für mehr Realismus niedrigere Shift-Werte, für stilisierte Looks höhere zwischen 3-9 testing.

  • Scheduler: Die meisten Beispiele nutzten Uni_pc, aber andere können andere Ergebnisse liefern. Experimentieren ist entscheidend. Der flowmatch_causvid Scheduler funktioniert je nach Prompt auch gut und unterstützt Details.

📌 Wichtige Details für Image-to-Video:

  • 🔧 CGF muss auf 1 gesetzt werden — alles darüber ergibt keine akzeptablen Ergebnisse.

  • 🔧 Shift - Für Image-to-Video ist 2 empfohlen, aber experimentiere gerne.

  • Scheduler: Die meisten Beispiele verwendeten dmp++_sde/beta, scheint am besten zu funktionieren, es kann aber experimentiert werden.

  • Nach Tests, um mehr Bewegung und weniger Zeitlupeneffekt zu erzielen, setze Frame-Anzahl auf 121 und fps auf 24. Dies kann die Bewegungsgeschwindigkeit um bis zu 50 % erhöhen.

📌Andere wichtige Details:

  • Videogenerierung funktioniert mit nur 6 Schritten, aber 8–10 Schritte liefern beste Qualität. Niedrigere Schritte sind gut für schnelle Entwürfe mit hohem Geschwindigkeitsschub.

  • 🧩 Beste Ergebnisse mit dem Kaji Wan Wrapper Custom Node:
    https://github.com/kijai/ComfyUI-WanVideoWrapper

  • 🧪 Auch mit dem nativen WAN Workflow getestet, Generierungszeit ist etwas länger, aber Ergebnisse entsprechen dem Wrapper.

  • Nicht erneut CausVid, AccVideo oder MPS LoRAs hinzufügen — diese sind bereits im Modell integriert und könnten unerwünschte Ergebnisse verursachen.

  • 🎨 Du kannst andere LoRAs für zusätzlichen Stil verwenden — experimentiere gerne.

  • 📽️ Alle Demo-Videos wurden mit 1024x576, 81 Frames, und nur diesem Modell generiert — ohne Upscaling, Interpolation oder zusätzliche LoRAs.

  • 🖥️ Gerendert auf einer RTX 5090 — jedes Video dauert ca. 138 Sekunden mit genannten Einstellungen.

  • 🧠 Wenn VRAM ausgeht, aktiviere Block-Swapping — starte bei 5 Blöcken und passe nach Bedarf an.

  • 🚀 SageAttn wurde aktiviert und bietet bis zu 30 % Geschwindigkeitsschub. (Nur Wrapper)

  • Workflows für jedes Modell findest du hier: HIER

  • 🚫 Teacache nicht verwenden — aufgrund des niedrigen Schrittzahl nicht notwendig.

  • 🔍 Funktionen „Videos verbessern“ und „SLG“ wurden nicht getestet — eigene Erkundungen sind willkommen. -- Nachtrag. Ich habe „Videos verbessern“ getestet, damit sind lebendigere Ergebnisse mit Einstellungen zwischen 2-4 möglich. SLG wurde kaum getestet.

  • 💬 Fragen? Du kannst gerne eine Nachricht hinterlassen oder der Community beitreten:

    • 👉 Hier Discord beitreten!

  • 📝 Bessere Prompts gewünscht? Alle Beispiel-Prompts stammen aus diesem benutzerdefinierten GPT:
    🎬 WAN Cinematic Video Prompt Generator
    Fordere es auf, zusätzliche visuelle und kinoreife Details hinzuzufügen — das macht einen spürbaren Unterschied.


⚠️ Haftungsausschluss:

  • Videos, die mit diesem Modell erstellt wurden, sind nur für persönliche, Bildungs- oder experimentelle Zwecke gedacht, sofern nicht eigene rechtliche Prüfungen abgeschlossen sind.

  • Dieses Modell ist eine Fusion mehrerer forschungsbasierter Quellen und nicht garantiert frei von urheberrechtlich geschützten oder proprietären Daten.

  • Du trägst allein die Verantwortung für jegliche von dir generierten Inhalte und deren Verwendung.

  • Bei kommerzieller Nutzung übernimmst du bezüglich Urheberrechtsverletzungen, Missbrauch oder Verstößen gegen Rechte Dritter.

Im Zweifel konsultiere einen qualifizierten Rechtsberater, bevor du generierte Inhalte monetarisierst oder verbreitest.


### 🧠 Weitere GGUF Varianten

- 🖼️ [FusionX Image-to-Video (GGUF)]

- 🎥 [FusionX Text-to-Video (GGUF)]

- 🎞️ [FusionX T2V VACE GGUF (für native)]

- 👻 [FusionX Phantom GGUF (für native)]


###🧠 fp16 Versionen findest du hier:

-- 🖼️fp16 FusionX Modelle



📌GGUF Vergleiche!
Ich füge nach und nach mehr hinzu, hier siehst du, wie die Modelle im Vergleich mit dem Hauptmodell abschneiden.

Text-zu-Video:

--------

🛠️Update 08.06.2025 - Image-to-Video Modell veröffentlicht! Einstellungen in Beispiel-Videos: Schritte = 10 / cfg = 1 / shift = 2 / Scheduler = dmp++_sde Workflow werde ich bald posten.

🛠️Update 07.06.2025 - Ein i2v Phantom Modell veröffentlicht, das bis zu 4 Referenzbilder aufnehmen und zu einem Video kombinieren kann. Workflow wird bald gepostet.

Phantom Workflow wird bald hochgeladen.

🛠️Update 06.06.2025 - Neues GGUF Modell hinzugefügt! Für höchste Qualität und ausreichend VRAM nimm das V1.0 Modell, ansonsten ist GGUF die beste Alternative! Bei Nutzung von GGUF dauert die Generierung auch auf RTX 5090 länger.

Zurück
Elegante minimalistische Linienkunst - Flux
Weiter
Dodge Charger SRT Hellcat (SDXL) - v1.0

Modell-Details

Modelltyp

Checkpoint

Basismodell

Wan Video 14B t2v

Modellversion

FusionX_Text2Video

Modell-Hash

f9dcda1af2

Ersteller

Diskussion

Bitte log in um einen Kommentar zu hinterlassen.

Bilder von Wan2.1_14B_FusionX - FusionX_Text2Video

Bilder mit Basismodell