Wan2.1_14B_FusionX - FusionX_Text2Video
Parole Chiave e Tag Correlati
Prompt Negativi Consigliati
色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走
Parametri Consigliati
samplers
steps
cfg
resolution
Suggerimenti
CGF deve essere impostato a 1 per risultati accettabili in text-to-video e image-to-video.
Per text-to-video, valori di shift partono da 1 per risoluzione 1024x576 e 2 per 1080x720; valori più bassi migliorano il realismo, valori più alti per aspetti stilizzati (3-9).
Per image-to-video, shift consigliato a 2 ma è consigliato sperimentare.
Imposta frame count a 121 e fps a 24 per aumentare la velocità del movimento fino al 50%.
Usa il nodo personalizzato Kaji Wan Wrapper per i migliori risultati e rendering più veloce.
Evita di riaggiungere CausVid, AccVideo o MPS LoRA perché sono già integrati nel modello.
SageAttn fornisce fino al 30% di aumento di velocità quando abilitato nel wrapper.
Non usare teacache per questo modello a causa del basso numero di passaggi.
Prova altre LoRA per stili aggiuntivi o effetti sperimentali.
Abilita block swapping se esaurisci la VRAM; inizia con 5 blocchi e regola.
La funzione Enhance video può essere usata con impostazioni tra 2-4 per risultati più vivaci.
Sponsor del Creatore
☕ Ti piace quello che faccio? Supportami qui: Buy Me A Coffee 💜
Ogni caffè aiuta a finanziare più LoRA e workflow gratuiti!
👉 Dai un'occhiata ai FusionX Lightning Workflows per generazioni video più rapide in appena 70 secondi!
🔗 Prendi le FusionX LoRA qui per più controllo con il tuo setup WAN2.1 + SkyReels.
🔗 Guarda i Lightning Workflows qui per un aumento di velocità.
📌 Workflow disponibili QUI (WIP, altri in arrivo).
👉 Unisciti alla comunità Discord per chiacchierare, condividere creazioni e ricevere supporto!
🌀 Wan2.1_14B_FusionX — Modelli uniti per un movimento più rapido, ricco e dettagliato in appena 8 passaggi!
📢 Aggiornamento 1/7/2025!
Novità: FusionX Lightning Workflows
Cerchi generazioni video più rapide con WAN2.1? Dai un'occhiata ai nuovi FusionX_Lightning_Workflows — ottimizzati con LightX LoRA per rendere video in appena 70 secondi (4 passaggi, 1024x576)!
🧩 Disponibile in:
• Native • Native GGUF • Wrapper
(VACE & Phantom presto disponibili)
🎞️ Image-to-Video riceve un grande aggiornamento!!!!!!
Migliore aderenza al prompt, più movimento, e dinamiche più fluide.
⚖️ FusionX o Lightning?
Originale = realismo massimo.
Lightning = velocità + basso VRAM, con qualità simile usando prompt intelligenti.
☕ Ti piace quello che faccio? Supportami qui: Buy Me A Coffee 💜
Ogni caffè aiuta a finanziare più LoRA e workflow gratuiti!
📢 Sapevi che puoi ora usare FusionX come LoRA invece di un modello base completo?
Perfetto se vuoi più controllo mantenendo il tuo setup WAN2.1 + SkyReels.
🔗 Prendi le FusionX LoRA QUI
🔗 Oppure guarda i Lightning Workflows QUI per un grande aumento di velocità.
📌 Dettagli importanti - leggi tutta la descrizione perché piccole modifiche alle impostazioni possono dare risultati molto diversi in negativo! Ho già testato e trovato impostazioni migliori, quindi per favore leggi sotto! Grazie :)
💡Workflow disponibili QUI (In fase di sviluppo, altri saranno aggiunti presto.)
🛠️La sezione aggiornamenti è stata spostata alla fine della descrizione.
Un modello text-to-video ad alte prestazioni costruito sopra il modello base WAN 2.1 14B T2V — accuratamente unito con più modelli di livello di ricerca per migliorare la qualità del movimento, la coerenza della scena e i dettagli visivi, paragonabile ad alcuni modelli closed source.
## 📢 Unisciti alla Comunità!
Uno spazio amichevole per chiacchierare, condividere creazioni e ricevere supporto.
👉 Clicca qui per entrare nel Discord!
Vieni a salutare in #welcome, leggi le regole e mostra le tue creazioni! 🎨🧠
💡 Cosa c'è dentro questo modello base:
🧠 CausVid – Modellazione causale del movimento per migliorare il flusso della scena e un aumento drammatico della velocità
🎞️ AccVideo – Migliora l'allineamento temporale e il realismo insieme all'aumento della velocità
🎨 MoviiGen1.1 – Porta fluidità cinematografica e illuminazione
🧬 MPS Reward LoRA – Tarato per dinamiche di movimento e dettagli
✨ LoRA personalizzate (di mia creazione) – Concentrate su texture, chiarezza e dettagli fini. (Entrambe con forza molto bassa e impatto molto piccolo)
🔥 Punti salienti:
📝 Accetta setup prompt standard + prompt negativo
🌀 Ottimizzato per alta coerenza temporale e scene espressive e cinematografiche
🔁 Sostituto diretto per WAN 2.1 T2V — semplicemente migliore
🚀 Rendering fino al 50% più veloce rispetto al modello base (soprattutto con SageAttn abilitato)
🧩 Completamente compatibile con VACE
🧠 Ottimizzato per uso in ComfyUI, con il Kijai Wan Wrapper e nodi nativi.
📌 Dettagli importanti per text-to-video:
🔧 CGF deve essere impostato a 1 — valori superiori non daranno risultati accettabili.
🔧 Shift - I risultati variano in base alla risoluzione. 1024x576 dovrebbe partire da 1 e se usi 1080x720 parti da 2. Nota: Per maggior realismo servono valori di shift più bassi. Per un look più stilizzato prova valori più alti tra 3-9
Scheduler: La maggior parte dei miei esempi usa Uni_pc ma puoi ottenere risultati diversi con altri. È tutta questione di sperimentare. Ho notato che flowmatch_causvid funziona bene e aiuta con dettagli piccoli.
📌 Dettagli importanti per image-to-video:
🔧 CGF deve essere impostato a 1 — valori superiori non daranno risultati accettabili.
🔧 Shift - Per image-to-video ho trovato 2 il valore migliore ma puoi sperimentare.
Scheduler: La maggior parte dei miei esempi usa dmp++_sde/beta e sembra funzionare meglio ma puoi sperimentare.
Dopo i test, per avere più movimento e ridurre l'effetto slow motion, imposta frame count a 121 e fps a 24. Questo può aumentare la velocità del movimento fino al 50%.
📌Altri dettagli importanti:
⚡ La generazione video funziona con appena 6 passaggi, ma 8–10 passaggi danno la migliore qualità. Pochi passaggi sono ottimi per bozze veloci con grandi guadagni di velocità.
🧩 Migliori risultati con il nodo personalizzato Kaji Wan Wrapper:
https://github.com/kijai/ComfyUI-WanVideoWrapper🧪 Testato anche con workflow WAN nativo, tempi di generazione un po’ più lunghi ma risultati simili al wrapper.
❗ Non riaggiungere CausVid, AccVideo o MPS LoRA — sono già integrati nel modello e potrebbero causare risultati indesiderati.
🎨 Puoi usare altre LoRA per ulteriori stili — sentiti libero di sperimentare.
📽️ Tutti i video demo sono stati generati a 1024x576, 81 frame, usando solo questo modello — senza upscaling, interpolazione o LoRA extra.
🖥️ Render effettuati su RTX 5090 — ogni video richiede circa 138 secondi con queste impostazioni.
🧠 Se esaurisci la VRAM, abilita block swapping — inizia con 5 blocchi e regola.
🚀 SageAttn abilitato, con un aumento di velocità fino al 30%. (Solo wrapper)
I workflow per ogni modello sono disponibili qui: QUI
🚫 Non usare teacache — inutile a causa del basso numero di passaggi.
🔍 Le funzioni “Enhance a video” e “SLG” non sono state testate — sentiti libero di sperimentare autonomamente. -- Edit. Ho testato "Enhance a video" e puoi ottenere risultati più vividi se attivato. Impostazioni tra 2-4. Prova! SLG poco testato.
💬 Hai domande? Scrivi un messaggio o unisciti alla comunità:
👉 Clicca qui per entrare nel Discord!
📝 Vuoi prompt migliori? Tutti i miei esempi video sono stati creati usando questo GPT personalizzato:
🎬 WAN Cinematic Video Prompt Generator
Prova a chiedere di aggiungere dettagli visivi e cinematografici extra — fa davvero la differenza.
⚠️ Disclaimer:
I video generati con questo modello sono destinati a uso personale, educativo o sperimentale, a meno che non si sia completata una propria valutazione legale.
Questo modello è un merge di più fonti di ricerca e non è garantito libero da dati protetti da copyright o proprietari.
Sei l'unico responsabile per qualsiasi contenuto generato e per come viene usato.
Se usi i risultati commercialmente, assumi ogni responsabilità legale per violazioni di copyright, uso improprio o violazione di diritti di terzi.
In caso di dubbio, consulta un consulente legale qualificato prima di monetizzare o distribuire contenuti generati.
### 🧠 Altre varianti GGUF
- 🖼️ [FusionX Image-to-Video (GGUF)]
- 🎥 [FusionX Text-to-Video (GGUF)]
- 🎞️ [FusionX T2V VACE GGUF (per native)]
- 👻 [FusionX Phantom GGUF (per native)]
###🧠 Versioni fp16 disponibili qui:
-- 🖼️Modelli FusionX fp16
📌Confronti gguf!
Aggiungo lentamente a questa lista, ma qui puoi vedere come i modelli si confrontano con quello principale.
Text to video:
--------
🛠️Aggiornamento 8/6/2025 - Modello image to video pubblicato! Impostazioni usate nei video di esempio: Steps = 10 / cfg = 1 / shift = 2 / schedular = dmp++_sde presto pubblico un workflow.
🛠️Aggiornamento 7/6/2025 - Pubblicato modello i2v phantom che accetta fino a 4 immagini di riferimento e le combina in un video. Workflow in arrivo.
Phantom WF sarà caricato presto.
🛠️Aggiornamento 6/6/2025 - Aggiunto nuovo modello gguf! Se vuoi la massima qualità e hai abbastanza VRAM prendi il modello V1.0, altrimenti gguf è la seconda miglior scelta! Con gguf ci vuole più tempo per generare anche su RTX 5090.
Dettagli del Modello
Tipo di modello
Modello base
Versione del modello
Hash del modello
Creatore
Discussione
Per favore log in per lasciare un commento.
