Wan2.1_14B_FusionX - FusionX_Text2Video
推薦反向提示詞
色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走
推薦參數
samplers
steps
cfg
resolution
提示
CGF 必須設為 1 才能獲得可接受的文字轉視頻及圖片轉視頻效果。
文字轉視頻中,1024x576 解析度建議 shift 起始值為1,1080x720 為2;較低 shift 值適合真實效果,較高值(3-9)適合風格化外觀。
圖片轉視頻建議 shift 設為2,但鼓勵自行實驗。
將影格數設定為121,幀率調至24可提升動態速度多達50%。
使用 Kaji Wan Wrapper 自定義節點可獲得最佳和更快的渲染效果。
避免重新添加 CausVid、AccVideo 或 MPS LoRAs,因其已內建於模型中。
啟用 SageAttn 可帶來最高30%的加速。(只限包裝器使用)
本模型由於步數較低,不建議使用 teacache。
可嘗試其他 LoRAs 進行額外風格化或實驗性效果。
VRAM 不足時,啟用 block swapping,從5個區塊開始調整。
視頻增強功能可開啟,設定值介於2-4,能獲得更鮮明效果。
創作者贊助
☕ 喜歡我的作品?在這裡支持我:Buy Me A Coffee 💜
每杯咖啡都助力更多免費 LoRAs 與工作流程的創作!
👉 查閱 FusionX Lightning 工作流程,可在短短70秒內更快生成視頻!
🔗 在 這裡 獲取 FusionX LoRAs,讓 WAN2.1 + SkyReels 設置更具控制力。
🔗 速度提升,請查看 Lightning 工作流程。
📌 工作流程可於 此處 獲得(進行中,將持續新增)。
👉 加入 Discord 社區,聊天、分享創作與獲得支持!
🌀 Wan2.1_14B_FusionX — 融合多模型,僅需8步即可實現更快、更豐富的動態與細節!
📢 2025年7月1日更新!
新功能:FusionX Lightning 工作流程
想用WAN2.1實現更快的視頻生成?試試新的FusionX_Lightning_Workflows —— 配合LightX LoRA優化,最快只需70秒(4步,1024x576)即可渲染視頻!
🧩 可用格式:
• 原生 • 原生 GGUF • 包裝器
(VACE 及 Phantom 即將推出)
🎞️ 從圖片到視頻的轉換大幅升級!!!!!
更佳的提示詞依從性,更多動態,及更平滑的動態表現。
⚖️ FusionX 與 Lightning 比較?
原版=最高真實感。
Lightning = 速度 + 低 VRAM,透過智慧提示詞達到相似品質。
👉 點此查看詳情
☕ 喜歡我的作品?在這裡支持我:Buy Me A Coffee 💜
每杯咖啡都助力更多免費 LoRAs 與工作流程的創作!
📢 你知道現在可以用FusionX 作為 LoRA,而非完整基礎模型嗎?
如果想在保留自己的WAN2.1 + SkyReels設置時有更高控制權,這是完美選擇。
🔗 在 這裡 下載 FusionX LoRAs
🔗 或在 這裡 查看Lightning 工作流程,享受大幅加速。
📌 重要細節 — 請完整閱讀下文描述,因微小設定改動會導致截然不同且可能不佳的結果!我已測試並發現更優設定,請務必查看!謝謝 :)
💡 工作流程可於 這裡 找到 (目前為進行中,將持續增加內容)。
🛠️ 更新部分已移至描述末端。
這是一款基於WAN 2.1 14B T2V基礎模型構建的高性能文字轉視頻模型 —— 精心融合多個研究級模型,提升動態品質、場景一致性及視覺細節,可與多款封閉源模型媲美。
## 📢 加入社區!
一個友善的空間,讓你聊天、分享創作及獲得支持。
來 #welcome 打個招呼,查看規則,並展示你的創作!🎨🧠
💡 此基礎模型包含內容:
🧠 CausVid – 因果動態建模,提升場景流暢度及速度
🎞️ AccVideo – 改善時間對齊與真實感並加速
🎨 MoviiGen1.1 – 提供電影般平滑與光影效果
🧬 MPS Reward LoRA – 調校動態效果與細節
✨ 定制 LoRAs(由我創建) – 專注紋理、清晰度及細節。(強度設置偏低,影響很小)
🔥 亮點:
📝 支持 標準提示詞 + 負面提示詞 結構
🌀 調校實現高時間連貫性及表達力強的電影場景
🔁 可作為WAN 2.1 T2V的直接替代品 — 效果更佳
🚀 渲染速度比基礎模型快最高50%(啟用SageAttn時尤為明顯)
🧩 完全兼容VACE
🧠 最適合用於ComfyUI,支持 Kijai Wan Wrapper 和原生節點
📌 文字轉視頻重要事項:
🔧 CGF 必須設為1 — 高於1會導致結果不佳。
🔧 Shift — 結果依解析度不同而異。1024x576 建議起始值為1,1080x720 建議從2開始。注意: 若追求更真實效果,需使用較低 shift 值;若喜歡風格化效果,則可嘗試3-9的較高值。
排程器: 多數示例使用 Uni_pc,也可嘗試其他排程器。視提示詞不同,flowmatch_causvid 表現亦佳,幫助細節呈現。
📌 圖片轉視頻重要事項:
🔧 CGF 必須設為1 — 高於1會導致結果不佳。
🔧 Shift — 圖片轉視頻推薦設為2,但鼓勵自行測試。
排程器: 大部分示例採用 dmp++_sde/beta,效果最佳但可實驗其他排程器。
測試後發現,將影格數設為121,幀率設為24,可提升動態速度達50%。
📌其他重要事項:
⚡ 視頻生成最少6步,但8-10步質量最佳。較少步數適合快速草稿並大幅提速。
🧩 使用Kaji Wan Wrapper自定義節點效果最佳:
https://github.com/kijai/ComfyUI-WanVideoWrapper🧪 經過測試,使用原生WAN工作流程生成時間略長,但結果與包裝器相似。
❗ 請勿重新添加 CausVid、AccVideo 或 MPS LoRAs — 它們已內建於模型中,否則可能導致不良結果。
🎨 可使用其他 LoRAs 進行額外風格化,歡迎實驗。
📽️ 所有展示視頻均為1024x576、81 幀,僅使用本模型生成,無放大、插幀或額外 LoRAs。
🖥️ 渲染於 RTX 5090 平台,每段視頻大約耗時138 秒(根據上述設定)。
🧠 VRAM 不足時,啟用block swapping,從 5 個區塊開始並調整。
🚀 SageAttn 已啟用,提升速度最高達 30%。(僅限包裝器)
各模型工作流程可於此查閱:這裡
🚫 請勿使用 teacache — 由於步數較低此功能不必要。
🔍 “視頻增強” 和 “SLG” 功能尚未充分測試,歡迎自行探索。-- 補充:已測試“視頻增強”,開啟後可獲得更鮮明效果,設定介於2-4。SLG則測試較少。
💬 有疑問?歡迎留言或加入社區:
👉 點此加入 Discord!
📝 想要更佳提示詞? 所有示例視頻提示詞均由此定制 GPT 創建:
🎬 WAN 電影視覺提示詞生成器
試著讓它增加更多視覺及電影細節 —— 效果顯著。
⚠️ 免責聲明:
使用本模型生成的視頻僅限於個人、教育或實驗用途,除非你已自行完成法律盡職調查。
本模型為多個研究級來源合併而成,不保證不含版權或專有資料。
你須自行承擔生成內容及其使用方式的全部責任。
若商業使用生成內容,你需承擔一切法律責任,包括侵權、誤用或侵犯第三方權利。
如有疑慮,請在營利或分發任何生成內容前諮詢合格法律顧問。
### 🧠 更多 GGUF 版本
- 🎞️[FusionX T2V VACE GGUF(原生支持)]
- 👻 [FusionX Phantom GGUF(原生支持)]
###🧠 fp16 版本下載:
-- 🖼️fp16 FusionX 模型
📌gguf 比較!
我會持續補充列表,展示與主模型的性能對比。
文字轉視頻:
--------
🛠️ 2025年6月8日更新 - 圖片轉視頻模型已發佈!示例視頻使用參數:步數 = 10 / cfg = 1 / shift = 2 / 排程器 = dmp++_sde ,工作流程將很快發布。
🛠️ 2025年6月7日更新 - 發表可接受最多4張參考圖片並合成視頻的 i2v phantom 模型。工作流程即將上傳。
Phantom 工作流程正在上傳中。
🛠️ 2025年6月6日更新 - 新增一個 gguf 模型!若有足夠 VRAM 且想追求最高品質,請使用1.0版本,否則 gguf 是不錯選擇!使用 gguf 在 RTX 5090 上生成時間稍長。
模型詳情
討論
請log in以發表評論。
