Wan Video 2.2 - 14B 圖像轉影片
推薦參數
resolution
vae
提示
Wan2.2 受益於大規模數據集,與 Wan2.1 相比多出 +65.6% 圖像及 +83.2% 影片。
使用混合專家(MoE)架構能在維持計算成本下,提升模型容量。
該模型支持穩定影片合成,減少不自然鏡頭移動,特別適用於圖像轉影片生成。
版本亮點
Wan 2.2 14B 用於現場圖像轉影片生成
創作者贊助
查看官方 Wan2.2 GitHub 儲存庫 ,獲取原始碼和更新。
從 HuggingFace 下載 Wan2.2 模型的 ComfyUI 重新封裝版本。
原始 Diffusers 多部分 safetensors 檔案可在 Wan-AI HuggingFace Repo 取得。
Wan Video
注意:在 Civitai 上還有其他 Wan Video 檔案——這些可能是重複檔案,但本模型卡主要用於承載 Wan Video 在 Civitai Generator 中使用的檔案。
這些檔案是 ComfyUI 重新封裝——原始檔案可在 Diffusers 多部分 safetensors 格式此處 找到。
Wan2.2 是我們視覺生成模型的重大升級,現已開源,提供更強大能力、更佳性能和卓越視覺品質。Wan2.2 著重整合以下技術創新:
👍 MoE 架構:Wan2.2 在影片擴散模型中引入混合專家(MoE)架構,通過專門強大的專家模型,依照不同時步分離去噪過程,擴大模型總體容量,同時維持相同計算成本。
💪🏻 資料擴展:與 Wan2.1 相比,Wan2.2 訓練資料大幅增加,圖像數量 +65.6%、影片數量 +83.2%。此擴展顯著提升模型在動態、語意及美學等多維度上的泛化能力,達到所有開源及封閉源模型中的頂級表現。
🎬 電影美學:Wan2.2 融入精心策劃的美學資料,搭配燈光、構圖及色彩的細緻標籤,使電影風格生成更精確可控,促進創作具有可自訂美學偏好的影片。
🚀 高效高解析混合 TI2V:Wan2.2 開源建構於先進 Wan2.2-VAE 的 5B 模型,壓縮比達 16×16×4。此模型支持 720P 24fps 文字轉影片與圖像轉影片生成,且能在家用級顯卡如 4090 上運行。是目前最快速的 720P@24fps 模型之一,能同時滿足工業與學術部門需求。
Wan2.2-T2V-A14B
T2V-A14B 模型支持在 480P 及 720P 解析度下生成 5 秒影片。採用混合專家(MoE)架構,帶來卓越影片生成品質。在全新基準 Wan-Bench 2.0 中,該模型在大部分核心評估維度上超越主要商用模型。
Wan2.2-I2V-A14B
I2V-A14B 模型專為圖像轉影片生成設計,支持 480P 和 720P 解析度。採用混合專家(MoE)架構,實現更穩定的影片合成,減少不自然鏡頭移動,並強化對多樣化風格場景的支持。
Wan2.2-TI2V-5B
TI2V-5B 模型基於先進 Wan2.2-VAE,壓縮比為 16×16×4。支持 720P 24fps 的文字轉影片及圖像轉影片生成,可在單張家用 GPU(如 4090)上運行。它是可用的最快 720P@24fps 模型之一,滿足工業應用與學術研究需求。
GitHub: https://github.com/Wan-Video/Wan2.2
原始 HuggingFace Repo: https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/tree/main/split_files/diffusion_models
