Wan2.1_14B_FusionX - FusionX_Text2Video
推奨ネガティブプロンプト
色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走
推奨パラメータ
samplers
steps
cfg
resolution
ヒント
CGFはテキスト・トゥ・ビデオおよび画像・トゥ・ビデオで許容される結果を得るために1に設定してください。
テキスト・トゥ・ビデオでは、1024x576解像度でshift値を1から、1080x720では2から開始します。リアリズムには低いshift値、スタイライズされた見た目には高いshift値(3~9)を使用してください。
画像からビデオではshift値は2が推奨ですが、試行も推奨します。
モーション速度を最大50%上げるにはフレーム数を121、フレーム毎秒数を24に設定してください。
最良の結果と高速レンダリングのためにKaji Wan Wrapperカスタムノードを使用してください。
CausVid、AccVideo、MPS LoRAsはモデルに既に組み込まれているため、再追加は避けてください。
SageAttnはラッパー内で有効にすると最大30%の速度向上を提供します。
ステップ数が少ないので、このモデルではteacacheを使用しないでください。
追加のスタイリングや実験効果のために他のLoRAを試しても構いません。
VRAM不足の場合はブロックスワッピングを有効にし、5ブロックから調整してください。
ビデオ強化機能は設定を2~4の間で使うとより鮮やかな結果が得られます。
クリエイタースポンサー
☕ 私の活動を応援してくださいますか?こちらから:Buy Me A Coffee 💜
ご支援はより多くの無料LoRAやワークフローの制作に役立ちます!
👉 FusionX Lightning Workflowsをチェックして、わずか70秒での高速ビデオ生成を体験!
🔗 WAN2.1 + SkyReelsセットアップのためにこちらからFusionX LoRAsを入手してより詳細な制御を。
🔗 こちらのLightning Workflowsでさらなる高速化を。
📌 ワークフローはこちらから(作成中で今後追加予定)。
🌀 Wan2.1_14B_FusionX — わずか8ステップでより速く豊かな動きと詳細を実現する統合モデル!
📢 2025年7月1日 更新!
新機能: FusionX Lightning ワークフロー
WAN2.1でより高速なビデオ生成をお求めですか?新しいFusionX_Lightning_Workflowsをチェックしてください。LightX LoRAで最適化され、わずか70秒(4ステップ、1024x576)でビデオをレンダリングします!
🧩 対応フォーマット:
• ネイティブ • ネイティブ GGUF • ラッパー
(VACE & Phantomは近日対応予定)
🎞️ 画像からビデオ生成も大幅アップグレード!!!!!
より良いプロンプト遵守、より多くの動き、滑らかなダイナミクスを実現。
⚖️ FusionX と Lightning の違い?
オリジナル=最高のリアリズム。
Lightning=高速かつ低VRAMで、スマートなプロンプトで同等の品質。
☕ 私の活動を応援してくださいますか?こちらから:Buy Me A Coffee 💜
ご支援はより多くの無料LoRAとワークフローの制作に役立ちます!
📢 FusionXを完全なベースモデルの代わりにLoRAとしても使用可能なのはご存知ですか?
ご自身のWAN2.1 + SkyReelsセットアップを維持しつつ、より細かい制御が可能です。
🔗 FusionX LoRAsをこちらから入手できます。
🔗 高速化のためのLightning Workflowsはこちらから。
📌 重要な詳細 - 設定の小さな変更でも結果が大きく異なりますので、以下の説明をよくお読みください!すでにより良い設定を見つけていますので、どうぞご確認ください。ありがとうございます :)
💡ワークフローはこちらから入手可能です(現在作成中で、今後さらに追加予定)。
🛠️アップデートセクションは説明の最後に移動しました。
高性能なテキスト・トゥ・ビデオモデルで、ベースモデルWAN 2.1 14B T2Vの上に構築され、複数の研究レベルモデルと慎重に統合され、動きの品質、シーンの一貫性、視覚的詳細を向上させ、いくつかの独自モデルに匹敵します。
## 📢 コミュニティに参加しよう!
親しみやすい空間でチャットや作品共有、サポートを受けられます。
#welcomeで挨拶し、ルールを確認し、作品を披露しましょう! 🎨🧠
💡 このベースモデルに含まれるもの:
🧠 CausVid – より良いシーンフローと劇的な速度向上のための因果動作モデリング
🎞️ AccVideo – 時間調整とリアリズムの向上、速度向上も含む
🎨 MoviiGen1.1 – シネマティックな滑らかさとライティングを提供
🧬 MPS Reward LoRA – 動きの動力学と詳細のために調整済み
✨ カスタム LoRAs(私による) – テクスチャ、明瞭さ、微細なディテールに焦点。(両方とも非常に低強度に設定され影響は小さい)
🔥 ハイライト:
📝 標準のプロンプト + ネガティブプロンプト設定に対応
🌀 高い時間的一貫性と表現豊かでシネマティックなシーンに最適化
🔁 WAN 2.1 T2Vのドロップイン置換 — より優秀
🚀 ベースモデルより最大50%速いレンダリング(特にSageAttn有効時)
🧩 VACEと完全互換
🧠 ComfyUIでの使用に最適化、Kijai Wan Wrapper とネイティブノード両方に対応
📌 テキスト・トゥ・ビデオの重要な詳細:
🔧 CGFは1に設定必須 — これ以上は許容できる結果を出しません。
🔧 Shift - 解像度によって結果が異なります。1024x576では1を基準に、1080x720なら2から開始。注意:よりリアルな表現には低いShift値が良く、スタイライズされた表現なら3~9の高めのShift値を試すと良いです。
スケジューラー:多くの例はUni_pcを使っていますが、他のものを使って異なる結果を得ることも可能です。プロンプトに応じてflowmatch_causvidも細かいディテールに良い効果があります。
📌 画像からビデオへの変換の重要な詳細:
🔧 CGFは1に設定必須 — これ以上は許容できる結果になりません。
🔧 Shift - 画像からビデオへの場合は2が推奨ですが、実験も可能です。
スケジューラー:多くの例ではdmp++_sde/betaを使用し、良好な結果が出ていますが実験は推奨。
テスト後、モーションを多くしスローモーション感を減らすために、フレーム数を121、fpsを24に設定すると最大50%のモーション速度向上が可能。
📌その他重要な詳細:
⚡ 動画生成は6ステップから可能ですが、8~10ステップが最良の品質です。ステップ数を下げると速いドラフト作成に最適。
🧩 最高の結果はKaji Wan Wrapperカスタムノード使用時
https://github.com/kijai/ComfyUI-WanVideoWrapper🧪 ネイティブWANワークフローもテスト済みだが生成時間は少し長いが結果はラッパーと一致。
❗ CausVid、AccVideo、MPS LoRAsの再追加は禁止 — これらは既にモデルに組み込まれており、望ましくない結果になる可能性があります。
🎨 その他のLoRAsもスタイリングや実験的効果に使用可
📽️ 全てのデモビデオは1024x576、81フレームで、このモデルのみ使用しアップスケーリングや補完、追加LoRAは無し。
🖥️ RTX 5090でレンダリング — 各ビデオは約138秒。
🧠 VRAM不足時はブロックスワップを有効に。初期は5ブロックから調整。
🚀 SageAttn 有効時は最大30%の速度アップ(ラッパー限定)。
モデルごとのワークフローはこちら。
🚫 teacacheはステップ数が少ないため不要。
🔍 「ビデオを強化」と「SLG」機能は未テスト。ご自身でお試しください。—追記 「ビデオを強化」はテスト済みで、2~4の設定でより鮮やかな結果が得られます。SLGはあまりテストしていません。
💬 ご質問はメッセージを残すかコミュニティにご参加ください:
👉 Discordに参加はこちら!
📝 より良いプロンプトが欲しいですか? 私の例示した動画用プロンプトはこのカスタムGPTで作成されました:
🎬 WAN Cinematic Video Prompt Generator
追加の視覚的かつシネマティックな詳細の促しを試してみてください — 明確な差が感じられます。
⚠️ 免責事項:
このモデルで生成された動画は個人利用、教育目的、実験目的のみでの使用を想定しています。独自の法的な審査を完了していない場合は商用利用を控えてください。
このモデルは複数の研究レベルのソースを統合したものであり、著作権または独自データが含まれていない保証はありません。
生成したコンテンツの責任はすべてユーザーにあります。
商用利用を選択する場合は、著作権侵害、誤用、第三者権利侵害に関する全ての法的責任を負うものとします。
疑問がある場合は、生成コンテンツの収益化や配布前に専門の法的アドバイザーに相談してください。
### 🧠 追加のGGUFバリアント
- 🖼️ [FusionX Image-to-Video (GGUF)]
- 🎥 [FusionX Text-to-Video (GGUF)]
- 🎞️ [FusionX T2V VACE GGUF (ネイティブ用)]
- 👻 [FusionX Phantom GGUF (ネイティブ用)]
###🧠 fp16 バージョンはこちら:
-- 🖼️fp16 FusionX Models
📌gguf 比較!
徐々にリストを追加中ですが、ここでメインモデルとの比較を見ることができます。
テキスト・トゥ・ビデオ:
--------
🛠️2025年6月8日アップデート - 画像からビデオモデル公開!例示ビデオで使った設定:ステップ=10 / cfg=1 / shift=2 / スケジューラー=dmp++_sde。まもなくワークフローを公開予定。
🛠️2025年6月7日アップデート - 最大4枚の参考画像を取り込みビデオに合成できるi2v phantomモデル公開。ワークフローをまもなく公開。
Phantom ワークフローを近日アップロード予定。
🛠️2025年6月6日アップデート - 新しいggufモデルを追加!最高品質を求めVRAMが十分ならV1.0モデルを、それ以外はggufが最良!gguf使用時はRTX 5090でも生成時間が長くなります。
モデル詳細
ディスカッション
コメントを残すには log in してください。