Prompts négatifs recommandés

色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走

Paramètres recommandés

samplers

Uni_pc, flowmatch_causvid, dmp++_sde, dmp++_sde/beta, UniPC

steps

6 - 10

cfg

1

resolution

1024x576, 1080x720

Conseils

CGF doit être réglé sur 1 pour obtenir des résultats acceptables en texte-vidéo et image-vidéo.

Pour le texte en vidéo, les valeurs de shift commencent à 1 pour une résolution 1024x576 et à 2 pour 1080x720 ; des valeurs de shift plus basses favorisent le réalisme, des valeurs plus hautes un style stylisé (3-9).

Pour l'image en vidéo, un shift de 2 est recommandé, mais l'expérimentation est encouragée.

Réglez le nombre d’images à 121 et le nombre d’images par seconde à 24 pour augmenter la vitesse du mouvement jusqu’à 50 %.

Utilisez le nœud personnalisé Kaji Wan Wrapper pour de meilleurs résultats et un rendu plus rapide.

Évitez de réajouter CausVid, AccVideo ou MPS LoRAs car ils sont déjà intégrés au modèle.

SageAttn offre jusqu’à 30 % de gain de vitesse lorsqu’il est activé dans le wrapper.

N’utilisez pas teacache pour ce modèle en raison du faible nombre d’étapes.

Essayez d’autres LoRAs pour un style supplémentaire ou des effets expérimentaux.

Activez le block swapping si la VRAM vient à manquer ; commencez à 5 blocs et ajustez.

La fonction d’amélioration vidéo peut être utilisée avec des réglages entre 2 et 4 pour obtenir des résultats plus vibrants.

Sponsors du créateur

☕ Vous aimez ce que je fais ? Soutenez-moi ici : Buy Me A Coffee 💜
Chaque café aide à financer plus de LoRAs & flux de travail gratuits !

👉 Découvrez FusionX Lightning Workflows pour des générations vidéo plus rapides en aussi peu que 70 secondes !

🔗 Prenez les FusionX LoRAs ici pour un meilleur contrôle avec votre setup WAN2.1 + SkyReels.

🔗 Découvrez les Lightning Workflows ici pour un gain de vitesse.

📌 Les workflows sont disponibles ICI (en cours, plus à venir).

👉 Rejoignez la communauté Discord pour discuter, partager vos créations et obtenir du support !

🌀 Wan2.1_14B_FusionX — Modèles fusionnés pour un mouvement et des détails plus rapides et riches en aussi peu que 8 étapes !

📢 Mise à jour du 1/7/2025 !

Nouveau : Flux de travail FusionX Lightning

Vous cherchez des générations vidéo plus rapides avec WAN2.1 ? Découvrez le nouveau FusionX_Lightning_Workflows — optimisé avec LightX LoRA pour rendre les vidéos en aussi peu que 70 secondes (4 étapes, 1024x576) !

🧩 Disponible en :
• Native • Native GGUF • Wrapper
(VACE & Phantom bientôt disponibles)

🎞️ L'image en vidéo vient d'avoir une grosse mise à jour !!!!!
Meilleure adhérence aux prompts, plus de mouvement, et dynamiques plus fluides.

⚖️ FusionX vs Lightning ?
Original = réalisme maximal.
Lightning = vitesse + faible VRAM, avec une qualité similaire utilisant des prompts intelligents.

👉 Découvrez-le ici


☕ Vous aimez ce que je fais ? Soutenez-moi ici : Buy Me A Coffee 💜
Chaque café aide à financer plus de LoRAs & flux de travail gratuits !


📢 Saviez-vous que vous pouvez maintenant utiliser FusionX en tant que LoRA au lieu d'un modèle de base complet ?
Parfait si vous voulez plus de contrôle tout en restant avec votre propre setup WAN2.1 + SkyReels.

🔗 Prenez les FusionX LoRAs ICI
🔗 Ou découvrez les Lightning Workflows ICI pour un gros gain de vitesse.


📌 Détails importants - Veuillez lire la description complète ci-dessous car de petits changements dans les paramètres peuvent donner des résultats totalement différents et négatifs ! J'ai testé et déjà trouvé de meilleurs réglages, merci de lire ci-dessous ! :)

💡Les workflows peuvent être trouvés ICI (C'est en cours et d'autres seront ajoutés bientôt.)

🛠️La section mises à jour a été déplacée à la fin de la description.

Un modèle texte-vidéo haute performance construit sur le modèle de base WAN 2.1 14B T2V — fusionné soigneusement avec plusieurs modèles de recherche pour améliorer la qualité du mouvement, la cohérence des scènes et les détails visuels, comparable à certains modèles propriétaires.

## 📢 Rejoignez la communauté !

Un espace convivial pour discuter, partager vos créations et obtenir du support.

👉 Cliquez ici pour rejoindre le Discord !

Venez dire bonjour dans #welcome, consultez les règles et montrez vos créations ! 🎨🧠

💡 Contenu de ce modèle de base :

  • 🧠 CausVid – Modélisation causale du mouvement pour un meilleur flux de scène et un boost spectaculaire de la vitesse

  • 🎞️ AccVideo – Améliore l'alignement temporel et le réalisme ainsi que la vitesse

  • 🎨 MoviiGen1.1 – Apporte une fluidité cinématographique et un éclairage

  • 🧬 MPS Reward LoRA – Ajustée pour la dynamique et les détails du mouvement

  • LoRAs personnalisés (par moi) – Axés sur la texture, la clarté et les détails fins. (Tous deux réglés à très faible intensité avec un impact très limité)


🔥 Points forts :

  • 📝 Accepte la configuration prompt standard + prompt négatif

  • 🌀 Réglé pour une haute cohérence temporelle et des scènes cinématographiques expressives

  • 🔁 Remplacement direct de WAN 2.1 T2V — mais en mieux

  • 🚀 Rendu jusqu'à 50 % plus rapide que le modèle de base (surtout avec SageAttn activé)

  • 🧩 Totalement compatible avec VACE

  • 🧠 Optimisé pour ComfyUI, avec le Kijai Wan Wrapper et les nœuds natifs.


📌 Détails importants pour le texte en vidéo :

  • 🔧 CGF doit être réglé à 1 — toute valeur supérieure ne donnera pas de résultats acceptables.

  • 🔧 Shift - Les résultats varient selon la résolution. 1024x576 commence à 1 et pour 1080x720 commencez à 2. Note : Pour plus de réalisme, utilisez des valeurs de shift basses. Pour un style plus marqué, testez des valeurs plus élevées entre 3 et 9.

  • Scheduler : La plupart de mes exemples utilisent Uni_pc, mais vous pouvez obtenir des résultats différents avec d'autres. L'expérimentation est clé. Selon le prompt, flowmatch_causvid fonctionne aussi bien et aide avec les petits détails.

📌 Détails importants pour l'image en vidéo :

  • 🔧 CGF doit être réglé à 1 — toute valeur supérieure ne donnera pas de résultats acceptables.

  • 🔧 Shift - Pour image en vidéo, j'ai trouvé que 2 est le meilleur, mais expérimentez.

  • Scheduler : La plupart de mes exemples utilisent dmp++_sde/beta et semble être le mieux adapté, mais expérimentez.

  • Après tests, pour plus de mouvement et réduire l'effet ralenti, réglez votre nombre d'images sur 121 et les images par seconde à 24. Cela peut augmenter la vitesse de mouvement jusqu'à 50 %.

📌Autres détails importants :

  • La génération vidéo fonctionne avec seulement 6 étapes, mais 8–10 étapes donnent la meilleure qualité. Moins d'étapes sont idéales pour des brouillons rapides avec un grand gain de vitesse.

  • 🧩 Meilleurs résultats avec le nœud personnalisé Kaji Wan Wrapper :
    https://github.com/kijai/ComfyUI-WanVideoWrapper

  • 🧪 Testé aussi avec le flux de travail natif WAN, le temps de génération est un peu plus long mais les résultats sont similaires au wrapper.

  • Ne ré-ajoutez pas CausVid, AccVideo, ou MPS LoRAs — ils sont déjà intégrés au modèle et pourraient causer des résultats indésirables.

  • 🎨 Vous pouvez utiliser d'autres LoRAs pour du style supplémentaire — n'hésitez pas à expérimenter.

  • 📽️ Toutes les vidéos de démo ont été générées en 1024x576, 81 images, avec seulement ce modèle — pas d'upscaling, interpolation, ou LoRAs supplémentaires.

  • 🖥️ Rendu sur une RTX 5090 — chaque vidéo prend environ 138 secondes avec les paramètres listés.

  • 🧠 Si vous manquez de VRAM, activez le block swapping — commencez à 5 blocs et ajustez.

  • 🚀 SageAttn activé, offrant jusqu'à 30 % de gain de vitesse. (Uniquement avec le wrapper)

  • Les workflows pour chaque modèle sont disponibles ici : ICI

  • 🚫 Ne pas utiliser teacache — ce n’est pas nécessaire en raison du faible nombre d’étapes.

  • 🔍 Les fonctions “Enhance a video” et “SLG” n'ont pas été testées — n'hésitez pas à explorer par vous-même. -- Edit. J’ai testé "Enhance a video" et vous pouvez obtenir des résultats plus vibrants en l'activant. Réglages entre 2-4. Expérimentez ! SLG n’a pas été beaucoup testé.

  • 💬 Des questions ? Vous pouvez laisser un message ou rejoindre la communauté :

    • 👉 Cliquez ici pour rejoindre le Discord !

  • 📝 Vous voulez de meilleurs prompts ? Tous mes exemples vidéo ont été créés à l’aide de ce GPT personnalisé :
    🎬 WAN Cinematic Video Prompt Generator
    Essayez de lui demander d’ajouter des détails visuels et cinématographiques supplémentaires — ça fait une différence notable.


⚠️ Avertissement :

  • Les vidéos générées avec ce modèle sont destinées à un usage personnel, éducatif ou expérimental uniquement, sauf si vous avez réalisé votre propre vérification légale.

  • Ce modèle est une fusion de plusieurs sources de recherche et n’est pas garanti exempt de données protégées par des droits d’auteur ou propriétaires.

  • Vous êtes seul responsable de tout contenu généré et de son utilisation.

  • Si vous utilisez les résultats commercialement, vous assumez toute responsabilité légale pour violation de droits d’auteur, mauvaise utilisation ou violation des droits tiers.

En cas de doute, consultez un conseiller juridique qualifié avant toute monétisation ou distribution de contenu généré.


### 🧠 Plus de variantes GGUF

- 🖼️ [FusionX Image-to-Video (GGUF)]

- 🎥 [FusionX Text-to-Video (GGUF)]

- 🎞️ [FusionX T2V VACE GGUF (pour natif)]

- 👻 [FusionX Phantom GGUF (pour natif)]


###🧠 Versions fp16 disponibles ici :

-- 🖼️Modèles FusionX fp16



📌Comparaisons gguf !
Je complète doucement cette liste, mais ici vous pouvez voir comment les modèles se comparent au modèle principal.

Texte en vidéo :

--------

🛠️Mise à jour 8/6/2025 - Modèle image en vidéo publié ! Paramètres utilisés dans les vidéos exemples : Étapes = 10 / cfg = 1 / shift = 2 / scheduler = dmp++_sde je publierai bientôt un workflow.

🛠️Mise à jour 7/6/2025 - Publication d'un modèle i2v phantom pouvant prendre jusqu'à 4 images de référence et les combiner en vidéo. Workflow à venir bientôt.

Le workflow Phantom sera bientôt mis en ligne.

🛠️Mise à jour 6/6/2025 - Ajout d’un nouveau modèle gguf ! Si vous souhaitez la plus haute qualité et avez assez de VRAM, prenez le modèle V1.0, sinon gguf est la meilleure alternative ! L’utilisation de gguf prend plus de temps, même sur une RTX 5090.

Précédent
Art de Ligne Minimaliste Élégant - Flux
Suivant
Dodge Charger SRT Hellcat (SDXL) - v1.0

Détails du modèle

Type de modèle

Checkpoint

Modèle de base

Wan Video 14B t2v

Version du modèle

FusionX_Text2Video

Hash du modèle

f9dcda1af2

Créateur

Discussion

Veuillez vous log in pour laisser un commentaire.

Images par Wan2.1_14B_FusionX - FusionX_Text2Video

Images avec modèle de base