추천 네거티브 프롬프트

色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走

추천 매개변수

samplers

Uni_pc, flowmatch_causvid, dmp++_sde, dmp++_sde/beta, UniPC

steps

6 - 10

cfg

1

resolution

1024x576, 1080x720

텍스트-비디오 및 이미지-비디오 결과를 위해 CGF는 반드시 1로 설정해야 합니다.

텍스트-비디오의 경우, 1024x576 해상도에서는 shift 값을 1부터, 1080x720 해상도에서는 2부터 시작하세요; 리얼리즘을 위해서는 낮은 shift 값이, 스타일리시한 룩을 위해서는 3~9 사이의 높은 shift 값을 권장합니다.

이미지-비디오에서는 shift 값을 2로 설정하는 것이 추천되나 실험해 보는 것을 권장합니다.

모션 속도를 최대 50%까지 증가시키려면 프레임 수를 121, 초당 프레임을 24로 설정하세요.

최상의 결과와 빠른 렌더링을 위해 Kaji Wan Wrapper 커스텀 노드를 사용하세요.

CausVid, AccVideo, MPS LoRA를 다시 추가하지 마세요; 이들은 이미 모델에 포함되어 있습니다.

SageAttn 활성화 시 래퍼에서는 최대 30%의 속도 향상을 제공합니다.

이 모델은 낮은 스텝 수 때문에 teacache를 사용하지 마세요.

추가 스타일링이나 실험 효과를 위해 다른 LoRA를 자유롭게 사용해 보세요.

VRAM이 부족할 경우 블록 스와핑 기능을 활성화하고 5블록부터 시작하여 조정하세요.

비디오 향상(Enhance video) 기능은 2-4 사이 설정에서 더 선명한 결과를 제공합니다.

크리에이터 스폰서

☕ 제 작업이 마음에 드시나요? 지원해 주세요: 커피 사주기 💜
모든 커피가 더 많은 무료 LoRA와 워크플로우 제작에 도움이 됩니다!

👉 FusionX Lightning Workflows를 확인하세요 — 단 70초 만에 빠른 비디오 생성!

🔗 여기에서 FusionX LoRA를 받아 WAN2.1 + SkyReels 설정에 더 많은 제어 권한을 얻으세요.

🔗 Lightning Workflows도 여기에서 확인하세요 — 속도 향상을 위해.

📌 워크플로우는 여기에서 확인 가능 (작업 중, 추가 예정).

👉 디스코드 커뮤니티에 참여해 소통하고 작품을 공유하며 지원을 받으세요!

🌀 Wan2.1_14B_FusionX — 빠르고 풍부한 모션과 디테일을 8스텝 만에 제공하는 통합 모델!

📢 2025년 7월 1일 업데이트!

신규: FusionX 라이트닝 워크플로우

WAN2.1로 더 빠른 비디오 생성을 원한다면, FusionX_Lightning_Workflows를 확인하세요 — LightX LoRA로 최적화되어 70초(4스텝, 1024x576) 내에 비디오를 렌더링합니다!

🧩 사용 가능:
• 네이티브 • 네이티브 GGUF • 래퍼
(곧 VACE & Phantom 지원 예정)

🎞️ 이미지-영상 변환 기능 대폭 업그레이드!!!!!!
더 나은 프롬프트 준수, 더 많은 모션, 그리고 부드러운 다이내믹스

⚖️ FusionX vs Lightning?
오리지널 = 최대 리얼리즘.
Lightning = 속도 + 낮은 VRAM, 똑똑한 프롬프트로 유사 품질 제공.

👉 여기서 확인하세요


☕ 제 작업이 마음에 드시나요? 지원해 주세요: 커피 사주기 💜
모든 커피가 더 많은 무료 LoRA와 워크플로우 제작에 도움이 됩니다!


📢 FusionX를 완전한 베이스 모델 대신 LoRA로도 사용할 수 있다는 사실을 아시나요?
자신만의 WAN2.1 + SkyReels 설정과 함께 더 많은 제어가 가능합니다.

🔗 FusionX LoRA여기에서 받으세요
🔗 강력한 속도 향상을 위한 Lightning Workflows여기에서 확인하세요.


📌 중요 사항 - 아래 설명을 반드시 모두 읽어주세요. 설정의 작은 변화도 결과에 큰 차이를 만듭니다! 이미 테스트를 통해 더 좋은 설정도 발견했습니다! 감사합니다 :)

💡 워크플로우는 여기에서 확인 가능 (현재 작업 중이며 추가 예정)

🛠️ 업데이트 내용은 설명 끝 부분으로 이동했습니다.

고성능의 텍스트-비디오 모델로, 기본 WAN 2.1 14B T2V 모델 위에 구축되었으며 여러 연구급 모델을 신중히 통합하여 모션 품질, 장면 일관성, 시각적 디테일을 크게 향상시켰습니다. 일부 비공개 모델과 견줄 만큼 뛰어납니다.

## 📢 커뮤니티에 참여하세요!

친근한 공간에서 소통하며 창작물을 공유하고 지원을 받을 수 있습니다.

👉 디스코드 참여하기!

#welcome 채널에서 인사하고, 규칙을 확인하며, 작품을 자랑해 보세요! 🎨🧠

💡 이 베이스 모델 내 주요 구성 요소:

  • 🧠 CausVid – 향상된 장면 흐름과 빠른 속도를 위한 인과 모션 모델링

  • 🎞️ AccVideo – 시간 정렬과 사실감 향상 및 속도 부스트

  • 🎨 MoviiGen1.1 – 시네마틱 부드러움과 조명 효과 강화

  • 🧬 MPS Reward LoRA – 모션 다이내믹과 디테일 튜닝

  • 커스텀 LoRA (직접 제작) – 텍스처, 선명도, 세밀한 디테일 개선 (매우 낮은 강도로 영향은 적음)


🔥 주요 특징:

  • 📝 표준 프롬프트 + 네거티브 프롬프트 설정 지원

  • 🌀 높은 시간적 일관성표현력 있는 시네마틱 장면에 최적화

  • 🔁 WAN 2.1 T2V의 완벽한 대체제 — 더 나은 성능

  • 🚀 기본 모델 대비 최대 50% 빠른 렌더링 (특히 SageAttn 활성 시)

  • 🧩 VACE와 완전히 호환

  • 🧠 ComfyUI에 최적화, Kijai Wan Wrapper 및 네이티브 노드 모두 지원


📌 텍스트-비디오용 중요 설정:

  • 🔧 CGF는 1로 설정해야 함 — 1 초과 시 적절한 결과 어려움

  • 🔧 Shift - 해상도에 따라 결과 차이 있음. 1024x576은 1부터, 1080x720은 2부터 시작. 참고: 리얼리즘을 원하면 낮은 값이 좋고, 스타일리시한 룩은 3~9 사이에서 실험 권장

  • 스케줄러: 대부분 Uni_pc 사용, 프롬프트에 따라 flowmatch_causvid도 좋으며 세밀한 디테일에 도움됨

📌 이미지-비디오용 중요 설정:

  • 🔧 CGF는 1로 설정해야 함

  • 🔧 Shift - 이미지-비디오에는 2가 최적이나 실험 가능

  • 스케줄러: 대부분 dmp++_sde/beta 사용, 최적이나 실험 가능

  • 테스트 결과, 모션을 늘리고 슬로우모션 효과를 줄이려면 프레임 수를 121, 초당 프레임을 24로 설정하세요. 최대 50% 모션 속도 향상 가능.

📌기타 중요 사항:

  • 비디오 생성은 최소 6스텝에서도 가능, 그러나 8~10스텝이 최적 품질. 낮은 스텝은 빠른 초안용으로 유용.

  • 🧩 가장 좋은 결과는 Kaji Wan Wrapper 커스텀 노드 사용 시:
    https://github.com/kijai/ComfyUI-WanVideoWrapper

  • 🧪 네이티브 WAN 워크플로우로도 테스트함. 생성 시간은 조금 길지만 결과는 래퍼와 일치.

  • CausVid, AccVideo, MPS LoRA는 다시 추가하지 마세요 — 이들은 모델에 이미 통합되어 있어 문제 발생 가능.

  • 🎨 추가 스타일링을 위해 다른 LoRA도 자유롭게 실험 가능.

  • 📽️ 모든 데모 비디오는 1024x576, 81프레임으로 이 모델만 사용하여 생성(업스케일, 보간, 추가 LoRA 없음).

  • 🖥️ RTX 5090에서 렌더링 시 각 비디오당 약 138초 소요.

  • 🧠 VRAM 부족 시 블록 스와핑 활성화 가능 — 5블록부터 시작해 조절.

  • 🚀 SageAttn 활성화시 최대 30% 속도 향상. (래퍼 전용)

  • 워크플로우는 여기에서 확인 가능

  • 🚫 테이캐시(teacache)는 사용하지 마세요 — 낮은 스텝 수 때문에 불필요.

  • 🔍 "비디오 향상(Enhance a video)" 및 "SLG" 기능은 테스트하지 않았음 — 직접 실험해보세요. -- 편집: "비디오 향상" 기능은 테스트했으며 2~4 사이 설정 시 더 선명한 결과 가능. SLG는 별도 테스트 부족.

  • 💬 질문이 있나요? 메시지를 남기거나 커뮤니티에 참여하세요:

  • 📝 더 나은 프롬프트를 원하나요? 모든 예제 비디오 프롬프트는 이 커스텀 GPT를 사용해 만들었습니다:
    🎬 WAN 시네마틱 비디오 프롬프트 생성기
    더 많은 시각적 및 시네마틱 디테일 추가를 요청해 보세요 — 눈에 띄는 차이를 만듭니다.


⚠️ 면책 조항:

  • 이 모델로 생성된 비디오는 개인적, 교육적 또는 실험적 사용만을 위한 것이며, 법적 검토를 완료하지 않은 경우 상업적 사용 금지.

  • 이 모델은 여러 연구급 소스를 병합한 것이며, 저작권 또는 독점 데이터 포함 여부에 대한 보장 없음.

  • 생성한 콘텐츠에 대한 책임은 전적으로 사용자에게 있습니다.

  • 상업적 이용 시 저작권 침해, 오용, 제3자 권리 위반에 대한 모든 법적 책임을 부담해야 합니다.

의심스러울 경우, 전문 법률 상담을 받아야 합니다.


### 🧠 추가 GGUF 버전

- 🖼️ [FusionX 이미지-비디오 (GGUF)]

- 🎥 [FusionX 텍스트-비디오 (GGUF)]

- 🎞️[FusionX T2V VACE GGUF (네이티브용)]

- 👻 [FusionX Phantom GGUF (네이티브용)]


###🧠 fp16 버전은 여기서 찾을 수 있습니다:

-- 🖼️fp16 FusionX 모델들



📌gguf 비교!
차차 목록을 추가 중이며, 여기서 메인 모델과 비교 결과를 볼 수 있습니다.

텍스트-비디오:

--------

🛠️ 2025년 6월 8일 업데이트 - 이미지-비디오 모델이 공개되었습니다! 예제 비디오 설정: 스텝=10 / cfg=1 / shift=2 / 스케줄러=dmp++_sde. 곧 워크플로우 게시 예정.

🛠️ 2025년 6월 7일 업데이트 - 최대 4장 참조 이미지를 받아 비디오로 결합하는 i2v 팬텀 모델 공개. 곧 워크플로우 게시 예정.

팬텀 워크플로우 곧 업로드 예정.

🛠️ 2025년 6월 6일 업데이트 - 새로운 gguf 모델 추가! 최고 품질을 원하고 VRAM이 충분하면 V1.0 모델을, 그렇지 않으면 gguf가 최선의 선택! RTX 5090에서도 gguf 사용 시 생성 시간이 더 걸립니다.

이전
우아한 미니멀리스트 선화 - Flux
다음
Dodge Charger SRT Hellcat (SDXL) - v1.0

모델 세부사항

모델 유형

Checkpoint

기본 모델

Wan Video 14B t2v

모델 버전

FusionX_Text2Video

모델 해시

f9dcda1af2

제작자

토론

댓글을 남기려면 log in하세요.

Wan2.1_14B_FusionX - FusionX_Text2Video 제작 이미지

기본 모델 이미지