模型/FLUX.1 [dev] fp8 版本 - 可擴展 fp8/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn

FLUX.1 [dev] fp8 版本 - 可擴展 fp8/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn

|
8/7/2025
|
1:20:48 AM
| Discussion|
0
動畫風格側面圖,一名穿紅色背心和黑色裙子的憤怒女子對穿襯衫和領帶的男子膝擊其襠部,男子面露痛苦表情。
一位臉上畫有骷髏妝、鮮橙色頭髮的女子,穿著印有「請勿觸摸」字樣的黑色上衣和灰色瑜珈褲,躺在由眾多獨特人手組成的床上,所在房間光線昏暗。
一名戴眼鏡的禿頭男子,穿灰色恤衫和白色工裝褲,在昏暗燈光的舊實驗室中用電腦學習,畫面呈現 VHS 錄像風格及類比視頻失真。

推薦參數

samplers

euler_simple, euler_beta

steps

32

vae

ae.safetensors

提示

E4M3 在零附近提供較高精度,E5M2 涵蓋更廣數值範圍但精度較低;選擇依模型權重分布而定。

可擴展 fp8 FLUX.1 較 Q 量化模型快,但品質可能稍低。

請配合最新 ComfyUI 版本及 TorchCompileModel 節點使用;weight_dtype 設為預設值。

模型不兼容 Redux 及部分 ControlNet 模型。

版本亮點

FLUX.1 [dev] 的 fp8_e4m3fn 版本。這檔案最初由 Kijai 上傳至 Hugging Face

創作者贊助

更新:

我加入了一些不再托管於 Civitai 的 FLUX.1 [dev] 其他 fp8 版本,特別是 fp8_e4m3fn 和 fp8_e5m2,除了我最初發布的可擴展 fp8 FLUX.1 [dev] 版本。

fp8_e4m3fn 和 fp8_e5m2 模型最初由 Kijai 上傳至 Hugging Face,他們指出 E5M2 與 E4M3 會產生略有不同的結果,但難以/不可能判定哪個更好。 E4M3 是人們通常所稱的 FP8。

以下是來自 Reddit 貼文關於 fp8_e4m3fn 與 fp8_e5m2 的說明:

FP 代表浮點數。任何帶符號的浮點數存為三部分:

  1. 符號位元

  2. 尾數

  3. 指數

數值 = 符號 * 尾數 * 2^指數

E5M2 表示尾數為 2 位元,指數為 5 位元。E4M3 表示尾數為 3 位元,指數為 4 位元。

E5M2 可表示的數值範圍比 E4M3 更廣,但精度較低。然而可表示的不同數值數量相同:256 個。若需零附近高精度則用 E4M3,若需靠近最小/最大值的高精度則用 E5M2。

最佳選擇格式方法是分析模型權重分布。若權重趨近零,選 E4M3,否則選 E5M2。

原文:

我沒見過這版本上傳到這裡。

這是 comfyanonymous 上傳到 HuggingFace 的可擴展 fp8 FLUX.1 [dev] 模型。它的結果應該比普通 fp8 更好,接近 fp16,但推理速度比 Q 量化快很多。支援 TorchCompileModel 節點。注意:此模型不兼容 Redux 及部分 ControlNet 模型。

fp8 可擴展檢查點是一個略為實驗性的版本,特別調校以利用 40 系列/ada/h100 等 GPU 上的 fp8 矩陣乘法,目標是達到最高品質與更快速度,品質可能略遜於 Q8_0,但若硬件支持 fp8 運算,推理會更快。

來自 HuggingFace

測試用可擴展 fp8 flux dev 模型,使用最新版本 ComfyUI 並將 weight_dtype 設為預設。將檔案放入 ComfyUI/models/diffusion_models/ 資料夾,並用“Load Diffusion Model”節點載入。

上一個
_MOHAWK_ - v2.0
下一個
Pony PDXL 負面 Embeddings - XXX 評級

模型詳情

模型類型

Checkpoint

基礎模型

Flux.1 D

模型版本

fp8_e4m3fn

模型雜湊值

47d8dbdc6d

創作者

討論

log in以發表評論。

FLUX.1 [dev] fp8 版本 - 可擴展 fp8/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn 的圖片

基礎模型 圖片

flux 圖片