modelos/FLUX.1 [dev] versões fp8 - fp8 escalado/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn

FLUX.1 [dev] versões fp8 - fp8 escalado/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn

|
8/7/2025
|
1:20:48 AM
| Discussion|
0
Vista lateral em estilo anime de uma mulher irada com regata vermelha e saia preta desferindo uma joelhada na virilha de um homem usando camisa e gravata, que demonstra uma expressão de dor.
Uma mulher com maquiagem de caveira e cabelo laranja brilhante está adormecida em uma cama feita de muitas mãos humanas únicas, vestindo uma camisa preta com o texto 'não toque' e calças de yoga cinza, em um quarto com pouca luz.
Um homem careca usando óculos e camisa cinza com calça cargo branca estuda em um computador em um laboratório antigo com iluminação fraca, capturado no estilo de gravação VHS com artefatos de vídeo analógico.

Parâmetros Recomendados

samplers

euler_simple, euler_beta

steps

32

vae

ae.safetensors

Dicas

E4M3 oferece mais precisão perto dos valores zero enquanto E5M2 cobre uma faixa mais ampla de números com menor precisão; a escolha depende da distribuição dos pesos do modelo.

O fp8 escalado FLUX.1 é mais rápido que modelos quantizados Q, mas pode ter qualidade ligeiramente inferior.

Use este modelo com a versão mais recente do ComfyUI e o nó TorchCompileModel; defina weight_dtype como default.

O modelo não funciona com Redux ou alguns modelos ControlNet.

Destaques da Versão

Versão fp8_e4m3fn do FLUX.1 [dev]. Este arquivo foi originalmente carregado por Kijai aqui no Hugging Face.

Patrocinadores do Criador

Atualização:

Adicionei algumas outras versões fp8 do FLUX.1 [dev] que não estão mais hospedadas no Civitai, especificamente fp8_e4m3fn e fp8_e5m2, além da versão fp8 escalada FLUX.1 [dev] que eu tinha postado originalmente.

Os modelos fp8_e4m3fn e fp8_e5m2 foram originalmente carregados por Kijai aqui no Hugging Face, onde é explicado que E5M2 e E4M3 produzem resultados ligeiramente diferentes, mas é difícil/impossível afirmar qual é melhor. E4M3 é o que as pessoas normalmente referem quando falam de FP8.

Aqui está uma informação de postagem no Reddit sobre fp8_e4m3fn e fp8_e5m2:

FP significa Floating Point (Ponto Flutuante). Qualquer número de ponto flutuante com sinal é armazenado em 3 partes:

  1. Bit de sinal

  2. Mantissa

  3. Expoente

Então número = sinal * mantissa * 2^expoente

E5M2 significa que 2 bits representam a mantissa e 5 bits representam o expoente. E4M3 significa que 3 bits representam a mantissa e 4 bits representam o expoente.

E5M2 pode representar uma faixa mais ampla de números do que E4M3, com o custo de menor precisão nos números. Mas a quantidade de números distintos que podem ser representados é a mesma: 256 valores distintos. Então, se precisamos de mais precisão próximo a 0, usamos E4M3; se precisamos de mais precisão próximo aos valores mínimos/máximos, usamos E5M2.

A melhor maneira de escolher qual formato usar é analisar a distribuição dos valores dos pesos no modelo. Se eles tendem a estar mais próximos de zero usamos E4M3; caso contrário, usamos E5M2.

Original:

Eu não vi essa versão carregada aqui.

Este é o modelo fp8 escalado FLUX.1 [dev] enviado para o HuggingFace por comfyanonymous. Ele deve fornecer resultados melhores que o modelo fp8 regular, muito mais próximo do fp16, mas roda muito mais rápido que os quantizados Q. Funciona com o nó TorchCompileModel. Nota: por algum motivo, este modelo não funciona com Redux nem com alguns modelos ControlNet.

O checkpoint fp8 escalado é um pouco experimental e foi especificamente ajustado para tentar obter a mais alta qualidade usando a multiplicação matricial fp8 nas séries 40/ada/h100/etc... então provavelmente terá qualidade menor que o Q8_0, mas fará inferência mais rápida se seu hardware suportar operações fp8.

Do HuggingFace :

Teste do modelo flux dev fp8 escalado, use com a versão mais recente do ComfyUI com weight_dtype definido como default. Coloque-o na pasta ComfyUI/models/diffusion_models/ e carregue com o nó "Load Diffusion Model".

Anterior
_MOHAWK_ - v2.0
Próximo
Pony PDXL Negative Embeddings - Classificação XXX

Detalhes do Modelo

Tipo de modelo

Checkpoint

Modelo base

Flux.1 D

Versão do modelo

fp8_e4m3fn

Hash do modelo

47d8dbdc6d

Criador

Discussão

Por favor, faça log in para deixar um comentário.

Coleção de Modelos - FLUX.1 [dev] fp8 versions - Scaled fp8/fp8_e4m3fn/fp8_e5m2

Imagens por FLUX.1 [dev] versões fp8 - fp8 escalado/fp8_e4m3fn/fp8_e5m2 - fp8_e4m3fn

Imagens com modelo base

Imagens com flux