Shuttle 3.1 Aesthetic - v1.0
Palavras-chave e Tags Relacionadas
Prompts Recomendados
A cat holding a sign that says hello world
Parâmetros Recomendados
steps
resolution
Dicas
Use tipo de tensor bfloat16 para eficiência.
Habilite descarregamento do modelo para CPU para economizar VRAM, se necessário.
Habilite torch.compile para aumento de performance em GPUs compatíveis (pode aumentar o tempo de carregamento).
Use seed manual para resultados reproduzíveis.
Patrocinadores do Criador
Junte-se ao nosso Discord para receber as últimas atualizações, notícias e mais.
Experimente o modelo pelo site em https://designer.shuttleai.com/
Use Shuttle 3.1 Aesthetic via API através do ShuttleAI e consulte a Documentação ShuttleAI.
# Shuttle 3.1 Aesthetic
Junte-se ao nosso [Discord](https://discord.gg/shuttleai) para receber as atualizações, notícias e muito mais.
## Variantes do Modelo
Essas variantes do modelo oferecem diferentes níveis de precisão e formatos otimizados para diversas capacidades de hardware e casos de uso
- [bfloat16](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/shuttle-3.1-aesthetic.safetensors)
- GGUF (em breve)
Shuttle 3.1 Aesthetic é um modelo de IA texto-para-imagem projetado para criar imagens detalhadas e estéticas a partir de prompts textuais em apenas 4 a 6 passos. Oferece desempenho aprimorado em qualidade de imagem, tipografia, compreensão de prompts complexos e eficiência de recursos.

Você pode testar o modelo através do site em https://designer.shuttleai.com/
## Usando o modelo via API
Você pode usar Shuttle 3.1 Aesthetic via API através do ShuttleAI
- [ShuttleAI](https://shuttleai.com/)
- [Documentação ShuttleAI](https://docs.shuttleai.com/)
## Usando o modelo com 🧨 Diffusers
Instale ou atualize os diffusers
```shell
pip install -U diffusers
```
Então, você pode usar DiffusionPipeline para executar o modelo
```python
import torch
from diffusers import DiffusionPipeline
# Carregue a pipeline de difusão a partir de um modelo pré-treinado, usando bfloat16 para tipos de tensor.
pipe = DiffusionPipeline.from_pretrained(
"shuttleai/shuttle-3.1-aesthetic", torch_dtype=torch.bfloat16
).to("cuda")
# Descomente a linha abaixo para economizar VRAM descarregando o modelo para CPU se necessário.
# pipe.enable_model_cpu_offload()
# Descomente as linhas abaixo para habilitar torch.compile e potencialmente melhorar o desempenho em GPUs compatíveis.
# Note que isso pode aumentar consideravelmente o tempo de carregamento.
# pipe.transformer.to(memory_format=torch.channels_last)
# pipe.transformer = torch.compile(
# pipe.transformer, mode="max-autotune", fullgraph=True
# )
# Defina seu prompt para geração de imagem.
prompt = "Um gato segurando uma placa que diz olá mundo"
# Gere a imagem usando a pipeline de difusão.
image = pipe(
prompt,
height=1024,
width=1024,
guidance_scale=3.5,
num_inference_steps=4,
max_sequence_length=256,
# Descomente a linha abaixo para usar uma seed manual para resultados reproduzíveis.
# generator=torch.Generator("cpu").manual_seed(0)
).images[0]
# Salve a imagem gerada.
image.save("shuttle.png")
```
Para saber mais, consulte a documentação do [diffusers](https://huggingface.co/docs/diffusers/main/en/api/pipelines/flux)
## Usando o modelo com ComfyUI
Para rodar inferência local com Shuttle 3.1 Aesthetic usando [ComfyUI](https://github.com/comfyanonymous/ComfyUI), você pode usar este arquivo [safetensors](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/blob/main/shuttle-3.1-aesthetic.safetensors).
## Detalhes do Treinamento
Shuttle 3.1 Aesthetic utiliza Shuttle 3 Diffusion como base. Ele pode produzir imagens semelhantes ao Flux Dev em apenas 4 passos e é licenciado sob Apache 2. O modelo foi parcialmente de-destilado durante o treinamento. Superamos as limitações dos modelos da série Schnell empregando um método especial de treinamento, resultando em melhorias nos detalhes e nas cores.
Detalhes do Modelo
Tipo de modelo
Modelo base
Versão do modelo
Hash do modelo
Criador
Discussão
Por favor, faça log in para deixar um comentário.















