Shuttle 3.1 Aesthetic - v1.0
Powiązane słowa kluczowe i tagi
Zalecane podpowiedzi
A cat holding a sign that says hello world
Zalecane parametry
steps
resolution
Wskazówki
Używaj typu tensorów bfloat16 dla efektywności.
Włącz przeniesienie modelu na CPU, aby zaoszczędzić VRAM, jeśli jest to potrzebne.
Włącz torch.compile dla przyspieszenia na kompatybilnych GPU (może wydłużyć czas ładowania).
Używaj manualnego ziarna dla powtarzalnych wyników.
Sponsorzy twórcy
Dołącz do naszego Discorda, aby otrzymywać najnowsze aktualizacje, wiadomości i więcej.
Wypróbuj model przez stronę internetową pod adresem https://designer.shuttleai.com/
Korzystaj z Shuttle 3.1 Aesthetic przez API za pośrednictwem ShuttleAI oraz sprawdź Dokumentację ShuttleAI.
# Shuttle 3.1 Aesthetic
Dołącz do naszego [Discord](https://discord.gg/shuttleai), aby otrzymywać najnowsze aktualizacje, wiadomości i więcej.
## Warianty modelu
Te warianty modelu oferują różne poziomy precyzji i formaty zoptymalizowane dla zróżnicowanych możliwości sprzętowych i zastosowań
- [bfloat16](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/shuttle-3.1-aesthetic.safetensors)
- GGUF (wkrótce)
Shuttle 3.1 Aesthetic to model AI tekst-na-obraz zaprojektowany do tworzenia szczegółowych i estetycznych obrazów na podstawie tekstowych promptów w zaledwie 4 do 6 kroków. Oferuje ulepszoną wydajność w jakości obrazu, typografii, zrozumieniu złożonych promptów oraz efektywności zasobów.

Możesz wypróbować model przez stronę internetową pod adresem https://designer.shuttleai.com/
## Używanie modelu przez API
Możesz korzystać z Shuttle 3.1 Aesthetic przez API za pośrednictwem ShuttleAI
- [ShuttleAI](https://shuttleai.com/)
- [Dokumentacja ShuttleAI](https://docs.shuttleai.com/)
## Używanie modelu z 🧨 Diffusers
Zainstaluj lub zaktualizuj diffusers
```shell
pip install -U diffusers
```
Następnie możesz użyć DiffusionPipeline do uruchomienia modelu
```python
import torch
from diffusers import DiffusionPipeline
# Załaduj pipeline dyfuzji z pretrained modelu, używając bfloat16 dla typów tensorów.
pipe = DiffusionPipeline.from_pretrained(
"shuttleai/shuttle-3.1-aesthetic", torch_dtype=torch.bfloat16
).to("cuda")
# Odkomentuj poniższą linię, aby zaoszczędzić VRAM przez przeniesienie modelu na CPU, jeśli zajdzie taka potrzeba.
# pipe.enable_model_cpu_offload()
# Odkomentuj linie poniżej, aby aktywować torch.compile dla potencjalnego przyspieszenia na kompatybilnych GPU.
# Należy pamiętać, że może to znacznie wydłużyć czas ładowania.
# pipe.transformer.to(memory_format=torch.channels_last)
# pipe.transformer = torch.compile(
# pipe.transformer, mode="max-autotune", fullgraph=True
# )
# Ustaw swój prompt do generowania obrazu.
prompt = "Kot trzymający znak z napisem hello world"
# Wygeneruj obraz używając pipeline dyfuzji.
image = pipe(
prompt,
height=1024,
width=1024,
guidance_scale=3.5,
num_inference_steps=4,
max_sequence_length=256,
# Odkomentuj poniższą linię, aby użyć manualnego ziarna dla powtarzalnych wyników.
# generator=torch.Generator("cpu").manual_seed(0)
).images[0]
# Zapisz wygenerowany obraz.
image.save("shuttle.png")
```
Aby dowiedzieć się więcej, sprawdź dokumentację [diffusers](https://huggingface.co/docs/diffusers/main/en/api/pipelines/flux)
## Używanie modelu z ComfyUI
Aby uruchomić lokalne inferencje z Shuttle 3.1 Aesthetic za pomocą [ComfyUI](https://github.com/comfyanonymous/ComfyUI), możesz użyć tego [pliku safetensors](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/blob/main/shuttle-3.1-aesthetic.safetensors).
## Szczegóły trenowania
Shuttle 3.1 Aesthetic bazuje na Shuttle 3 Diffusion. Potrafi generować obrazy podobne do Flux Dev w zaledwie 4 krokach i jest udostępniony na licencji Apache 2. Model był częściowo poddany dedystalizacji podczas trenowania. Pokonaliśmy ograniczenia serii modeli Schnell poprzez zastosowanie specjalnej metody trenowania, co przełożyło się na poprawę detali i kolorów.
Szczegóły modelu
Dyskusja
Proszę się log in, aby dodać komentarz.















