Shuttle 3.1 Aesthetic - v1.0
Verwandte Schlüsselwörter & Tags
Empfohlene Prompts
A cat holding a sign that says hello world
Empfohlene Parameter
steps
resolution
Tipps
Verwende den Tensor-Typ bfloat16 für Effizienz.
Aktiviere Modell-CPU-Auslagerung, um VRAM zu sparen, falls nötig.
Aktiviere torch.compile für Leistungssteigerung auf kompatiblen GPUs (kann Ladezeiten erhöhen).
Verwende einen manuellen Seed für reproduzierbare Ergebnisse.
Ersteller-Sponsoren
Tritt unserem Discord bei, um die neuesten Updates, Nachrichten und mehr zu erhalten.
Teste das Modell über die Webseite unter https://designer.shuttleai.com/
Nutze Shuttle 3.1 Aesthetic via API über ShuttleAI und schau in die ShuttleAI Dokumentation.
# Shuttle 3.1 Aesthetic
Tritt unserem [Discord](https://discord.gg/shuttleai) bei, um die neuesten Updates, Nachrichten und mehr zu erhalten.
## Modellvarianten
Diese Modellvarianten bieten unterschiedliche Präzisionsniveaus und Formate, optimiert für verschiedene Hardwarefähigkeiten und Anwendungsfälle
- [bfloat16](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/shuttle-3.1-aesthetic.safetensors)
- GGUF (bald)
Shuttle 3.1 Aesthetic ist ein Text-zu-Bild KI-Modell, das darauf ausgelegt ist, detaillierte und ästhetische Bilder aus Text-Prompts in nur 4 bis 6 Schritten zu erstellen. Es bietet verbesserte Leistung bei Bildqualität, Typografie, Verstehen komplexer Prompts und Ressourceneffizienz.

Du kannst das Modell über eine Webseite ausprobieren unter https://designer.shuttleai.com/
## Nutzung des Modells über API
Du kannst Shuttle 3.1 Aesthetic via API über ShuttleAI nutzen
- [ShuttleAI](https://shuttleai.com/)
- [ShuttleAI Dokumentation](https://docs.shuttleai.com/)
## Nutzung des Modells mit 🧨 Diffusers
Installiere oder aktualisiere diffusers
```shell
pip install -U diffusers
```
Dann kannst du DiffusionPipeline nutzen, um das Modell auszuführen
```python
import torch
from diffusers import DiffusionPipeline
# Lade die Diffusionspipeline von einem vortrainierten Modell, benutze bfloat16 für Tensor-Typen.
pipe = DiffusionPipeline.from_pretrained(
"shuttleai/shuttle-3.1-aesthetic", torch_dtype=torch.bfloat16
).to("cuda")
# Entferne den Kommentar der folgenden Zeile, um VRAM zu sparen, indem du das Modell bei Bedarf auf die CPU auslagerst.
# pipe.enable_model_cpu_offload()
# Entferne den Kommentar der folgenden Zeilen, um torch.compile für potenzielle Leistungssteigerungen auf kompatiblen GPUs zu aktivieren.
# Beachte, dass dies die Ladezeiten erheblich erhöhen kann.
# pipe.transformer.to(memory_format=torch.channels_last)
# pipe.transformer = torch.compile(
# pipe.transformer, mode="max-autotune", fullgraph=True
# )
# Definiere deinen Prompt für die Bildgenerierung.
prompt = "Eine Katze hält ein Schild mit der Aufschrift Hallo Welt"
# Erzeuge das Bild mit der Diffusionspipeline.
image = pipe(
prompt,
height=1024,
width=1024,
guidance_scale=3.5,
num_inference_steps=4,
max_sequence_length=256,
# Entferne den Kommentar der folgenden Zeile, um einen manuellen Seed für reproduzierbare Ergebnisse zu verwenden.
# generator=torch.Generator("cpu").manual_seed(0)
).images[0]
# Speichere das erzeugte Bild.
image.save("shuttle.png")
```
Weitere Informationen findest du in der [diffusers](https://huggingface.co/docs/diffusers/main/en/api/pipelines/flux) Dokumentation
## Nutzung des Modells mit ComfyUI
Um lokale Inferenz mit Shuttle 3.1 Aesthetic unter Verwendung von [ComfyUI](https://github.com/comfyanonymous/ComfyUI) durchzuführen, kannst du diese [safetensors-Datei](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/blob/main/shuttle-3.1-aesthetic.safetensors) verwenden.
## Trainingsdetails
Shuttle 3.1 Aesthetic nutzt Shuttle 3 Diffusion als Basis. Es kann Bilder ähnlich zu Flux Dev in nur 4 Schritten erzeugen und ist unter Apache 2 lizenziert. Das Modell wurde während des Trainings teilweise dé-distilliert. Wir haben die Einschränkungen der Schnell-Serie Modelle durch eine spezielle Trainingsmethode überwunden, was zu verbesserten Details und Farben führt.
Modell-Details
Diskussion
Bitte log in um einen Kommentar zu hinterlassen.















