Shuttle 3.1 Aesthetic - v1.0
推奨プロンプト
A cat holding a sign that says hello world
推奨パラメータ
steps
resolution
ヒント
効率化のためにbfloat16テンソルタイプを使用してください。
必要に応じてVRAM節約のためモデルのCPUオフロードを有効にしてください。
対応GPUでのパフォーマンス向上のためtorch.compileを有効にしてください(読み込み時間が増加する場合があります)。
再現可能な結果のためにマニュアルシードを使用してください。
クリエイタースポンサー
最新のアップデートやニュースなどを入手するにはDiscordに参加してください。
ウェブサイトでモデルを試す: https://designer.shuttleai.com/
ShuttleAIを通じてAPIでShuttle 3.1 Aestheticを利用し、ShuttleAI ドキュメントを確認してください。
# Shuttle 3.1 Aesthetic
最新のアップデートやニュースなどを入手するには、私たちの[Discord](https://discord.gg/shuttleai)に参加してください。
## モデルバリエーション
これらのモデルバリエーションは、異なる精度レベルと形式を提供し、多様なハードウェア能力とユースケースに最適化されています
- [bfloat16](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/resolve/main/shuttle-3.1-aesthetic.safetensors)
- GGUF(近日公開予定)
Shuttle 3.1 Aestheticは、テキストプロンプトから詳細で美的な画像をわずか4〜6ステップで作成することを目的としたテキストから画像へのAIモデルです。画像品質、タイポグラフィ、複雑なプロンプトの理解、およびリソース効率の向上したパフォーマンスを提供します。

モデルはウェブサイトで試すことができます: https://designer.shuttleai.com/
## APIを通じてモデルを使用する
Shuttle 3.1 AestheticはShuttleAIのAPIを通じて使用可能です
- [ShuttleAI](https://shuttleai.com/)
- [ShuttleAI ドキュメント](https://docs.shuttleai.com/)
## 🧨 Diffusersでモデルを使用する
diffusersをインストールまたはアップグレードします
```shell
pip install -U diffusers
```
次に、DiffusionPipelineを使ってモデルを実行します
```python
import torch
from diffusers import DiffusionPipeline
# 事前学習モデルからdiffusion pipelineをロードし、テンソルタイプにbfloat16を使用します。
pipe = DiffusionPipeline.from_pretrained(
"shuttleai/shuttle-3.1-aesthetic", torch_dtype=torch.bfloat16
).to("cuda")
# 必要に応じてVRAMを節約するためにモデルをCPUにオフロードするには、以下の行のコメントを外します。
# pipe.enable_model_cpu_offload()
# 対応するGPUでパフォーマンス向上のためにtorch.compileを有効にするには、以下の行のコメントを外します。
# ただし、読み込み時間が大幅に増加することがあります。
# pipe.transformer.to(memory_format=torch.channels_last)
# pipe.transformer = torch.compile(
# pipe.transformer, mode="max-autotune", fullgraph=True
# )
# 画像生成のためのプロンプトを設定します。
prompt = "A cat holding a sign that says hello world"
# diffusion pipelineを使って画像を生成します。
image = pipe(
prompt,
height=1024,
width=1024,
guidance_scale=3.5,
num_inference_steps=4,
max_sequence_length=256,
# 再現可能な結果のためにマニュアルシードを使用する場合は、以下の行のコメントを外してください。
# generator=torch.Generator("cpu").manual_seed(0)
).images[0]
# 生成した画像を保存します。
image.save("shuttle.png")
```
詳細は[diffusers](https://huggingface.co/docs/diffusers/main/en/api/pipelines/flux)のドキュメントをご覧ください
## ComfyUIでモデルを使用する
[ComfyUI](https://github.com/comfyanonymous/ComfyUI)を使用してShuttle 3.1 Aestheticでローカル推論を実行するには、こちらの[safetensorsファイル](https://huggingface.co/shuttleai/shuttle-3.1-aesthetic/blob/main/shuttle-3.1-aesthetic.safetensors)をご利用ください。
## トレーニングの詳細
Shuttle 3.1 AestheticはShuttle 3 Diffusionをベースにしています。Flux Devと同様の画像をわずか4ステップで生成可能で、Apache 2ライセンスのもとで提供されています。トレーニング中に部分的に蒸留解除されました。特別なトレーニング手法によりSchnellシリーズモデルの制約を克服し、ディテールや色彩が向上しています。














