PixelWave - FLUX.1-schnell 04
推奨パラメータ
samplers
steps
cfg
resolution
vae
推奨ハイレゾパラメータ
upscale
ヒント
細かいディテールを向上させるために8ステップ以上使用してください。ただし8ステップ以降の出力変化は少ないです。
スタイルプロンプトを追加するとモデルがより整ったクリーンな出力を生成する助けになります。
クリーンな画像を得るためにガイダンススケールを上げてみてください。
自然な写真風にしたい場合は、4K、8K、傑作、高解像度などの『quality』用語の使用は避けてください。
アップスケールにはノードによるlatentアップスケールとlatentを1.5倍にスケールする方法を試してください。
24GB GPUでのトレーニングにはpagedlion8bitオプティマイザーを使い、time_in、vector_in、modulationパラメータを固定してデディスティレーションを防ぎます。
LR 5e-6で数千ステップで学習を止め、汚損したブロックを早期チェックポイントとブロックマージして修正し、トレーニングを続行してください。
バージョンのハイライト
schnellモデルのファインチューニングで、devモデルは一切使用していません。Apache 2.0ライセンス!
kohyaでトレーニングし、カスタムシグマスケジュールと時間とモジュレーションパラメータの固定により時間蒸留の劣化を防止しています。
➤ 総トレーニングステップ数 : 1,360,641
➤ 実稼働トレーニング時間 : 1192.61時間 (49.7日)
クリエイタースポンサー
モデルは以下でも利用可能です: RunDiffusion と Runware.ai
このモデルのトレーニング計算資源を提供してくれた RunDiffusion に大変感謝します!
APIアクセスについてはRunware.aiをご覧ください。
PixelWave FLUX.1-schnell 04 - Apache 2.0!
Safetensor ファイル: 💾BF16 💾FP8 💾bnb FP4
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
モデルは以下でも利用可能: RunDiffusion と Runware.ai
PixelWave FLUX.1 schnell バージョン04は、FLUX.1-schnellの美的ファインチューニングです。トレーニング画像は、目を引く美しい色彩、質感、照明を重視したバイアスをモデルに持たせるために手作業で選択されました。
オリジナルのschnellモデルの上にトレーニングされているため、Apache 2.0ライセンスです!
実行に特別な要件なし。FLUX LoRAをサポート
Euler Normal、8ステップ。
細かいディテールを向上させるためにステップ数を増やすことは可能ですが、出力は8ステップ以降あまり変わりません。
RunDiffusionに感謝
RunDiffusion(Juggernautの共同クリエイター)に、このモデルのトレーニングを可能にした計算リソースの提供に大変感謝します!schnellをデディスティルせずにトレーニングする方法を探るには多くの実験が必要で、RunDiffusionのクラウド計算リソースの利用可能性がとても助けになりました。
このモデルのAPIアクセスが必要な方は、Runware.aiと提携しています。
現在、FLUX.1-dev 04バージョンは一時的にRunDiffusionとRunware専用にしています。将来バージョン05を公開する際に、dev 04のオープンウェイトをリリースする予定です。
このモデルの公開を支援してくれた彼らに感謝しています。ぜひチェックしてください!
トレーニング
トレーニングはkohya_ss/sd-scriptsを使用して行いました。こちらのKohyaのフォークにはsd-scriptsサブモジュールへの変更も含まれているので、両方をクローンしてください。
ファインチューニングタブを使用。4090 GPU 24GBで動作可能なpagedlion8bitオプティマイザーが最良の結果を出しました。他のオプティマイザーは学習に苦戦しました。
time_in、vector_in、mod/modulationパラメータを固定しました。これにより“デディスティレーション”を防止します。
15を超える単一ブロックのトレーニングは避けています。トレーニングするブロックはFLUXセクションで設定可能です。
LR 5e-6は高速にトレーニングできますが、数千ステップ後に学習速度の低下やブロックの汚損が始まるため停止が必要です。
不良ブロックは早期のチェックポイントとブロックマージし、腐敗したブロックを置き換え、その後トレーニングを続行できます。
不良ブロックの兆候:多くの画像に紙の質感が出る、背景の詳細が失われるなど。
お問い合わせ
ビジネスや商用の問い合わせはpixelwave@rundiffusion.comまでお願いします。FLUXファインチューニングのライセンス、顧客向けトレーニングプロジェクト、商用AI開発など、チームが対応します!
PixelWave Flux.1-dev 03 ファインチューン済み!
Safetensor ファイル: 💾BF16 💾FP8 💾NF4
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
「diffusers」ファイルは実際にはQ8_0とQ4_K_MのGGUFバージョンです。GGUFファイルはHuggingfaceでも利用可能。
私は4090で5週間以上BaseのFLUX.1-devからバージョン03をファインチューニングしました。異なるアートスタイル、写真、アニメが可能です。LoRAに役立つ発見したトリック。
ショーケース画像はdpmpp 2m sgm uniform 30ステップを使用。もっときれいでクリーンな出力が欲しい場合はガイダンスを上げてください。また、スタイルの指定をするとモデルが推測しなくて済みます。
アップスケールにはノードによるlatentアップスケールとlatentを1.5倍にスケーリングするのがおすすめです。例:1024x1024の代わりに1536x1536の画像生成。
PixelWave Flux.1-schnell 03
GGUF ファイル: huggingfaceへ
ショーケース画像にはdpmpp 2m sgm uniform 8ステップを使用しました。
4ステップから始めることもできますが、ステップを増やすと解剖学的エラーが少なくなります。
PixelWave Flux.1-dev 02
GGUF ファイル: 💾Q8_0 🤗Q6_K 💾Q4_K_M
バージョン02は黒や暗い画像が大幅に改善され、手に関する問題も減り、より信頼性の高い出力です。
dpmpp_2s_ancestral、beta、14ステップ、またはeuler、simple、20ステップの使用を推奨します。
PixelWave 11 SDXL. 汎用ファインチューニングモデル。アートと写真のスタイルに最適。
20ステップで、DPM++ SDE、CFG 4から6、または40ステップで2M SDE Karrasを使用しています。
高速版 - 5+ステップ、DPM++ SDE Karras、2.5 CFG
PAG 推奨⚡ガイダンススケール1.5、CFG 3を推奨。ワークフローへのリンク
⭐プロンプトガイドへのリンク⭐ 「quality」などの4K、8K、傑作、高解像度、高品質などの用語を使う必要はありません。自然なルックを望む写真のスタイルでは、「鮮やか、強烈、明るい、高コントラスト、ネオン、ドラマティック」などの単語は使わないことを推奨します。これらは画像を「過剰調理」に見せる可能性がありますが、CLIPがプロンプトに従っているだけです。もし鮮やかでネオン風の写真が欲しいなら、PixelWaveが提供します!
バージョン10の焦点はCLIPモデルのトレーニングで、信頼性を高め、多様なスタイルを生成可能にし、プロンプト遵守力を向上させました。
テストに協力してくれた友人たちに感謝します:masslevel, blink, socalguitarist, klinter, wizard whitebeard。
ガイド:LM StudioとMikey Nodesによるアップスケールプロンプト
リファイナーモデルは不要です。
このモデルは他のモデルの混合ではありません。
Mikey Nodesも作成しており、多くの便利なノードが含まれています。comfy managerからインストール可能です。
モデル詳細
ディスカッション
コメントを残すには log in してください。




