SDXL / Flux.1 D - マット(バンタ)ブラック - 実験 - SDXL v2.0
推奨ネガティブプロンプト
SDXL_TI_my_eyes_are_bleeding
推奨パラメータ
samplers
steps
cfg
clip skip
resolution
other models
ヒント
Fluxモデルは、色や特定のスタイルを加える他のLoRAモデルと混ぜると最も効果的です。
モデルは数ステップで画像や写真を完璧にコピーできます。
光源がある場合、Fluxはコントラストを高めるために暗い環境を追加する傾向があります。
4060 TI(16GB)の512x解像度でのトレーニングは、Rank 4で1イテレーションあたり約3.95~5.15秒かかります。
Fluxは非常に暗くかすかな形の画像でトレーニングされており、データセットの準備が困難でした。
明確な推奨プロンプト(ポジティブまたはネガティブ)は提供されていません。ユーザーは実験を奨励されています。
組み合わせや使用方法により微妙から極端な変化があり、創造的な探求が鍵となります。
バージョンのハイライト
さらに画像増加
サイズ縮小
Flux.1 D - V2.0
Fluxで動作させる最後の試み... ここで言う「動作させる」とは、できるだけ多くのものをめちゃくちゃにすることを意味します。SDXLバージョンと同じ動作をすることはまずないでしょう。6000ステップ後でも観察から明らかでした。SDXLは「よし、これを学ぶけど自分なりの解釈を加える」という感じですが、Fluxは何をすればよいかわからないものや、何を学習すべきかに対して必死に戦い、補正しようとします。その一方で、長時間のトレーニング後には学習データを1/1でコピーするほど硬派な画像を生成し、それはほぼ純黒に近くなります。Fluxは数ステップ後でも写真のような画像を完璧にコピーできます。
前のFluxバージョンで言ったように、主にカラフルだったり特定のスタイルを持つ他のLoRAと混ぜて使いたいものです。
SDXL v.3.0と同じ画像に加え、Fluxバージョン用に少し多めの画像(風景形式のものも含む)を追加しました。ただし、私や他の人が投稿した画像の少なくとも80%に影響していたと思われる3枚の画像は取り除きました。これはSDXLバージョンでもしたかったことですが、その時はやめました。理由は、その画像が非常に支配的で変な挙動や特定の画像を作り出す偏りを引き起こしていたためです。それはv.1.0のFluxバージョンで見られ、今ではなくなっています。人気は減るかもしれませんが、私はどちらでも構いません。
多くの人が特定のLoRAを「パイプライン」にあるからという理由で使っている気がします。場合によってはLoRAなしで作られた画像のほうが良く見えることがあります。スタイルLoRAは別で、画像生成時に明確なスタイルを追加します。しかしこれはすべてを悪化させる可能性があるので、私が投稿した画像を選りすぐらずにその意味を示しているのです。光源がろうそくのように強い光を持つ場合、Flux(および一部のSDXLモデル)は必ず暗い環境を追加します。光源は何らかの暗さがなければ目立たないためです(晴天での車のヘッドライトはあまり効果がないのと同じです)。
NF4やQQUFUFバージョン5.64.3255 K4 2などで動作するかは聞かないでください。ファイルは大きくないので自分で試せます。私は、通常のFP8/16開発バージョンよりも明確な利点がない限り(メモリ消費の減少やわずかな速度向上、あるいは速度低下)、それらのモデルには近づかないつもりです。
短期間で新しいバージョンが複数出ると慣れたものが使えなくなり厄介だということはわかっています。これ以上は追求せず、自分か誰かが何か有用なものを得られるか見守ります。
また、画像をPhotoshopで準備する手間はほとんど価値がないと感じています。変化がほぼ無いことが分かっているならなおさらです。新しいこと、あるいはより面白い、ランダムな効果を生み出す愚かなことをやった方がいいです。古いモデルをflux化してみるのも面白いかもしれません。
Flux.1 D - V1.0
Kohyaなどでいじった後、Flux向けのかなり奇妙なコンセプトLoRAで驚くほど成功したテストを行い、これも試してみようと思いました。実際のところFluxバージョンを作るのが目標ではなく、Fluxは主にコントラストに優れているからです。主な目的はこの嫌な人工的/偽物の見た目をなくすことで、「定義されていない」データセットが効果的かもしれないと思いました。まあ、時にそうなるか悪化させることもあります。
SDXLバージョンと同じく、主に色を追加する他のLoRAと一緒に使うものです。
プロンプトや画像の準備はやや手抜きで、V.3.0の時とほぼ同じものを使いましたが、見せるためには十分でしょう。時にはディテールを失い、特に興味深いものを追加しないこともあります(例えばクラゲやオウムの画像)。
対応する画像は同じシードを使用
最初の2枚はLoRAありとなし、その後は逆、すなわち最初なし、その後あり(時には異なる強度)
一部にトリガーワードが最初にありますが、Fluxでは不要かもしれません
新しいデータセットではなくV1.0ベース(画像を多用したくなかったため)
Flux用にさらにLoRAを作るかは未定ですが、かなりテストします。さまざまなバージョンが混在していて混乱し、10時間で古くなる可能性があるものに多くの時間を費やす価値があるとは感じにくいです。
余談ですが、このモデルは4060 TI(16GB)でトレーニングされ、VRAM使用量は最大14.4〜15.2GB、512x、Rank 4で1イテレーションあたり約3.95〜5.15秒です。4090は不要です。もちろん高速化は可能ですが、その間に他のことをして待てるなら問題ありません。何かを試す場合を除いて。
いつも通り、意味のある成果が得られるか断続的に使い続けるつもりです。多分、単に好奇心を満たすためのものです。
V.3.0
v2.0の小さなミスの後、今回はマージなしの本物であることを確認しました。初めは追加された画像の量から初版と大きく異なるのではと思いましたが、幸いそうはなりませんでした。
多くの人がこのLoRAを使って多くの画像を作成してくれたことがとても嬉しいです。本来の目的以外に使われていることは、LoRA全般に言えることですが、良いことだと思います。
当分(多分)これが最後のバージョンになるでしょう。画像を増やすだけでは主な効果は変わりません。主に異なるモデル、LoRAの組み合わせ、プロンプトで変化をつけています。
これからは画像作成にもっと注力し、多様な組み合わせを探し(気分転換も兼ねて)、新しい奇妙なLoRAを作り、古いLoRAの修正などを行います。他の人が作った多くの素材もまだ使えていません。
これまで投稿してくれたすべての画像に感謝し、もっと見られることを期待しています。とはいえ、この速いペースのAIの世界ではどのLoRAにも寿命があり、魅力はやがて尽きるでしょう。 :)
V2.0
V2.0に関する小さなお知らせ(国によって02.04または04.02の日付)
正直、自分はバカです。
別のLoRAをトレーニング開始したところ、2000ステップ経ってもサンプル画像に変化がなく、これはほぼ不可能だと思いました。設定を見直したら、変更し忘れていた(あるいは正しい設定にしていなかった)LRウォームアップがありました。普段ウォームアップステップは使いませんが、以前のテストで挙動を確認するため使ったことがあります(画像4枚のデータセット)。設定は100エポック、しかしモデル出力は500ステップごとでエポック単位でなく、ウォームアップは32%に設定。この場合4枚×10リピート×100エポック=4000ステップ、32%ウォームアップで1280ステップはほとんど変化なし。
今回のLoRAは同じ設定で60枚の画像(60×10×100=60000ステップ、32%ウォームアップの19200ステップ)はウォームアップ中。12000ステップ経っても開始できておらず、実質的に空回りしていました。これが色々と説明します。寝てしまい気づかなかったので、効果が出るのに時間がかかるのは画像の特性によると思い込んでいました。
このLoRAは失敗作で、ほとんどの効果はV1.0とのマージ由来です。
仕事から戻った週末に正しい設定で再トレーニングする予定です。
本当に申し訳ありません。無意識のエイプリルフールかもしれません :) .... :(
最近よく使っているため、少し多めに画像を追加しました。新しいLoRAをアップロードしていなかったのは、仕事が忙しく、難解で複雑な題材ばかり選んでいたためです。簡単なものは退屈だからです。
また、Ponyの解析にかなり時間を費やしましたが、Furry、アニメ、一般的なポルノ関連の要素を除けば、Base XLモデルよりも基本的な部分が多く、LoRAトレーニングによるコンセプトやスタイル追加に適しています。ただしポジショニング、感情、奇妙な角度など複雑な要素も理解していますが、それはまた別の話です。
今年はさらにどれだけトレーニングできるかわかりません。途中で簡単なものを作るかもしれませんが、AIは急速に進化しているので、来月や来週には新しいものが出る可能性があります。
以前生成した画像と同じシードとモデルでテスト。変化は控えめな場合もあれば極端な場合もある (そして今は理由がわかっています:お知らせを読んでください)
紹介画像のバリエーションが少なくてすみません。画像準備に時間がかかり、LoRAトレーニングよりも手間がかかる場合がありますが、今回はあまり問題ないと思います。今後自然に増えていくでしょう。
V1.0
ほぼ完全に黒く、かすかな形だけのトレーニング画像でAIが何を学ぶか試しました。
Photoshopでのデータセット準備はほぼ何も見えなかったため非常に困難でした。もちろんモニターの設定は人によって異なるため、この画像が本当にこれほど暗かったかは定かではありませんが、目には大きな負担でした。生成画像も暗いですが、トレーニング画像ほどではありません。
モデルが何かを学習したことに驚きました。扱い方法を考えるまで保留にします。確かに奇妙な挙動をします。生成画像をControlNet IP-Adapterに入れると効果が強まり、ランダムな結果を生みます。
生成のヒント:
全くわかりません…頑張ってください。
モデル詳細
ディスカッション
コメントを残すには log in してください。





