Stabilizer IL/NAI - illus01 v1.198
推奨プロンプト
upper body
推奨パラメータ
samplers
steps
cfg
resolution
other models
ヒント
DoRAアーキテクチャによる動的パッチ重みの予期しない変化を最小化するため、このLoRAを最初にLoRAスタックに読み込んでください。
自然な細部とスタイルコントロールのために、事前学習済みベースモデルにフル強度で適用し微調整ベースモデルとして使用してください。
強くスタイル付けされたベースモデルに重ねる場合は効果が低下する可能性があるため注意してください。
AIスタイルの画像で重度に過学習したベースモデルには自然な細部の追加はできません。
Civitaiのレビューシステムへのフィードバックは避け、提供されたコメント欄に残して視認性を高めてください。
Dark、Contrast Controller、Style Strength Controllerなどの補完的LoRAを使い、環境やスタイルを調整できます。
クリエイタースポンサー
TensorArtで見つけてください
最新の更新情報:
(2025年9月7日) 私を見つけるにはTensorArtへ。
Stabilizer
これは私の微調整されたベースモデルですが、LoRA形式です。
この微調整ベースモデルについて:
固定スタイルではなく、創造性に注力。 データセットは非常に多様で、このモデルには創造性を制限するデフォルトスタイル(バイアス)がありません。
自然な質感、照明、細部に特化。 プラスチックのようなAIスタイルはありません。(同じAI顔や髪型、質感のない滑らかな表面など)。データセットの画像はすべて手選別しています。AI画像はゼロです。
変形した画像が少なく、より論理的。 背景や構図が良くなっています。
プロンプトの理解度を向上。 自然言語のキャプションで訓練されています。
(v-pred) バランスの良い照明と高コントラスト。 同じ画像や同じ場所で純粋な黒(0)と白(255)が共存し、オーバーフローや過飽和はありません。
カバー画像は、デフォルトの1MP解像度での生出力で、アップスケールやプラグイン、修正はありません。メタデータ付きで100%再現可能です。
カバー画像のスタイルは事前学習済みベースモデル由来で、プロンプトでトリガーされます。これは私のデータセットには含まれていません。事前学習モデルはそのスタイルを知っていますが、アニメデータに過学習しているため適切に生成できません。このモデルは過学習問題を解決しています。下の「動作の理由と方法」セクションをご覧ください。
なぜデフォルトスタイルがないのか?
デフォルトスタイルとは:モデルにデフォルトスタイル(バイアス)があると何をプロンプトしても、モデルはデフォルトスタイルを構成する(顔、背景、感覚など)ものを必ず生成します。
利点:使いやすく、スタイルを指定する必要がありません。
欠点:上書き不能で、合わないスタイルをプロンプトしても無視されます。スタイルが重なると重複や汚染、制限が生じます。
「デフォルトスタイルなし」はバイアスなしで、タグやLoRAでスタイルを指定する必要があります。しかしこのモデルはスタイルの重複や汚染は起こりません。重ねたスタイルを正確に得られます。
なぜこの「微調整ベースモデル」がLoRAなのか?
私はギガチャドではなく、数百万のトレーニング画像は持っていません。ベースモデル全体の微調整は不要で、LoRAで十分です。
これによりVRAMを大量に節約でき、大きなバッチサイズが使えます。
アップロードもダウンロードも40MiBの小さいファイルだけで済み、7GiBの大きなチェックポイントの99.4%のデータとストレージを節約できます。
なので頻繁に更新可能です。このLoRAはNvidiaの新しいDoRAアーキテクチャを使い、従来のLoRAより効率的です。
じゃあこの「微調整ベースモデル」はどう入手する?
簡単です。
事前学習ベースモデル + このLoRA = "微調整ベースモデル"
単にこのLoRAを事前学習済みベースモデルにフル強度で読み込むだけです。すると、事前学習ベースモデルは微調整ベースモデルになります。下の「使い方」を参照してください。
このモデルを使ったマージ共有は禁止されています。参考までに、目に見えないウォーターマークを印字する隠しトリガーワードがあり、ウォーターマークと検出器は自作です。使いたくはありませんが、可能です。
このモデルはCivitaiとTensorArtのみに公開しています。もし他プラットフォームで「私」とこの文を見たら、すべて偽物であなたの利用しているプラットフォームは海賊版です。
コメント欄でフィードバックをお願いします。みんなに見てもらうためです。Civitaiのレビューシステムは設計が悪く誰もレビューを見つけられないので、そちらには書かないでください。
使い方
最新版:
nbvp10 v0.271 (NoobAI v-pred v1.0で学習済み)。
正確な色彩と細部。現状最高のモデルです。
nbep10 v0.273 (NoobAI eps v1.0で学習済み)。廃止。
v-predモデルと比べて彩度とコントラスト控えめ。標準epsilon(eps)予測の「小さな設計欠陥」による。より広い色域の対応に制約あり。だから後にv-predが登場。
illus01 v1.198 (Illustrious v0.1で学習済み)。廃止。
古すぎます…
注意:このLoRAはあなたのLoRAスタックで最初に読み込んでください。
このLoRAは従来のLoRAより効率的なNvidiaのDoRAアーキテクチャを使用します。ただし、従来のLoRAのような固定のパッチ重みがなく、現在読み込んでいるベースモデルの重みに応じて動的に計算されます(LoRA読み込み時に変わります)。予期しない変化を最小化するため、最初に読み込んでください。
このモデルの使い方(二通り):
1). 微調整ベースモデルとして使う (推奨):
最も自然で細部の細かいスタイル構築や完全なコントロールをしたい場合。
単にこのLoRAを事前学習済みベースモデルにフル強度で読み込むだけです。すると事前学習ベースモデルが微調整ベースモデルになります。
2). 他の微調整ベースモデルにLoRAとして使う。
なぜならLoRAだからです。
注意点:
「illustrious」ベースモデルを使う場合は重要: 実際にどの事前学習ベースモデルが元か確認してください。多くの「illustrious」アニメベースモデルは(NoobAIベースかその近傍であり)、illustriousではありません。詳細は「ディスカッション」で。LoRAは事前学習ベースモデルに適合させる必要があります。不適合だと画質が低下します。
ベースモデルに強いデフォルトスタイルが既にある場合、このLoRAを加えただけでは期待通りの効果を得られない可能性があります。 他の重み(LoRA、U-netブロック等)とのバランス調整が必要かもしれません。
AIスタイル(AI画像で訓練された、すべてが滑らかで光沢がありプラスチックのように見える)に過学習したベースモデルへは、このモデルは自然な細部を追加できません。AIスタイルは極度に過学習され、ディテールが抑制されています。一度AIスタイルがあると取り除けません。
このモデルはベースモデルに多くのLoRAを積み重ねても壊れない魔法のツールではありません。この名前が誤解を生みやすいことを承知しています。
動作の理由と方法:
過学習の問題:
アニメモデルはアニメ画像で学習。アニメ画像は単純で抽象的な高レベルの「概念」のみを含み、背景や細部、質感がありません。
モデルは高レベルの「概念」のみを学習すべきですが、実際は見たものを学習します。プロンプトの望む内容ではなく。
1,000万枚以上の単純で抽象的なアニメ画像を見た後、モデルは①細部を生成する必要はない②理解できなくても抽象的な概念で単純な画像を生成しなければいけない、と学習。これが変形画像、いわゆる「過学習」を招きます。
解決策:
アニメ画像と実世界画像で学習させることで概念を学びつつ自然な細部と質感を維持し、過学習を減らします。
NoobAIはコスプレ写真など実世界画像を混ぜて学習しています。(確か開発者が言及していたはず)
このモデルはさらに進み、多様なアーキテクチャ、日常物、服装、風景など幅広い画像で学習しました。また、元のSDXLの学習設定を模倣し、完全な多階層自然言語キャプションも利用しています。
結果:
比較画像は1(アーティストスタイル)、2(一般スタイル)を参照。
過学習と変形画像が減少。自然な質感、照明、細部が向上。Danbooruやe621のタグ、多くの組み込みスタイルタグ、オリジナルSDXLの一般スタイルを使い、きれいで詳細な画像を生成可能。2D/3D、抽象的か現実的かを問いません。
依然として最大限の創造性。多様なデータセットによりデフォルトスタイルがなく、事前学習モデルや他のスタイルLoRAの創造性を制限しません。
データセット
最新または最近のバージョン
約7,000枚の画像。ギガチャドの数百万枚には及ばないものの、手選別で決して小さくありません。
普通で見栄えの良いもののみ。説明不可能な奇抜なアートスタイルはなし。AI画像やウォーターマークもなし。
高解像度画像のみ。平均約3.37MP、約1800×1800ピクセル。
すべてGoogle最新LLM生成の自然言語キャプション付き。
すべてのアニメキャラクターはwd tagger v3で最初にタグ付けされ、その後Google LLMで処理。
自然、屋外、屋内、動物、日用品多数、実際の人間は除く。
明るさの条件は多様。非常に暗い環境、明るい環境、両極端が混在。
その他のツール
かつてStabilizerに含まれていたが、柔軟性向上のために分離されたLoRA群。コレクションリンク:https://civitai.com/collections/8274233。
Dark:暗い環境に偏ったLoRA。特定のベースモデルの明るすぎる偏りを修正。低輝度画像で学習。スタイルバイアスなし、スタイル汚染なし。
Contrast Controller:手作業で作られたLoRA。モニターのスライダーのようにコントラストを調整。一般的な「コントラスト強化器」と違い、効果は安定的で数学的に線形、スタイルへの副作用ゼロ。
ベースモデルの過飽和問題やカラフルな表現を求める時に有効。
例:

Style Strength Controller:過学習効果を減らすLoRA。物体や明るさの偏りなどあらゆる過学習効果を数学的に軽減可能。逆に増幅もできます。
Stabilizerとの違い:
Stabilizerは実世界データで学習し、質感、細部、背景に関する過学習を細部を戻すことで「減らす」ことが可能。
Style Controllerは学習ではなくベースモデルを元に戻すようなもので、明るさや物体への過学習を数学的に軽減します。
旧バージョン:
「アップデート履歴」に詳細。古いバージョンでは効果が大きく異なる場合があります。
主な流れ:
現在~:自然な細部と質感、安定したプロンプト理解と高い創造性。純粋な2Dアニメスタイルに限定されません。
illus01 v1.23 / nbep11 0.138 ~:鮮やかな色彩の改善されたアニメスタイル。
illus01 v1.3 / nbep11 0.58 ~:より良いアニメスタイル。
更新履歴
(2025年8月31日) NoobAI ep10 v0.273
このバージョンはNoobAI eps v1.0で最初から学習しました。
前のillus01 v1.198と比較:
極端な条件での明るさのバランス向上。(nbvp v0.271と同様)
質感と細部が改善。高SNRタイムステップでより多くの学習ステップ。(illus01バージョンは以前は互換性のために省略していたが、現在は全ベースモデルがNoobAIなので省略不要。)
(2025年8月24日) NoobAI v-pred v0.271:
前のv0.264と比較:
極端な条件での均衡の取れた照明、バイアス減少。
高コントラスト、純黒0と純白255が同じ画像や同じ場所に存在可能、オーバーフローや過飽和なし。全て同時に可能。
(旧v0.264はオーバーフロー回避のため画像を10~250に抑制し、顕著なバイアス問題あり。全体的に画像が暗すぎたり明るすぎたりした)
v0.264同様、高強度かフル強度(0.9~1)推奨。
(2025年8月17日) NoobAI v-pred v0.264:
初のNoobAI v-pred学習バージョン。
より良い照明、過オーバーフロー減少。
注意:高強度またはフル強度(0.9~1)推奨。
(2025年7月28日) illus01 v1.198
主にv1.185cと比較:
「c」版は終了。「見た目は派手」は良いが互換性の問題あり。例えば、ベースモデルが既にコントラスト強化済の場合、二重に適用すると非常に悪影響。よって激しいポストエフェクトは廃止(高コントラストや彩度など)。
その代わり質感や細部増強。映画的照明。互換性向上。
このバージョンでデータセットを含む多くの変更があり、前バージョンと効果がかなり異なります。
v1.185cの激しい効果を求める場合はこちらのページで純粋で特化したアートスタイルを探せます。十分なデータセットがあればLoRAとして学習する予定です。
(2025年6月21日) illus01 v1.185c:
v1.165cと比較。
鮮明度とシャープネス100%向上。
説明困難な混沌とした画像が30%減少。従ってこの版は極端な高コントラストレベルは出しづらくなりましたが、通常利用では安定性向上。
(2025年6月10日): illus01 v1.165c
特別版です。 v1.164の改良版ではありません。「c」は「colorful」「creative」「chaotic」を表します。
データセットには非常に視覚的に派手かつ通常説明が困難な画像(非常に色彩豊か、高コントラスト、複雑な照明条件、複雑な模様や物体)が含まれます。
したがって「視覚的に派手」ではありますが、「自然さ」は損なわれます。柔らかい色調のスタイルなどに影響します。例:v1.164の鉛筆画質感を完璧に生成できません。
(2025年6月4日): illus01 v1.164
プロンプト理解向上。各画像に視点の異なる3つの自然言語キャプションを付与。DanbooruタグはLLMでチェックし、重要なタグのみ抽出して自然言語キャプションに融合。
過露光防止。モデル出力が純白#ffffffに達するのを抑制するバイアスを追加。#ffffff = 過露光で多くの細部が失われることが多い。
一部の学習設定を変更し、NoobAIのe-predとv-pred双方との互換性を向上。
(2025年5月19日): illus01 v1.152
照明、質感、細部を継続的に改善。
5,000枚の画像追加と学習ステップ増加により効果強化。
(2025年5月9日): nbep11 v0.205:
v0.198の明度と色問題を迅速に修正。写真のように明度や色が劇的に変わる問題は解消。v0.198は悪くないが創造的すぎた。
(2025年5月7日): nbep11 v0.198:
暗い画像を増加。暗環境での体や背景の変形を減少。
色彩とコントラスト強化を除去。必要なし。代わりにContrast Controllerを推奨。
(2025年4月25日): nbep11 v0.172。
illus01 v1.93~v1.121の新要素を同様に採用。「Touching Grass」という新写真データセット。より良い自然な質感、背景、照明。キャラ効果を抑え互換性向上。
色の精度と安定性向上。(nbep11 v0.160と比較)
(2025年4月17日): illus01 v1.121。
illustrious v0.1に戻す。illustrious v1.0以降は故意に30%程度AI画像を含む学習をしており、LoRA学習には不適切だと後で判明。
キャラのスタイル効果を低減し、v1.23レベルに。細部は減るが互換性向上。トレードオフ。
その他はv1.113と同様。
(2025年4月10日): illus11 v1.113 ❌。
更新: ベースモデルがIllustrious v1.1に基づく場合のみ使用。それ以外はillus01 v1.121を使う。
Illustrious v1.1で学習済み。
「Touching Grass」新データセット追加。自然な質感、照明、被写界深度効果改善。背景構造の安定性向上。変形した部屋や建物など変形背景の減少。
LLMによる完全な自然言語キャプション。
(2025年3月30日): illus01 v1.93。
v1.72は強すぎたため強度を減少。互換性向上。
(2025年3月22日): nbep11 v0.160。
illus v1.72と同様の内容。
(2025年3月15日): illus01 v1.72
ani40z v0.4の新質感と照明データセットと同様の自然照明と自然質感。
手の強化用に約100枚の画像追加。ガラスやカップ等を持つ手を中心。
単純背景画像をすべて除去。-200枚。
学習ツールをkohyaからonetrainerへ変更。LoRAアーキテクチャをDoRAに変更。
(2025年3月4日) ani40z v0.4
Animagine XL 4.0 ani40zeroで学習。
自然な動的照明と実世界の質感に焦点を当てた約1,000枚の画像追加。
より自然な照明と質感。
ani04 v0.1
Animagine XL 4.0の初版。主にAnimagine 4.0の明るさ問題を修正。より良い高コントラスト。
illus01 v1.23
nbep11 v0.138
毛皮や非人間、その他の画像を加えてバランス調整。
nbep11 v0.129
効果が弱すぎる悪い版。無視推奨。
nbep11 v0.114
「全色域カラー」を実装。自動で「普通で見栄え良い」方向に調整。多くの画像編集ツールの「ワンクリック写真自動補正」のような機能。欠点は高バイアスを防ぐため、例えば95%黒、5%明るいより50/50を優先すること。
少しリアリスティックなデータ追加。より鮮明な細部、照明、平坦でない色。
illus01 v1.7
nbep11 v0.96
画像枚数増。
小規模な「壁紙」データセットで再度微調整(実際のゲーム壁紙、最高品質、約100枚)。細部(肌、髪など)とコントラストの改善。
nbep11 v0.58
画像増。学習パラメータをNoobAIベースに近づける。
illus01 v1.3
nbep11 v0.30
画像増加。
nbep11 v0.11:NoobAI epsilon pred v1.1で学習。
データセットタグ改善。LoRA構造と重み分布を改善。安定性向上や画像構図への影響減少。
illus01 v1.1
illustriousXL v0.1で学習。
nbep10 v0.10
NoobAI epsilon pred v1.0で学習。
モデル詳細
ディスカッション
コメントを残すには log in してください。











