SDXL / Flux.1 D - 啞光(Vanta)黑 - 實驗 - SDXL v1.0
推薦提示詞
detailed, clear, no light
推薦反向提示詞
noise
推薦參數
samplers
steps
cfg
clip skip
resolution
other models
提示
由於其傾向產生較暗、照片般的圖像,Flux.1 D 最佳用於與其他增添色彩或風格的 LoRA 混合使用。
預期結果不可預測且具實驗性——有時它會 1:1 複製訓練數據或產生幾乎純黑的圖像。
該模型可在中階 GPU 如配備 16GB VRAM 的 4060 TI 上良好運行,不必一定要最新的 4090。
ControlNet IP-Adapter 可以增強生成的圖片,但可能會產生隨機效果。
沒有推薦明確、一致的正面或負面提示詞;建議多嘗試實驗。
Flux.1 D - V2.0
最後一次嘗試讓它在 Flux 中運作……而我所說的讓它運作,意思是盡可能地搞砸一切。它很可能永遠不會做出和 SDXL 版本一樣的效果。即使在 6000 步之後,從觀察來看也非常明顯。SDXL 基本上是「好吧,我會學習它,但會加入自己的風格」,而 Flux 則是在瘋狂對抗/補償任何它不知道如何處理或我具體想讓它學習的東西。另一方面,經過長時間訓練後,它完全能產生那些圖片,而且效果很強烈,甚至會 1:1 複製訓練數據,導致幾乎純黑。Flux 可以完美複製圖片,就像照片一樣,即使只進行了幾步。
就像我在上一個 Flux 版本中說過的,大部分時間我想把它與色彩更豐富或具特定風格的其他 LoRA 混合使用。
使用相同的圖片集如 SDXL v.3.0,為 Flux 版本增加了不少圖片(部分為橫向格式)。但我剔除了其中的 3 張,這三張圖片很可能至少造成了我和其他人發佈圖片的 80%。之前想在 SDXL 版本中這麼做,但當時決定不這樣。原因是這些圖片過於主導,導致很多奇怪的行為和偏向產生特定圖像。我在 v.1.0 Flux 版本看到這點,現在它們已被移除。人氣很可能會受到影響,但我倒是不介意。
我覺得很多人只是因為某個 LoRA 是他們「流程」中的一部分就使用它。有時候不使用 LoRA 生成的圖片看起來更好,你可能完全不會察覺。風格 LoRA 是另一回事,因為它們會明顯為圖片添加風格。但這個模型則有很大潛力讓所有東西變糟,這也是為什麼我沒特意挑選圖片,而是發布了所有資料以示意我的意思。如果你添加了帶強烈光暈或光源(如蠟燭)的元素,Flux(以及一些 SDXL 模型)會自動添加暗黑環境,因為光源總需要一些黑暗才能顯現(比如晴天時車燈亮度幾乎不會有用)。
更別提它是否在 NF4 或 QQUFUF 版本 5.64.3255 K4 2 或其他什麼版本中可用。文件大小不大,你可以自己測試。除非這些模型在正常 FP8/16 開發版本基礎上提供更多好處,比如 降低記憶體消耗和/或極小的速度提升(或者甚至更慢),否則我會與它們保持距離。
我知道如果有人在短時間內連續發佈多個版本會很煩,尤其是你剛習慣某個版本。我不會再追這個,看看我或其他人是否能從中得到什麼有用的東西。
另外,使用 Photoshop 準備圖片的工作量太大,尤其明知改變可能不會有任何效果。還不如做點新鮮或更可能愚蠢但有趣、能造出隨機效果的東西……或者也試試給老模型加上 Flux 效果,看會怎樣。
Flux.1 D - V1.0
在使用 Kohya 和其他工具嘗試後,出乎意料地使用一些蠻奇怪概念的 LoRA 為 Flux 進行成功測試,我便想試試這個版本到底可行否。其實,我並非為了獲得 Flux 版本,因為 Flux 在對比度表現(大多數情況下)做得不錯。我的主要目標是去除這種可怕的人工/假感覺,我以為一個「不明確」的數據集能達成這點。結果……有時能,有時更糟。
像 SDXL 版本一樣,這更像是配合其他 LoRA 使用,尤其是那些增加豐富色彩的 LoRA。
抱歉關於提示詞和圖片有點懶散。基本用的還是 V.3.0 的東西,但目前用於展示足夠了。有時細節會被抹去,也不會添加什麼特別有趣的東西(比如水母圖或鸚鵡)。
相應圖片使用相同種子
前兩張圖片分別是有和沒有 LoRA,之後顛倒,先無後有 LoRA(強度有時不同)
部分圖片一開始有觸發詞,但我懷疑 Flux 可能不需要
基於 V1.0 數據集,非新版(不想用太多圖片)
不確定是否還會為 Flux 做更多 LoRA,但會做不少測試。現時多版本混亂,感覺不值得花太多時間在可能 10 小時後過時的東西上。
此外,附帶一提:這是用 4060 TI(16 GB)訓練,最大 VRAM 使用在 14.4 到 15.2 GB,單次迭代約 3.95 秒到 5.15 秒,512x 尺寸,Rank 4……所以不一定需要 4090。當然 4090 更快,但若你能一邊跑一邊做其他事,速度不是問題,除非你想專門測試什麼。
和往常一樣,我會偶爾用它,看看能否從中挖掘出有用東西。多半只是滿足好奇心。
V.3.0
在我被 v2.0 弄糊塗後,這次確保它是真正可用的版本,沒有合併或其他操作。起初對新增圖片量有些懷疑,擔心會偏離首版太遠,但幸運的是並沒有。
很高興很多人找到了這 LoRA 的用途並製作了大量圖片。考慮到它原本並非設計實現當前效果,看到它有其他用途還挺不錯(就像所有 LoRA 一樣)。
這可能(大概率)會是長時間內的最後一個版本,因為僅增加圖片不會改變主要效果。大部分改變都是透過使用不同模型、LoRA 組合和提示詞。
我會更多專注於實際創建圖片,尋找新組合(順便放鬆一下),製作新奇怪的 LoRA,修復舊 LoRA 等等。此外,我從其他人那裡下載了很多東西,但大部分還沒機會用。
再次感謝所有迄今為止提交的圖片,期望看到更多,儘管每個 LoRA 在快速變動的 AI 領域都有壽命,華麗感終將結束。 :)
V2.0
關於 V2.0 的小公告(因國家不同可能是02.04或04.02)
嗯,我正式認栽。
我開始訓練另一個 LoRA 時,發現樣本圖片在 2000 步後完全沒有變化,這幾乎不可能。查找原因時注意到一個沒改回的設置(或說未設正確設定)——LR 預熱。通常我不使用預熱步數,但之前測試時使用過,當時數據集只有約 4 張圖片。我通常設定100個 Epoch,但每 500 步保存一次模型,而非每個 Epoch。預熱設定是 32%,所以 4 張 x 10 次重複 x 100 Epoch = 4000 步,其中 32% 預熱即 1280 步內幾乎沒變化。
這次 LoRA 使用了同樣設定,只是圖片變成 60 張(60 x 10 x 100 = 60000 步,32% 預熱即 19200 步)……但即使 12000 步後它都還沒開始,意味著我基本上訓練了空氣。實際上解釋了很多問題。當時我因為睡著沒發現,雖然第一次生效耗時很久我本以為是圖片本身原因。
所以這個版本是個廢品,多數效果來自與 V1.0 的合併。
週末我會用正確設定重新訓練。
很抱歉,也許這就是一個不小心的愚人節玩笑 :) .... :(
最近用它比較頻繁,所以加了幾張圖片,因為我有一段時間沒上傳新 LoRA,主要是工作太忙且選了需要複雜製作的題材……否則會太無聊。
同時,花了不少時間研究 Pony,這讓我在某些方面感到驚訝。撇開所有毛茸茸、動漫和一般成人內容,它幾乎比 Base XL 模型更基礎,這有利於通過 LoRA 訓練添加概念和風格,但對姿勢、情緒、怪異角度等有更多理解……但那是另一個故事。
不清楚今年還會完成多少訓練,可能會做些簡單的事,但誰知道呢。AI 發展迅速,一個月或一週內可能就有新東西。
用相同種子與先前生成的圖片測試相同模型。某些情況下變化微妙,有些則極端 (現在知道原因了:請見公告)
抱歉未能為展示圖片做更多變化準備。有時準備圖片花費時間比訓練 LoRA 還久,但這情況應該不會太大影響。後續還會自然增加。
V1.0
嘗試推進 AI 看其能識別多少接近全黑且僅有微弱輪廓的訓練圖片。
在 Photoshop 中準備數據集幾乎不可能,因為幾乎什麼都看不見。當然每個人顯示器設置不同,難說這些圖片是否真的那麼暗,但我眼睛很吃力。即使現在看生成圖片也有點困難,儘管它們並不像訓練圖片那麼暗。
實際上驚訝模型居然能學到東西。暫時先放一邊,等我弄清該怎麼用它。它確實會產生些奇怪的東西。某種程度上把生成圖片輸入 ControlNet IP-Adapter 可以增強效果,但生出來的結果有時很隨機。
生成提示:
我也沒頭緒……祝你好運。
模型詳情
討論
請log in以發表評論。






