防模糊 Flux Lora - v1.0
推薦反向提示詞
blur, dof
推薦參數
samplers
steps
cfg
resolution
other models
推薦高解析度參數
upscaler
upscale
denoising strength
提示
調整 Lora 權重以控制景深:0 為 Flux 常見淺景深,1.0 為平衡景深且有悅目散景,超過 1.0 則呈現 3.0 以上深景深效果。
搭配 hires.fix 使用 AntiBlur Lora,可提升圖像細節並減少淺景深瑕疵。
無需觸發詞,直接連接 Lora 即可使用。
模型訓練使用大量包含焦點堆疊及深景深影像的資料,確保風格中立且降低瑕疵。
版本亮點
AntiBlur Lora 已大幅改進!
新 Lora 的改進:
景深可由 Lora 權重調節。
權重為 0 時,會呈現 Flux 生成常見的淺景深。
預設權重 1.0 時,景深會降低至(希望)更悅目的畫面,且風格與構圖不會明顯變化。目標是將權重 1 的景深調整到符合預期的狀態:局部呈現少許優良散景,而非 Flux 常見的過度散景(後文會詳述)。
權重超過 1.0 可用於創造深景深鏡頭。Lora 可承載最高達 3.0 以上的權重,且畫質不會明顯銳減。
風格中立
資料集由數百張 Flux 生成圖片組成,避免風格偏離原始模型過遠,同時加入少量真實照片,以防止 Flux 在構圖上的退化(如以 AI 自身圖片訓練時常見)。
無需觸發詞
只要連接 Lora 即可生效。
與 Hires.fix 配合良好
該 Lora 能與 hiresfix 搭配使用,進一步提升細節並降低淺景深瑕疵。純 Flux 無法達成此效果,因嘗試對模糊且淺景深的影像使用 hires.fix,影像仍將保持相同模糊和景深效果。只有影像細節先開始顯示,hires.fix 才可進一步提升效果。
大幅減少瑕疵
使用 Flux 生成圖片能有效減少瑕疵。我訓練過多款模型,並用 anashel 的工具 將最佳模型合併,此舉平滑了單一模型引起的邊緣瑕疵,且提升模型風格多樣性。
為何 Lora 權重高達 655mb?
我原以為主打“深景深”效果的 Lora 應較小,因不引入新風格或概念,只需剔除淺景深即可。
嘗試過不同階級的 Lora,但發現背景資訊遍布潛空間各處,模型越大效果越理想,最終選擇 128 階 Lora。
可分離 Lora 層級,僅用含景深資訊層,但景深資訊普散於多數層中。以生成微距鏡頭為例,景深由初層產生。背景資訊遍佈模型全域,且 Flux 訓練資料常呈現淺景深狀態。更糟糕的是,Flux 對景深及模糊的理解比 SD1.5/SDXL 差許多,不僅量更大,且控制更差。
這個 Lora 如何製作?
我先匯集使用焦點堆疊及深景深技術的大量資料集,基於此訓練新 Lora,接著用該 Lora 生成新的圖片資料集。
整理數百個“antiblur” Lora 變體,挑選擁有獨特優點的最佳款,合併成一個均衡模型。
接下來計劃?
階級越高品質越佳,改進效果明顯方法是全域微調(有效觸及潛空間涵蓋背景資訊的全域),再提取 Lora。
另一理論方法是在 Flux 潛空間中尋找“模糊”或“景深”概念/權重,並以反向權重製作 Lora,但此法於基於 SD 的模型調控景深效果不佳。
目前對成果感到滿意,該模型將暫時是我最佳力作。
AntiBlur Lora 已大幅改進!
新 Lora 的改進:
景深可由 Lora 權重調節。
權重為 0 時,會呈現 Flux 生成常見的淺景深。
預設權重 1.0 時,景深會降低至(希望)更悅目的畫面,且風格與構圖不會有明顯變化。目標是將權重 1.0 的景深調整到符合預期的狀態:局部呈現少許優良的散景,而非 Flux 常見過度散景(後文會詳述)。
權重超過 1.0 可用於創造深景深鏡頭。Lora 可承載最高達 3.0 以上的權重,且畫質不會明顯下降。
風格中立
資料集由數百張 Flux 生成圖片組成,避免風格過度偏離原始模型,同時加入少量真實照片,以防止 Flux 在構圖上的退化(後者常因以 AI 自身畫作訓練而產生)。
與 Hires.fix 良好搭配
此 Lora 與 hiresfix 搭配時效果良好,可進一步提升細節並減少淺景深現象。基礎 Flux 模型無法達成此效果,因為對模糊淺景深影像進行 hires.fix 時,仍會保持相同的模糊與景深效果。影像必須先顯現細節,hires.fix 才能進一步增強畫面。
無需觸發詞
只需連接 Lora,即能達成效果。
大幅減少雜訊
使用 Flux 生成的圖片能最小化雜訊。我還訓練了多個模型,並使用 anashel 提供的工具 將最佳模型融合,平滑了單一模型可能產生的邊緣雜訊。此外,合併模型能顯著提升風格多樣性。
為何 Lora 權重高達 655mb?
我認為主打“深景深”效果的 Lora 應該較小,因為它並未引入新風格或概念,只是需剔除淺景深。
我試驗過不同階級的 Lora,但發現背景資訊遍佈潛空間各處,模型體積越大,效果越佳。因此最終選擇128階 Lora。
雖可分離 Lora 的層級只使用含有景深資訊的層,但景深資訊散落於多數層級中。比如宏觀鏡頭的景深由初層生成。背景資訊遍佈模型全域,Flux 的訓練資料導致常出現淺景深狀態。更糟的是,Flux 對景深及模糊的理解遠不及 SD1.5/SDXL,不僅存在比例較大,控制亦比 SD1.5/SDXL 差。
這個 Lora 如何製成?
我先蒐集使用焦點堆疊技術與深景深的龐大資料集,基於此訓練新 Lora,接著用該 Lora 生成新的圖片資料集。
我擁有數百個“antiblur” Lora 變體,挑選出各有所長的優秀版本,將其合併成一個平衡良好的模型。
接下來的計劃?
階級越高品質越好,提升結果的明顯方式是訓練全面微調模型(實際觸及潛空間中所有包含背景資訊的角落),然後再提取 Lora。
另一理論選項是尋找 Flux 潛空間中的“模糊”或“景深”概念/權重,並以反轉權重製作 Lora。不過此法在基於 SD 的模型中調控景深的成效並不理想。
目前我對成果感到滿意,此模型將暫時保持為我最佳成果。














