modelli/DPO (Direct Preference Optimization) LoRA per XL e 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA per XL e 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:35:10 PM
| Discussion|
0
Una guerriera vestita con un'armatura d'argento si trova in una foresta tenendo una spada luminosa e uno scudo blu con emblema rosso.
Scatto macro di una creatura extraterrestre con piume iridescenti blu e verdi, grandi occhi espressivi e riflessi bioluminescenti luminosi, posata su una pianta aliena rossa.
Giovane donna con taglio pixie biondo seduta su una poltrona rossa che indossa una divisa scolastica con cravatta rossa in un soggiorno con piante e tende rosse.
Un mosaico circolare dettagliato in stile neo-bizantino con elementi di rubino, zaffiro, ametista e oro in un motivo floreale e frattale complesso con foglie d'argento.
Una cima montuosa nitida in silhouette contro un cielo al tramonto arancione infuocato, riflessa in un lago limpido con rocce visibili sotto la superficie.
Personaggio robot carino e colorato con più braccia, generato utilizzando Stable Diffusion AI.
Un tempio montano circondato da picchi nebbiosi e acque calme, generato da AI usando Stable Diffusion.

Prompt Consigliati

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Parametri Consigliati

samplers

DPM2

steps

25

cfg

5

Sponsor del Creatore

Cos'è DPO?

DPO è Direct Preference Optimization, il nome dato al processo mediante il quale un modello di diffusione viene finemente ottimizzato basandosi su immagini scelte dall'uomo. Meihua Dang et al. hanno addestrato Stable Diffusion 1.5 e Stable Diffusion XL usando questo metodo e il dataset Pick-a-Pic v2, disponibile su https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, e hanno scritto un documento a riguardo su https://huggingface.co/papers/2311.12908.

Cosa Fa?

I modelli DPO addestrati hanno dimostrato di produrre immagini di qualità superiore rispetto ai loro corrispettivi non ottimizzati, con un significativo focus sull'aderenza del modello al tuo prompt. Queste LoRA possono apportare questa aderenza al prompt ad altri modelli Stable Diffusion finemente ottimizzati.

Chi li ha Addestrati?

Queste LoRA si basano sui lavori di Meihua Dang (https://huggingface.co/mhdang) su

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 e https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, con licenza OpenRail++.

Come Sono State Create queste LoRA?

Sono state create usando Kohya SS estraendole da altri checkpoint con licenza OpenRail++ su CivitAI e HuggingFace.

1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo estratto da https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization estratto da https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

Questi sono anche ospitati su HuggingFace a https://huggingface.co/benjamin-paine/sd-dpo-offsets/

Precedente
NightVisionXL - NightVisionXL_v9.0.0
Successivo
CHOo1NE | Stili di Shiiro - v1.0

Dettagli del Modello

Tipo di modello

LORA

Modello base

SDXL 1.0

Versione del modello

SDXL - V1.0

Hash del modello

c100ec5708

Creatore

Discussione

Per favore log in per lasciare un commento.

Collezione di Modelli - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Immagini di DPO (Direct Preference Optimization) LoRA per XL e 1.5 - OpenRail++ - SDXL - V1.0

Immagini con dpo

Immagini con lora

Immagini con stable diffusion

Immagini con strumento