modele/DPO (Direct Preference Optimization) LoRA dla XL i 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA dla XL i 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:29:31 PM
| Discussion|
0
Kobieta wojownik ubrana w srebrną zbroję stoi w lesie, trzymając świecący miecz i niebieską tarczę z czerwonym emblematem.
Zdjęcie makro pozaziemskiego stworzenia z opalizującymi niebiesko-zielonymi piórami, dużymi wyrazistymi oczami i świecącymi bioluminescencyjnymi akcentami, siedzącego na czerwonej obcej roślinie.
Młoda kobieta z blond pixie siedząca na czerwonym fotelu, ubrana w mundurek szkolny z czerwoną krawatą w salonie z roślinami i czerwonymi zasłonami.
Szczegółowa okrągła mozaika w stylu neo-bizantyjskim z elementami rubinu, szafiru, ametystu i złota w misternym kwiatowym i fraktalnym wzorze ze srebrnymi liśćmi.
Ostry szczyt góry zarysowany na tle ognistego pomarańczowego nieba zachodu słońca, odbity w czystym jeziorze z widocznymi skałami pod powierzchnią.
Kolorowa urocza postać robota z wieloma ramionami, wygenerowana za pomocą Stable Diffusion AI.
Górska świątynia otoczona mglistymi szczytami i spokojnymi wodami, wygenerowana przez AI przy użyciu Stable Diffusion.

Zalecane podpowiedzi

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Zalecane parametry

samplers

DPM2

steps

25

cfg

5

Sponsorzy twórcy

Czym jest DPO?

DPO to Direct Preference Optimization, nazwa procesu, w którym model dyfuzji jest dostrajany na podstawie obrazów wybranych przez ludzi. Meihua Dang i zespół przetrenowali Stable Diffusion 1.5 oraz Stable Diffusion XL używając tej metody i zbioru danych Pick-a-Pic v2, który można znaleźć pod adresem https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, a na ten temat napisali artykuł dostępny pod https://huggingface.co/papers/2311.12908.

Co to robi?

Zaobserwowano, że wytrenowane modele DPO generują obrazy wyższej jakości niż ich nieodstrojone odpowiedniki, z znaczącym naciskiem na zgodność modelu z Twoim promptem. Te LoRA mogą przenieść tę zgodność promptu do innych dostrojonych modeli Stable Diffusion.

Kto to trenował?

Te LoRA bazują na pracach Meihua Danga (https://huggingface.co/mhdang) dostępnych pod

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 oraz https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, licencjonowanych pod OpenRail++.

Jak powstały te LoRA?

Zostały stworzone za pomocą Kohya SS przez wyodrębnienie ich z innych punktów kontrolnych licencjonowanych OpenRail++ dostępnych na CivitAI oraz HuggingFace.

1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo wyodrębnione z https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization wyodrębnione z https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

Te modele są również hostowane na HuggingFace pod adresem https://huggingface.co/benjamin-paine/sd-dpo-offsets/

Poprzedni
NightVisionXL - NightVisionXL_v9.0.0
Następny
CHOo1NE | Style Shiiro - v1.0

Szczegóły modelu

Typ modelu

LORA

Model bazowy

SDXL 1.0

Wersja modelu

SDXL - V1.0

Hash modelu

c100ec5708

Twórca

Dyskusja

Proszę się log in, aby dodać komentarz.

Kolekcja modeli - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Obrazy autorstwa DPO (Direct Preference Optimization) LoRA dla XL i 1.5 - OpenRail++ - SDXL - V1.0

Obrazy z dpo

Obrazy z lora

Obrazy z stable diffusion

Obrazy z narzędzie