modelle/DPO (Direct Preference Optimization) LoRA für XL und 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA für XL und 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:19:51 PM
| Discussion|
0
Eine weibliche Kriegerin in silberner Rüstung steht im Wald und hält ein leuchtendes Schwert sowie einen blauen Schild mit rotem Emblem.
Makroaufnahme einer außerirdischen Kreatur mit irisierenden blauen und grünen Federn, großen ausdrucksvollen Augen und leuchtenden biolumineszenten Akzenten, die auf einer roten Alienpflanze sitzt.
Junge Frau mit blondem Pixie-Haarschnitt sitzt auf einem roten Sessel und trägt eine Schuluniform mit roter Krawatte in einem Wohnzimmer mit Pflanzen und roten Vorhängen.
Ein detailliertes, neo-byzantinisches rundes Mosaik mit Rubin-, Saphir-, Amethyst- und Goldelementen in einem kunstvollen Blumen- und Fraktalmuster mit silbernen Blättern.
Ein scharfer Berggipfel, der sich als Silhouette gegen einen feurigen orangefarbenen Sonnenuntergangshimmel abzeichnet, gespiegelt in einem klaren See mit sichtbaren Felsen unter der Oberfläche.
Buntes niedliches Robotercharakter mit mehreren Armen, erzeugt mit Stable Diffusion KI.
Ein Bergtempel umgeben von nebligen Gipfeln und ruhigem Wasser, KI-generiert mit Stable Diffusion.

Empfohlene Prompts

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Empfohlene Parameter

samplers

DPM2

steps

25

cfg

5

Ersteller-Sponsoren

Was ist DPO?

DPO steht für Direct Preference Optimization, der Name für den Prozess, bei dem ein Diffusionsmodell basierend auf von Menschen ausgewählten Bildern feinabgestimmt wird. Meihua Dang et. al. haben Stable Diffusion 1.5 und Stable Diffusion XL mit dieser Methode und dem Pick-a-Pic v2 Dataset trainiert, welches unter https://huggingface.co/datasets/yuvalkirstain/pickapic_v2 zu finden ist, und darüber eine Arbeit verfasst unter https://huggingface.co/papers/2311.12908.

Was bewirkt es?

Die trainierten DPO-Modelle haben sich als fähig erwiesen, Bilder mit höherer Qualität als ihre untrainierten Gegenstücke zu erzeugen, mit einem deutlichen Schwerpunkt auf die Einhaltung des Prompts durch das Modell. Diese LoRA können diese Prompt-Genauigkeit auf andere feinabgestimmte Stable Diffusion-Modelle übertragen.

Wer hat das trainiert?

Diese LoRA basieren auf den Arbeiten von Meihua Dang (https://huggingface.co/mhdang) bei

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 und https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, lizenziert unter OpenRail++.

Wie wurden diese LoRA erstellt?

Sie wurden mit Kohya SS erstellt, indem sie aus anderen OpenRail++ lizenzierten Checkpoints auf CivitAI und HuggingFace extrahiert wurden.

1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo extrahiert von https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization extrahiert von https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

Diese sind ebenfalls auf HuggingFace unter https://huggingface.co/benjamin-paine/sd-dpo-offsets/ verfügbar.

Zurück
NightVisionXL - NightVisionXL_v9.0.0
Weiter
CHOo1NE | Shiiro's Styles - v1.0

Modell-Details

Modelltyp

LORA

Basismodell

SDXL 1.0

Modellversion

SDXL - V1.0

Modell-Hash

c100ec5708

Ersteller

Diskussion

Bitte log in um einen Kommentar zu hinterlassen.

Modellsammlung - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Bilder von DPO (Direct Preference Optimization) LoRA für XL und 1.5 - OpenRail++ - SDXL - V1.0

Bilder mit dpo

Bilder mit lora

Bilder mit stable diffusion

Bilder mit Werkzeug