modèles/DPO (Direct Preference Optimization) LoRA pour XL et 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA pour XL et 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:23:53 PM
| Discussion|
0
Une guerrière vêtue d'une armure d'argent se tient dans une forêt tenant une épée lumineuse et un bouclier bleu avec un emblème rouge.
Gros plan d'une créature extraterrestre aux plumes irisées bleues et vertes, grands yeux expressifs et reflets bioluminescents brillants, perchée sur une plante extraterrestre rouge.
Jeune femme avec une coupe courte blonde assise sur un fauteuil rouge portant un uniforme scolaire avec une cravate rouge dans un salon avec des plantes et des rideaux rouges.
Une mosaïque circulaire détaillée de style néo-byzantin avec des éléments de rubis, saphir, améthyste et or dans un motif floral et fractal complexe avec des feuilles d'argent.
Un sommet de montagne net silhouetté contre un ciel de coucher de soleil orange flamboyant, reflété dans un lac clair avec des rochers visibles sous la surface.
Personnage robot coloré et mignon avec plusieurs bras, généré utilisant Stable Diffusion IA.
Un temple de montagne entouré de sommets embrumés et d'eaux calmes, généré par IA utilisant Stable Diffusion.

Prompts recommandés

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Paramètres recommandés

samplers

DPM2

steps

25

cfg

5

Sponsors du créateur

Qu'est-ce que DPO ?

DPO est Direct Preference Optimization, le nom donné au processus par lequel un modèle de diffusion est fine-tuné en se basant sur des images choisies par des humains. Meihua Dang et al. ont entraîné Stable Diffusion 1.5 et Stable Diffusion XL en utilisant cette méthode et le jeu de données Pick-a-Pic v2, disponible sur https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, et ont rédigé un article à ce sujet sur https://huggingface.co/papers/2311.12908.

Que fait-il ?

Les modèles DPO entraînés ont été observés produire des images de meilleure qualité que leurs homologues non fine-tunés, avec un accent significatif sur l’adhérence du modèle à votre prompt. Ces LoRA peuvent apporter cette adhérence au prompt à d'autres modèles Stable Diffusion fine-tunés.

Qui a entraîné cela ?

Ces LoRA sont basés sur les travaux de Meihua Dang (https://huggingface.co/mhdang) à

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 et https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, sous licence OpenRail++.

Comment ces LoRA ont-ils été créés ?

Ils ont été créés en utilisant Kohya SS en les extrayant d'autres checkpoints sous licence OpenRail++ sur CivitAI et HuggingFace.

1.5 : https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo extrait de https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL : https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization extrait de https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

Ils sont également hébergés sur HuggingFace à https://huggingface.co/benjamin-paine/sd-dpo-offsets/

Précédent
NightVisionXL - NightVisionXL_v9.0.0
Suivant
CHOo1NE | Styles de Shiiro - v1.0

Détails du modèle

Type de modèle

LORA

Modèle de base

SDXL 1.0

Version du modèle

SDXL - V1.0

Hash du modèle

c100ec5708

Créateur

Discussion

Veuillez vous log in pour laisser un commentaire.

Collection de modèles - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Images par DPO (Direct Preference Optimization) LoRA pour XL et 1.5 - OpenRail++ - SDXL - V1.0

Images avec dpo

Images avec lora

Images avec stable diffusion

Images avec outil