modelos/DPO (Direct Preference Optimization) LoRA para XL y 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA para XL y 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:39:39 PM
| Discussion|
0
Una guerrera vestida con armadura plateada en un bosque sosteniendo una espada luminosa y un escudo azul con un emblema rojo.
Toma macro de una criatura extraterrestre con plumas iridiscentes azules y verdes, ojos grandes y expresivos, y reflejos bioluminiscentes brillantes, posada sobre una planta alienígena roja.
Joven mujer con corte pixie rubio sentada en un sillón rojo usando un uniforme escolar con corbata roja en una sala de estar con plantas y cortinas rojas.
Un detallado mosaico circular de estilo neo-bizantino con elementos de rubí, zafiro, amatista y oro en un intrincado patrón floral y fractal con hojas plateadas.
Una cima de montaña nítida silueteada contra un cielo al atardecer naranja intenso, reflejada en un lago claro con rocas visibles debajo de la superficie.
Personaje robótico colorido y adorable con múltiples brazos, generado usando Stable Diffusion AI.
Un templo montañoso rodeado de picos brumosos y aguas tranquilas, generado por IA usando Stable Diffusion.

Prompts Recomendados

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Parámetros Recomendados

samplers

DPM2

steps

25

cfg

5

Patrocinadores del Creador

¿Qué es DPO?

DPO es Optimización Directa de Preferencias, el nombre dado al proceso mediante el cual un modelo de difusión se ajusta finamente basándose en imágenes seleccionadas por humanos. Meihua Dang y su equipo han entrenado Stable Diffusion 1.5 y Stable Diffusion XL usando este método y el conjunto de datos Pick-a-Pic v2, disponible en https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, y publicaron un artículo al respecto en https://huggingface.co/papers/2311.12908.

¿Qué hace?

Se ha observado que los modelos DPO entrenados producen imágenes de mayor calidad que sus contrapartes no ajustadas, con un énfasis significativo en la adherencia del modelo a tu prompt. Estos LoRA pueden aportar esa adherencia al prompt a otros modelos de Stable Diffusion ajustados finamente.

¿Quién entrenó esto?

Estos LoRA están basados en los trabajos de Meihua Dang (https://huggingface.co/mhdang) en

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 y https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, con licencia OpenRail++.

¿Cómo se hicieron estos LoRA?

Fueron creados usando Kohya SS extrayéndolos de otros checkpoints con licencia OpenRail++ en CivitAI y HuggingFace.

1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo extraído de https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization extraído de https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

También están alojados en HuggingFace en https://huggingface.co/benjamin-paine/sd-dpo-offsets/

Anterior
NightVisionXL - NightVisionXL_v9.0.0
Siguiente
CHOo1NE | Estilos de Shiiro - v1.0

Detalles del Modelo

Tipo de modelo

LORA

Modelo base

SDXL 1.0

Versión del modelo

SDXL - V1.0

Hash del modelo

c100ec5708

Creador

Discusión

Por favor log in para dejar un comentario.

Colección de Modelos - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Imágenes por DPO (Direct Preference Optimization) LoRA para XL y 1.5 - OpenRail++ - SDXL - V1.0

Imágenes con dpo

Imágenes con lora

Imágenes con stable diffusion

Imágenes con herramienta