modelos/DPO (Direct Preference Optimization) LoRA para XL e 1.5 - OpenRail++ - SDXL - V1.0

DPO (Direct Preference Optimization) LoRA para XL e 1.5 - OpenRail++ - SDXL - V1.0

|
7/26/2025
|
1:55:36 PM
| Discussion|
0
Uma guerreira vestida com armadura prateada está na floresta segurando uma espada brilhante e um escudo azul com emblema vermelho.
Foto macro de uma criatura extraterrestre com penas iridescentes azuis e verdes, grandes olhos expressivos e realces bioluminescentes brilhantes, empoleirada em uma planta alienígena vermelha.
Jovem mulher com corte pixie loiro sentada em uma poltrona vermelha vestindo uniforme escolar com gravata vermelha em uma sala de estar com plantas e cortinas vermelhas.
Um mosaico circular detalhado em estilo neo-bizantino com elementos de rubi, safira, ametista e ouro em um padrão floral e fractal intricado com folhas prateadas.
Um pico montanhoso nítido silhuetado contra um céu de pôr do sol laranja fogo, refletido em um lago claro com pedras visíveis sob a superfície.
Personagem de robô colorido e fofo com múltiplos braços, gerado usando Stable Diffusion AI.
Um templo montanhoso cercado por picos enevoados e águas calmas, gerado por IA usando Stable Diffusion.

Prompts Recomendados

RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes

Parâmetros Recomendados

samplers

DPM2

steps

25

cfg

5

Patrocinadores do Criador

O que é DPO?

DPO é Direct Preference Optimization, o nome dado ao processo pelo qual um modelo de difusão é refinado com base em imagens escolhidas por humanos. Meihua Dang et. al. treinaram o Stable Diffusion 1.5 e o Stable Diffusion XL usando este método e o Dataset Pick-a-Pic v2, que pode ser encontrado em https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, e escreveram um artigo sobre isso em https://huggingface.co/papers/2311.12908.

O que ele faz?

Os modelos DPO treinados foram observados produzindo imagens de qualidade superior em comparação com seus equivalentes não refinados, com uma ênfase significativa na aderência do modelo ao seu prompt. Esses LoRA podem trazer essa aderência a prompt para outros modelos Stable Diffusion refinados.

Quem treinou?

Esses LoRA são baseados nos trabalhos de Meihua Dang (https://huggingface.co/mhdang) em

https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 e https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, licenciados sob OpenRail++.

Como esses LoRA foram feitos?

Foram criados usando Kohya SS, extraídos de outros checkpoints licenciados sob OpenRail++ no CivitAI e HuggingFace.

1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo extraído de https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.

XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization extraído de https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors

Também estão hospedados no HuggingFace em https://huggingface.co/benjamin-paine/sd-dpo-offsets/

Anterior
NightVisionXL - NightVisionXL_v9.0.0
Próximo
CHOo1NE | Shiiro's Styles - v1.0

Detalhes do Modelo

Tipo de modelo

LORA

Modelo base

SDXL 1.0

Versão do modelo

SDXL - V1.0

Hash do modelo

c100ec5708

Criador

Discussão

Por favor, faça log in para deixar um comentário.

Coleção de Modelos - DPO (Direct Preference Optimization) LoRA for XL and 1.5 - OpenRail++

Imagens por DPO (Direct Preference Optimization) LoRA para XL e 1.5 - OpenRail++ - SDXL - V1.0

Imagens com dpo

Imagens com lora

Imagens com stable diffusion

Imagens com ferramenta