DPO (Direct Preference Optimization) LoRA para XL e 1.5 - OpenRail++ - SDXL - V1.0
Prompts Recomendados
RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes
Parâmetros Recomendados
samplers
steps
cfg
Patrocinadores do Criador
O que é DPO?
DPO é Direct Preference Optimization, o nome dado ao processo pelo qual um modelo de difusão é refinado com base em imagens escolhidas por humanos. Meihua Dang et. al. treinaram o Stable Diffusion 1.5 e o Stable Diffusion XL usando este método e o Dataset Pick-a-Pic v2, que pode ser encontrado em https://huggingface.co/datasets/yuvalkirstain/pickapic_v2, e escreveram um artigo sobre isso em https://huggingface.co/papers/2311.12908.
O que ele faz?
Os modelos DPO treinados foram observados produzindo imagens de qualidade superior em comparação com seus equivalentes não refinados, com uma ênfase significativa na aderência do modelo ao seu prompt. Esses LoRA podem trazer essa aderência a prompt para outros modelos Stable Diffusion refinados.
Quem treinou?
Esses LoRA são baseados nos trabalhos de Meihua Dang (https://huggingface.co/mhdang) em
https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 e https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1, licenciados sob OpenRail++.
Como esses LoRA foram feitos?
Foram criados usando Kohya SS, extraídos de outros checkpoints licenciados sob OpenRail++ no CivitAI e HuggingFace.
1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo extraído de https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors.
XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization extraído de https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors
Também estão hospedados no HuggingFace em https://huggingface.co/benjamin-paine/sd-dpo-offsets/
Detalhes do Modelo
Tipo de modelo
Modelo base
Versão do modelo
Hash do modelo
Criador
Discussão
Por favor, faça log in para deixar um comentário.


















