XL 및 1.5용 DPO (직접 선호 최적화) LoRA - OpenRail++ - SDXL - V1.0
추천 프롬프트
RAW photo, a close-up picture of a cat, a close-up picture of a dog, orange eyes, blue eyes, reflection in it's eyes
추천 매개변수
samplers
steps
cfg
크리에이터 스폰서
DPO란 무엇인가?
DPO는 직접 선호 최적화를 의미하며, 확산 모델이 사람이 선택한 이미지에 기반해 파인튜닝되는 과정을 가리킵니다. Meihua Dang 등은 Pick-a-Pic v2 데이터셋과 이 방법을 사용하여 Stable Diffusion 1.5 및 Stable Diffusion XL을 훈련했으며, 데이터셋은 https://huggingface.co/datasets/yuvalkirstain/pickapic_v2에서 확인할 수 있고, 논문은 https://huggingface.co/papers/2311.12908에서 볼 수 있습니다.
무엇을 하는가?
훈련된 DPO 모델은 미세 조정되지 않은 모델보다 더 높은 품질의 이미지를 생성하며, 특히 프롬프트에 대한 강한 준수가 관찰됩니다. 이 LoRA는 다른 파인튜닝된 Stable Diffusion 모델에도 프롬프트 준수 향상을 가져올 수 있습니다.
누가 훈련했나요?
이 LoRA는 Meihua Dang(https://huggingface.co/mhdang)의 연구를 기반으로 합니다.
https://huggingface.co/mhdang/dpo-sdxl-text2image-v1 및 https://huggingface.co/mhdang/dpo-sd1.5-text2image-v1에서 OpenRail++ 라이선스로 제공됩니다.
이 LoRA는 어떻게 만들어졌나요?
CivitAI와 HuggingFace의 다른 OpenRail++ 라이선스 체크포인트에서 Kohya SS를 사용해 추출하여 제작되었습니다.
1.5: https://civitai.com/models/240850/sd15-direct-preference-optimization-dpo는 https://huggingface.co/fp16-guy/Stable-Diffusion-v1-5_fp16_cleaned/blob/main/sd_1.5.safetensors에서 추출되었습니다.
XL: https://civitai.com/models/238319/sd-xl-dpo-finetune-direct-preference-optimization는 https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/blob/main/sd_xl_base_1.0_0.9vae.safetensors에서 추출되었습니다.
이들은 또한 https://huggingface.co/benjamin-paine/sd-dpo-offsets/에서 HuggingFace에 호스팅되어 있습니다.


















