UltraRealistic Lora Project - Flux - v2
Mots-clés et tags associés
Paramètres recommandés
samplers
steps
cfg
Conseils
Pour ComfyUI avec le modèle Flux : CFG=1, Guidance=2.5, Scheduler=Beta, Sampler=dpmpp_2m, Steps=40, Strength entre 0.8 et 1.0 (typiquement 1.0 ; réduire à 0.87 si la qualité des mains se détériore).
Pour ComfyUI avec le modèle SD3.5 : CFG=1, Guidance=3.5, Scheduler=sgm_uniform, Sampler=dpmpp_2m, Steps=40, Strength entre 0.5 et 1.0 (typiquement 0.7).
Envisagez d’étendre le dataset avec des poses plus diverses pour améliorer la précision anatomique lors des futures mises à jour.
Sponsors du créateur
Si vous souhaitez soutenir le travail et les futures mises à jour du modèle Flux, merci de visiter et faire un don sur https://ko-fi.com/danrisi.
L'objectif principal était de créer des images plus 'vivantes' avec des émotions plus expressives, des poses dynamiques et une qualité légèrement amateur (peut aussi produire des images de haute qualité).
P.S : Merci à tous pour vos retours ! J'ai remarqué les commentaires (pas seulement ici) concernant des problèmes d'anatomie, et j'ai collecté vos rapports et exemples. J'envisage plusieurs options pour y remédier :
Entraîner un checkpoint complet, qui est probablement l'approche la plus rationnelle pour des améliorations cohérentes.
Élargir le dataset avec plus de photos couvrant des poses diverses pour affiner la précision anatomique.
J'apprécie vos retours – cela m’aide vraiment à orienter les futures mises à jour.
P.S.2 : J'ai déplacé l'entraînement vers RunPod pour des résultats constants et de haute qualité. Si vous souhaitez soutenir mon travail et les mises à jour à venir, vous pouvez me retrouver sur Ko-fi. Car je prévois d'affiner un modèle, pas seulement un LoRa. https://ko-fi.com/danrisi
Paramètres que j’utilise dans ComfyUI pour Flux :
CFG=1, Guidance=2.5, Scheduler=Beta, Sampler=dpmpp_2m, Steps=40, Strength=de 0.8 à 1.0 fonctionne bien, mais j'utilise généralement 1, sauf si la qualité des mains se dégrade, alors je règle à 0.87
Paramètres que j’utilise dans ComfyUI pour SD3.5 :
CFG=1, Guidance=3.5, Scheduler=sgm_uniform, Sampler=dpmpp_2m, Steps=40, Strength=de 0.5 à 1.0 fonctionne bien, mais j’utilise habituellement 0.7
V2 - Flux
Apporte encore plus de réalisme et de polyvalence à vos créations, avec des améliorations significatives en stabilité, anatomie, et qualité globale. Cette mise à jour rend la LoRA plus adaptative, vous permettant d’atteindre différents niveaux de qualité selon vos instructions — du réalisme haute définition aux esthétiques volontairement moins précises.
Entraîné sur 1048 images.
Quoi de neuf :
Améliorations de la stabilité : La nouvelle version est plus stable et fonctionne mieux avec les prompts textuels, offrant un résultat plus fluide et prévisible.
Mains & anatomie améliorées : Les mains et l'anatomie du corps sont plus affinées, renforçant la qualité réaliste.
Flexibilité de qualité : Avec les bons prompts, vous pouvez ajuster tant pour des esthétiques de haute que de moindre qualité (exemples disponibles).
V1.2 pour SD3.5 - Large
Décision de créer une version pour sd3.5 avec quasiment les mêmes réglages. À mon avis le résultat est bon, mais j’ai noté quelques problèmes d’anatomie (parfois pire que Flux), mais l’esthétique (couleurs, contraste et autres) est même meilleure que Flux. Je pense que sd3.5 a du potentiel, peut-être que les futures versions seront aussi sur sd3.5.
V1.2
Remplacement de la moitié des images du dataset, changement du style de prompt, amélioration des mains, réduction des 'effets lampe de poche' dans les scènes nocturnes et amélioration globale de la qualité de la LoRa (j'espère).
Dans cette version, il n’est plus nécessaire d’utiliser une tonne de 'mots déclencheurs' comme en V1. Il suffit d’en ajouter quelques-uns parmi ceux que j’ai mentionnés dans les mots déclencheurs.
V1
Entraînement d’une autre lora amateur (ce qui est déjà très courant ici).
J’ai aussi pris quelques photos de mon dataset des années 2000 et ajouté environ 700 images supplémentaires. Le résultat est plutôt bon pour l’instant, mais il y a un point controversé concernant l’optimisation de la qualité, j’espérais que cela aiderait à contrôler la qualité, mais à mon avis cela a seulement embrouillé le modèle. Dans le dataset, on trouve plusieurs niveaux de qualité, tels que :
1) Photo haute résolution, prise avec un téléphone mobile, sans artefacts visibles, nette et claire
2) Photo basse résolution, amateur, prise avec un appareil numérique, sans artefacts jpeg visibles, légèrement bruitée
3) Photo moyenne résolution, prise avec un téléphone mobile, légère granulation due aux faibles conditions d’éclairage, sans artefacts numériques significatifs
Et leurs autres combinaisons et variations. Je pense que je supprimerai ce genre d’images dans la prochaine version. Mais cette version fonctionne le mieux pour moi :
Photo basse résolution, amateur, prise avec un appareil numérique, sans artefacts jpeg visibles, légèrement bruitée
Détails du modèle
Type de modèle
Modèle de base
Version du modèle
Hash du modèle
Mots entraînés
Créateur
Discussion
Veuillez vous log in pour laisser un commentaire.






