NoobAI-XL (NAI-XL) - Versión V-Pred-1.0
Palabras Clave y Etiquetas Relacionadas
Prompts Recomendados
masterpiece, best quality, newest, absurdres, highres, safe
year 2024, long hair, best quality, masterpiece, absurdres, newest, highres
Prompts Negativos Recomendados
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Parámetros Recomendados
samplers
steps
cfg
resolution
other models
Parámetros Recomendados de Alta Resolución
upscaler
upscale
steps
denoising strength
Consejos
Este modelo funciona de manera diferente a los modelos EPS y requiere usar únicamente el muestreador Euler.
Se recomienda un CFG entre 4 y 5 para resultados óptimos.
Los pasos recomendados son entre 28 y 35.
Usa presets de resolución alrededor de 1024x1024 para mejor calidad de imagen.
Sigue las restricciones de uso: sin uso dañino, malicioso o comercial.
Los prompts deben incluir 'masterpiece, best quality, newest, absurdres, highres, safe' como prefijo positivo.
Los prompts negativos deben excluir nsfw, baja calidad, malas manos, manos mutadas y contenido indeseable.
Consulta la guía y los tutoriales para un uso detallado y entrenamiento de LoRA.
El soporte comunitario está disponible vía grupos QQ y Discord.
Aspectos Destacados de la Versión
¡Feliz Navidad! NOOBAI XL-VPred 1.0 ha sido lanzado. La serie de predicción V ha llegado a un final exitoso, y ha sido un viaje muy interesante. Quién sabe, podríamos tener la oportunidad de hacerlo de nuevo en el futuro. Con esto, ¡el plan de actualización semanal de nuestro Laxhar Lab llega a su gran final!
Por cierto, estas son las ventajas de esta versión:
1. Afinado con conjuntos de datos de alta calidad: Hemos optimizado el modelo para la precisión anatómica y la racionalidad compositiva a través de ajustes meticulosos con conjuntos de datos de alta calidad.
2. Pesos flexibles para combinación de estilos: El modelo ahora ofrece más flexibilidad para combinar diferentes estilos de pintura, con una robustez mejorada al superponer múltiples estilos.
3. Mayor utilidad de las palabras de calidad: La efectividad de las palabras de calidad se ha vuelto más pronunciada en esta versión.
4. Mezcla de características de las versiones estándar y S: El estilo de color es vibrante pero menos propenso a la sobreexposición, combinando lo mejor de ambos.
Recomendaciones de uso y trabajo futuro:
1. Usar con plugin dynamic CFG: Recomendamos usar el plugin dynamic CFG & CFG Rescale al emplear el modelo de predicción V para evitar saturación o imágenes demasiado grises. Puedes referirte a la configuración 0.2 para mejores resultados.
2. Elección de métodos de muestreo: Aunque NOOBAI XL-VPred 1.0 soporta la mayoría de métodos, la predicción V no soporta la serie Karras. Por ello, sugerimos usar los métodos Euler y DDIM para resultados más estables.
3. Actualizaciones y soporte continuos: Continuaremos actualizando VPred 1.0, incluyendo el modelo ControlNet y otros plugins. El modelo principal también se actualizará irregularmente cuando haya mejoras significativas (veamos cómo es el efecto DIT de NAI4 y aprendamos de él), ¡así que atentos!
Finalmente, debo compartir una recomendación personal: el juego reciente "MiSide" es realmente excelente. Hace mucho que un juego en solitario no me emocionaba tanto. Lo recomiendo encarecidamente. Les deseo una Feliz Navidad. Después de un año de trabajo duro, es hora de descansar. Hasta que nos volvamos a encontrar en este mundo de posibilidades ミ(・・)ミ
Patrocinadores del Creador
Patrocinado por Lanyun Cloud, Civitai & Seaart
Introducción al Modelo
Este modelo de generación de imágenes, basado en Laxhar/noobai-XL_v1.0, aprovecha los conjuntos completos de datos Danbooru y e621 con etiquetas nativas y descripciones en lenguaje natural.
Implementado como un modelo de v-predicción (distinto a eps-predicción), requiere configuraciones de parámetros específicas, detalladas en las secciones siguientes.
Agradecimientos especiales a mi compañero euge por el trabajo de programación, y estamos agradecidos por el apoyo técnico de muchos miembros útiles de la comunidad.
⚠️ AVISO IMPORTANTE ⚠️
¡ESTE MODELO FUNCIONA DIFERENTE A LOS MODELOS EPS!
¡POR FAVOR LEA LA GUÍA CON DETENIMIENTO!
Detalles del Modelo
Desarrollado por: Laxhar Lab
Tipo de Modelo: Modelo generativo texto a imagen basado en difusión
Afinado desde: Laxhar/noobai-XL_v1.0
Patrocinado por:
Pruebas colaborativas:
Cómo Usar el Modelo.
Guía para NoobAI XL:
ENG:
https://civitai.com/articles/8962
CHS:
https://fcnk27d6mpa5.feishu.cn/wiki/S8Z4wy7fSiePNRksiBXcyrUenOh
Lista de LoRa Recomendados para NoobAI XL:
https://fcnk27d6mpa5.feishu.cn/wiki/IBVGwvVGViazLYkMgVEcvbklnge
Método I: reForge
(Si no has instalado reForge) Instala reForge siguiendo las instrucciones del repositorio;
Inicia WebUI y usa el modelo como de costumbre.
Método II: ComfyUI
MUESTRA con NODOS
Método III: WebUI
Ten en cuenta que la rama dev no es estable y puede contener errores.
1. (Si no has instalado WebUI) Instala WebUI siguiendo las instrucciones del repositorio.
2. Cambia a la rama dev:
git switch dev
3. Obtén las últimas actualizaciones:
git pull
4. Inicia WebUI y usa el modelo como de costumbre.
Método IV: Diffusers
import torch
from diffusers import StableDiffusionXLPipeline
from diffusers import EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality,artist:john_kafka,artist:nixeu,artist:quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
Nota: Asegúrate de tener Git instalado y que el entorno esté correctamente configurado en tu equipo.
Configuraciones Recomendadas
Parámetros
CFG: 4 ~ 5
Pasos: 28 ~ 35
Método de muestreo: Euler (⚠️ Otros muestreadores no funcionarán correctamente)
Resolución: Área total alrededor de 1024x1024. Mejor elegir entre: 768x1344, 832x1216, 896x1152, 1024x1024, 1152x896, 1216x832, 1344x768
Prompts
Prefijo de Prompt:
masterpiece, best quality, newest, absurdres, highres, safe,
Prompt Negativo:
nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro
Directrices de Uso
Leyenda
<1chica/1chico/1otro/...>, <personaje>, <serie>, <artistas>, <etiquetas especiales>, <etiquetas generales>, <otras etiquetas>
Etiquetas de Calidad
Para las etiquetas de calidad, evaluamos la popularidad de la imagen mediante el siguiente proceso:
Normalización de datos basada en diversas fuentes y valoraciones.
Aplicación de coeficientes de decaimiento temporales según la recencia de la fecha.
Clasificación de imágenes dentro del conjunto de datos completo basada en este procesamiento.
Nuestro objetivo final es asegurar que las etiquetas de calidad sigan efectivamente las preferencias de los usuarios en los últimos años.
Rango PercentilEtiquetas de Calidad> 95ºobra maestra> 85º, <= 95ºmejor calidad> 60º, <= 85ºbuena calidad> 30º, <= 60ºcalidad normal<= 30ºpeor calidad
Etiquetas Estéticas
EtiquetaDescripciónmuy awaTop 5% de imágenes en cuanto a puntuación estética según waifu-scorerpeor estéticaTodo el 5% inferior de imágenes según puntuación estética según waifu-scorer y aesthetic-shadow-v2......
Etiquetas de Fecha
Hay dos tipos de etiquetas de fecha: etiquetas de año y etiquetas de período. Para etiquetas de año, usa el formato year xxxx, es decir, year 2021. Para etiquetas de período, consulta la siguiente tabla:
Rango de AñoEtiqueta de Período2005-2010antiguo2011-2014temprano2014-2017medio2018-2020reciente2021-2024más nuevo
Conjunto de Datos
Las imágenes más recientes de Danbooru hasta la fecha de entrenamiento (aproximadamente antes de 2024-10-23)
Imágenes de e621 e621-2024-webp-4Mpixel en Hugging Face
Comunicación
Grupos QQ:
657327419
875042008
914818692
635772191
870086562
Discord: Laxhar Dream Lab SDXL NOOB
Cómo entrenar un LoRA en el modelo v-pred SDXL
Un tutorial destinado a entrenadores de LoRA basados en sd-scripts.
enlace al artículo: https://civitai.com/articles/8723
Herramienta de utilidad
Laxhar Lab está entrenando un modelo ControlNet dedicado para NoobXL, y los modelos se están lanzando progresivamente. Hasta ahora, han sido lanzados los modelos normal, profundidad y canny.
Enlace al modelo: https://civitai.com/models/929685
Licencia del Modelo
La licencia de este modelo hereda la de https://huggingface.co/OnomaAIResearch/Illustrious-xl-early-release-v0 fair-ai-public-license-1.0-sd y añade los siguientes términos. Cualquier uso de este modelo y sus variantes está sujeto a esta licencia.
I. Restricciones de Uso
Prohibido el uso para actividades dañinas, maliciosas o ilegales, incluyendo pero no limitado a acoso, amenazas y difusión de desinformación.
Prohibida la generación de contenido poco ético u ofensivo.
Prohibida la violación de leyes y regulaciones en la jurisdicción del usuario.
II. Prohibición Comercial
Prohibimos cualquier forma de comercialización, incluyendo pero no limitado a la monetización o uso comercial del modelo, modelos derivados o productos generados por el modelo.
III. Comunidad de Código Abierto
Para fomentar una comunidad de código abierto próspera, los usuarios DEBEN cumplir los siguientes requisitos:
Modelos derivados, modelos fusionados, LoRAs y productos basados en los modelos anteriores deben ser de código abierto.
Compartir detalles del trabajo como fórmulas de síntesis, prompts y flujos de trabajo.
Seguir la fair-ai-public-license para garantizar que los trabajos derivados permanezcan de código abierto.
IV. Descargo de Responsabilidad
Los modelos generados pueden producir resultados inesperados o dañinos. Los usuarios deben asumir todos los riesgos y consecuencias potenciales del uso.
Participantes y Colaboradores
Participantes
L_A_X: Civitai | Liblib.art | Huggingface
li_li: Civitai | Huggingface
nebulae: Civitai | Huggingface
Chenkin: Civitai | Huggingface
Euge: Civitai | Huggingface | Github
Colaboradores
Narugo1992: Gracias a narugo1992 y al equipo deepghs por liberar diversos conjuntos de entrenamiento, herramientas de procesamiento de imágenes y modelos.
Onommai: Gracias a OnommAI por liberar un modelo base poderoso.
V-Prediction: Gracias a las siguientes personas por sus instrucciones detalladas y experimentos.
adsfssdf
madmanfourohfour
Comunidad: aria1th261, neggles, sdtana, chewing, irldoggo, reoe, kblueleaf, Yidhar, ageless, 白玲可, Creeper, KaerMorh, 吟游诗人, SeASnAkE, zwh20081, Wenaka~喵, 稀里哗啦, 幸运二副, 昨日の約, 445, EBIX, Sopp, Y_X, Minthybasis, Rakosz, 孤辰NULL, 汤人烂, 沅月弯刀,David, 年糕特工队,
Detalles del Modelo
Tipo de modelo
Modelo base
Versión del modelo
Hash del modelo
Creador
Discusión
Por favor log in para dejar un comentario.
