lunes, 6 de octubre de 2025

La mejor configuración de Comfyui en Stability Matrix con una RTX3060 12gb

 Stability Matrix para ComfyUI te da bastante control sobre el rendimiento.

Con tu RTX 3060 (12 GB VRAM) podemos afinar esos parámetros para generar imágenes de 1024×1024 en Flux-dev1 de forma más rápida y estable.

Aquí va la explicación clara y directa de cada parámetro, con la configuración recomendada para tu hardware y objetivo 👇


⚙️ 1. Modo de VRAM

OpciónUso de VRAMRendimientoRecomendación para 3060
highvramUsa al máximo la VRAM de la GPU🟢 Más rápido, menos intercambio con RAMElige esta opción si no tienes otros procesos pesados corriendo
normalvramBalanceado⚪ Un poco más lentoSolo si notas inestabilidad con highvram
lowvramLibera VRAM, usa RAM🔴 Bastante más lentoNo lo uses salvo que haya cuelgues
novramTodo en RAM/CPU🚫 Muy lentoEvítalo

👉 Usa highvram para 1024×1024: tu 3060 de 12 GB lo soporta sin problema.


🟩 2. Reserve VRAM

  • Esta opción aparta memoria de la GPU para el sistema.

  • En tu caso déjala en 0 o desactivada para darle todo el espacio al modelo.

  • Solo se activa si vas a correr juegos o apps pesadas al mismo tiempo.


🟨 3. Preview Method

El preview sólo afecta la vista previa durante el sampling (no la calidad final de la imagen), pero sí consume VRAM y puede ralentizar.

Tienes 3 opciones:

OpciónDescripciónRendimiento
--preview-method autoAjuste automático (usa el método que el back-end considere óptimo)🟢 bueno
--preview-method-latent2rgbConvierte cada paso del espacio latente a RGB para mostrar el progreso en tiempo real🔴 más pesado, consume VRAM, ralentiza
--preview-method teasdMuestra vista previa más ligera, sin convertir cada paso completo🟢 más rápido que latent2rgb

👉 Recomendación:

  • Si buscas máxima velocidad: usa --preview-method teasd.

  • Si te gusta ver el render progresivo pero aceptas algo de lentitud: usa auto.

  • Evita latent2rgb salvo que necesites depurar la imagen paso a paso.

Incluso puedes desactivar la vista previa desde la interfaz para liberar unos cientos de MB de VRAM y acelerar el muestreo.


🔵 4. Enable DirectML

  • Es para GPUs AMD/Intel.

  • Déjalo desactivado: tu RTX usa CUDA.


🟠 5. Use CPU Only

  • Mueve todo al CPU → extremadamente lento.

  • Déjalo desactivado.


🔴 6. Cross Attention Method

El Cross Attention es la parte más pesada en memoria y cálculo de los modelos tipo Flux.

Tus opciones:

OpciónProsContrasRendimiento en 3060
--use split cross attentionDivide el cálculo en bloques → usa menos VRAMMás lento que xFormers/Flash-Attn⚪ regular
--use quad cross attentionDivide en 4 bloques → incluso menos VRAMBastante más lento🔴 lento
--use pytorch cross attentionImplementación estándar de PyTorchNo optimizada, más uso de VRAM y lenta🔴 lento
--use sage attentionAlgoritmo más reciente; en GPUs Ampere (como la 3060) suele ser más rápido que split/quadMenos probado en algunas builds, puede dar artefactos si hay bugs🟢 rápido

👉 Recomendación para tu 3060:

  • Prueba primero con --use sage attention.

  • Si notas inestabilidad o artefactos, cambia a --use split cross attention.

  • Evita quad salvo que tengas errores de VRAM.

  • pytorch solo como último recurso.


🟣 7. Force Floating Point Precision

  • Controla la precisión del cómputo.

  • --force-fp16 → recomendado ✅

    • Usa media precisión → menos VRAM y más velocidad.

  • --force-fp32 → más lento, más memoria → solo útil si hay artefactos en imágenes.

  • No uses bf16 salvo que el modelo lo pida.

👉 Activa --force-fp16


🟤 8. VAE Precision

  • Controla la precisión del decodificador VAE.

  • --fp16-vae → más rápido, menos VRAM → ideal para generación estándar.

  • --fp32-vae → más preciso pero más pesado → útil si ves degradación en colores.

  • --bf16-vae → rara vez necesario.

👉 Usa --fp16-vae (prueba fp32 solo si los colores salen raros).


⚪ 9. Disable Xformers

  • NO desactivar (déjalo en OFF)

  • Xformers mejora velocidad en NVIDIA.


🔵 10. Disable Upcasting of Attention

  • Ahorra algo de VRAM, pero puede generar artefactos en modelos muy grandes.

  • Puedes mantenerlo activado (ON) para rascar un poco más de rendimiento.

  • Si notas ruido extraño, desactívalo.


🟢 11. Auto-launch

  • Solo afecta la comodidad de arranque.

  • Actívalo si quieres que ComfyUI inicie solo.


💻 ⚙️ Configuración recomendada para ti

Para imágenes 1024×1024 con Flux-dev1 en RTX3060:

  • VRAM: highvram

  • Reserve VRAM: 0 (desactivado) ✅

  • Preview Method: None o Minimal

  • Enable DirectML: OFF ✅

  • Use CPU Only: OFF ✅

  • Cross Attention Method: xFormers o Flash-Attention

  • Force Floating Point Precision: --force-fp16

  • VAE Precision: --fp16-vae

  • Disable Xformers: OFF ✅

  • Disable Upcasting: ON (prueba, si ves artefactos, desactívalo) ✅


🔥 Consejos extra para velocidad

  • Steps: 16-20 son suficientes con Flux-dev1.

  • Sampler: DPM++ 2M Karras o Euler a → rápidos y estables.

  • Batch size: 1 (tu GPU se ajusta mejor a 1× 1024×1024).

  • Desactiva Live Preview si buscas máximo rendimiento.

  • Evita cargar varios ControlNets simultáneamente.


    En resumen:


    Para generar 1024×1024 con Flux-dev1 en tu setup:

    • VRAM mode: highvram

    • Preview Method: --preview-method teasd

    • Cross Attention: --use sage attention

    • Force Floating Precision: --force-fp16

    • VAE Precision: --fp16-vae

    • Disable Xformers: OFF ✅

    • Disable Upcasting: ON (desactívalo si notas artefactos) ✅

    • Steps: 16-20

    • Sampler: DPM++ 2M Karras o Euler a

    • Batch Size: 1

    • Reserve VRAM: 0

    Con estas opciones, deberías poder generar imágenes 1024×1024 en ~22-28 s por imagen en tu 3060.

Share:

sábado, 20 de septiembre de 2025

SOLUCIÓN AttributeError: module 'tensorflow' has no attribute 'Tensor' (ComfyUi en Stability Matrix)

 Hola amigos les traigo una solución a un problema que me encontré esta mañana al tratar de crear imagenes y videos en comfyui.


Y al momento de que llegaba el proceso a la parte de Ksampler, me aparecía este error:


Ksampler module 'tensorflow' has no attribute 'Tensor.


Buscando en internet por un par de horas y apunto de la frustración me encontré con una publicación en reddit que me saco del tremendo apuro.


SOLUCIÓN

Publicación Original


Gracias al usuarioop Ilisjak que encontró que todo se debía a un error en el código.

Les dejo el pantallazo:


Hay que modificar el archivo _backends.py . Si estas utilizando COmfyUi en Stability Matrix Portable, tienes que irte a la siguiente ubicación:

...\StabilityMatrix-win-x64\Data\Packages\ComfyUI\venv\Lib\site-packages\einops

y en la línea 358 borrarla y escribir: return False y guardar.

Con pude seguir trabajando en mis creaciones antropomorfas. Espero que les haya servido esta aporte, saludos!

Share:

jueves, 18 de septiembre de 2025

Entrenamiento LORAS con RTX3060 12 gb y 32 RAM

 En esta publicación les comparto mi experiencia entrenando loras para Flux de manera local utilizando la tarjeta Nvidia RTX3060 con 12gb de Ram.

Para empezar tengo que decirles que quise empezar entrenando loras con 16 de RAM y me resultó un dolor de cabeza ya que todos los Workflow que utilizaba me dejaban sin memoria, se caía el entrenamiento.

Primer entrenamiento Comfyui

Con 32 de Ram pude correr el workflow FLUX LoRA trainer on ComfyUI v.1.1 , pero un entrenamiento con 30 imagenes de 512 se llegaba a tardar minimo 60 horas. Una locura que hacía que mi vram llegara a los limites de su trabajo.

La verdad me desesperé y lo quité.

Si tienes una Vram de más de 16 gigas puede que a ti si te sirva.

Segundo entrenamiento Lora Comfyui

Este segundo entrenamiento sólo me tardó 2 horas en terminar.

Investigando un poco me encontré con varias personas que decían que se podían bajar los tiempos a 6 horas, logrando una mejor configuración del mismo primer entrenamiento con FLUX LoRA trainer on ComfyUI v.1.1.

Los parametros que cambie del primero fue que utilicé imagenes de 512.

Batch Size 1


Cometí dos errores

La muestra que utilicé era muy pobre en cuestión visual.



Estos fueron los dos resultados que me envió y aunque no son lo que esperaba no están tan mal hechos.



Como pueden ver el resultado no es malo, pero la verdad es que no se parece para nada a mi, aunque así me veo más guapo jajaja.

Aqui te dejo tambien las gráficas de entrenamiento.




Esta es la imagen del workflow  y la configuración



Tercer entrenamiento y el mejor para una rtx3060 12gb


Tardó 8 horas, las justas que ocupo en la noche para dormir.

RESULTADOS

Este workflow me lo encontré en una publicación de Reddit, en donde comparten un workflow mucho menos pesado que el primero, lo voy a probar.

Este es el workflow DESCARGA. Te va a descargar un archivo de texto, sólo tienes que editar el nombre quitando el .txt y deja conterminación JSON.

En la publicación de reddit puedes seguir los pasos para ponerlo a funcionar.

Utilicé una muestra completamente diferente a 720 pixeles

Las imagenes, aunque fueron menos (15 imagenes) son mucho más variadas y eso ayudó muchisimo al resultado:


Resultado


Este si se parece mucho más a lo que soy yo. (la imagen puede mejorar mucho más con algunos nodos de upscale y de retoque de rostro)

Te comparto la curva de aprendizaje que se manejó en este tercer intento. Como puedes ver la última gráfica del último entrenamiento es una gráfica perfecta de entrenamiento.







Share:

jueves, 11 de septiembre de 2025

Modelo flux que funciona mejor en una RTX 3060 12gb y 16 ram

 En esta publicación les presento algunas pruebas que he hecho con la terjeta RTX 3060 12gb al utilizar los modelos de flux sobre el programa comfyUI.

Estas pruebas fueron hechas en windows11. Cada prueba la hice reiniciando la pc para que no quedara congelada la ram.

La idea es encontrar el workflow que funcione mucho mejor para esta configuración tan limitada para la creación de imagenes con Inteligencia Artificial.

Este fue el prompt que utilicé: Hyperrealistic cinematic painting of a young pre-Hispanic Aztec warrior, 25 years old, athletic build, tan skin, intense and serious expression, standing on a rocky cliff under a vibrant blue sky with white clouds. He wears a traditional blue tunic with golden ornaments, a white loincloth, and ancient leather sandals. His bare chest shows a detailed eagle tattoo in the center, symbolizing strength. He has long straight black hair tied with a fabric band and is wearing handcrafted bamboo-style wooden glasses. In his right hand he holds a decorated spear, while his left arm is stretched out as if ready for battle. A majestic white eagle with blue wings is perched proudly on his shoulder. The scene is illuminated with warm cinematic lighting, with sharp focus on the face, bamboo glasses, tattoo, and fabric textures. Highly detailed skin, fabric, wood, and feathers, epic and dramatic atmosphere, character concept art style, vibrant and colorful with shades of green, yellow, red, and blue.

Flux1-dev.sft

Tardó 24 minutos en realizar una imagen. Tuve que bajar la resolución a 720 x 480, y cambiar weight_dtype por fp8_e5m2  por fp8_e4m3fn_fast para que no se cayera.


Flux1-dev-fp8.safetensors

2 minutos con 7 segundos. Pf quedé impresionado.

A tomar en cuenta con la configuración, cambie el weight_dtype por fp8_e5m2.


Flux1-schnell.safetensor

Resolución 480 x 720, No corrió. (Para correr esta versión tienes que bajar tus imagenes hasta 512 x 512 o 480 x 480)


Versiones GGUF

Flux1-dev-q8_0.gguf

2 minutos con 95 segundos. La versión q8 es la más parecida al modelo origina Flux1-dev y la verdad los tiempos si difieren mucho (casi 22 minutos de diferencia).


Leí en muchas publicaciones en internet que el modelo q5 era el que más se adaptaba a la tarjeta rtx 3060 12 gigas

Flux1-dev-q5_0.gguf

2 minutos 31 segundos. Pero la imagen fue un desastre con los mismos parametros que las anteriores



Conclusión: Los modelo Flux1-dev-q8 y Flux1-dev-fp8 son los que mejor funcionanen la tarjeta RTX 3060 12 gb con 16 ram. 

IMPORTANTE: Utilice el Lora Flux Turbo

- El wordflow aquí te lo dejo de regalo:

Copia la imagen en tu canvas.


Cualquier duda en los comentarios. 


Share: