Stability Matrix para ComfyUI te da bastante control sobre el rendimiento.
Con tu RTX 3060 (12 GB VRAM) podemos afinar esos parámetros para generar imágenes de 1024×1024 en Flux-dev1 de forma más rápida y estable.
Aquí va la explicación clara y directa de cada parámetro, con la configuración recomendada para tu hardware y objetivo 👇
⚙️ 1. Modo de VRAM
| Opción | Uso de VRAM | Rendimiento | Recomendación para 3060 |
|---|---|---|---|
| highvram | Usa al máximo la VRAM de la GPU | 🟢 Más rápido, menos intercambio con RAM | ✅ Elige esta opción si no tienes otros procesos pesados corriendo |
| normalvram | Balanceado | ⚪ Un poco más lento | Solo si notas inestabilidad con highvram |
| lowvram | Libera VRAM, usa RAM | 🔴 Bastante más lento | No lo uses salvo que haya cuelgues |
| novram | Todo en RAM/CPU | 🚫 Muy lento | Evítalo |
👉 Usa highvram para 1024×1024: tu 3060 de 12 GB lo soporta sin problema.
🟩 2. Reserve VRAM
-
Esta opción aparta memoria de la GPU para el sistema.
-
En tu caso déjala en 0 o desactivada para darle todo el espacio al modelo.
-
Solo se activa si vas a correr juegos o apps pesadas al mismo tiempo.
🟨 3. Preview Method
El preview sólo afecta la vista previa durante el sampling (no la calidad final de la imagen), pero sí consume VRAM y puede ralentizar.
Tienes 3 opciones:
| Opción | Descripción | Rendimiento |
|---|---|---|
--preview-method auto | Ajuste automático (usa el método que el back-end considere óptimo) | 🟢 bueno |
--preview-method-latent2rgb | Convierte cada paso del espacio latente a RGB para mostrar el progreso en tiempo real | 🔴 más pesado, consume VRAM, ralentiza |
--preview-method teasd | Muestra vista previa más ligera, sin convertir cada paso completo | 🟢 más rápido que latent2rgb |
👉 Recomendación:
-
Si buscas máxima velocidad: usa
--preview-method teasd. -
Si te gusta ver el render progresivo pero aceptas algo de lentitud: usa
auto. -
Evita
latent2rgbsalvo que necesites depurar la imagen paso a paso.
Incluso puedes desactivar la vista previa desde la interfaz para liberar unos cientos de MB de VRAM y acelerar el muestreo.
🔵 4. Enable DirectML
-
Es para GPUs AMD/Intel.
-
Déjalo desactivado: tu RTX usa CUDA.
🟠 5. Use CPU Only
-
Mueve todo al CPU → extremadamente lento.
-
Déjalo desactivado.
🔴 6. Cross Attention Method
El Cross Attention es la parte más pesada en memoria y cálculo de los modelos tipo Flux.
Tus opciones:
| Opción | Pros | Contras | Rendimiento en 3060 |
|---|---|---|---|
--use split cross attention | Divide el cálculo en bloques → usa menos VRAM | Más lento que xFormers/Flash-Attn | ⚪ regular |
--use quad cross attention | Divide en 4 bloques → incluso menos VRAM | Bastante más lento | 🔴 lento |
--use pytorch cross attention | Implementación estándar de PyTorch | No optimizada, más uso de VRAM y lenta | 🔴 lento |
--use sage attention | Algoritmo más reciente; en GPUs Ampere (como la 3060) suele ser más rápido que split/quad | Menos probado en algunas builds, puede dar artefactos si hay bugs | 🟢 rápido |
👉 Recomendación para tu 3060:
-
Prueba primero con
--use sage attention. -
Si notas inestabilidad o artefactos, cambia a
--use split cross attention. -
Evita
quadsalvo que tengas errores de VRAM. -
pytorchsolo como último recurso.
🟣 7. Force Floating Point Precision
-
Controla la precisión del cómputo.
-
--force-fp16 → recomendado ✅
-
Usa media precisión → menos VRAM y más velocidad.
-
-
--force-fp32 → más lento, más memoria → solo útil si hay artefactos en imágenes.
-
No uses
bf16salvo que el modelo lo pida.
👉 Activa --force-fp16
🟤 8. VAE Precision
-
Controla la precisión del decodificador VAE.
-
--fp16-vae → más rápido, menos VRAM → ideal para generación estándar.
-
--fp32-vae → más preciso pero más pesado → útil si ves degradación en colores.
-
--bf16-vae → rara vez necesario.
👉 Usa --fp16-vae (prueba fp32 solo si los colores salen raros).
⚪ 9. Disable Xformers
-
NO desactivar (déjalo en OFF)
-
Xformers mejora velocidad en NVIDIA.
🔵 10. Disable Upcasting of Attention
-
Ahorra algo de VRAM, pero puede generar artefactos en modelos muy grandes.
-
Puedes mantenerlo activado (ON) para rascar un poco más de rendimiento.
-
Si notas ruido extraño, desactívalo.
🟢 11. Auto-launch
-
Solo afecta la comodidad de arranque.
-
Actívalo si quieres que ComfyUI inicie solo.
💻 ⚙️ Configuración recomendada para ti
Para imágenes 1024×1024 con Flux-dev1 en RTX3060:
-
VRAM:
highvram✅ -
Reserve VRAM: 0 (desactivado) ✅
-
Preview Method:
NoneoMinimal✅ -
Enable DirectML: OFF ✅
-
Use CPU Only: OFF ✅
-
Cross Attention Method:
xFormersoFlash-Attention✅ -
Force Floating Point Precision:
--force-fp16✅ -
VAE Precision:
--fp16-vae✅ -
Disable Xformers: OFF ✅
-
Disable Upcasting: ON (prueba, si ves artefactos, desactívalo) ✅
🔥 Consejos extra para velocidad
-
Steps: 16-20 son suficientes con Flux-dev1.
-
Sampler:
DPM++ 2M KarrasoEuler a→ rápidos y estables. -
Batch size: 1 (tu GPU se ajusta mejor a 1× 1024×1024).
-
Desactiva Live Preview si buscas máximo rendimiento.
-
Evita cargar varios ControlNets simultáneamente.
En resumen:Para generar 1024×1024 con Flux-dev1 en tu setup:
-
VRAM mode:
highvram -
Preview Method:
--preview-method teasd✅ -
Cross Attention:
--use sage attention✅ -
Force Floating Precision:
--force-fp16✅ -
VAE Precision:
--fp16-vae✅ -
Disable Xformers: OFF ✅
-
Disable Upcasting: ON (desactívalo si notas artefactos) ✅
-
Steps: 16-20
-
Sampler:
DPM++ 2M KarrasoEuler a -
Batch Size: 1
-
Reserve VRAM: 0
Con estas opciones, deberías poder generar imágenes 1024×1024 en ~22-28 s por imagen en tu 3060.
-