sábado, 20 de septiembre de 2025

SOLUCIÓN AttributeError: module 'tensorflow' has no attribute 'Tensor' (ComfyUi en Stability Matrix)

 Hola amigos les traigo una solución a un problema que me encontré esta mañana al tratar de crear imagenes y videos en comfyui.


Y al momento de que llegaba el proceso a la parte de Ksampler, me aparecía este error:


Ksampler module 'tensorflow' has no attribute 'Tensor.


Buscando en internet por un par de horas y apunto de la frustración me encontré con una publicación en reddit que me saco del tremendo apuro.


SOLUCIÓN

Publicación Original


Gracias al usuarioop Ilisjak que encontró que todo se debía a un error en el código.

Les dejo el pantallazo:


Hay que modificar el archivo _backends.py . Si estas utilizando COmfyUi en Stability Matrix Portable, tienes que irte a la siguiente ubicación:

...\StabilityMatrix-win-x64\Data\Packages\ComfyUI\venv\Lib\site-packages\einops

y en la línea 358 borrarla y escribir: return False y guardar.

Con pude seguir trabajando en mis creaciones antropomorfas. Espero que les haya servido esta aporte, saludos!

Share:

jueves, 18 de septiembre de 2025

Entrenamiento LORAS con RTX3060 12 gb y 32 RAM

 En esta publicación les comparto mi experiencia entrenando loras para Flux de manera local utilizando la tarjeta Nvidia RTX3060 con 12gb de Ram.

Para empezar tengo que decirles que quise empezar entrenando loras con 16 de RAM y me resultó un dolor de cabeza ya que todos los Workflow que utilizaba me dejaban sin memoria, se caía el entrenamiento.

Primer entrenamiento Comfyui

Con 32 de Ram pude correr el workflow FLUX LoRA trainer on ComfyUI v.1.1 , pero un entrenamiento con 30 imagenes de 512 se llegaba a tardar minimo 60 horas. Una locura que hacía que mi vram llegara a los limites de su trabajo.

La verdad me desesperé y lo quité.

Si tienes una Vram de más de 16 gigas puede que a ti si te sirva.

Segundo entrenamiento Lora Comfyui

Este segundo entrenamiento sólo me tardó 2 horas en terminar.

Investigando un poco me encontré con varias personas que decían que se podían bajar los tiempos a 6 horas, logrando una mejor configuración del mismo primer entrenamiento con FLUX LoRA trainer on ComfyUI v.1.1.

Los parametros que cambie del primero fue que utilicé imagenes de 512.

Batch Size 1


Cometí dos errores

La muestra que utilicé era muy pobre en cuestión visual.



Estos fueron los dos resultados que me envió y aunque no son lo que esperaba no están tan mal hechos.



Como pueden ver el resultado no es malo, pero la verdad es que no se parece para nada a mi, aunque así me veo más guapo jajaja.

Aqui te dejo tambien las gráficas de entrenamiento.




Esta es la imagen del workflow  y la configuración



Tercer entrenamiento y el mejor para una rtx3060 12gb


Tardó 8 horas, las justas que ocupo en la noche para dormir.

RESULTADOS

Este workflow me lo encontré en una publicación de Reddit, en donde comparten un workflow mucho menos pesado que el primero, lo voy a probar.

Este es el workflow DESCARGA. Te va a descargar un archivo de texto, sólo tienes que editar el nombre quitando el .txt y deja conterminación JSON.

En la publicación de reddit puedes seguir los pasos para ponerlo a funcionar.

Utilicé una muestra completamente diferente a 720 pixeles

Las imagenes, aunque fueron menos (15 imagenes) son mucho más variadas y eso ayudó muchisimo al resultado:


Resultado


Este si se parece mucho más a lo que soy yo. (la imagen puede mejorar mucho más con algunos nodos de upscale y de retoque de rostro)

Te comparto la curva de aprendizaje que se manejó en este tercer intento. Como puedes ver la última gráfica del último entrenamiento es una gráfica perfecta de entrenamiento.







Share:

jueves, 11 de septiembre de 2025

Modelo flux que funciona mejor en una RTX 3060 12gb y 16 ram

 En esta publicación les presento algunas pruebas que he hecho con la terjeta RTX 3060 12gb al utilizar los modelos de flux sobre el programa comfyUI.

Estas pruebas fueron hechas en windows11. Cada prueba la hice reiniciando la pc para que no quedara congelada la ram.

La idea es encontrar el workflow que funcione mucho mejor para esta configuración tan limitada para la creación de imagenes con Inteligencia Artificial.

Este fue el prompt que utilicé: Hyperrealistic cinematic painting of a young pre-Hispanic Aztec warrior, 25 years old, athletic build, tan skin, intense and serious expression, standing on a rocky cliff under a vibrant blue sky with white clouds. He wears a traditional blue tunic with golden ornaments, a white loincloth, and ancient leather sandals. His bare chest shows a detailed eagle tattoo in the center, symbolizing strength. He has long straight black hair tied with a fabric band and is wearing handcrafted bamboo-style wooden glasses. In his right hand he holds a decorated spear, while his left arm is stretched out as if ready for battle. A majestic white eagle with blue wings is perched proudly on his shoulder. The scene is illuminated with warm cinematic lighting, with sharp focus on the face, bamboo glasses, tattoo, and fabric textures. Highly detailed skin, fabric, wood, and feathers, epic and dramatic atmosphere, character concept art style, vibrant and colorful with shades of green, yellow, red, and blue.

Flux1-dev.sft

Tardó 24 minutos en realizar una imagen. Tuve que bajar la resolución a 720 x 480, y cambiar weight_dtype por fp8_e5m2  por fp8_e4m3fn_fast para que no se cayera.


Flux1-dev-fp8.safetensors

2 minutos con 7 segundos. Pf quedé impresionado.

A tomar en cuenta con la configuración, cambie el weight_dtype por fp8_e5m2.


Flux1-schnell.safetensor

Resolución 480 x 720, No corrió. (Para correr esta versión tienes que bajar tus imagenes hasta 512 x 512 o 480 x 480)


Versiones GGUF

Flux1-dev-q8_0.gguf

2 minutos con 95 segundos. La versión q8 es la más parecida al modelo origina Flux1-dev y la verdad los tiempos si difieren mucho (casi 22 minutos de diferencia).


Leí en muchas publicaciones en internet que el modelo q5 era el que más se adaptaba a la tarjeta rtx 3060 12 gigas

Flux1-dev-q5_0.gguf

2 minutos 31 segundos. Pero la imagen fue un desastre con los mismos parametros que las anteriores



Conclusión: Los modelo Flux1-dev-q8 y Flux1-dev-fp8 son los que mejor funcionanen la tarjeta RTX 3060 12 gb con 16 ram. 

IMPORTANTE: Utilice el Lora Flux Turbo

- El wordflow aquí te lo dejo de regalo:

Copia la imagen en tu canvas.


Cualquier duda en los comentarios. 


Share: