Guía definitiva para optimizar Stable Diffusion XL
Descubre como obtener la mejor calidad y el mayor rendimiento en SDXL con cualquier tarjeta gráfica.
Introducción
En este artículo vamos a optimizar Stable Diffusion XL, tanto para utilizar la menor cantidad de memoria posible como para obtener el máximo rendimiento y generar imágenes de manera más rápida. Conseguiremos generar imágenes con SDXL utilizando tan solo 4 GB de memoria, por lo que será posible utilizar una tarjeta gráfica de gama baja.
Vamos a utilizar la librería diffusers de Hugging Face ya que este blog está orientado al scripting/desarrollo. Aún así, aprender las diferentes técnicas de optimización y cómo interactúan entre ellas nos servirá para sacarle partido en todo tipo de aplicaciones, como por ejemplo Stable Diffusion web UI de Automatic1111 o, especialmente, ComfyUI.
El artículo puede parecer largo y denso, pero no tienes por qué leerlo entero del tirón. Mi objetivo es que conozcas las distintas técnicas de optimización que existen y que aprendas cuándo y cómo utilizarlas y combinarlas, aunque algunas de ellas ya suponen una diferencia sutancial por sí solas.
Puedes saltar directamente a las conclusiones donde encontrarás una tabla resumiendo todas las pruebas, así como sugerencias para cuando buscas calidad, velocidad o capacidad de ejecutar el proceso de inferencia con limitaciones de memoria.
Metodología
Para las pruebas he utilizado la plataforma RunPod, generando un GPU Pod en Secure Cloud con una tarjeta gráfica RTX 3090. Aunque el Secure Cloud es un poco más caro que el Community Cloud ($0.44/hr vs $0.29/hr), me parecía más apropiado para hacer las pruebas.
Esta instancia se ha generado en la región EU-CZ-1
con 24 GB de memoria VRAM (GPU), 32 vCPU (AMD EPYC 7H12) y 125 GB de memoria RAM (los valores de CPU y RAM no importan demasiado). En cuanto al template he utilizado RunPod Pytorch 2.1 (runpod/pytorch:2.1.0-py3.10-cuda11.8.0-devel-ubuntu22.04
), un template que tiene lo básico y nada más. La versión de PyTorch nos da igual porque vamos a cambiarla, pero este template ofrece Ubuntu, Python 3.10 y CUDA 11.8 de serie. En apenas 2 clicks y 30 segundos ya tenemos todo lo necesario.
Si vas a ejecutar el modelo en local, simplemente asegúrate de tener instalado Python 3.10 y CUDA o plataforma equivalente (en este artículo utilizaremos CUDA).
Todas las pruebas se han realizado dentro de un entorno virtual:
Instalando las siguientes librerías:
Las pruebas consisten en generar 4 imágenes y comparar diferentes técnicas de optimización, algunas de las cuales estoy bastante seguro de que no has visto anteriormente. Estas imágenes de distintas temáticas se generan con el modelo stabilityai/stable-diffusion-xl-base-1.0, utilizando únicamente un prompt positivo y una semilla preestablecida. El resto de parámetros se mantendrán por defecto: prompt negativo vacío, tamaño de 1024x1024
, valor CFG de 5
y 50
pasos (sampling steps).
Estas son las imágenes que se generan con todo por defecto:
Se comparan los siguientes resultados:
- Calidad percibida de las imágenes (espero ser un buen juez).
- Tiempo que tarda en generarse cada imagen, así como el tiempo total de compilación si lo hubiera.
- Cantidad máxima de memoria que se ha necesitado.
Cada prueba se ha ejecutado 5 veces y se ha utilizado el valor medio para las comparativas.
Las mediciones de tiempo se han realizado mediante la siguiente estructura:
Para saber la cantidad máxima de memoria que se ha utilizado, se incluye la siguiente línea al final del fichero:
Lo que encontrarás en cada prueba será el código mínimo necesario. Aunque cada prueba tiene su estructura, el código es más o menos de este estilo:
Para que las pruebas sean más realistas y no lleven tanto tiempo, la optimización FP16 será utilizada en todas las pruebas.
Muchas de estas pruebas se realizan utilizando pipelines de la librería diffusers
, para así abstraer complejidad y tener un código más limpio y sencillo. Cuando la prueba lo requiera se bajará el nivel de abstracción, pero a fin de cuentas siempre vamos a utilizar métodos proporcionados por esta librería. Además, los modelos siempre se carga en formato safetensors
mediante la propiedad use_safetensors=True
.
Las imágenes que verás en el artículo se muestran con un tamaño máximo de 512x512 para facilitar la lectura, pero puedes abrir la imagen en una nueva pestaña/ventana para verla en tamaño original.
Encontrarás todas las pruebas en ficheros individuales dentro del repositorio del blog en GitHub.
¡Empecemos!
Optimizaciones de base
Lo básico e imprescindible para comenzar, optimizaciones a nivel de librerías y modelos.
Versión de CUDA y PyTorch
Empecé esta prueba con la duda de si habría diferencia entre utilizar CUDA 11.8 o CUDA 12.1, así como posibles diferencias entre las distintas versiones de PyTorch, siempre por encima de la versión 2.0.
Tiempo inferencia | Memoria | |
---|---|---|
CUDA 12.1 + PyTorch 2.2.0 | 14.2s | 11.24 GB |
CUDA 12.1 + PyTorch 2.1.2 | 14.2s | 11.24 GB |
CUDA 11.8 + PyTorch 2.2.0 | 14.1s -0.7% | 11.24 GB |
CUDA 11.8 + PyTorch 2.1.2 | 14.1s -0.7% | 11.24 GB |
CUDA 11.8 + PyTorch 2.0.1 | 14.2s | 11.24 GB |
Pues... qué desilusión, todas tienen el mismo rendimiento. Las diferencias son tan pequeñas que tal vez desaparecen si hago un mayor número de pruebas.
Cuál utilizar: Aún así tengo una teoría. La versión 11.8 de CUDA ha estado entre nosotros más tiempo, por lo que tiene sentido que las librerías y aplicaciones desempeñen mejor en esta versión que en una más moderna. En cambio, en cuanto a PyTorch, cuanto más moderna sea la versión más funcionaliades debería ofrecer y menos fallos debería incluir. Por lo tanto, y aunque sea placebo, yo me quedo con CUDA 11.8 + PyTorch 2.2.0.
Mecanismos de atención
Antes había que optimizar los mecanismos de atención instalando librerías como xFormers o FlashAttention.
Si te preguntas por qué en este artículo no aparece mención a estas optimizaciones, es porque ya no hacen falta. Desde la llegada de PyTorch 2.0, la optimización de estos algoritmos está integrada en la propia librería a través de varias implementaciones (como estas dos mencionadas). PyTorch utilizará la implementación adecuada según los inputs y el hardware en uso.
FP16
Por defecto Stable Diffusion XL utiliza el formato de coma flotante de 32 bits (FP32) para representar los números con los que trabaja y realiza cálculos.
La pregunta obvia es... ¿se puede bajar la precisión? La respuesta es sí. Al utilizar el parámetro torch_dtype=torch.float16
, el modelo se carga en memoria en formato de coma flotante de media precisión (FP16). Para evitar realizar esta conversión constantemente podemos descargar el modelo en formato FP16, ya que se distribuye esa variante. Basta con incluir el parámetro variant='fp16'
.
Tiempo inferencia | Memoria | |
---|---|---|
FP32 | 41.7s | 18.07 GB |
FP16 | 14.1s -66.19% | 11.24 GB -37.8% |
Al trabajar con números que ocupan la mitad, el uso de memoria cae drásticamente y la velocidad con la que se realizan los cálculos aumenta considerablemente.
El único punto "negativo" es una pérdida de calidad en la imagen generada, pero es prácticamente imposible ver alguna diferencia porque FP16 sigue siendo suficiente.
Además, gracias al parámetro variant='fp16'
ahorramos espacio en disco ya que esta variante ocupa la mitad de tamaño (5 GB en vez de 10 GB).
Cuándo utilizar: Siempre.
TF32
TensorFloat-32 es un formato a medio camino entre FP32 y FP16, que se utiliza en algunas tarjetas gráficas NVIDIA (como los modelos A100 o H100) para realizar cálculos utilizando los tensor cores. Utiliza los mismos bits que FP32 para representar el exponente y los mismos bits que FP16 para representar la parte decimal.
A pesar de que en nuestro banco de pruebas (RTX 3090) no se pueden realizar cálculos con este formato, sucede algo curioso que seguro no te vas a esperar.
Para activar este formato numérico se utilizan dos propiedades: torch.backends.cudnn.allow_tf32
(que viene activada por defecto) y torch.backends.cuda.matmul.allow_tf32
(que habría que activarla manualmente). La primera activa TF32 en operaciones de convolución realizadas por cuDNN y la segunda activa TF32 en operaciones de multiplicación de matrices.
Que la propiedad torch.backends.cudnn.allow_tf32
esté activada por defecto sea cual sea tu tarjeta gráfica es un poco extraño, ¿verdad? Veamos qué ocurre si desactivamos esta propiedad asignándole el valor False
.
Además, y por curiosidad, he realizado pruebas utilizando una tarjeta gráfica NVIDIA A100 activando TF32.
Para utilizar TF32 hay que desactivar FP16, así que no podemos utilizar torch_dtype=torch.float16
ni tampoco variant='fp16'
.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
RTX 3090 - Desactivar TF32 | 14.2s +0.71% | 10.43 GB -7.21% |
Tiempo inferencia | Memoria | |
---|---|---|
Base (FP32) | 34.4s | 18.07 GB |
A100 - TF32 | 13.7s -60.17% | 18.07 GB |
A100 - FP16 | 6.3s -81.69% | 11.24 GB -37.8% |
Utilizando una RTX 3090, si desactivamos la propiedad torch.backends.cudnn.allow_tf32
disminuye el uso de memoria en un 7%. ¿Por qué? No lo sé, en principio diría que es un bug ya que no tiene sentido activar TF32 en una tarjeta gráfica que no lo soporta.
En el caso de utilizar una tarjeta gráfica A100, utilizando FP16 conseguimos reducir el tiempo de inferencia y el uso de memoria de manera muy sustancial. El uso de memoria se puede reducir aún más desactivando torch.backends.cudnn.allow_tf32
al igual que en la RTX 3090. En cuanto a utilizar TF32, al estar a medio camino entre FP32 y FP16... no consigue batir a FP16.
Cuándo utilizar: En el caso de tarjetas gráficas no compatibles con TF32, claramente es buena idea desactivar la propiedad que viene activada por defecto. Utilizando una A100 tampoco merece la pena utilizar TF32 si podemos utilizar FP16.
Optimizaciones de pipeline
Estas optimizaciones modifican el pipeline para mejorar algunos aspectos.
Las tres primeras modifican cuándo se cargan en memoria los distintos componentes de Stable Diffusion para no cargar todos a la vez. Con estas técnicas se consigue una reducción en el uso de memoria.
Utiliza estas optimizaciones cuando sea necesario debido a limitaciones de la tarjeta gráfica y su cantidad de memoria. Si recibes el error RuntimeError: CUDA out of memory
en Linux, esta es tu sección. En Windows hay memoria virtual (Shared GPU memory) por defecto, y aunque es más difícil recibir este error, el tiempo de inferencia aumentará exponencialmente, por lo que ésta también es tu sección.
En cuanto a las tres últimas optimizaciones de esta sección, se trata de librerías que optimizan de diferentes maneras el pipeline para reducir el tiempo de inferencia lo máximo posible.
Model CPU Offload
Esta optimización proviene de la librería accelerate
. Cuando se ejecuta un pipeline se cargan todos los modelos en memoria. Mediante esta optimización le decimos al pipeline que mueva a la memoria únicamente el modelo que se necesite en cada momento. Este orden podrás encontrarlo en el código fuente del pipeline, en el caso de Stable Diffusion XL encontraremos la siguiente línea:
El código para implementar Model CPU Offload es bastante sencillo:
Gracias a Terrence Goh que me recordó a través de Ko-fi que no debemos mover el pipeline a la tarjeta gráfica utilizando to('cuda')
, como en las otras optimizaciones. La optimización se encargará de hacerlo automáticamente cuando sea necesario.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Model CPU Offload | 16.3s +15.6% | 5.59 GB -50.27% |
Utilizar esta técnica va a depender de la tarjeta gráfica con la que contemos. Nos será útil si nuestra tarjeta gráfica tiene 6-8 GB de memoria ya que el consumo de memoria se reduce exáctamente a la mitad.
En cuanto al tiempo de inferencia no se ve tan perjudicado como para que sea un problema.
Cuándo utilizar: Cuando necesitemos reducir el consumo de memoria. Como el componente que más memoria utiliza es el predictor de ruido (U-Net), no conseguiremos reducir más aún el consumo de memoria aplicando optimizaciones al VAE.
Sequential CPU Offload
Esta optimización funciona de manera similar a Model CPU Offload, solo que es mucho más agresiva. En vez de mover componentes enteros a la memoria, se mueven submódulos de cada componente. Por ejemplo, en vez de mover el modelo U-Net entero a la memoria, se mueven ciertas partes mientras se trabaja con ellas, ocupando la mínima cantidad de memoria posible. Esto significa que si el predictor de ruido tiene que limpiar un tensor a lo largo de 50 pasos, los submódulos tienen que entrar y salir de la memoria 50 veces.
Se añade también con una sola línea:
Al igual que con Model CPU Offload, recuerda no utilizar to('cuda')
en el pipeline.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Sequential CPU Offload | 1m 4s +353.9% | 4.04 GB -64.06% |
Esta optimización pondrá a prueba nuestra paciencia. El tiempo de inferencia aumenta una barbaridad a cambio de reducir el uso de memoria lo máximo posible.
Cuándo utilizar: Si necesitas utilizar menos de 4 GB de memoria, utilizar esta optimización junto con VAE FP16 fix o Tiny VAE es tu única opción, pero mejor si no lo necesitas.
Proceso por lotes
Esta técnica es el resultado del aprendizaje obtenido en 2 artículos de este blog: Cómo implementar Stable Diffusion y PixArt-α con menos de 8GB de VRAM. En estos artículos encontrarás información sobre algunas líneas de código que utilizaré aquí pero no explicaré nuevamente.
Se trata de ejecutar los componentes por lotes, el problema es que el pipeline oficial no está implementado de manera óptima para reducir el uso de memoria al máximo. Cuando inicias el pipeline y solo deseas obtener los text encoders... no puedes.
Es decir, deberíamos poder hacer esto:
Pero no se puede. Cuando inicias el pipeline, éste necesita acceder a la configuración del modelo U-Net (self.unet.config.*
), así como a la del VAE (self.vae.config.*
).
Por lo tanto (y sin necesidad de crear un fork), vamos a utilizar los text encoders a mano sin depender del pipeline.
El primer paso es copiar la función encode_prompt
del pipeline y adaptarla/simplificarla.
Esta función se encarga de tokenizar un prompt y procesarlo para obtener los tensores de embedding ya transformados. Encontrarás una explicación de este proceso en este artículo.
El siguiente paso es instanciar todos componentes y modelos que necesitamos. También necesitaremos más adelante el garbage collector (gc
).
Y ahora queda unir estas dos partes. Llamamos a la función encode_prompt
y le pasamos el mismo prompt tanto al primer text encoder como al segundo. También le damos los componentes para que pueda utilizarlos.
Los tensores que obtenemos como resultado los guardamos en una variable para utilizarlos después.
Como ya tenemos todos los prompts procesados podemos eliminar de la memoria estos componentes:
Ahora vamos a crear un pipeline que tendrá acceso solamente al U-Net y al VAE, ahorrándo memoria al no tener que instanciar los text encoders.
El warm up de esta prueba se complica un poco al tener cada parte por separado. Aún así, haremos warm up del modelo U-Net mediante el siguiente código:
Utilizamos el pipeline para procesar los tensores de embedding que tenemos guardados del paso anterior. Recuerda que en esta parte el pipeline crea un tensor lleno de ruido y lo limpia a lo largo de 50 pasos, dejándose guiar por nuestros embeddings.
Como puedes ver, le hemos indicado al pipeline que nos devuelva el tensor que está en el espacio latente (output_type='latent'
). Esto lo hacemos porque de no ser así, se cargaría el VAE en memoria para devolvernos una imagen y esto ocasionaría que ambos modelos estarían ocupando recursos a la vez. Así que vamos a eliminar primero el modelo U-Net como hicimos con los text encoders:
Y ahora sí, convertimos en una imagen los tensores libres de ruido que tenemos almacenados:
Con Stable Diffusion XL utilizamos pipe.upcast_vae()
para mantener el VAE en formato FP32 porque en FP16 no funciona.
Este bucle se encarga de decodificar los tensores del espacio latente para convertirlos al espacio de imagen. Después, mediante el método pipe.image_processor.postprocess
, se convierten en una imagen y se guarda.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Proceso por lotes | 14.1s | 5.77 GB -48.67% |
Este es uno de los motivos por el que me animé a escribir este artículo. Sin penalización en tiempo de inferencia hemos conseguido reducir a la mitad el uso de memoria. Ahora podríamos incluso generar imágenes con una tarjeta gráfica con 6 GB de memoria. También se puede añadir el modelo refiner mediante el método Ensemble of Expert Denoisers y el consumo de memoria sería el mismo.
Cuándo utilizar: Es cierto que Model CPU Offload es solo una línea de código extra, pero hay un pequeño incremento en tiempo de inferencia. Por lo que, si no te importa escribir algo más de código, con esta técnica tendrás un control absoluto y mejor rendimiento.
Stable Fast
Stable Fast es un proyecto que acelera cualquier modelo de difusión mediante una serie de técnicas, como por ejemplo: trazar los modelos mediante una versión mejorada de torch.jit.trace, xFormers, implementación avanzada de Channels-last memory format, entre otras. La verdad es que han realizado un trabajo impresionante.
El resultado que prometen es un tiempo de inferencia de récord, batiendo con bastante diferencia al API torch.compile y poniéndose a la par de TensorRT. Lo más gracioso de todo es que, al tratarse de optimizaciones en tiempo de ejecución, no hace falta esperar decenas de minutos para realizar la compilación inicial.
Para integrarlo, primero instalamos la librería del proyecto además de Triton y una versión de xFormers compatible con la versión de PyTorch que estemos utilizando.
Y ahora sí, modificamos el script para importar y activar estas librerías y hacer uso de Stable Fast:
Además, este proyecto también destaca por su sencillez, unas cuantas líneas y todo en marcha. Veámos ahora si cumple con las expectativas.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Stable Fast | 8.4s -40.43% | 12.11 GB +7.74% |
Cumple sobradamente, se nota el gran trabajo que hay detrás de este proyecto.
El incremento de velocidad es de los más notables de este artículo. La primera imagen que generamos tarda un poco más (19s), pero no tiene mayor importancia si hacemos warm up como en estas pruebas.
El uso de memoria aumenta un poco pero es bastante asumible.
En cuanto al aspecto visual, la composición cambia ligeramente. En algunas imágenes incluso diría que se ha incrementado la calidad de ciertos elementos, así que... ver para creer.
Cuándo utilizar: Yo diría que siempre.
DeepCache
DeepCache promete ser una de las mejores optimizaciones que podemos implementar, sin apenas desventajas y además es sencilla de añadir. Se hace uso de un sistema de almacenamiento en caché para reutilizar las funciones de alto nivel además de actualizar las funciones de bajo nivel de una manera más eficiente.
Primero instalamos la librería necesaria:
Y después integramos el siguiente código en nuestro pipeline:
Hay dos parámetros que se pueden modificar para conseguir mayor velocidad, aunque introduciendo mayor pérdida de calidad en el resultado.
cache_interval=3
: Especifica cada cuántos pasos se actualiza la caché.cache_branch_id=0
: Especifica qué rama de la red neuronal es responsable de ejecutar los procesos de almacenamiento en caché (en orden descendente,0
es la primera capa).
Veamos el resultado con los parámetros recomendados por defecto.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
DeepCache | 5.7s -59.57% | 11.58 GB +3.02% |
Wow. Con una pequeña penalización en el uso de memoria, se consigue reducir a más de la mitad el tiempo de inferencia.
En cuanto a la calidad de imagen, habrás podido comprobar que cambia bastante y, lamentablemente, a peor. Dependiendo del estilo de la imagen importará más o menos, pero la desventaja ahí está (en imágenes de objetos parece no reducir mucho la calidad).
Aumentando el valor de cache_branch_id
parece que se obtiene un poco más de calidad visual, aunque puede que no la suficiente.
Cuándo utilizar: Ya que reduce tanto el tiempo de inferencia, es comprensible que reduzca un poco la calidad del resultado. Sin duda, para probar prompts o parámetros es una optimización muy útil. Para utilizarla en un proceso en el que buscamos un buen resultado... diría que no.
TensorRT
TensorRT es un entorno de ejecución y optimizador de inferencia de alto rendimiento creado por NVIDIA. Promete acelerar el proceso de inferencia de redes neuronales batiendo récords.
Pero ya de inicio tenemos un problema. Para las pruebas estamos utilizando pipelines de la librería diffusers
, y por el momento no existe un pipeline compatible con TensorRT para Stable Diffusion XL. Sí que existen pipelines comunitarios para Stable Diffusion 2.x (txt2img, img2img o inpainting). También he visto algunas cosas para Stable Diffusion 1.x, pero como decía, no para SDXL.
Por otro lado, en HuggingFace podemos encontrar el repositorio oficial stabilityai/stable-diffusion-xl-1.0-tensorrt. Contiene instrucciones para realizar el proceso de inferencia con TensorRT, pero lamentablemente se utilizan scripts bastante complejos y prácticamente imposible de adaptar para estas pruebas.
Los resultados se van a ver bastante distintos porque, para empezar, ni siquiera está disponible el mismo scheduler (Euler
) en los scripts que he utilizado. Aún así, he reutilizado todos los valores que he podido, incluyendo prompt positivo, la ausencia del prompt negativo, la misma semilla, el mismo valor de CFG y el mismo tamaño de imagen.
Te dejo las instrucciones para utilizar este script por si quieres indagar:
Tiempo compilación | Tiempo inferencia | |
---|---|---|
Base | 14.1s | |
TensorRT | 34m | 8.2s -41.84% |
Tras preparar los modelos (algo que lleva una media hora y solo ocurre la primera vez), el proceso de inferencia parece acelerarse bastante, consiguiendo generar cada imagen en apenas 8 segundos, a diferencia de los 14 segundos que tarda el código no optimizado. No puedo hablar del consumo de memoria porque diría que TensorRT utiliza otros APIs distintos.
Sobre la calidad de las imágenes... se ven asombrosas de serie.
Cuándo utilizar: Si en tu proceso puedes integrar TensorRT, adelante. Parece una buena optimización y al menos deberías probarla.
Optimizaciones de componentes
Estas optimizaciones modifican los distintos componentes de Stable Diffusion XL para mejorar su funcionamiento por varias vías distintas. Pueden parecer pequeñas mejoras pero todo suma.
torch.compile
Utilizando PyTorch 2 o superior podemos compilar modelos para obtener un mejor rendimiento gracias al API torch.compile. Si bien es cierto que la compilación lleva su tiempo, las sucesivas llamadas se beneficiarán de un extra de velocidad.
En versiones anteriores de PyTorch también se podían compilar los modelos con la técnica de tracing, a través del API torch.jit.trace. Esta compilación en tiempo de ejecución (just-in-time / JIT) es menos eficiente que el nuevo método, así que ya nos podemos ir olvidando de este API.
En el método torch.compile
, el parámetro mode
acepta los siguientes valores: default
, reduce-overhead
, max-autotune
y max-autotune-no-cudagraphs
. En teoría son distintos pero no he visto diferencia, así que vamos a utilizar reduce-overhead
.
Si utilizas Windows te llevarás una sorpresa que se explica por sí sola:
Vamos a evaluar tanto el tiempo que tarda en compilar el modelo como el tiempo que tarda cada sucesiva generación.
Tiempo Compilación | Tiempo inferencia | Memoria | |
---|---|---|---|
Base | 14.1s | 11.24 GB | |
torch.compile | 3m 34s | 12.5s -11.35% | 11.24 GB |
Una simple optimización que enseguida se vuelve rentable.
Cuándo utilizar: Siempre que vayas a generar las suficientes imágenes como para que haya merecido la pena el tiempo de compilación.
OneDiff
OneDiff es una librería de optimización compatible con diffusers
, ComfyUI y Stable Diffusion web UI de Automatic1111. El nombre significa literalmente: una línea de código para acelerar modelos de diffusión.
Utiliza técnicas como la cuantización, mejoras en los mecanismos de atención y compilación de modelos.
La instalación se realiza añadiendo un par de librerías, aunque si utilizas otra versión de CUDA o quieres utilizar otro método de instalación, consulta la documentación.
Los creadores también ofrecen una versión Enterprise que promete un 20% extra de velocidad (o incluso más), aunque no lo puedo comprobar y tampoco dan muchos detalles.
Al igual que torch.compile, el código necesario es una única línea que altera el comportamiento de pipe.unet
.
Vamos a ver si cumple con las expectativas.
Tiempo Compilación | Tiempo inferencia | Memoria | |
---|---|---|---|
Base | 14.1s | 11.24 GB | |
OneDiff | 1m 25s | 7.8s -44.68% | 11.24 GB |
OneDiff introduce un ligero cambio en la estructura de la imagen, pero es un cambio favorable. En la imagen de interior se puede apreciar cómo se arregla un fallo convirtiéndolo en una sombra.
El tiempo de compilación es muy bajo, bastante más rápido que torch.compile.
En cuanto al tiempo de inferencia se consigue una impresionante reducción del 45%, batiendo a todas las optimizaciones con las que compite (Stable Fast, TensorRT y torch.compile).
Sorprendentemente (y a diferencia de Stable Fast), no hay aumento en el uso de memoria.
Cuándo utilizar: ¿Siempre? Mejora la calidad visual del resultado, reduce casi a la mitad el tiempo de inferencia y la única penalización es una pequeña espera en el tiempo de compilación. ¡Qué gran trabajo!
Channels-last memory format
El formato de memoria channels-last organiza los datos de manera que los canales de color se almacenen en la última dimensión del tensor.
Por defecto el tensor tiene el formato NCHW
, que corresponden a las siguientes cuatro dimensiones:
- N (Number / Número): Cuántas imágenes generar al mismo tiempo (batch size).
- C (Channels / Canales): Cuántos canales tiene la imagen.
- H (Height / Altura): La altura de la imagen en pixeles.
- W (Width / Anchura): La anchura de la imagen en pixeles.
En cambio con esta técnica se reordenan los datos del tensor para que estén en formato NHWC
, poniendo el número de canales al final.
Se puede comprobar si el tensor se ha reordenado mediante la siguiente línea (poniéndola antes y después):
Aunque puede mejorar la eficiencia en algunos casos y reducir el uso de memoria, no es compatible con algunas redes neuronales e incluso podría empeorar el rendimiento. ¡Vamos a salir de dudas!
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Channels-last memory format | 14.1s | 11.24 GB |
El modelo U-Net de Stable Diffusion XL parece que no se beneficia de esta optimización, pero el conocimiento no ocupa lugar, ¿verdad?
Cuándo utilizar: Nunca, supongo.
FreeU
FreeU es la primera y única optimización que no mejora el tiempo de inferencia o el uso de memoria, si no la calidad del resultado.
Esta técnica equilibra la contribución de dos elementos clave en la arquitectura U-Net: las conexiones de omisión o skip connections (que introducen detalles de alta frecuencia) y los mapas de características del backbone (que aportan semántica).
En otras palabras, FreeU contrarresta la introducción de detalles poco naturales en las imágenes, ofreciendo resultados visuales más realistas.
Puedes jugar con estos valores aunque estos son los recomendados para Stable Diffusion XL. Más información en el readme del proyecto.
Nunca había probado FreeU y la verdad es que no esperaba este resultado. Me parecen imágenes bastante impactantes aunque la estructura sea algo distinta a la original. Parece como si la imagen fuera más fiel al prompt y se centrase en ofrecer la máxima calidad visual en vez de perderse en los pequeños detalles.
El único punto negativo que veo es que pierde algo de coherencia la imagen. Por ejemplo, el sofá tiene una planta encima y la abeja tiene 3 alas. No lo sé, Rick...
Cuándo utilizar: Cuando queramos obtener un resultado más creativo y con mayor calidad visual (aunque también depende del estilo que busquemos).
VAE FP16 fix
Como vimos en la optimización de proceso por lotes, el VAE que incluye Stable Diffusion XL de serie no funciona en formato FP16. Antes de decodificar imágenes, el pipeline ejecuta un método que fuerza al modelo a trabajar en formato FP32 (pipe.upcast_vae()
). Y tal como vimos en la optimización FP16, ejecutar un modelo en formato FP32 es un gasto innecesario de recursos.
El usuario madebyollin (creador también de TAESD, algo que veremos más abajo) ha creado una versión parcheada de este modelo para que funcione en formato FP16.
Solo tenemos que importar este VAE y reemplazar el original:
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
VAE FP16 | 13.9s -1.42% | 9.62 GB -14.41% |
No hay pérdida de calidad, las imágenes son prácticamente iguales.
En cuanto al uso de memoria se ha conseguido rascar casi un 15%, no está nada mal para este simple cambio.
Cuándo utilizar: Siempre, salvo que prefieras utilizar la optimización Tiny VAE.
VAE slicing
Cuando generamos varias imágenes al mismo tiempo (aumentando el batch size), el VAE decodifica todos los tensores al mismo tiempo (en paralelo). Esto incrementa considerablemente el uso de memoria. Para evitarlo, se puede utilizar la técnica de VAE slicing para decodificar los tensores uno por uno (en serie). Más o menos lo mismo que hicimos manualmente en la optimización Proceso por lotes.
Aunque se utilice, por ejemplo, un batch size de 1
, 2
, 8
o 32
, el consumo de memoria por parte del VAE será el mismo, a cambio de una pequeña penalización de tiempo que apenas se notará.
Cuando el batch size es 1
esta optimización no hace nada. Y ya que en estas pruebas estamos utilizando un batch size de 1
, nos saltaremos los resultados de la prueba para ver directamente el veredicto.
Esta optimización intenta reducir el uso de memoria cuando aumentas el batch size, que es precisamente lo que más aumenta el uso de memoria. Es una contradicción en sí misma.
Cuándo utilizar: Solamente cuando tengas un proceso bien establecido, de manera que puedas generar varias imágenes al mismo tiempo y la ejecución del VAE sea el cuello de botella. O sea, rara vez.
VAE tiling
Cuando generamos una imagen de gran resolución (4K / 8K), el VAE se convierte claramente en un cuello de botella. Decodificar una imagen de este tamaño no solo lleva varios minutos, si no que además utiliza una cantidad de memoria desorbitada. No es raro acabar recibiendo el infame error: torch.cuda.OutOfMemoryError: CUDA out of memory
.
Mediante esta optimización se divide el tensor en varias partes (como si fuesen baldosas), después se decodifican una a una y por último se vuelven a unir para formar la imagen. De esta manera el VAE no tiene que decodificar todo de golpe.
Pueden llegar a notarse las zonas donde se han unido estas partes debido a algunas diferencias en el color, pero no es común ni se percibe fácilmente.
Tiempo inferencia | Memoria | |
---|---|---|
Base | CUDA out of memory | |
VAE tiling | 7m 51s | 12.45 GB |
Esta optimización es bastante sencilla de entender: si necesitas generar imágenes de muy alta resolución y tu tarjeta gráfica no tiene memoria suficiente, ésta será la única opción para lograrlo.
Cuándo utilizar: Nunca. Las imágenes de muy alta resolución contienen fallos porque Stable Diffusion no ha sido entrenado para esta tarea. Si necesitas aumentar la resolución utiliza un upscaler.
Tiny VAE
En el caso de Stable Diffusion XL se utiliza un VAE de 32 bits con 50M de parámetros. Ya que este componente se puede intercambiar vamos a utilizar un VAE llamado TAESD. Este pequeño modelo de apenas 1M de parámetros es una versión destilada del VAE original que, además, es capaz de funcionar en formato de 16 bits.
¿Merece la pena sacrificar calidad de imagen para obtener más velocidad y menor uso de memoria? Veámoslo.
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
TAESD | 13.6s -3.55% | 7.57 GB -32.65% |
La reducción en el uso de memoria es bastante espectacular gracias a ser un modelo más pequeño y capaz de funcionar en 16 bits.
La reducción del tiempo de inferencia es insignificante.
¿Y qué hay de la pérdida de calidad? Pues como puedes comprobar, no se aprecia. Es cierto que cambia un poco la imagen, sobre todo parece que añade algo más de contraste y cambian un poco las texturas, pero sinceramente yo no sabría distinguirlos.
Cuándo utilizar: Si necesitas reducir el uso de memoria, siempre. Con este modelo y sin utilizar ninguna otra optimización, ya se consigue ejecutar el proceso de inferencia en una tarjeta gráfica de 8 GB. Si no estás forzado a reducir el uso de memoria, pues tampoco sería mala idea utilizarlo porque no parece afectar negativamente.
Optimizaciones de parámetros
En esta categoría modificaremos un par de parámetros para obtener un extra de velocidad a cambio de sacrificar calidad de imagen, con la expectativa de que no se note.
Stable Diffusion XL utiliza Euler
como sampler por defecto. A pesar de que hay unos más rápidos que otros, Euler
está en la categoría de samplers rápidos por lo que cambiarlo por otro no se consideraría una optimización.
Steps
Por defecto SDXL utiliza 50 pasos para limpiar un tensor lleno de ruido. A más pasos... más tiempo de inferencia, así que aquí hay margen de mejora. Mediante el parámetro num_inference_steps
podemos especificar cuántos pasos queremos utilizar.
Vamos a generar imágenes con los siguientes pasos: 30
, 25
, 20
y 15
. Utilizaremos el valor por defecto (50
) como base para la comparativa.
Por supuesto... a menos pasos, menor tiempo de inferencia. Lo que nos interesa es quedarnos en el rango de pasos donde la calidad y la estructura se mantenga lo máximo posible. De nada sirve ahorrar mucho tiempo si vamos a obtener imágenes dignas del museo de los horrores. Vamos a ver dónde está el límite.
Tiempo inferencia | |
---|---|
Base (50 pasos) | 14.1s |
40 pasos | 11.2s -20.57% |
30 pasos | 8.6s -39.01% |
25 pasos | 7.3s -48.23% |
20 pasos | 6.1s -56.74% |
15 pasos | 4.8s -65.96% |
Retrato: En 15 y 20 pasos la calidad no es tan mala, pero la estructura es distinta. A partir de 25 pasos me parece una imagen bastante correcta.
Interior: En 15 pasos aún no se obtiene la estructura deseada. En 20 pasos el resultado es bastante decente al tratarse de una imagen creativa, pero faltan algunos elementos. Así que aquí también considero que mínimo hay que hacer 25.
Macro: En la fotografía macro es sorprendente el nivel de detalle con tan solo 15 pasos. No sabría con cuál quedarme, todas son válidas y correctas.
3D: En una imagen estilo renderizado 3D hay demasiados defectos con pocos pasos, incluso se ve borrosa en ciertas zonas. Aunque la imagen en 30 pasos es decente, aquí me quedaría con el resultado tras 50 pasos (o puede que 40).
Así pues, pepende del estilo de imagen que estés generando puedes utilizar más o menos pasos, pero en general se obtiene bastante calidad con 25-30 pasos, lo que supone una reducción en tiempo de inferencia en torno al 40%, ¡lo cual es mucho!
Cuándo utilizar: Es una magnífica optimización cuando estás probando prompts o ajustando parámetros y quieres generar imágenes rápidamente. Cuando ya tienes todo ajustado, puedes ir en busca de la máxima calidad aumentando el número de pasos. Depende del caso de uso incluso también puede ser permanente.
Desactivar CFG
Como vimos en el artículo "Cómo funciona Stable Diffusion", la técnica de classifier-free guidance (CFG) se encarga de acercar o alejar al predictor de ruido de ciertas etiquetas.
Por ejemplo, si en el prompt positivo añadimos la palabra coche
y en el prompt negativo añadimos la palabra juguete
, el valor de CFG controla cuánto debe acercarse el predictor de ruido a las imágenes asociadas con el términocoche
y cuánto debe alejarse del territorio donde se encuentran las imágenes asociadas con la palabra juguete
. Es una manera muy efectiva de controlar el condicionamiento a la hora de generar imágenes.
Después, en el artículo "Cómo implementar Stable Diffusion", vimos como implementar la técnica de CFG y cómo introduce la necesidad de duplicar los tensores:
Esto quiere decir que el predictor de ruido tarda el doble de tiempo en realizar cada paso.
Durante los primeros pasos es indispensable tener CFG activo para obtener una imagen con buena calidad y fiel a nuestro prompt. Una vez que el predictor de ruido va por buen camino, ¿necesitamos seguir utilizando CFG? En esta optimización vamos a explorar qué ocurre cuando dejamos de utilizar CFG durante el proceso.
El código es sencillo, creamos una función que se encarga de desactivar el CFG (pipe._guidance_scale = 0.0
) cuando el número de pasos haya alcanzado el valor. Además, los tensores dejarán de estar duplicados a partir de este punto.
Esta función se ejecuta al final de cada paso en forma de callback, gracias al parámetro callback_on_step_end
. También hay que especificar los tensores que vamos a modificar dentro del callback mediante el parámetro callback_on_step_end_tensor_inputs
.
Vamos a explorar qué ocurre cuando dejamos de utilizar CFG en el último cuarto (75%) y en la segunda mitad del proceso (50%).
Tiempo inferencia | Memoria | |
---|---|---|
Base | 14.1s | 11.24 GB |
Disable CFG 75% | 12.6s -10.64% | 11.24 GB |
Disable CFG 50% | 11.2s -20.57% | 11.24 GB |
Como era de esperar, desactivar CFG al 50% produce una reducción del 25% en el tiempo de inferencia de cada imagen (no del total, porque la carga de modelos también cuenta). Esto se debe a que si realizamos 50 pasos con CFG activo, en realidad el modelo limpia 100 tensores. En cambio, utilizando esta optimización, el modelo limpia 50 tensores en los primeros 25 pasos y la mitad (25 tensores) en los últimos 25 pasos. Así que... 75/100 equivale a saltarse un 25% del trabajo. En el caso de desactivar CFG al 75%, la reducción es del 12.5% en cada imagen.
En cuanto a la calidad del resultado, parece que baja un poco pero no demasiado. Esto también puede deberse a no haber utilizado un prompt negativo, que es la principal ventaja de utilizar CFG. Al utilizar mejores prompts seguro que aumenta la calidad. Al 75% es prácticamente imperceptible.
Cuándo utilizar: Agresivamente, cuando quieras generar imágenes de manera más rápida y no te importe perder una pizca de calidad (por ejemplo, para probar prompts o parámetros). Al desactivar CFG un poco más tarde, la velocidad aumenta sin sacrificar calidad.
Refiner
¿Y qué hay del modelo refiner? En todo momento hemos optimizado el modelo base, pero una de las principales ventajas de Stable Diffusion XL es que cuenta con un modelo especializado que refina los pequeños detalles finales. Este modelo incrementa notablemente la calidad del resultado.
Por defecto, el modelo base utiliza 11.24 GB
de memoria. Al utilizar también el modelo refiner, los requerimientos de memoria suben hasta 17.38 GB
. Pero recuerda, la mayoría de optimizaciones también se pueden aplicar a este modelo ya que cuenta con los mismos componentes (excepto el primer text encoder).
El warm up utilizando el modelo refiner se complica un poco al tener que calentar 2 modelos distintos. Para ello, obtenemos el resultado del modelo base y lo pasamos por el modelo refiner:
El modelo refiner se puede utilizar de dos maneras distintas, así que vamos a verlas individualmente.
Ensemble of Expert Denoisers
El método Ensemble of Expert Denoisers se refiere al enfoque en el cual comienza la generación de una imagen con el modelo base y termina mediante el modelo refiner. Durante todo el proceso no se genera ninguna imagen, si no que el modelo base limpia el tensor durante una cantidad específica de pasos (un porcentaje del total), y después le entrega el tensor al modelo refiner para que concluya el trabajo.
Se podría decir que trabajan de manera conjunta para generar el resultado (base+refiner
).
En cuanto al código, el modelo base detiene su trabajo al 80% del proceso mediante el parámetro denoising_end=0.8
y devuelve el tensor gracias a output_type='latent'
.
El modelo refiner recibe este tensor mediante el parámetro image
(es irónico, pero no es una imagen). Después empieza a limpiarlo asumiendo que ya se ha realizado un 80% del trabajo, indicado por el parámetro denoising_start=0.8
. También especificamos nuevamente cuántos pasos tiene el proceso en total (num_inference_steps
) para que calcule cuántos pasos le quedan por limpiar. Es decir, si utilizamos 50 pasos con un cambio al 80%, el modelo base limpiará el tensor durante 40 pasos y el modelo refiner durante los últimos 10, refinando los detalles que falten por pulir.
Vamos a generar imágenes en 50
, 40
, 30
y 20
pasos, cambiando al modelo refiner en 0.9
y 0.8
.
Para tener una referencia, también se incluirá la imagen que se ha utilizado como base para todas las comparativas (solo modelo base, 50
pasos).
Tiempo inferencia | |
---|---|
Base | 14.1s |
50 pasos, 0.9 | 14.3s +1.42% |
50 pasos, 0.8 | 14.5s +2.84% |
40 pasos, 0.9 | 11.4s -19.15% |
40 pasos, 0.8 | 11.5s -18.44% |
30 pasos, 0.9 | 9s -36.17% |
30 pasos, 0.8 | 9.1s -35.46% |
20 pasos, 0.9 | 6.2s -56.03% |
20 pasos, 0.8 | 6.3s -55.32% |
Sin duda utilizar el modelo refiner mejora mucho el resultado.
¿Cuándo es mejor que tome el relevo? Claramente se puede ver como los resultados en 0.9
son mejores que en 0.8
, lo que tiene sentido al tratarse de un modelo que refina los últimos detalles y no debería utilizarse para actuar sobre la estructura de la imagen.
En cuanto a la cantidad de pasos, mi percepción es que el modelo es capaz de ofrecer un resultado de altísima calidad visual sea cuál sea el número de pasos. Lo único que parece cambiar es la estructura/composición de la imagen, pero calidad visual es alta con tan solo 30 pasos.
Y sin que sea menos importante, también hay que tener en cuenta la considerable reducción de tiempo al bajar de 40 pasos.
Cuándo utilizar: Siempre que queramos utilizar el modelo refiner para aumentar la calidad visual de la imagen. En cuánto a los parámetros, podríamos utilizar 30 o 40 pasos siempre que no busquemos la mejor calidad posible. Por supuesto, siempre haciendo el cambio en 0.9
.
Image-to-image
El clásico img2img no es novedad en Stable Diffusion XL. Se trata del método en el cual se produce una imagen completa con el modelo base, para después entregarle al modelo refiner tanto esa imagen como el prompt original, para que genere una nueva imagen con estos condicionamientos.
En otras palabras, en img2img los modelos trabajan independientemente (base->refiner
).
Al ser dos procesos independientes es un poco más sencillo aplicar las optimizaciones de este artículo. Aún así, el código no es muy distinto, simplemente se genera una imagen y se utiliza como parámetro en el modelo refiner.
Vamos a generar imágenes con el modelo base en 50
, 40
, 30
y 20
pasos, para añadir después una combinación de 20
y 10
pasos extra mediante el modelo refiner.
Para tener una referencia, también se incluirá la imagen que se ha utilizado como base para todas las comparativas (solo modelo base, 50
pasos).
Tiempo inferencia | |
---|---|
Base | 14.1s |
50 base + 20 refiner | 16.8s +19.15% |
50 base + 10 refiner | 15.6s +10.64% |
40 base + 20 refiner | 14.1s |
40 base + 10 refiner | 12.9s -8.51% |
30 base + 20 refiner | 11.5s -18.44% |
30 base + 10 refiner | 10.5s -25.53% |
20 base + 20 refiner | 8.9s -36.88% |
20 base + 10 refiner | 7.9s -43.97% |
En modo img2img el modelo refiner no funciona tan bien.
Cuando utilizamos suficientes pasos con el modelo base, parece como el modelo refiner estuviera forzado a añadir detalles en algo que no lo necesita. Como decimos en nuestro mundo: si algo funciona, no lo toques.
En cambio, si utilizamos pocos pasos en el modelo base el resultado es algo mejor. Esto sucede porque con tan pocos pasos, el modelo base no es capaz de añadir los pequeños detalles y le da algo más de margen de trabajo al modelo refiner.
Aquí también hay que tener en cuenta la reducción de tiempo al disminuir los pasos. Si utilizamos muchos pasos la penalización es importante.
Cuándo utilizar: Lo primero es tener en cuenta que cuando utilizamos el modelo refiner es para exprimir al máximo la calidad visual. En este caso de uso conviene incrementar el número de pasos y por lo tanto el método "Ensemble of Expert Denoisers" es la mejor opción. Con pocos pasos tampoco creo que haya mejor calidad visual, ni tampoco aumenta la velocidad de generación con respecto al otro método. Por lo tanto, utilizar el modelo refiner en modo img2img queda en tierra de nadie, tiene sus ventajas pero no destaca en nada.
Conclusión
Cuando empecé este artículo no pensé que fuera a dar tanto de sí. Si has llegado aquí directamente para ver las conclusiones, no te culpo. En cambio, si has echado un ojo a todas las optimizaciones te felicito y agradezco tu perseverancia (toca el emoji para celebrarlo). Espero que hayas aprendido al leerlo tanto como yo al escribirlo.
Según el objetivo y el hardware disponible necesitaremos aplicar unas optimizaciones u otras. Vamos a resumir en una tabla todas las optimizaciones y qué tipo de mejoras (o penalizaciones) introducen.
Las que aparecen como "neutral" son, en teoría, un cambio favorable en esa categoría pero es interpretable o solo durante algún caso de uso concreto.
Optimización | Altera resultado | Compilación | Calidad | Tiempo | Memoria |
---|---|---|---|---|---|
Versión de CUDA y PyTorch | |||||
Mecanismos de atención | |||||
FP16 | |||||
TF32 | |||||
Model CPU Offload | |||||
Sequential CPU Offload | |||||
Proceso por lotes | |||||
Stable Fast | |||||
DeepCache | |||||
TensorRT | |||||
torch.compile | |||||
OneDiff | |||||
Channels-last memory format | |||||
FreeU | |||||
VAE FP16 fix | |||||
VAE slicing | |||||
VAE tiling | |||||
Tiny VAE | |||||
Steps | |||||
Desactivar CFG | |||||
Ensemble of Expert Denoisers | |||||
Image-to-image |
Si valoras el esfuerzo que he dedicado en este artículo y quieres contribuir para que pueda destinar más tiempo al blog y a crear nuevos proyectos relacionados con la inteligencia artificial, puedes apoyarme en Patreon o a través de Ko-fi. Si te lo puedes permitir, ¡muchas gracias!
El menor tiempo de generación con el modelo base sin apenas pérdida de calidad, se consigue utilizando OneDiff + Tiny VAE + Desactivar CFG al 75% + 30 Steps.
Con una RTX 3090 conseguimos generar imágenes en tan solo 4.0s
con un consumo de memoria de 6.91 GB
, así que incluso puede ejecutarse en tarjetas gráficas con 8 GB de memoria.
Es posible añadir DeepCache para acelerar el proceso aún más. El problema es que no es compatible con la optimización Desactivar CFG y, al desactivarla, la velocidad final termina aumentando.
Utilizando esta misma configuración, una tarjeta gráfica A100 genera imágenes en 2.7s
. Y con la flamante H100, el tiempo de inferencia es de tan solo 2.0s
.
Al utilizar Sequential CPU Offload el cuello de botella se encuentra en el VAE. Por lo tanto, combinar esta optimización con VAE FP16 fix o Tiny VAE resultará en un uso de memoria de 2.56 GB
y 0.68 GB
respectivamente. El uso de memoria es ridículamente bajo pero el tiempo de inferencia te animará a adquirir una nueva tarjeta gráfica con más memoria.
Utilizando la optimización Proceso por lotes disminuye el uso de memoria a 5.77 GB
, por lo que es posible generar imágenes con Stable Diffusion XL en tarjetas gráficas con 6 GB de memoria. No hay pérdida de calidad ni aumenta el tiempo de generación. Y si queremos utilizar el modelo refiner no hay problema, el consumo de memoria es el mismo.
Otra opción es utilizar Model CPU Offload que también reduce el consumo de memoria lo suficiente, esta vez con una pequeña penalización en tiempo.
Con ambas técnicas podemos acelerar un poco más proceso optimizando el VAE utilizando VAE FP16 fix o Tiny VAE.
Y recuerda que todavía se pueden aplicar otras optimizaciones para reducir más aún el tiempo de generación.
Al romper la barrera de los 6 GB se abren nuevas opciones de optimización.
Como vimos anteriormente, mediante OneDiff + Tiny VAE el uso de memoria baja hasta 6.91 GB
y se consigue el menor tiempo de inferencia posible. Así que si tu tarjeta gráfica tiene un mínimo de 8 GB esta es probablemente tu mejor opción.
Puedes apoyarme para que pueda dedicar aún más tiempo a escribir artículos y tener recursos para crear nuevos proyectos. ¡Gracias!