Mapping con ComfyUI
Mapping con dos PCsHerramientas: TouchDesigner, ComfyUI, Resolume, After Effects
En mi ordenador se generaba el contenido desde TouchDesigner: una serie de clips en loop, con efectos y salida NDI Out. El segundo ordenador recibía esas señales y las mezclaba en Resolume junto a otros elementos visuales.
Los clips de video, inspirados en elementos del evento, los hice previamente en ComfyUI y después los manipulé en TouchDesigner para crear continuidad entre las distintas variaciones.
Creación de los clips en ComfyUI
Trabajé con un pipeline formado por Flux Krea, Flux Kontext y Wan 2.2. Esta combinación me permitió obtener imágenes consistentes, con un estilo realista, y convertirlas después en secuencias animadas en bucle.
Generación de las imágenes base
Los dos primeros ejemplos de debajo partieron de una fotografía (image-to-image). El tercero lo generé únicamente desde texto (text-to-image).
En todos los casos tuve que recortar la silueta y colocar un fondo verde para poder trabajar después con transparencia.
Animación con Wan 2.2
Convertí las imágenes en vídeo mediante el flujo image-to-video de Wan 2.2, generando varias versiones a partir de cada base. Esa variedad me permitió, más adelante en TouchDesigner, reorganizar clips y velocidades para crear secuencias más vivas.
En After Effects hice la post-producción: keying del fondo verde y correcciones específicas de cada clip. Algunos presentaban reflejos o artefactos que solo se podían solucionar frame a frame.