Esperimento con ComfyUI, WAN2.2 e RIFE: generare video fluidi da keyframe AI
Oggi ho fatto un esperimento interessante con un workflow ibrido in ComfyUI, per generare un breve video esteso a partire da clip AI. L’obiettivo era testare la coerenza tra segmenti indipendenti e migliorare la fluidità in post-produzione.
Il processo si è articolato così:
- ho creato una modella di base con Hidream e generato i fotogrammi chiave con Qwen Image Edit, guidati da pose maps;
- da ogni first/last frame ho generato 4 clip con WAN 2.2, che ho poi interpolato con RIFE per portare il framerate da 16 a 48 fps (3x).
Questo aumento di frame consente in fase di montaggio di accelerare leggermente il video, evitando l’effetto rallentato tipico dei modelli di generazione.
Non è ancora un risultato perfetto — la coerenza tra le transizioni va migliorata — ma il flusso sembra promettente per sviluppare animazioni più stabili e naturali basate su keyframe AI.
