Note di regia di "Optogramma"
Il titolo rimanda all’optografia forense, una pratica diffusasi ed esauritasi nel XIX secolo, che tentava di individuare un processo per recuperare e fissare l’ultima immagine registrata dall’occhio prima della morte. Gli scatti presenti nel video appartengono a Giovanni Tomatis, cineoperatore del muto torinese che ha collaborato a opere come Cabiria (G. Pastrone, 1914) e Maciste (G. Pastrone, 1915), i quali alternano materiale backstage di queste storiche pellicole a visioni paesaggistiche urbane e rurali. Il comune di Dogliani, dove Tomatis è vissuto e in cui è conservato il suo archivio, ha messo a disposizione circa trecento foto, delle quali ne sono state scelte ventiquattro. Il processo di animazione, elaborato con AI come Stable Diffusion e Looking Glass, porta le fotografie, dapprima fisse e nitide, a fondersi in un immaginifico amalgama indistinto e amorfo che rispecchia la volontà di riflettere sulla graduale corrosione cui la memoria sottopone gli eventi. L’essere umano, infatti, trattiene sulla retina l’immagine di un corpo, subito ben definita, poi sempre più sbiadita e confusa a mano a mano che il ricordo si allontana dall’episodio che lo ha generato. L’intenzione era di riuscire a rendere visibile lo scarto, il processo di degradazione per cui l’oggetto originale della memoria si deforma in un’immagine capace di sussistere indipendentemente dal suo referente.
Strumenti e Pipeline Tecnica
Per la realizzazione di questa animazione è stato implementato un sistema a base di AI utilizzando ComfyUI (1) , un software opensource basato sull'architettura a nodi che consente la manipolazione avanzata di immagini e video attraverso l’utilizzo di modelli basati su Stable Diffusion (2) .
Il processo di produzione ha seguito questi passaggi tecnici:
-Partendo da immagini di archivio con un determinato stile è stato allenato un modello personalizzato, addestrato specificamente su questo dataset tramite OneTrainer (3) , garantendo coerenza stilistica e tematica con il materiale sorgente.
-Per creare transizioni fluide tra i frame generati, è stato implementato un sistema di frame interpolation attraverso l'estensione ComfyUI-Frame Interpolation (4) , che ha permesso di ottenere collegamenti senza soluzione di continuità tra le immagini chiave.
-La sequenza risultante è stata quindi processata con AnimateDiff, nella versione ComfyUI-AnimateDiff-Evolved (5) , un modello specializzato nella generazione di movimento coerente e temporalmente stabile per le animazioni AI-generated. Tutto il progetto è stato quindi sviluppato, almeno nelle sue parti di animazione, utilizzando soltanto software Open Source e gratuiti.
Luca Delpiano