A la base j'était inspirer des processus de Iannis Xenakis. En essayant d'utiliser un ensemble de processus en transformant des éléments visuels en sons. Avec TouchDesigner un patch à convertit certaines données vidéo en son et sont ravalées et digérées en MIDI pour pouvoir les remanipuler. L'objectif était de créer une connexion entre l'image et le son, pour rendre certains mouvements visuel audible.
La compo à été faite via Orca, Sunvox et SonicPi avec trois sessions d’enregistrement pour être rassembler en couche. Les datas qui avait été récupérer sont aussi ré-utilisées pour définir différents paramètres comme les notes, les octaves, la vélocité ou les fx utilisés. L’ensemble essaye de s'unir pour matérialiser la vision de la production visuel à la base où la musique essaye à son tour d’être vecteur d'une libération intérieure face à un système oppressif.
Voila voila, j'ai pas une technique de ouf donc on est pas sur une dinguerie mais c'était sympa comme expérience