Close

NEUTRO

Neutro è una performance audiovisiva multicanale che indaga il concetto della non appartenenza attraverso geometrie sonore che si evolvono nel tempo e nello spazio.

Il termine “neutro” (dal latino neutrum, accusativo di neuter, a sua volta composto di ne, “non”, e uter, “entrambi”) indica ciò che non appartiene né all’una né all’altra di due categorie intese come opposte. Ho scelto di intitolare Neutro la mia performance audiovisiva in seguito ad una riflessione che ho fatto durante il mio primo periodo di permanenza all’istituto ZKM. La mia musica spesso si è portata con sé il problema dell’appartenenza. Il mondo della musica o meglio il mercato della musica, in questo periodo storico più che mai, ha bisogno di identificare precisamente un format di appartenenza delle opere musicali per poterle catalogare ed esporre al fruitore e consumatore. Questo ha fatto sì che regolarmente nell’atto compositivo ho accettato compromessi stilistici al fine di non “deludere” l’ascoltatore. Ritrovatomi nella vita dell’istituto e frequentando le mostre in programma nel mio periodo di permanenza (aprile – giugno 2017), mi sono reso conto che tutte le mie sfumature compositive avrebbero potuto coesistere senza per forza dover essere isolate e separate per i diversi contesti di fruizione. Ho avvertito che l’opera d’arte ovvero il risultato finale del processo compositivo, pur avendo tanti livelli di lettura ha necessità di esistere nella purezza originaria per diventare qualcosa di speciale. Sono conscio del fatto che questo processo “speciale” è una lettura personale e che può accadere solo in un luogo dove lo spettatore è attivo, dove esiste la fruizione dell’opera d’arte come volontà alla crescita, come mezzo di apertura al tono edonico personale. Ragionando sulle opere che per la mia formazione sono state più significanti, noto che sono caratterizzate da un’intuizione artistica superiore, da un messaggio forte e libero.

In quest’ottica e con questi stimoli ho lavorato a “Neutro”, cercando di riutilizzare ancora le stesse tecniche nell’ambito digitale che ho praticato durante i miei ultimi lavori ma cercando di rimescolarle per ottenere nuovi risultati. Provando a non pensare alla destinazione e al contesto finale e con una libertà di pensiero che mi ha permesso di spostare ancora un po’ il mio stesso confine. Cito una frase di Luciano Berio in cui spesso mi sono identificato:

“Forse la musica è proprio questo: la ricerca di un confine che viene continuamente rimosso.”

L’atto della composizione è stato come giocare in un campo libero con tutti i mezzi del mio background e rimanere imparziale rispetto al fine. Questo pensiero e questa prova non potevano che arrivare alla fine di un percorso accademico in cui ho visto nascere, crescere e maturare la mia estetica musicale e in un luogo come lo ZKM che fa dell’arte il motivo della sua esistenza.

Tecniche compositive (audio)

Il punto focale della ricerca timbrica che mi accompagna da qualche anno è l’idea che i suoni abbiano una vita. Voglio qui citare un pensiero a me caro di Eliane Radigue:

“…Credo che anche i suoni abbiano la loro personalità e questa dà il senso del tempo che è loro necessario. Ci sono suoni che hanno bisogno di tempo per raccontare la loro storia. Ce ne sono altri che sono un po’ più vivi, veloci. Cerco di rispettare il tempo dei suoni…”

Ogni suono preso singolarmente ha una propria vita e la composizione sta proprio nel far risplendere quella vita, organizzandola e associandola ad altri suoni. Non tutti i suoni quando sono associati creano un risultato positivo, quando due suoni si fondono e creano un buon prodotto succede una “magia”. Alla base di questa “magia” c’è la bravura di impadronirsi delle tecniche compositive elettroacustiche che permettono all’artista di avere una tavolozza di colori e azioni completa per esprimersi. Questo significa che il risultato è sempre direttamente legato all’utilizzo dei materiali e alla padronanza della tecnica che viene adoperata. La mia ricerca musicale elettronica si concentra nel lavorare nel dominio digitale, utilizzando tecniche “sperimentali” per arrivare a un risultato sonoro sinesteticamente organico. Mi piace l’idea di poter creare suoni che contengono espressione ed energia dinamica. Utilizzo il termine sperimentale per indicare tecniche di creazione o manipolazione sonora che non sono ancora di uso comune in questo momento storico, pur avendo anch’esse una lunga storia ben definita. Il termine sperimentale non si riferisce all’idea di essere in una fase “sperimentale” e quindi di non conoscere il risultato ma bensì viene utilizzato come etichetta che è diventata di uso comune per collocare opere musicali che utilizzano questo tipo di tecniche. Le pratiche sperimentali della musica elettronica sono state ampiamente esplorate e documentate ma necessitano ancora di una lunga fase di integrazione per poter entrare nel linguaggio musicale comune. Il risultato della mia attitudine di azione sul suono è comunque sempre identificabile nella mia estetica artistica; si può quindi affermare che c’è un fattore estetico percettibile che lega le mie produzioni musicali.

In Neutro ho lavorato la materia sonora ispirandomi ai processi utilizzati nell’arte visiva. Questa è una pratica che ho utilizzato nei miei ultimi lavori. Consiste nel creare il materiale sonoro con una visione “macro”, creare dei “colori” senza un fine specifico ma con delle idee e tecniche differenti e poi comporre porgendoli sulla “tela” in modo da creare disegni musicali. Questi disegni sono melodici, ritmici o statici. Applico su di loro un processo di iterazione e poi lavoro con processi musicali. Durante il primo mese di residenza nel mio atelier ho creato ed elaborato suoni utilizzando le tecniche digitali che negli ultimi anni ho approfondito maggiormente. Ho iniziato con alcuni suoni esplorandone il timbro. Da questo sono nate delle possibilità sonore; queste possibilità le ho registrate e fatte diventare sample audio (partendo dal pensiero di essere in grado di ricostruire lo stesso suono da capo). Questo è successo non solo con la sintesi ma anche lavorando con l’elaborazione del segnale. Una volta creata la mia tavola di colori sonori, con il processo dell’iterazione dei sample ho iniziato ad accostarli creando dei pattern primari che mi hanno poi portato alla stesura di una forma a sezioni. Le sezioni nella composizione sono così diventate quattro e si sviluppano con un processo di accumulazione.
I sample che ho composto hanno tutti lunghezze differenti, questo fa sì che suonando in loop si incontrano sempre in punti di lettura diversi. Il risultato di questa operazione è una poliritmia cangiante. Una volta costruito il canovaccio che regge la sezione, ho creato di conseguenza gli altri suoni a seconda delle diverse necessità, questa volta con uno scopo definito ovvero in funzione della composizione e in funzione del rapporto che si creava dalla fusione dei suoni. Ho cercato di utilizzare tutta la gamma audio disponibile e di accostare suoni per creare contrasti o unioni.

Le diverse tecniche digitali utilizzate per la creazione del materiale sonoro sono:

Sintesi FM
Eseguita con operator, sintetizzatore digitale di Ableton Live che combina il concetto di “modulazione di frequenza” con la sintesi sottrattiva e additiva classica. La tecnica di sintesi FM è stata inventata da John Chowning nel 1968/1969 presso la Stanford University, è una tecnica di sintesi sonora dove il timbro di una forma d’onda semplice viene modificato modulando la sua frequenza con una frequenza di modulazione, ottenendo una forma d’onda più complessa (più ricco spettralmente) ed un tono con un suono differente. Il mio sistema di approccio ad operator è stato quello di lavorare con forme d’onda sinusoidali, triangolari e rumore e in seguito agire sugli undici operatori disponibili modificandone le impostazioni nonché la loro interconnessione. Dal modo in cui i diversi operatori sono collegati dipendono i rispettivi ruoli di portante/i e modulante/i. Trovata la modulazione adatta e il numero di oscillatori utili alla costruzione del suono, sono andato definire il timbro finale con il filtro multimodo interno che offre una selezione multipla di filtri su modellazione analogica.

Sintesi per modelli fisici
Eseguita con Genesis, software sviluppato nei laboratori ICA-ACROE. Il termine “sintesi per modelli fisici” si riferisce a quei metodi attraverso i quali viene calcolata la forma d’onda del suono da generare. Questi metodi sono modelli matematici, dal momento che è un insieme di equazioni e algoritmi a simulare la sorgente fisica del suono. Genesis offre un ambiente di programmazione ad oggetti interattivo per la sintesi per modelli fisici. I modelli sono costruiti tramite dieci tipi di modulo fisico elementare che comprendono elementi di materiale e interazioni fisiche, tra cui: masse, punti fissi, elasticità, viscosità, collisioni e interazioni non lineari. Il software segue delle leggi fisiche semplificate per governare la produzione del suono, permette la simulazione dei modelli fisici costruiti e l’organizzazione di essi tramite un sequencer. Ho utilizzato Genesis per costruire un modello che esegua suoni percussivi; il modello è realizzato con dei moduli CEL impostati a diverse grandezze e ancorati al suolo con legami di tipo lineare. Nello specifico i CEL simulano il comportamento di un oscillatore il cui movimento viene smorzato dopo la sua eccitazione impulsiva. La caratteristica di questi suoni risiede nella chiarezza dei transienti d’attacco e nella ricchezza timbrica.

Elaborazione del segnale eseguita con Kyma Pacarana
Supercomputer per l’audio sviluppato da Symbolic Sound, sistema DSP che permette una programmazione ad oggetti e possibilità di combinazione di algoritmi per l’elaborazione del segnale. Ho utilizzato la Pacarana esplorando i moduli prototypes offerti dal software Kyma X, in particolare quelli dedicati alle elaborazioni spettrali. I moduli prototypes sono degli elaboratori o generatori di suono, si possono utilizzare in maniera preconfigurata oppure si può intervenire sulla loro programmazione interna.

Stretching audio
Il Timestretching è un processo audio che riguarda il cambio di velocità o della durata di un file audio indipendentemente dal cambio di intonazione dello stesso. In Neutro ho eseguito il timestretching dell’audio con l’algoritmo di stretching di Ableton live e con il software Paulstretch che permette di allungare la durata dei soundfile in maniera estrema tramite l’algoritmo Hyperstretch.

Filtraggi FFT
Eseguiti con MaxMSP tramite l’oggetto pfft~ che permette una esecuzione dei processi spettrali FFT. La trasformata veloce di Fourier consente di tradurre i dati audio dal dominio temporale nel dominio di frequenza, in cui è possibile manipolare direttamente lo spettro di un suono (le frequenze delle componenti di una porzione di audio). Questo tipo di tecnica risulta efficace per fare dei filtraggi molto dettagliati sul suono.

Granulazione sonora
Eseguita su MaxMSP con l’oggetto cm.gausscloud~ di Matthias W. Müller. La granulazione è quel processo mediante il quale il suono è generato tramite brevi e ravvicinate porzioni di suono dello stesso, queste piccole finestre di suono vengono chiamate grani. I grani possono essere combinati e riprodotti insieme a velocità, fase e volume variabili. L’oggetto external costruito da Müller è un oggetto per la granulazione di suoni preregistrati che utilizza una funzione di finestramento gaussiana calcolata all’interno dell’oggetto stesso. L’apertura della finestra gaussiana può essere liberamente manipolata in tempo reale tramite i valori alpha minimo e alpha massimo disposti all’ingressi dell’oggetto.

Utilizzo e scelta dei materiali (video)

Essendo Neutro una performance audiovisiva, il lato visuale costituisce il cinquanta percento del lavoro. Nella mia esperienza ho però appreso che in un rapporto audiovisivo il lato visuale diventa il focus su cui il fruitore si concentra maggiormente. Da precedenti lavori ho capito che nella fruizione dell’audiovisivo il lato musicale ha un impatto meno diretto rispetto al video. L’utilizzo di un video associato ad una composizione è d’altro canto molto utile per la diffusione e comprensione dell’opera. La musica, per quanto elaborata o complessa, sembra essere comunque sempre giustificata dalle immagini. Il risultato dell’unione dell’audio e del video è un interscambio di dati percettivi che si motivano e si completano a vicenda.

Per la parte visiva, la prima cosa a cui ho pensato per quest’opera è stata quella di utilizzare materiale di sintesi grafica e materiale video processato per creare un unico nuovo livello di fusione, come nell’audio. Nello sviluppo del video ho cercato di lavorare con processi che fossero direttamente legati al suono. Anche il video è costruito in quattro movimenti, ognuno del quale implementa una tecnica differente.

La prima sezione è costruita con figure geometriche generate con OpenGL a cui viene mescolato un video che prende la funzione di texture. Il video è una microvisione di un tronco su cui è sbocciata una piantina selvatica avvolta da una ragnatela. Il video è statico e il movimento è creato dal vento. La figura geometrica si muove tramite un envelope follower, seguendo dunque la dinamica del flusso audio.

La seconda sezione si basa sull’elaborazione di un video precedentemente preparato. Un blend creato con tre video presi dalla biblioteca digitale non profit archive.org, una sorta di found footage costruito con:

Symphonie diagonale di Viking Eggeling artista svedese di origini tedesche, pittore e regista legato al dadaismo e all’arte astratta. Sinfonia diagonale del 1924 è uno dei primi film appartenenti al genere della musica visiva. Un film astratto di circa 7 minuti, una sorta di “sinfonia visiva” o “musica ottica”, un vero modello di cinema sperimentale.

Twenty Dollar Miracle un fashion film degli anni settanta prodotto da National Cotton Council Of America.

Civil Defense Scenes un film del 1956 sulla difesa civile nell’Indiana, prodotto dall’esercito degli Stati Uniti.

L’elaborazione consiste nel ritagliare porzioni del video e organizzarle a blocchi nello spazio visivo. Le porzioni di video si compongono in maniera orizzontale e verticale, il numero dei blocchi cambia durante lo scorrimento delle scene. Le porzioni di video all’interno dei blocchi sono costantemente mosse da un envelope follower che, seguendo il flusso audio, sposta l’offset dell’immagine.

La terza sezione è basata sulla mescolanza del video di found footage precedentemente preparato e già utilizzato nella seconda sezione e colori generati con rumore. Il risultato è uno shuffling del video, ancora una volta organizzati in blocchi nell’area visiva ma portati in questa sezione su un nuovo livello cromatico. Il video viene sottoposto ad un filtro che ne fa risaltare solo il profilo. I blocchi di video proiettati nello spazio visivo hanno diverse grandezze (altezza e larghezza) e si muovono in funzione del flusso audio in ingresso grazie all’envelope follower. Lo sfondo su cui vengono proiettati i blocchi è nero per le prime due scene, mentre bianco per le altre sei scene.

Il quarto movimento è basato sulla costruzione di colori generati con il rumore, proiettati nello spazio visivo. I colori sono organizzati in blocchi o linee e non sono sincronizzati con l’audio. Questa sezione ha delle indicazioni scritte in precedenza per cambiare la velocità di generazione del rumore nelle diverse scene. Lo sfondo su cui vengono generati i colori, è bianco per le prime cinque scene della sezione e nero per le ultime due. Per le prime scene della sezione ho utilizzato solo il bianco e il nero per poi evolvere gradualmente al colore, così come le forme in principio sono sfocate e si evolvono man mano nel dettaglio.

 

Setup della performance

Il lato musicale della performance viene gestito con Ableton live, una digital audio workstation che grazie alla sua modalità session view permette al performer di proporre un’azione live con un routing totalmente programmabile. Con Ableton live è possibile gestire ed organizzare del materiale audio precedentemente preparato per richiamarlo e modificarlo in tempo reale. Questo tipo di approccio mi ha permesso di organizzare tutti i soundfile necessari per la performance ma al tempo stesso mi lascia una libertà espressiva per l’esecuzione di essi. Ableton Live viene controllato tramite due strumenti:

– Push II hardware sviluppato da Ableton che permette di gestire qualsiasi parametro di Live senza dover intervenire sul software.

– Lauchcontrol XL MIDI controller sviluppato da Novation che mi permette di modificare i cursori del volume delle singole tracce di Ableton Live e di mandare dei messaggi MIDI alla patch di Jitter-MaxMSP.

La parte visuale di Neutro è stata sviluppata con Jitter-MaxMSP 7 linguaggio di programmazione ad oggetti di Cycling74. Jitter permette un tipo di programmazione aperta e slegata dal tempo, è possibile costruirsi dei sistemi che interagiscono con il segnale audio in tempo reale. Per gestire il progetto di Ableton Live e la patch di Jitter-MaxMSP utilizzo due laptop e due schede audio. Ableton Live interagisce con la patch di Jitter tramite dei segnali MIDI e tramite dei segnali audio inviati con il formato ADAT. La scheda audio connessa al progetto di Ableton Live viene utilizzata come output: quattro uscite audio analogiche inviano al mixer i relativi segnali destinati ai quattro altoparlanti, due uscite audio attraverso la porta ADAT e la porta output MIDI inviano segnali per la sincronizzazione audio/video. La scheda audio collegata al laptop su cui viene eseguita la patch di Jitter è impiegata per la ricezione dei segnali, utili per il sincrono e per la gestione del video. Il segnale output video della patch di MaxMSP viene inviato al proiettore.

SIMONE SIMS LONGO CV