Sei sulla pagina 1di 291

L'Auditorium che canta 2.

0
a cura di
Fabio De Sanctis De Benedictis

Istituto Superiore di Studi Musicali


“P. Mascagni”
Alta Formazione Artistica e Musicale
L’Auditorium che canta 2.0

Istituto Superiore di Studi Musicali


“P. Mascagni” di Livorno
ISBN 978-88-941522-1-0

Copyrigth c 2017 Istituto Superiore di Studi “Pietro Mascagni” di Livorno.


Il presente lavoro è rilasciato ai termini della licenza Creative Commons Attribuzione - Non
commerciale - Condividi allo stesso modo 3.0 Italia (CC BY-NC-SA 3.0 IT).
Per realizzare questo libro è stata utilizzata una piattaforma Linux e i seguenti software liberi:
LaTeX, Texmaker, LyX, LibreOffice, GIMP, PDFChain.
L’Auditorium che canta 2.0

a cura di
Fabio De Sanctis De Benedictis
Indice

Introduzione del curatore 1

Presentazione del Presidente dell’ISSM “P. Mascagni” di Livorno, Prof. Marco


Luise 3

Presentazione del Direttore dell’ISSM “P. Mascagni” di Livorno, Prof. Stefano


Guidi 5

I L’Auditorium che canta 7


1 Roberto Doati
Ricercare su 24 punti di fuga 9
1.1 L’occasione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 L’idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 La sorgente sonora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Le tecniche di trasformazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 La convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Ritardi ritmici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 La spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Bibliografia e sitografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 João Neves
Sensi Guitar 23
2.1 Da dove nasce la Sensi Guitar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Il concetto Sensi Guitar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Necessità e scopo del software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 L’idea dietro il brano di Suoni Inauditi . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 La spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3 Giorgio Zucco
Particles, per suoni di sintesi 29
3.1 Idea iniziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Sintesi per modelli fisici in Csound . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Note relative alla realizzazione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4 Struttura formale e descrizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4.1 Sezione 1: da 0’ a 1’15” . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.2 Sezione 2: da 1’15” a 1’40” . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.3 Sezione 3: da 1’40” a 3’00” . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.4 Sezione 4: da 3’ a 3’53” . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.5 Sezione 5: da 3’53” a 7’26” . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Cenni sulla fase di mixaggio, versioni del brano . . . . . . . . . . . . . . . . . . . 42

4 Fabio De Sanctis De Benedictis


L’elettronica in tempo reale in Balaenoptera, per clarinetto basso, suoni elet-
tronici e live electronics 45
4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Un po’ di storia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 L’interfaccia principale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4 I cinque effetti/player utilizzati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5 balaenoptera-rt-grain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.6 balaenoptera-player4ch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.7 balaenoptera-ircamverb-freeze . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.8 balaenoptera-rt-stretch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.9 balaenoptera-tap-transp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.10 Relazioni tra live electronics, parte elettronica e parte strumentale . . . . . . . . 56
4.11 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.12 Appendice 1: il codice di programmazione dell’oggetto coll . . . . . . . . . . . . 58
4.13 Appendice 2: elenco dei parametri delle formanti . . . . . . . . . . . . . . . . . . 61
4.14 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

5 Jorge Antunes
Anadiplosia para Tirzo: una Anadiplosi applicata alla struttura musicale. 65
5.1 La Retorica di Aristotele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2 Il genere Epidittico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Persuasione e seduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.4 Le espressioni figurate e il LIEM . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.5 Anadiplosi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.6 Tirso de Molina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.7 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.8 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

6 Jorge Antunes
Dossier M-8 : un contributo allo studio della storia della computer music
algoritmica brasiliana 71
6.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Project 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3 Fonti sonore e modalità di esecuzione . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.4 Problemi di densità e dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5 Dettagli sui 3 programmi di selezione . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6 Il lavoro, risultati e conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.7 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

7 Alberto Carretero
Tracciando ponti per la musica elettroacustica: Siviglia-Livorno 83
7.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.2 I seminari di Suoni Inauditi 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.3 Il concerto di Suoni Inauditi 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.4 Spherical Sights (2012) – Analisi tecnica ed estetica . . . . . . . . . . . . . . . . . 88
7.5 Indlandsis (2013) – Analisi tecnica ed estetica . . . . . . . . . . . . . . . . . . . . 90
7.6 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.7 Bibliografia e sitografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

8 Gianpaolo Antogirolami, Nicola Casetta


Note in margine al concerto di Suoni Inauditi 2017 95
8.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.2 Il programma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.2.1 Caratteristiche dello spazio esecutivo e scelta del programma: una relazione
biunivoca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.2.2 Saxatile di Jean-Claude Risset . . . . . . . . . . . . . . . . . . . . . . . . 97
8.2.3 Adaptive_Study#02-Symbolic Structures di Riccardo Dapelo . . . . . . . 97
8.2.4 >=< cpd (in two minds) di Nicoletta Andreuccetti . . . . . . . . . . . . . 99
8.2.5 Improvviso statico I di Carmine Emanuele Cella . . . . . . . . . . . . . . 99
8.2.6 Gli atomi che s’accendevano e radiavano di Andrea Agostini . . . . . . . 99
8.2.7 ANTIDINAMICA di Roberto Doati . . . . . . . . . . . . . . . . . . . . . 100
8.3 Note per l’interpretazione elettroacustica . . . . . . . . . . . . . . . . . . . . . . . 100
8.3.1 L’interprete elettronico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.3.2 Problematiche di interpretazione . . . . . . . . . . . . . . . . . . . . . . . 100
8.3.3 Gli ambienti esecutivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.3.3.1 Adaptive_study#2, symbolic structures (2016) di Riccardo Dapelo.101
8.3.3.2 ANTIDINAMICA (2016) di Roberto Doati . . . . . . . . . . . . 103
8.3.3.3 >=< c p d (in two minds) (2015) di Nicoletta Andreuccetti . . 105
8.3.3.4 Gli atomi che s’accendevano e radiavano (2009) di Andrea Agostini105
8.3.3.5 Improvviso statico I (2012) di Carmine Emanuele Cella . . . . . 108
8.3.4 La regia del suono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.3.5 Scheda tecnica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8.3.6 L’amplificazione dello strumento e la spazializzazione . . . . . . . . . . . . 112
8.4 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

II Mascagni, Cambini, Nardini Remix 117


9 Paolo Besagno
Largo IV – Mascagni Remix 2015. 119
9.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.2 Spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
9.3 I suoni di Largo IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
9.4 La patch di Pure Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
9.5 Note conclusive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

10 Enrico Francioni
Sixteen for Sixteen 133
10.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
10.2 Analisi del pezzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
10.2.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
10.2.2 Processo di strutturazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.2.3 Prima e seconda idea: sezioni, moti, modelli morfologici e tipologia spettrale144
10.2.3.1 Analisi della prima idea . . . . . . . . . . . . . . . . . . . . . . . 144
10.2.3.2 Analisi della seconda idea . . . . . . . . . . . . . . . . . . . . . . 151
10.2.4 Alcune relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
10.3 Processi e tecniche compositive . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
10.3.1 L’opportunità dell’auditorium e l’idea di partenza . . . . . . . . . . . . . 160
10.3.2 Aleatorietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
10.3.3 L’architettura generale dell’algoritmo scritto con Csound . . . . . . . . . 161
10.4 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
10.5 Bibliografia essenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
10.6 Sitografia essenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
10.7 Software essenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

11 Roberto Zanata
Suono e significato.
Alcune riflessioni scaturite prima-durante-dopo la composizione dell’opera
elettroacustica quadrifonica Voliamo felice 177
11.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
11.2 Musica, suono, linguaggio, significato . . . . . . . . . . . . . . . . . . . . . . . . . 178
11.3 Riflessioni a partire da Voliamo felice . . . . . . . . . . . . . . . . . . . . . . . . 181
11.4 Conclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
11.5 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

12 Valentino De Luca, Mariavaleria Palmisano, Antonio Scarcia


NEroMix : una composizione collaborativa come esperienza didattica 185
12.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
12.2 Il contesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
12.3 NEroMix : Concept, materiali e metodi . . . . . . . . . . . . . . . . . . . . . . . . 186
12.4 NEroMix per Suoni Inauditi 2015 . . . . . . . . . . . . . . . . . . . . . . . . . . 191
12.5 L’eredità di una esperienza compositiva: Liceo Scientifico . . . . . . . . . . . . . 192
12.6 L’eredità di una esperienza compositiva: Licei Musicali . . . . . . . . . . . . . . . 193
12.7 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

13 Alejandro Casales Navarrete


L’incanto lirico della Nona Sinfonia Concertante di Giuseppe Maria Cambini197
13.1 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

14 Francesco Bossi
Nardini Remiz#1 201
14.1 Il bando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
14.2 Lo strumento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
14.3 La spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.4 Il Concerto in Sol maggiore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
14.5 L’aspetto formale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
14.6 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

15 Massimo Varchione
Capriccio e Fuga – Ancora musica al quadrato? 207
15.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
15.2 La scelta dei materiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
15.3 Elaborazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
15.4 Montaggio e spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
15.5 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
15.6 Bibliografia e sitografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

16 Serena Tamburini
Arco Arcano (2016) 217
16.1 Progetto con vincoli e stimoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
16.1.1 Forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
16.1.2 Struttura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
16.1.3 Materiali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
16.2 Introduzione – Durata 22” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
16.2.1 Materiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
16.2.2 Sviluppo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
16.2.3 Spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
16.3 Prima parte – Durata 1’38”, da 22” a 2’05” . . . . . . . . . . . . . . . . . . . . . 219
16.3.1 Materiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
16.3.2 Sviluppo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
16.3.3 Spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
16.3.4 CSound: campione Cristalli della prima e terza parte . . . . . . . . . . 221
16.4 Seconda parte – Durata 2’45”, da 2’05” a 4’50” . . . . . . . . . . . . . . . . . . . 226
16.4.1 Materiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
16.4.2 Sviluppo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
16.4.3 Spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
16.4.4 CSound: esempio per la sintesi additiva della seconda parte . . . . . . . . 227
16.5 Terza parte – Durata 1’30”, da 4’50” a 6’20” . . . . . . . . . . . . . . . . . . . . . 231
16.5.1 Materiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
16.5.2 Sviluppo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
16.5.3 Spazializzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
16.6 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

Appendice: i programmi delle edizioni 2009-2017 237


Introduzione del curatore

A distanza di due anni da L’Auditorium che canta 1.0 è con soddisfazione che viene pre-
sentato il secondo volume, L’Auditorium che canta 2.0. Sono qui raccolti gli scritti di alcuni
dei compositori e degli interpreti che hanno partecipato alla stagione di concerti Suoni Inauditi
che l’Istituto Superiore di Studi Musicali “P. Mascagni” organizza ogni anno, giunta nell’Anno
Accademico 2016-2017 alla sua VIII edizione. All’interno di questo periodico appuntamento tro-
va posto la rassegna L’Auditorium che canta, destinata all’esecuzione di opere elettroacustiche
multicanale composte specificamente per l’impianto di diffusione sonora stabilmente installato
nell’Auditorium “Cesare Chiti” del nostro Istituto.1
Questo volume è diviso in due parti. Nella prima si prosegue sulla scia della precedente
edizione, con saggi di compositori invitati direttamente a scrivere opere destinate all’impianto
di diffusione sonora dell’Auditorium, che descrivono in vario modo e con dovizia di particolari
il lavoro svolto e le tecniche utilizzate; in questo filone possiamo inserire anche la traduzione di
due saggi di Jorge Antunes, che abbiamo potuto invitare in un prolungamento autunnale della
rassegna, per la quale il compositore brasiliano ha tenuto un concerto e una lezione-concerto.
Nella seconda parte si raccolgono le testimonianze di alcuni dei compositori selezionati a
seguito di vari Remix banditi dall’Istituto. Questi bandi richiedevano la composizione di opere
elettroacustiche multicanale per il nostro Auditorium, ispirate a vari compositori storici livornesi,
con il vincolo di utilizzare, liberamente, frammenti di registrazioni di loro composizioni. Sono
così nati il Mascagni Remix, il Cambini Remix e il Nardini remix, dal 2015 al 2017, per i quali
si propongono gli scritti di alcuni dei compositori selezionati.
Questo volume presenta anche altre novità. Una di queste è la collaborazione con il Con-
servatorio Superiore di Musica “Manuel Castillo” di Siviglia, realizzata grazie ai fondi Erasmus.
Tramite questa annuale e periodica collaborazione si è avuto un concerto di musica elettroa-
custica multicanale spagnola e una Master Class, descritti nel saggio di Alberto Carretero, che
saranno riproposti, in forma rinnovata, anche nel 2018.
Si è poi voluto affrontare il punto di vista dell’interprete, assente nella precedente edizione,
con un saggio di Gianpaolo Antogirolami e Nicola Casetta, protagonisti di un magistrale concerto
per sassofono ed elettronica multicanale, con opere di Risset, Dapelo, Doati, Andreuccetti, Cella,
Agostini.
Ancora nell’ambito dei Remix, il saggio di De Luca, Palmisano, Scarcia rappresenta un sin-
golare ed interessante unicum, relazionando un’esperienza compositiva collettiva di docenti e
studenti di Scuole Superiori per il Mascagni Remix, a ulteriore riprova, se ce ne fosse ancora
bisogno, della qualità della scuola italiana.
L’ordine degli scritti all’interno delle singole parti è approssimativamente di tipo cronologico,
che in qualche misura ha rappresentato anche un ordine soddisfacente dal punto di vista formale.
1 Per informazioni sulle specifiche tecniche dell’ impianto è possibile consultare l’Introduzione del curatore, in

De Sanctis De Benedictis, Fabio (cur.), L’Auditorium che canta 1.0, ISSM “P. Mascagni”, Livorno 2015, Internet:
https://drive.google.com/file/d/0B3MEy62wz8QDcm56MUlLT3Y4ZHM/view?pref=2&pli=1.

1
In conclusione un’Appendice riporta i programmi delle stagioni passate, rendendo giustizia a
quelle pregevoli iniziative, come ad esempio, sempre nell’ambito de L’Auditorium che canta, gli
interventi dei compositori Javier Torres Madonado e Marco Stroppa, dei quali per diverse ragioni
non è stato possibile ospitare un contributo in questa edizione. Come sarà possibile osservare,
oltre alla programmazione interessante e di qualità, numerose sono state le prime esecuzioni
assolute e le prime esecuzioni italiane, elettroniche e non, che pongono l’Istituto Superiore di
Studi Musicali “P. Mascagni” in prima linea, come lo è sempre stato, sul piano della ricerca, della
produzione e della promozione di nuove produzioni artistiche. Il lettore interessato potrà ascoltare
alcune di queste esecuzioni al seguente indirizzo: https://www.youtube.com/playlist?list=
PLkNQvFGl2Ps0Z3yYme0pRGImOlWONsBrk.

2
Presentazione del Presidente
dell’ISSM “P. Mascagni” di Livorno,
Prof. Marco Luise

presidente@consli.it

Nella mia presentazione del precedente volume di questa che possiamo ormai definire una
“collana”, facevo riferimento al pubblico 2.0, ovvero i nativi digitali, per i quali uno strumento
musicale, così apparentemente diverso, ma in realtà così in linea con i tempi moderni, come il
nostro Auditorium non costituiva uno scandalo, tantomeno una difficoltà. Sono stato beneau-
gurale perché eccomi qui a presentare la versione 2.0 dell’Auditorium che canta, versione che in
primis al nostro pubblico 2.0 è diretta. Al di là dell’intento di documentazione di ciò che presso
l’Istituto Superiore di Studi Musicali “Pietro Mascagni” si officia tutti gli anni, e cioè la rasse-
gna Suoni Inauditi, il pubblico 2.0 troverà in questo volume, se possibile, ancora una maggior
maturità e consapevolezza degli autori in molte caratteristiche: nel metodo compositivo, negli
strumenti utilizzati per comunicare questo metodo e renderne partecipi i lettori, e anche – dico
io – negli esiti artistici che, ahimè, chi soltanto legge e non ha avuto il piacere di ascoltare non
potrà valutare appieno. I capitoli che sono espressamente intesi come spiegazione della genesi
e della struttura dell’opera cui si riferiscono, ad esempio i primi tre del volume e anche quelli
dedicati ai Remix, sono particolarmente illuminanti da questo punto di vista.
Calandomi nei panni di un giovane studente o di un appassionato di questo tipo di opere,
troverei molti dei contributi della raccolta fondamentali per comprendere il pensiero e la tecnica
dei compositori che hanno sfilato in Suoni Inauditi, come se stessi leggendo un manuale di
composizione e un saggio di critica allo stesso tempo. O magari, in alcuni casi, un paper di
una rivista scientifica tanto è il rigore del pensiero che qui viene esposto – una lettura multi-
strato che riflette a mio giudizio la struttura multi-strato (tecnica, concettuale, emozionale) delle
composizioni.
Ho citato il paper scientifico non a caso: con la rassegna Suoni Inauditi e con la pubblicazione
di questo volume si ha infatti l’impressione che si stia facendo un’operazione con un robusto
contributo di ricerca. Ma di questo non c’è da stupirsi vista l’accelerazione che il Mascagni ha
in questi ultimi anni prodotto verso la propria trasformazione in un Istituto di alta formazione
comprendente, oltre alla didattica di livello universitario e all’aspetto intensissimo di produzione
artistica, anche una rilevante componente di ricerca nel campo della storia della musica e, come
in questo caso, dei nuovi linguaggi.
Appagamento, Meraviglia, Certezza: sono infine i tre sentimenti che ho provato leggendo le
pagine di questo volume. Appagamento, da Presidente dell’Istituto, per la quantità e qualità del
lavoro che è stato qui descritto e nell’Istituto svolto e udìto; Meraviglia, dopo avere visto come

3
questi suoni, che fondono maestria tecnica e artistica, possono essere spiegati in uno scritto;
Certezza, che questa esperienza di Suoni Inauditi continuerà nel futuro con sempre maggiore
successo, per far cantare l’Auditorium una volta di più.
Compiuto il 2.0, l’auspicio e l’attesa è infatti per il volume 3.0 della collana: conoscendo il
curatore, sospettiamo fortemente che sia già in cantiere, e già pregustiamo il piacere di sfogliarlo
– digitalmente, s’intende.

Il Presidente dell’ISSM “P. Mascagni”, Prof. Marco Luise

4
Presentazione del Direttore
dell’ISSM “P. Mascagni” di Livorno,
Prof. Stefano Guidi

direttore@consli.it
Nell’anno che ha segnato l’ottava edizione di Suoni Inauditi, vede la luce il secondo volume
dedicato a L’Auditorium che canta, vera e propria rassegna nella rassegna, che accoglie l’ese-
cuzione di opere pensate e scritte appositamente per l’impianto di diffusione sonora del nostro
Auditorium “Cesare Chiti”.
Non sempre le istituzioni d’istruzione e formazione artistica musicale sanno guardare con
l’attenzione che merita a quanto si va sviluppando nelle avanguardie.
E se Suoni Inauditi colloca, invece, il nostro Istituto su un piano di viva sensibilità ai linguaggi
contemporanei della musica e alla loro costante evoluzione dinamica, L’Auditorium che canta –
curato con passione assidua da Fabio De Sanctis De Benedictis – può definirsi come una vera e
propria officina creativa.
Negli anni, il respiro temporale dell’Auditorium si è fatto più ampio, agganciando alla rassegna
primaverile eventi che hanno trovato spazio nella ripresa autunnale delle lezioni; e i bandi dei
Remix, per la composizione di opere ispirate ad autori livornesi e vincolate all’uso di frammenti
audio di tale letteratura, hanno generato dal 2015 a oggi il Mascagni Remix, il Cambini Remix
e il Nardini Remix, che coniugano questi classici, che hanno dato fama mondiale alla città di
Livorno, con i nuovi linguaggi e le nuove tecniche della composizione e dell’esecuzione musicale.
La pubblicazione di saggi e note ad opera dei compositori, ma anche degli interpreti che
sono stati fin qui i protagonisti di questa avventura creativa, dona, infine, all’iniziativa un rigore
documentale che registra, in termini analitici e quindi scientifici, i processi creativi che investono
tanto la composizione quanto l’esecuzione musicale.
Si tratta, dunque, di un’iniziativa editoriale che a pieno titolo si colloca nei percorsi di ricerca
che l’Istituto Mascagni ha intrapreso anche in collaborazione con le Università della Toscana e
oltre. Un’iniziativa editoriale che, superando il luogo comune che tende a opporre la poiesis – la
creazione artistica – alla scientia, ovvero alla consapevolezza tecnica, sancisce come l’atto della
creazione artistica non possa che essere sintesi di arte, tecnica, tecnologia e scienza.
È dunque con motivato orgoglio che saluto la pubblicazione di questo secondo volume, L’Au-
ditorium che canta 2.0, ringraziando Fabio De Sanctis De Benedictis, che ne è curatore, e tut-
ti i docenti, gli studenti e il personale ATA che ogni anno rendono possibile la realizzazione
di una rassegna – Suoni Inauditi – che s’impone nel panorama internazionale della musica
contemporanea.

Il Direttore dell’ISSM “P. Mascagni”, Prof. Stefano Guidi

5
6
Parte I

L’Auditorium che canta

7
Capitolo 1

Roberto Doati

Ricercare su 24 punti di fuga

info@robertodoati.com

1.1 L’occasione
L’occasione per la composizione di Ricercare su 24 punti di fuga (per sola elettronica su 24
canali) è stata una commissione dell’Istituto Superiore di Studi Musicali “Pietro Mascagni” di
Livorno, nella persona di Fabio De Sanctis De Benedictis, per la rassegna Suoni Inauditi 2012.
Una descrizione dettagliata dell’impianto di diffusione installato nell’Auditorium “Cesare
Chiti” dell’Istituto si trova in L’Auditorium che canta 1.0 (De Sanctis De Benedictis, 2015).
In Figura 1.1 la distribuzione delle 24 casse su tre livelli, con annotazioni su quote e traiettorie
tracciate da chi scrive.

1.2 L’idea
L’idea è stata quella di realizzare una composizione che si sarebbe tentati di definire acu-
smatica, non fosse che con questo termine oggi erroneamente si indicano quelle che un tempo
venivano chiamate “opere per nastro solo”, ovvero opere fissate una volta per ‘sempre’ su un
supporto magnetico. Il termine infatti non indica semplicemente l’assenza di visibilità della sor-
gente sonora, ma soprattutto una ben definita modalità di composizione, un linguaggio musicale
documentato dagli scritti di molti autori e che ha le sue origini nel Traité des objets musicaux
di Pierre Schaeffer (Schaeffer, 1966). Più corretto sarebbe quindi definirla una composizione
elettroacustica, in quanto il materiale sonoro, e in un certo senso anche la sua trasformazione,
sono di origine acustica.
Da tempo (vedi la serie Veneziana, 2007, in http://www.robertodoati.com) mi interessa
realizzare opere in cui musiche scritte per strumenti musicali “scompaiono” nello stato finale della
composizione. Si tratta, come nella maggior parte della musica elettroacustica, di un processo di
trasformazione, ma rafforzato dalla volontà dell’autore di rendere invisibile lo strumento come in
una sorta di live electronics con l’interprete acustico nascosto, sia visivamente che acusticamente.
La tecnica che si è adottata è quella della convoluzione, e tale scelta, nel caso del Ricercare, non
poteva essere più coerente con la commissione ricevuta. La convoluzione nasce infatti come
tecnica per replicare digitalmente l’acustica degli spazi di ascolto (Farina, 1993). Ciò che si

9
Figura 1.1: Pianta dell’Auditorium “Cesare Chiti”. La disposizione delle casse (1-8) è indicata in
colore verde per il I livello, in colore giallo per il II livello (9-16). Nel matroneo in colore giallo
per il III livello (17-24).

è creato con Ricercare non è però una ricostruzione virtuale dell’Auditorium “Cesare Chiti”,
quanto la trasformazione di caratteristiche ambientali in timbri. Analogamente alla prospettiva
spaziale, dove il punto di fuga è un punto verso il quale linee parallele sembrano convergere,
ho immaginato ciascuna delle 24 casse come un orecchio che ascolta lo spazio da un punto
preciso. Con l’aiuto di Paolo Pachini e Riccardo Dapelo, si è quindi registrata monofonicamente
la risposta all’impulso (lo scoppio di un palloncino al centro dell’auditorium, come indicato
in Figura 1.1 dal pallino blu), da ciascuna delle 24 posizioni in cui si trovano le casse1 (https:
//drive.google.com/drive/folders/0B_LsEGdilVArSDlidkJFMUVQQ28: 2 risposte all’impulso
per ogni livello).

1.3 La sorgente sonora


Fra gli strumenti resi disponibili dall’Istituto “Pietro Mascagni”, la scelta è caduta sul corno (in
Fa) pensando alle potenzialità spettrali e morfologiche rispetto alla produzione di risonanze nello
spazio, in particolare grazie al carattere fortemente impulsivo dell’attacco. La musica eseguita
con il corno è consistita in una personale elaborazione di una cantillazione ebraica, omaggio
all’unica comunità in Europa, quella di Livorno, a non essere rinchiusa in un ghetto e a poter
mantenere le proprie relazioni commerciali.
La pagina rappresentata in Figura 1.2 è stata registrata da Francesco Marotti (che ci ha
sapientemente e pazientemente seguito in questa fase della composizione e che qui si vuole
ringraziare) su tre ottave, ciascuna con dinamica diversa. Un richiamo quindi alla forma imita-
tiva, che si riallaccia storicamente al tema dello spazio. Il carattere imitativo, che si svilupperà
1 Questi e altri materiali sonori prodotti durante la composizione di Ricercare su 24 punti di fuga sono disponibili

ai link indicati nel testo.

10
Figura 1.2: La parte per il corno.

11
appunto nel Ricercare, ha origine dalle Sonate in eco di Andrea e Giovanni Gabrieli, grandi
compositori “con” e “dello” spazio.
Si noti in Figura 1.2 l’aggiunta di corone, non presenti nell’originale, per far sì che la
convoluzione abbia modo di risuonare nello spazio senza continue eccitazioni “impulsive”.
Ogni ottava è associata a un livello di casse: quella più grave sarà usata per generare
i suoni che si muoveranno sulle 8 casse collocate in basso (I: casse 1-8), quella più acuta
su quelle più in alto (III: casse 17-24) e quella intermedia sul livello medio (II: casse 9-16)
(registrazione del corno nell’ottava centrale: https://drive.google.com/drive/folders/0B_
LsEGdilVArMzRnTHl0M09HbE0).
La durata della cantillazione era tuttavia inferiore (2’20”) alla durata prevista (6’) e quindi
ho sottoposto a dilatazione temporale (senza variazione di altezza) le tre registrazioni.

1.4 Le tecniche di trasformazione


La principale tecnica di trasformazione utilizzata è stata la convoluzione con risposta all’im-
pulso. Come si è già spiegato, non per conferire il riverbero dell’auditorium al corno registrato,
ma per creare insiemi timbrici con componenti frequenziali in comune fra strumento e spazio.
Vediamo ora attraverso quale processo.
Innanzitutto è stata tagliata la parte della risposta all’impulso contenente lo scoppio del
palloncino (https://drive.google.com/drive/folders/0B_LsEGdilVArN0c1bzhuTE55R1k).
La convoluzione del corno con questi segnali avrebbe prodotto una semplice riverberazione;
si è quindi creata una patch in ambiente Max/MSP che ci consentisse di produrre qualcosa di
più articolato e marcato timbricamente.

Figura 1.3: Patch di Max/MSP per il filtraggio delle risposte all’impulso.

12
Come si può vedere in Figura 1.3, l’algoritmo prevede che, caricata una delle 24 risposte
all’impulso (IR01, 02, . . . 24), la si riproduca in loop variandone la velocità (con relativa traspo-
sizione di altezza e inviluppo spettrale) e filtrandola con 5 filtri comb in parallelo. I numeri in
colore rosso indicano il controller MIDI attraverso il quale si possono cambiare in tempo reale
alcuni parametri.
Le frequenze su cui sono “intonati” i filtri, corrispondono alle altezze di 5 accordi (vedi Figura
1.4) ricavati dall’analisi intervallare della cantillazione.

Figura 1.4: Accordi per filtri comb.

Uno dei caratteri del Ricercare è l’improvvisazione, generalmente destinata a uno strumento
solo e scritta al fine di sperimentarne le sonorità. Nel nostro caso lo strumento è lo spazio, e
l’improvvisazione entra in gioco già in questa prima fase di produzione dei materiali elettroacustici
agendo su alcuni parametri: ripetizione, velocità di riproduzione, scelta dell’accordo, risonanze
dei filtri.
In https://drive.google.com/drive/folders/0B_LsEGdilVArOEJJZnBqZFZpWkE si possono
ascoltare alcune delle sequenze di impulsi ottenute. In Figura 1.5 lo spettrogramma di una di
esse.

Figura 1.5: Spettrogramma della risposta all’impulso filtrata IR09comb01.

A questo punto inizia la vera e propria trasformazione del corno. Convoluzione e ritardi
ritmici costituiscono la prima catena di elaborazione.

1.4.1 La convoluzione
Sempre in ambiente Max/MSP, si è lavorato con il plugin Pristine Space della Voxengo (©
2003-2005 Aleksey Vaneev) che consente una convoluzione di alta qualità su 8 canali indipendenti.
Essendo la registrazione del corno monofonica, in questo caso è stato utilizzato un solo canale.

13
In Figura 1.6 si vede la schermata come si presenta dopo aver caricato una delle sequenze di
impulsi filtrati (IR09comb01). Dettagli su Pristine Space sono reperibili sul sito di Voxengo.

Figura 1.6: Schermata di Pristine Space dopo aver caricato la risposta all’impulso filtrata
IR09Ccomb01

1.4.2 Ritardi ritmici


Il segnale convoluto, entra infine in un Multitap Delay che permette la creazione di ritmi e
loop.
L’interfaccia di Figura 1.7 è quella di Pattern Delay, un plugin disponibile per la scheda audio
SCOPE della Sonic Core usata da chi scrive come convertitore audio e talvolta, come in questo
caso, come unità aggiuntiva di trattamento, poiché ogni plugin disponibile in SCOPE non grava
sulla CPU ma su 9 microprocessori Sharc inclusi nella scheda. Il valore dei ritardi viene definito

14
Figura 1.7: Pattern Delay in ambiente SCOPE

su una matrice che rappresenta valori di sedicesimo per una battuta di 4/4 (oppure, tramite
il pulsante Triplets, di 3/4) secondo un metronomo indicato in Tempo (fra 25 e 300 BPM).
L’intervallo temporale per la ripetizione del pattern creato selezionando i 4 valori, è indicato
in Loop. Ciascun ritardo ha un guadagno indipendente (Level). È infine possibile controllare
l’attivazione di ogni ritardo (pulsanti verdi), il panning stereofonico (Pan), la quantità di feedback
(FB), le frequenze di smorzamento per due filtri passa-basso (LDmp) e passa-alto (HDmp) che si
trovano nel feedback, il guadagno del segnale diretto (Dry) e quello del segnale ritardato (Wet). I
numeri in colore azzurro indicano il controller MIDI che è stato mappato per cambiare in tempo
reale alcuni parametri.
Nella tabella 1.1 sono indicati i valori fissi del Pattern Delay per ognuna delle 24 tracce
monofoniche generate; il parametro Loop è espresso in valore della nota, P sta per pausa (della
stessa durata) dopo il pattern, T sta per terzina.
In https://drive.google.com/drive/folders/0B_LsEGdilVArNWtyRE1hZHItcTA si possono
ascoltare le tracce 6, 13 e 21 ottenute.

1.5 La spazializzazione
Come già detto, uno dei caratteri del Ricercare è l’improvvisazione e quindi per poterla
praticare anche in quest’ultima fase della composizione si aveva bisogno di un ambiente che
consentisse di agire in tempo reale sulla spazializzazione delle 24 tracce monofoniche. Ho quindi
realizzato una personale versione della patch “8 Channel MSP Spatializer ” di Timothy Place (©
2000) che in origine permette il movimento, tramite mouse, di 8 diverse sorgenti sonore mono su
8 uscite mono.
Di nuovo, si rovesciano i termini dell’ascolto spaziale; come in principio si era registrata la
risposta all’impulso dell’auditorium dalla posizione in cui si trovava ciascuna cassa, così ora si
voleva che ogni traccia generata venisse riprodotta da ‘quella’ cassa, per tutta la durata della
composizione. Ecco perciò che invece di muovere la sorgente sonora, si fa ‘muovere’ l’ascoltatore.
In Figura 1.8 il pallino giallo indica la posizione dell’ascoltatore virtuale (in blu un esempio
di percorso), che avvicinandosi o allontanandosi da una cassa, determina la variazione dinamica
di 8 tracce, e questo per 3 volte (una per ogni livello di casse). La matrice in alto a sinistra
consente di fare il routing delle 8 tracce su qualsivoglia disposizione di casse; la figura si riferisce
alla disposizione del I livello dell’Auditorium.

15
Traccia Tempo Loop Corno Livello casse
1 30 1/1 8va inf. I
2 60 1/2P 8va inf. I
3 240 1/2T 8va inf. I
4 30 1/4P 8va inf. I
5 60 1/4T 8va inf. I
6 240 1/8P 8va inf. I
7 30 1/8T 8va inf. I
8 60 1/16P 8va inf. I
9 30 1/1 —— II
10 60 1/2P —— II
11 120 1/2T —— II
12 30 1/4P —— II
13 60 1/4T —— II
14 120 1/8P —— II
15 30 1/8T —— II
16 60 1/16P —— II
17 30 1/1 8va sup. III
18 120 1/2P 8va sup. III
19 240 1/2T 8va sup. III
20 30 1/4P 8va sup. III
21 120 1/4T 8va sup. III
22 240 1/8P 8va sup. III
23 30 1/8T 8va sup. III
24 120 1/16P 8va sup. III

Tabella 1.1: Valori fissi del Pattern Delay per ognuna delle 24 tracce monofoniche generate.

16
Figura 1.8: Spatializer di Timothy Place nella versione di Roberto Doati.

17
Come si può vedere in Figura 1.9 lo schizzo dell’andamento spaziale per ognuno dei tre livelli
di casse prevedeva una parte iniziale e finale di movimento circolare (prima in un senso, poi
nell’altro), e per i livelli II e III una breve improvvisazione.

Figura 1.9: Bozza dei movimenti spaziali per ogni livello.

I tempi indicati sull’asse si riferiscono a tre ipotetiche velocità di spostamento dell’“ascoltatore”.


Esse compaiono in Figura 1.10 con tempi parziali e relativi fra ogni cassa di ogni livello.
Tuttavia, come spesso accade nella musica elettroacustica, è la morfologia del materiale sonoro
a determinare la forma, in numerosi suoi aspetti. Così la durata di 6’ è risultata troppo breve per
dare respiro alle lente strutture prodotte. Si è perciò scelto di costruire 24 nuove tracce, di durata
doppia, dalla sovrapposizione combinata delle precedenti (non spazializzate). In Figura 1.11 si
noterà che la scelta di quali tracce sovrapporre è stata guidata da semplici criteri di simmetria.
I numeri si riferiscono alle tracce di 6’.
Questo procedimento formale, in quanto applicato a tutte le 24 tracce, ha tuttavia prodotto
una percepibile ripetitività formale, ponendoci di fronte a un altro ben noto effetto e cioè quello
in cui una variazione formale deve agire anche sul piano spettromorfologico. Pur desiderando
mantenere un carattere globale di staticità, si è perciò deciso di modificare, solo a partire da
7’43”, le tracce relative alle casse 1-2-3-4, 11-12-15-16, 19-21-22-24 (ovvero solo 4 su 8 per ogni
livello). Due le tecniche che sono state adottate: granulazione e ritardo spettrale.
Per la granulazione è stato utilizzato l’oggetto mdeGranular˜ sviluppato in Max/MSP da
Michael Edwards (Versione 0.9 Beta, 2005). Per una documentazione completa si veda il link
indicato in sitografia.
Il ritardo spettrale è una tecnica che ho spesso usato, a partire da Un’allegoria dell’opinione
verbale (2000), realizzandola con un banco di filtri passa-banda (qui 24) le cui uscite possono
essere ritardate con tempo, guadagno e feedback indipendenti. In Figura 1.12, l’interfaccia della
patch di Max/MSP per il ritardo spettrale.
Questa ulteriore trasformazione del materiale, in una fase così avanzata della composizione,
doveva però essere coerente con la spazializzazione che avevo già previsto, quindi alcuni parametri
della granulazione e del ritardo spettrale sono stati controllati dal movimento in Spatializer.
In Figura 1.13 la subpatch che si occupa della granulazione. Dei numerosi parametri a
disposizione per mdeGranular˜ si è deciso di controllare solo i seguenti:

• l’offset per le trasposizioni di altezza dei grani (pot2)

• la durata dei grani, aleatoria fra un valore minimo e uno massimo (pot3)

• i valori minimo e massimo di inizio e fine lettura aleatoria dei grani nel buffer (pot5 e pot6)

Durate dei grani e valori del buffer vengono letti da tre tabelle che contengono 8 coppie di
valori definiti dopo una fase di sperimentazione. Ogni coppia riguarda una delle 8 tracce, ripetuta
per ognuno dei tre livelli.

18
Figura 1.10: Disegno dei movimenti spaziali sui 3 livelli con tempi parziali e relativi fra ogni
cassa.

Figura 1.11: Schema di missaggio per la creazione di 24 nuove tracce.

19
Figura 1.12: Patch di Max/MSP per il ritardo spettrale.

20
Figura 1.13: Patcher GranSpekDel con parametri per la granulazione con mdeGranular˜. In
giallo i controlli che provengono dalla spazializzazione.

Figura 1.14: Schizzo dei percorsi per ognuno dei tre livelli.

21
Questi tre controlli vengo presi, e opportunamente mappati su valori da noi predefiniti, dagli 8
guadagni delle 8 uscite di Spatializer che variano dinamicamente a seconda della posizione assunta
dall’“ascoltatore” (ovvero dal movimento del mouse sulla pianta degli 8 punti di diffusione). Dei
rimanenti 5 guadagni, uno viene usato per cambiare i valori di feedback del ritardo spettrale
(leggendo da una lista di 24 valori) e quattro per il crossfade fra segnale diretto e segnale in
uscita dalla catena granulatore-ritardo spettrale (ricordiamo che solo 4 delle 8 tracce per ogni
livello sono granulate e ritardate spettralmente).
Rimane da dire del movimento, del Ricercare, nello spazio acustico. L’elemento improvvisati-
vo convive con una descrizione di percorso che è rappresentata nei 3 schizzi in basso della Figura
1.14.
In https://drive.google.com/drive/folders/0B_LsEGdilVArTEkwV3ZXNkFyeEk si può a-
scoltare il risultato finale, nella sua versione stereofonica.

1.6 Bibliografia e sitografia


De Sanctis De Benedictis, Fabio, Introduzione del curatore in De Sanctis De Benedictis, Fabio
(a cura di), L’Auditorium che canta 1.0, Istituto Superiore di Studi Musicali “Pietro Mascagni”,
Livorno 2015.
Doati, Roberto, Lo spazio sintetico come parametro compositivo, comunicazione per il conve-
gno Spazio reale e spazio sintetico, Giornate della Nuova Musica, RAI Torino, Facoltà di Magi-
stero, 12 giugno 1987.
Farina, Angelo, An example of adding spatial impression to recorded music: signal convolution
with binaural impulse responses, in Proc. of International Conference “Acoustics and recovery of
spaces for music”, Ferrara, 27-28 ottobre 1993.
Schaeffer, Pierre, Traité des objets musicaux, Parigi, Le Seuil 1966.
http://www.robertodoati.com
http://www.michael-edwards.org/software/mdegranular/
https://cycling74.com/toolbox/place-8space/#.V8hkv5iLRpg
http://www.voxengo.com

22
Capitolo 2

João Neves

Sensi Guitar

joao.sensiguitar@gmail.com

2.1 Da dove nasce la Sensi Guitar


Sensi Guitar nasce dal sogno di possedere una chitarra personalizzata. Poiché la mia musica
è solita essere personale, si voleva adottare la stessa prospettiva con gli strumenti e l’equipag-
giamento usati per essa. Abbiamo iniziato a chiederci, anche, se era possibile portare la chitarra
un passo oltre e implementare un modo di usare il processamento del suono come una parte
compositiva e performativa importante, quello che solitamente osserviamo nei sintetizzatori. Per
farlo, era importante mantenere il modo naturale di suonare e le caratteristiche di uno strumento
come la chitarra elettrica. Non si voleva perdere tutta la libertà di movimento che essa ha sul
palcoscenico e durante l’esecuzione.
Poiché ho un bravo componente della mia famiglia che lavora con il legno, si è investito
molto di più su questo progetto. Allo stesso tempo egli suonava la chitarra ed è stata la prima
persona ad introdurmi ai primi accordi su questo strumento. Ma prima di allora né io né lui
avevamo costruito una chitarra. Ciò nonostante credevamo di poterlo fare molto bene. Si colse
l’opportunità di dover scegliere un progetto per la fine del baccalaureato in Electronic Music and
Musical Production alla Escola Superior de Artes Aplicadas (Instituto Politécnico de Castelo
Branco – Portogallo), per rendere questo sogno reale.

2.2 Il concetto Sensi Guitar


L’idea di incorporare all’interno della chitarra una maggiore tecnologia, che permettesse il
processamento del suono come strumento compositivo ed esecutivo, iniziò a esigere di porre
dei circuiti di effetti a pedale all’interno dello strumento. Ciò avrebbe richiesto una ricerca
impegnativa per scoprire gli effetti a pedale più adatti a questo scopo. Il problema con questo
tipo di approccio sarebbe stato tutto il tempo e il denaro speso nel testare l’attrezzatura, e anche
la mancanza di libertà a causa dell’interfaccia e il tipo di effetti (si era costretti dalla tipologia
del pedale e dai limiti dei parametri). Ma iniziai ad apprendere i controller MIDI e in particolare
ad avere maggiore confidenza con essi durante il baccalaureato. Con un controller MIDI si era
in grado di decidere ogni volta quale controllo avere e si potevano salvare le impostazioni con

23
queste informazioni. Ugualmente con del software era possibile salvare la gamma dei valori
del controller, così da non avere limitazioni in tal senso, e si potevano controllare anche altri
strumenti, il che iniziava ad essere un’opzione ottima. Il problema fondamentale sarebbe stato
quello di trovare un controller MIDI efficace che si adattasse al profilo della chitarra.
Durante questo dilemma ci siamo imbattuti in Arduino e nelle sue capacità di aiutarci a
costruire controller MIDI personali e pensati specificamente per l’“ambiente” chitarra, proget-
tandoli insieme alla chitarra e scegliendo le opzioni più adatte.
Con la tecnologia di Arduino abbiamo trovato la giusta risposta alla nostra idea e al nostro
progetto. Così finalmente si è realizzato il passo successivo. Si è iniziato a pensare al tipo
di interfacce che sarebbero state interessanti su una chitarra e relativamente all’idea di usare
il processamento sonoro come strumento compositivo, e contemporaneamente si è iniziato ad
imparare come programmare Arduino per leggere tali interfacce e inviare messaggi MIDI. Così
si è fatta una ricerca su alcune varietà di interfacciamento che si ritenevano interessanti per
l’uso con una chitarra. Abbiamo trovato alcune tipologie di parti elettroniche e acquistato una
manciata di sensori, manopole, pulsanti e componenti elettronici per iniziare a sperimentarli.
Abbiamo testato sensori ultrasonici di prossimità, sensori di pressione, accelerometri, sensori di
vibrazione, manopole, interruttori e pulsanti. Dopo numerosi test si è compreso che alcuni tipi di
interfacce erano più stabili e adatte di altre, così abbiamo deciso di utilizzare in questo progetto
manopole, interruttori, pulsanti, sensori di prossimità e di pressione.
Sensi Guitar può funzionare come una chitarra elettrica. In verità essa ha due sistemi dif-
ferenti incorporati: il sistema convenzionale della chitarra elettrica (pickup, selettori, manopole
per il volume) e il sistema di controllo MIDI, senza che essi si incrocino mai all’interno della
chitarra, solo all’esterno. In particolare abbiamo (vedi Figura 2.1):

1. Selettore pickup

2. Interruttore On/Off del sensore di prossimità e MIDI On/Off

3. Sensore MIDI di prossimità

4. Sensore MIDI di pressione

5. Pulsante MIDI

6. Volume del pickup sul Bridge

7. Volume del pickup sul Neck

8. MIDI On/Off

9. Manopola MIDI 1

10. Manopola MIDI 2

11. Manopola MIDI 3

12. Pickup sul Bridge

13. Pickup sul Neck

24
Figura 2.1: Parti elettroniche della Sensi Guitar.

25
2.3 Necessità e scopo del software
Dopo che la Sensi Guitar è stata realizzata, ci siamo accorti di avere uno strumento migliore
di quanto ci aspettassimo e abbiamo esplorato con attenzione se si poteva fare qualcosa di
più che non semplicemente suonarla. Usando l’interazione col processamento del suono come
strumento compositivo ed esecutivo, abbiamo potuto potenziare la comunicazione tra differenti
impostazioni ed attrezzature in una esecuzione, e aggregare tutta l’attrezzatura e gli strumenti
usati nei progetti personali, salvare le impostazioni con gli indirizzamenti dei vari segnali audio
e allo stesso modo salvare il comportamento di tutti i controlli connessi a tale sistema. Con
ciò si ha la possibilità di trasformare un solo input audio (la chitarra, per esempio) in quanti
output vogliamo, con il suono processato in maniere differenti. È anche possibile diffondere ogni
suono per uno spazio, con tecniche di spazializzazione, e realizzare cose come ad esempio unire
l’output di un solo effetto proveniente da un solo altoparlante con un altro proveniente da un
altro altoparlante. Con questo tipo di tecniche il pubblico può essere immerso nel suono di un
solo strumento, ma con varie interpretazioni di tale suono. Ovvero un interprete che suona lo
strumento e il suo suono che ha più percorsi di processamento di segnale, risultando diffuso su
diversi altoparlanti per differenti percorsi sonori.
Uno dei problemi dopo aver terminato Sensi Guitar è stato la qualità delle attrezzature da
usarsi con gli strumenti all’interno della chitarra e anche il prezzo e le limitazioni dell’attrez-
zatura sul mercato. Abbiamo risolto applicando conoscenze di programmazione, specialmente in
Max/MSP, e programmando alcuni moduli di processamento audio. Questi sono stati assemblati
in un software che poteva anche essere in grado di instradare controlli esterni sull’intero sistema
(come quelli in Sensi Guitar, ma non solo). Un altro problema, acquistata tutta l’attrezzatura,
era la mancanza di mobilità per portarla in concerto come pure l’uso degli strumenti in piccoli
ambienti. Con strumenti software era possibile avere più libertà senza bisogno di molto spazio.
Con questo software è stato possibile avere più libertà perché tutti i programmi vengono realizzati
secondo le necessità del progetto e dell’esecuzione prevista.

2.4 L’idea dietro il brano di Suoni Inauditi


Il festival di Suoni Inauditi mi era già noto prima del mio stage nella ditta di Luigi Agostini,
Luigi Agostini Digital Solutions. Durante questo stage si è avuta la possibilità di conoscere
l’Istituto Superiore di Studi Musicali “P. Mascagni” e lo stupefacente Auditorium “Cesare Chiti”,
luoghi in cui abitualmente Suoni Inauditi si svolge. Il primo pensiero in quel luogo fu su come
potesse risuonare una delle mie composizioni in quell’ambiente e anche su come si sarebbe potuto
comporre qualcosa che traesse vantaggio da tutta l’esperienza sonora che un ascoltatore poteva
avere in quello spazio. Sfruttando la conoscenza acquisita con Luigi e il lavoro sviluppato dalla
sua ditta, si è pensato che riunire il mio progetto con quella conoscenza poteva funzionare ed
essere un’esperienza interessante. L’idea era quella di utilizzare alcuni effetti audio del software
e diffonderli su tutti gli altoparlanti, controllandone i parametri con la Sensi Guitar, rendendo
il pubblico immerso nel mio strumento. Luigi col suo software poteva distribuire le uscite degli
effetti sui diffusori anche dal vivo. Si poteva, ad esempio, dare l’impressione di un ambiente più
grande usando il riverbero, muovere i suoni con un Flanger stereo o trasporre il suono in un solo
diffusore. I parametri che cambiavano il suono erano controllati solo interagendo con la chitarra.
Luigi e il suo software si limitavano a muovere il suono per l’ambiente. Gli effetti usati sono
stati un riverbero e un Flanger controllati dai potenziometri della Sensi Guitar, un filtro peak
notch sul sensore di prossimità, uno stutter sul pulsante MIDI e una trasposizione di altezza sul
sensore di pressione.

26
2.5 La spazializzazione
Effetti come lo stutter, il filtro o la trasposizione di altezza sono stati usati in forma monofoni-
ca, di modo che essi avessero bisogno di un solo diffusore, ognuno, nell’ambiente. Con prospettiva
e scopi diversi il Flanger e il riverbero erano effetti stereo, cosicché necessitavano ogni volta di
un paio di diffusori per raggiungere i loro obbiettivi.
Lo scopo degli effetti stereo era quello di creare movimento, nel caso del Flanger per se stesso
senza bisogno dell’intervento di Luigi, mentre il riverbero è stato usato per creare l’impressione
di un ambiente più grande giusto nella direzione dei due diffusori usati al momento.

Figura 2.2: Esempio di una disposizione di effetti in uscita: diffusore 21 = riverbero sinistro;
diffusore 22 = riverbero destro; diffusore 18 = traspositore di altezza; diffusore 20 = stutter ;
diffusore 23 = filtro; diffusore 19 = Flanger sinistro; diffusore 24 = Flanger destro.

27
28
Capitolo 3

Giorgio Zucco

Particles, per suoni di sintesi

giorgiozucco@teletu.it

3.1 Idea iniziale


Il brano qui presentato nasce in un periodo successivo ad una Master Class tenuta dal sotto-
scritto e dal Mo Fabio De Sanctis De Benedictis presso il Conservatorio “N. Paganini” di Genova.
Il tema del ciclo di incontri riguardava la composizione assistita e, nello specifico, il controllo
compositivo della sintesi.
A tal proposito è stata presentata in quella occasione una mia libreria (dichiaratamente
ispirata al modello OmChroma per OpenMusic) ideata e sviluppata per il controllo del linguaggio
di sintesi sonora Csound all’interno dell’ambiente PWGL. La libreria si chiama PWCsound ed
è tuttora in fase continua di aggiornamento, parallelamente allo sviluppo di nuovi opcode in
Csound.1
Il lavoro musicale qui presentato nasce come una sorta di brano dimostrativo dell’utilizzo
della libreria, un primo test concreto delle possibilità offerte da questo sistema. Esattamente:
cosa è PWCsound? Si tratta di un modulo di espansione (chiamato anche libreria), ossia un tool
da installare nell’ambiente PWGL, che offre la possibilità di pensare, ideare, studiare, verificare,
programmare il linguaggio Csound attraverso una modalità grafica, congiuntamente all’utilizzo
dei numerosi oggetti presenti in PWGL. L’idea di partenza non è solo quella di un rapido accesso
alle funzioni più comuni di Csound, ma anche quella della possibilità di definire strutture formali,
musicali, compositive, o meglio algoritmiche, in grado di controllare gli eventi sonori di una
partitura elettronica scritta con questo potente linguaggio di sintesi. In figura 3.1 un breve
scorcio dei menu della libreria PWCsound e in Figura 3.2 un semplice esempio di un algoritmo
di sintesi.
Non essendo questo il contesto adatto per discutere di PWCsound, dobbiamo rimandare il
lettore interessato alla documentazione online.
Nel corso della propria attività di musicista elettronico si è sempre posta particolare attenzione
e curiosità verso una specifica tecnica di sintesi sonora definita Physical Modelling, ossia la sintesi
per modelli fisici. Si tratta di una tecnica pensata per l’emulazione di timbri acustici attraverso
1 Alla data di pubblicazione di questo testo la libreria in oggetto ha raggiunto una prima versione definitiva,

ed è scaricabile dal sito https://pwcsound.jimdo.com/ [n.d.c.].

29
Figura 3.1: Alcuni menu della libreria PWCsound.

Figura 3.2: Un esempio di patch di PWGL relativo ad una semplice orchestra e partitura di
Csound. Il risultato determina un suono di quattro secondi in modulazione ad anello.

30
la rappresentazione algoritmica del modello stesso dello strumento. Possiamo distinguere questo
tipo di sintesi in due tipi:

1. Sintesi modale: definizione di algoritmi per la costruzione di singoli oggetti sonori; imma-
giniamo l’idea di essere un liutaio virtuale che costruisce i singoli elementi costitutivi, ad
esempio, di un violino, di uno strumento a fiato, di una corda pizzicata da un plettro, e via
dicendo.
2. Risonatori: si potrebbero definire come degli speciali filtri, modellati secondo le precise fre-
quenze modali del materiale che vogliamo ricostruire; il suono viene generato poi attraverso
un sistema basato sul contatto tra il risonatore ed un eccitatore (che potrebbe essere di
qualsiasi tipo, non necessariamente sintetico).

Attualmente esistono diversi sistemi sonori per lo studio e programmazione di modelli fisici
acustici, il più evoluto rimane certamente il software Modalys dell’Ircam.
Per comporre questo brano siamo partiti proprio da un quesito: è possibile realizzare in modo
efficace questa tecnica di sintesi attraverso Csound? La risposta è certamente affermativa, ma
con le dovute premesse. Allo stato attuale occorre dire che è quasi impossibile poter disporre, in
Csound, dell’enorme arsenale di modelli fisici elementari contenuti in un software specifico come
Modalys; tuttavia esistono alcuni opcode, in particolare modelli di risonatori, in grado di poter
realizzare timbri dal carattere fortemente acustico/imitativo.

3.2 Sintesi per modelli fisici in Csound


Di seguito un elenco degli opcode particolarmente adatti a questo tipo di tecnica; nel corso di
questo scritto vedremo come si sono utilizzati alcuni di questi per mezzo della libreria PWCsound.

• Stk opcode: traduzione in Csound della storica libreria di modelli fisici sviluppata da Perry
Cook
• mode
• wguide1
• wguide2
• reson

PWCsound contiene anche una lista di risonatori non contenuti nella distribuzione ufficiale
di Csound, si tratta di un ulteriore libreria programmata con la tecnica U.D.O (User Defined
Opcode) in cui per mezzo di numerose istanze dell’opcode mode, possiamo disporre di oggetti già
pronti all’utilizzo, basati su precise frequenze modali ricavate da vari tipi di materiali.

3.3 Note relative alla realizzazione.


Nel corso della realizzazione sono stati utilizzati i seguenti strumenti hardware e software:

• Computer Imac 27 Intel I5 8gb ram


• Interfaccia audio Focusrite Scarlett 18I20
• Monitor Krk Vxt6

31
Figura 3.3: Oggetti di PWCsound relativi a specifici materiali o strumenti.

32
• Cuffie Akg Q701

• Pwgl

• PWCsound

• Csound 6

• Ocenaudio

• Logic Pro X

• Ssl waves plugin

• Api 2500 compressor waves plugin

• L3 waves plugin

Per quanto riguarda il materiale timbrico di base, esso è stato selezionato tra i seguenti:

1. Timbri a carattere percussivo o materiali rumoristici di strumenti a fiato (suoni soffiati del
flauto, slap di sax...)

2. Sintesi per modelli fisici di timbri a carattere percussivo

3. Utilizzo di risonatori

4. Trasformazioni spettrali dei campioni di cui al numero 1

Sono stati poi svolti alcuni studi preliminari:

1. strutturazione degli strumenti di Csound in base al range di frequenze e alla densità di


eventi

2. distribuzione dell’alta densità degli eventi nella parte finale del brano: da circa metà durata
alla fine il materiale inizia ad addensarsi verso range ristretti fino a raggiungere una singola
altezza percepibile

3. time stretching del singolo campione sonoro usato (sax, flauto), che viene dilatato per ampie
sezioni del brano

Infine i materiali usati come eccitatori per i risonatori sono stati i seguenti:

1. impulsi (mpulse opcode)

2. rumori (fractalnoise opcode)

3. gendy (Xenakis Csound opcode, porting della unità generatrice gendy contenuta in Super-
Collider)2

4. suoni di rumori da strumenti a fiato

Di seguito le frequenze modali per i risonatori utilizzati nella composizione:


2 Ricordiamo che la frequenza massima dell’opcode gendy non dovrebbe superare i 2000 hz.

33
• Chalandi plates:
([62, 107, 360, 460, 863] Hz +-2Hz);
[1, 1.72581, 5.80645, 7.41935, 13.91935] ratios
• Tibetan bowl (180 mm.):
([221, 614, 1145, 1804, 2577, 3456, 4419] Hz), 934g, 180mm;
[1, 2.77828, 5.18099, 8.16289, 11.66063, 15.63801, 19.99] ratios
• Tibetan bowl (152 mm.):
([314, 836, 1519, 2360, 3341, 4462, 5696] Hz), 563g, 152mm;
[1, 2.66242, 4.83757, 7.51592, 10.64012, 14.21019, 18.14027] ratios
• Tibetan bowl (140 mm.):
([528, 1460, 2704, 4122, 5694] Hz), 557g, 140mm;
[1, 2.76515, 5.12121, 7.80681, 10.78409] ratios
• Wine Glass:
[1, 2.32, 4.25, 6.63, 9.38]
• Small handbell :
([1312.0, 1314.5, 2353.3, 2362.9, 3306.5, 3309.4, 3923.8, 3928.2, 4966.6, 4993.7, 5994.4,
6003.0, 6598.9, 6619.7, 7971.7, 7753.2, 8413.1, 8453.3, 9292.4, 9305.2, 9602.3, 9912.4] Hz);
[1, 1.0019054878049, 1.7936737804878, 1.8009908536585, 2.5201981707317, 2.522408536585,
2.9907012195122, 2.9940548780488, 3.7855182926829, 3.8061737804878, 4.5689024390244,
4.5754573170732, 5.0296493902439, 5.0455030487805, 6.0759908536585, 5.9094512195122,
6.4124237804878, 6.4430640243902, 7.0826219512195, 7.0923780487805, 7.3188262195122,
7.5551829268293] ratios
• spinel sphere con diametro di 3.6675 mm.:
([977.25, 1003.16, 1390.13, 1414.93, 1432.84, 1465.34, 1748.48, 1834.20, 1919.90, 1933.64,
1987.20, 2096.48, 2107.10, 2202.08, 2238.40, 2280.10, 0 /*2290.53 calculated*/, 2400.88,
2435.85, 2507.80, 2546.30, 2608.55, 2652.35, 2691.70, 2708.00] Hz);
[1, 1.026513174725, 1.4224916858532, 1.4478690202098, 1.4661959580455, 1.499452545408,
1.7891839345101, 1.8768994627782, 1.9645945254541, 1.9786543873113, 2.0334612432847,
2.1452852391916, 2.1561524686621, 2.2533435661294, 2.2905090816065, 2.3331798413917,
0, 2.4567715528268, 2.4925556408289, 2.5661806088514, 2.6055768738808, 2.6692760296751,
2.7140956766436, 2.7543617293425, 2.7710411870043] ratios

La lista di questi rapporti modali proviene dal manuale ufficiale di Csound, l’opcode mode in
Csound è in grado di definire una frequenza modale, e varie istanze di mode possono definire
un timbro complesso basato sulle frequenze modali di determinati materiali o strumenti, come
legno, vetro, alluminio, glassarmonica.
Si descrivono di seguito alcune patch di PWCsound che realizzano il materiale timbrico con
queste tecniche.
La patch visualizzata in Figura 3.4 realizza un particolare magma sonoro che viene utilizzato
come eccitatore per i vari risonatori. Si tratta di un concetto di Xenakis teorizzato nei primi
anni settanta; gendy è un un modello stocastico dinamico per la creazione di forme d’onda, che
va appunto ad eccitare un oggetto fofilter, ossia un filtro a formanti.

34
Figura 3.4: Un generatore gendy connesso a un filtro fofilter.

35
Figura 3.5: Un file audio dilatato temporalmente viene usato come eccitatore di streson, un
modello fisico di corda vibrante.

36
Figura 3.6: La abstraction denominata SCORE in Figura 3.5.

Come possiamo osservare in Figura 3.6, PWCsound permette anche la definizione di partiture
per il controllo della tecnica di sintesi. In particolare possiamo osservare in Figura 3.5 una
semplice patch che realizza un time stretching di un suono di flauto, che va a sua volta ad
eccitare l’opcode streson; come per l’esempio precedente, anche in questo caso il materiale
utilizzato funge da eccitatore per il risonatore.
In Figura 3.7 è possibile vedere un esempio finale di costruzione di eccitatore e risonatore
per mezzo dell’opcode fractalnoise: si tratta di un modello di rumore bianco filtrato poi da 16
unità di filtraggio di primo ordine in cascata, visibili in Figura 3.8. Questo complesso oggetto
sonoro viene usato come eccitatore per un banco di filtri reson (modulati da un leggero jitter).
Come possiamo osservare nella abstraction, la sezione di filtri in cascata è stereo.
In Figura 3.9 un esempio di patch che permette varie possibilità inerenti al contatto tra un
eccitatore ed una serie di risonatori:

• il menu-box in alto permette di selezionare diversi file audio


• il primo oggetto switch (l’insieme dei 4 pulsanti quadrati in alto poco a sinistra) permette
di selezionare come eccitatore tre fonti di sintesi o il file audio selezionato dal menu a
tendina
• l’ultimo oggetto switch (l’insieme di 5 pulsanti quadrati in basso poco a destra) permette
l’abbinamento col risonatore scelto

Dopo una lunga esplorazione delle possibilità timbriche offerte dalle tecniche fin qui illu-
strate, si è passati alla scelta del materiale audio da utilizzare nel brano, scelta dettata da una
classificazione della natura sonora come la seguente, che definiremmo elementare:

• materiali a bassa densità, rarefazione

37
Figura 3.7: Un generatore frattale di rumore, fractalnoise, va ad eccitare un banco di filtri.

38
Figura 3.8: La abstraction denominata FILTERBANK in Figura 3.7, che mostra in dettaglio il
banco di filtri utilizzato.

Figura 3.9: Un esempio di scelte multiple di accoppiamenti eccitatore/risonatore.

39
• magma sonoro densissimo (ad esempio l’eccitatore creato con la tecnica gendy di Xenakis)
• variazioni di timbro chiaro e scuro di una texture di suoni con inviluppo percussivo
• texture di suoni continui
• materiale concreto senza trasformazioni
• materiale concreto con trasformazioni spettrali
• materiale concreto utilizzato come eccitatore per i risonatori
Il materiale scelto alla fine è consistito di 21 file in formato aif a 44100 Hz/24 bit. Per il
montaggio del brano è stato utilizzato il sequencer Logic Pro X (vedi Figura 3.10).

Figura 3.10: La schermata principale del sequencer Logic Pro X.

3.4 Struttura formale e descrizione


La composizione Particles ha una durata complessiva di 7’30”, suddivisa in varie sezioni che
ne delineano la forma e l’idea compositiva.
Possiamo osservare 5 sezioni:
• sezione 1: da 0’ a 1’15”
• sezione 2: da 1’15” a 1’40”
• sezione 3: da 1’40” a 3’00”
• sezione 4: da 3’00” a 3’53”
• sezione 5: da 3’53” a 7’26”

40
Figura 3.11: Lo spettrogramma dell’intera composizione.

3.4.1 Sezione 1: da 0’ a 1’15”


Consiste di una texture rarefatta, nella zona medio-acuta, con timbri simili a quelli di una
corda pizzicata, e un grande range dinamico con forti contrasti tra ppp e ff. Dal profondo emerge
un elemento tematico di tipo sintetico, granulare, monotimbrico, con un grain size piuttosto alto,
elemento che conduce alla seconda sezione.

3.4.2 Sezione 2: da 1’15” a 1’40”


Insieme all’elemento granulare di tipo sintetico appare per la prima volta il materiale di
trasformazione spettrale di un campione di flauto. Questo è stato letto e controllato per mezzo
dell’opcode flooper2.
Fa il suo ingresso anche un terzo elemento, ostinato, si tratta di un suono intonato che
determinerà il carattere e la forma dell’intera composizione.
In breve, possiamo riassumere la texture come una sovrapposizione di tre elementi:

1. materiale granulare con alta densità dei grani


2. materiale proveniente dalla risintesi di un campione di flauto
3. un ostinato continuo, suono lungo nel registro medio/grave.

3.4.3 Sezione 3: da 1’40” a 3’00”


Anche in questa parte, che si sviluppa su una durata decisamente superiore alla precedente,
si parte da un elemento importante della Sezione 2: pure qui il suono ostinato continua la sua
funzione di pedale inferiore e su questo elemento entra in gioco un altro ostinato; questa volta si
tratta di un suono posto esattamente a distanza di ottava dal primo.

41
Il nuovo timbro che viene a crearsi è determinato dall’alternanza ciclica, ottenuta per mezzo
di un movimento rotativo lento tra i due suoni continui ad intonazione determinata, una sorta
di dissolvenza incrociata tra i due elementi, tra il grave e l’acuto. Il procedimento è certamente
influenzato dal celebre brano di Barry Truax, Solar Ellipse.
Su questa struttura, che possiamo definire come un ostinato con dissolvenza incrociata, conti-
nua a velocità fissa, si incastra una nuova texture granulare, a particelle, realizzata con i risonatori
di Csound di cui abbiamo parlato. Si tratta di una tavolozza timbrica in continua mutazione, con
una forte densità giocata su registri prevalentemente acuti, dal sapore assai metallico e con degli
inviluppi a campana; la sensazione uditiva percepita è quella di campanelli, di ciotole tibetane.

3.4.4 Sezione 4: da 3’ a 3’53”


Episodio di contrasto, si tratta della parte centrale della composizione: l’idea narrativa del
suono continuo si attutisce per lasciare spazio a texture pulviscolari e granulose; l’idea musicale
elettronica è sempre in bilico tra due elementi, una specie di ibrido tra la sintesi granulare e quella
per modelli fisici. Adesso abbiamo una sorta di citazione del breve episodio introduttivo iniziale,
il tessuto si infittisce con un magma il cui range è assai ampio, tra registro grave e acuto. Anche
in questa sezione non vi sono elementi di sviluppo o manipolazione dei materiali, caratteristica
questa già presente nei precedenti momenti.
La sezione 4 può essere distinta ulteriormente in:

1. struttura ibrida granulare/modelli fisici, la cui direzione e intenzione sonora rimane quella
del timbro quasi continuo

2. introduzione di un elemento nuovo, glissandi sintetici dello stesso materiale timbrico ibrido,
che hanno una sorta di funzione di coda e di crescendo per la sezione finale.

3.4.5 Sezione 5: da 3’53” a 7’26”


La sezione finale è la più lunga di tutta la composizione: vengono ripresentate le strutture
timbriche e tematiche fin qui ascoltate. Dopo la sezione centrale che riprendeva una rarefazione
simile all’inizio del brano, nel finale riappare l’elemento forse più importante, e di contrasto alle
particelle realizzate con la sintesi per modelli fisici (e talvolta ulteriormente granularizzate): si
tratta del suono continuo con funzione di pedale (superiore ed inferiore) o ostinato.
L’elemento, dal movimento circolare, già ascoltato nelle sezioni precedenti, assume qui un
carattere dall’enfasi più drammatica, dando quasi la suggestione sonora di una pagina corale,
di un elemento forse umano di contrasto al magma sintetico dell’intero lavoro che, ripetiamo, si
tratta fondamentalmente di uno studio sulla sintesi per modelli fisici per mezzo di PWCsound.
Numerosi strati di sintesi per modelli fisici (i campanelli o ciotole tibetane della Sezione 3)
vengono qui sviluppati, sovrapposti, differenziati per densità, creando un vortice sonoro che si
protrae fino alla conclusione del brano.

3.5 Cenni sulla fase di mixaggio, versioni del brano


La composizione Particles esiste in tre versioni: stereo, quadrifonica, ottofonica.
Durante la stagione di concerti Suoni Inauditi del 2014 è stata eseguita la versione ad otto
canali; la realizzazione e spazializzazione sono state curate dal Mo Fabio De Sanctis De Benedictis.
Il mixaggio della versione stereo non implica ulteriori trasformazioni del suono, si preoccupa di
correggere con una leggera equalizzazione sottrattiva (dove è necessario) le normali imperfezioni

42
Figura 3.12: Forma d’onda e spettrogramma dell’intera composizione.

timbriche, in particolare frequenze pericolose che sono state modellate e attenuate con la tecnica
dello sweep frequency.3 Un’altra operazione di equalizzazione importante ha riguardato la natura
stessa dei timbri: per esempio, un suono con una spiccata concentrazione di energia nel range
di frequenze medio-acuto è stato filtrato (spesso come regola) dalla frequenza di 100 Hz in giù
(spesso utilizzando anche una campana Q decisa e ampia). Questa tecnica di mixaggio è tipica
negli ambienti della musica leggera, e serve ad eliminare o attenuare zone oscure di materia
sonora inutile, che spesso crea confusione e disturbo a timbri dove le frequenze basse sono invece
in evidenza; non dimentichiamo che tale operazione diventa determinante per avere maggior
headroom per la fase finale di mastering.

3 Si tratta di una tecnica che consiste nel cercare la frequenza in oggetto scorrendo un filtro notch lungo l’arco

delle frequenze udibili, sino ad individuare il punto esatto in cui tale frequenza viene attenuata o eliminata.

43
44
Capitolo 4

Fabio De Sanctis De Benedictis

L’elettronica in tempo reale in


Balaenoptera, per clarinetto basso,
suoni elettronici e live electronics

fdesanctis@teletu.it

4.1 Introduzione
Balaenoptera è un brano quadrifonico per clarinetto basso, suoni elettronici e live electronics,
commissionato dal Mo Carlo Failli e a lui dedicato. È stato eseguito in prima assoluta il 26 maggio
2015 nell’Auditorium “Cesare Chiti” dell’Istituto Superiore di Studi Musicali “P. Mascagni” di
Livorno, interpreti il Mo Failli al clarinetto basso e lo scrivente al computer, per la rassegna di
concerti Suoni Inauditi.1 Altrove2 è stato discusso l’utilizzo di OpenMusic3 per la generazione
e la trasformazione del materiale elettronico. Qui ci vogliamo occupare dell’uso di Max/MSP4
per la gestione del live electronics. Certamente non è possibile descrivere tutte le funzionalità
del software utilizzato, per le quali rimandiamo alle funzioni di aiuto, al sito della casa madre
e all’ampia mole di materiali liberamente disponibili online; quindi le patch utilizzate saranno
descritte nel loro funzionamento generale, concentrandoci maggiormente sui processi e i concetti
implicati.
1 All’indirizzo https://youtu.be/N14gXrGOMCQ?list=PLkNQvFGl2Ps26Dlk8zvbvb7A5HkDjvfF_ è visionabile un

video relativo alla prima esecuzione. L’audio è in formato stereo, per cui è possibile solo intuire il lavoro relativo
alla spazializzazione.
2 De Sanctis De Benedictis, Fabio, Electronic sound creation in Balænoptera for bass clarinet, electronic sounds,

and live electronics, in Bresson, Jean - Agon, Carlos e Assayag, Gérard, The OM Composer’s Book. Volume 3,
Editions Delatour France/Ircam, Parigi, 2016.
3 Il sito di OpenMusic è http://repmus.ircam.fr/openmusic/home. Seguendo il link “Documentation” (http:

//repmus.ircam.fr/openmusic/documents) è possibile accedere alla documentazione del programma e di alcune


delle sue librerie. Alcuni browser per la navigazione in rete danno un avviso di sito malevolo per certe pagine
relative all’Ircam. È possibile ignorare tranquillamente l’avviso e procedere alla pagina, almeno per gli indirizzi
riportati in questo articolo.
4 Si riporta il sito della casa produttrice di Max/MSP: https://cycling74.com/.

45
4.2 Un po’ di storia
Lo spunto alla base dell’ispirazione di questo brano è un episodio realmente accaduto: un
cetaceo spiaggiato a sud di Livorno intorno al 19 marzo 2013. Si ritiene che tutti noi, soprat-
tutto in questi ultimi tempi, possiamo sentirci disorientati, “spiaggiati”, in un certo senso, come
quel mammifero. Da qui la decisione di iniziare a comporre il brano che sarebbe poi divenuto
Balaenoptera, cogliendo l’occasione dell’invito del Mo Failli. L’opera quindi si pone da un lato
come espressione di un sentimento personale, e presumibilmente diffuso, dall’altro lato, per il
fatto stesso di esemplificare questo affetto, richiamando implicitamente lo stato di cose che ne è
la causa, si pone come forma di denuncia e di protesta, quantunque mitigata dalla trasfigurazione
estetica.
Di poco antecedente è l’iscrizione al Forumnet Ircam,5 e l’inizio dello studio di alcuni dei
prodotti del centro di ricerca francese. Si è colta così questa occasione per approfondire la
conoscenza di alcuni dei software a disposizione per usarli nella composizione, e per questo
motivo la gestazione di Balaenoptera si è protratta per circa un anno e mezzo. In particolare, per
quanto concerne l’uso dei programmi informatici, OpenMusic è stato utilizzato per la generazione,
trasformazione e spazializzazione del materiale audio, usufruendo in particolare delle librerie
OM-SuperVP, OM-Chant, OMChroma e OM-Spat,6 rispettivamente e soprattutto per la sintesi
incrociata, il filtraggio per formanti, l’uso di Csound7 e la spazializzazione; Catart8 è stato usato
per la generazione di materiale audio dal missaggio granulare di differenti file; Audiosculpt9 ha
permesso particolari trasformazioni e effetti. Per parziali approfondimenti si rimanda all’articolo
citato a nota 2.
La concezione globale di quest’opera è di tipo orchestrale, nel senso che si è pensato al live
electronics, e all’utilizzo dell’elettronica e del computer in generale, non come a un accessorio o
ad una rifinitura di tipo estetico, per così dire, ma cercando di sfruttare a fondo le potenzialità
del mezzo, appunto in direzione sinfonica. L’elettronica quindi in molte occasioni assorbe lo stru-
mento acustico, quasi sommergendolo, metafora forse del nuotare immersi nell’acqua, e fornisce
ricchi materiali di accompagnamento e di sfondo: quasi un concerto per clarinetto basso e suoni
elettronici, precostituiti o elaborati in tempo reale. L’utilizzo di Audiosculpt, e in particolare
l’analisi del suono per ottenere sequenze di accordi, poi salvate in formato SDIF10 e importate
in OpenMusic, ha permesso l’integrazione dei materiali strumentali ed elettronici, fondati su
stessi campi frequenziali. Alla stessa maniera sono stati pensati gli interventi del live electronics,
parametrizzati secondo gli stessi principi, utilizzando alcune librerie Ircam per Max/MSP.

4.3 L’interfaccia principale


In Figura 4.1 si propone la patch di Max/MSP dell’interfaccia principale.
5 http://forumnet.ircam.fr/. Da questo sito è possibile attivare un abbonamento annuale che permette lo

scaricamento e l’utilizzo di tutto il software del Forumnet, con relativi aggiornamenti, sino alla durata dell’ab-
bonamento. Scaduto l’abbonamento, se non lo si rinnova, si perde il diritto all’aggiornamento, ma si conserva la
licenza di utilizzo dei programmi.
6 La pagina di download delle librerie: http://forumnet.ircam.fr/fr/produit/openmusic-libraries/ e la

pagina della documentazione: http://support.ircam.fr/docs/om-libraries/main/co/OM-Libraries.html.


7 La pagina principale del sito di Csound: http://csound.github.io/.
8 http://forumnet.ircam.fr/shop/en/forumnet/45-catart.html.
9 La pagina di Audiosculpt: http://forumnet.ircam.fr/fr/produit/audiosculpt/?lang=en e la pagina di

partenza della documentazione: http://support.ircam.fr/docs/AudioSculpt/3.0/co/AudioSculptguideWeb.


html.
10 SDIF è un acronimo per Sound Description Interchange Format. È un formato di descrizione del suono

sviluppato da Ircam e CNMAT. Il sito prinicpale: http://sdif.sourceforge.net/.

46
Figura 4.1: La patch di Max/MSP relativa all’interfaccia principale.

Si distinguono tre blocchi verticali, da sinistra verso destra: il primo relativo all’ingresso audio;
la parte centrale che mostra cinque subpatch corrispondenti a un doppio player quadrifonico e
quattro effetti; il blocco più a destra che mostra: in alto l’oggetto coll che con le sue 140 linee
di codice permette la gestione complessiva degli eventi in tutto il brano, attivabili semplicemente
premendo la barra spaziatrice; in basso la regolazione del volume di uscita dei player e degli
effetti, governabile con un controller MIDI.11 L’interprete al computer può usare una mano per
azionare la barra spaziatrice, e l’altra per manovrare i controlli del dispositivo MIDI preposto
alla regolazione dei volumi. In partitura sono indicati con numeri progressivi i punti in cui
premere la barra spaziatrice, attivando così l’evento necessario per quel momento. I comandi
di coll sono principalmente di due tipi: impostazione silente dei parametri e attivazione del
player o dell’effetto corrispondenti. Ancora più in basso, sempre a destra, abbiamo un oggetto
preset che permette la memorizzazione dello stato generale della patch, così da poterlo richiamare
velocemente. In Figura 4.2 l’inizio della partitura destinata all’interprete al computer. Ad ogni
numero occorre premere la barra spaziatrice; le cifre cerchiate corrispondono a istruzioni di
impostazione dei parametri, quelle riquadrate attivano un evento. Sotto il riquadro si trova
un’abbreviazione del tipo di azione attivata dall’istruzione di coll.
Entrando un poco più in dettaglio, per quanto riguarda l’ingresso audio (oggetto adc˜) i
messaggi open, start e stop rispettivamente aprono la finestra “Audio Status” di Max/MSP,
attivano e disattivano l’audio. Il live.gain˜ sottostante permette la regolazione del volume
di ingresso, direttamente memorizzabile con il preset alla sua immediata sinistra. I cinque
effetti/player del blocco centrale saranno descritti in dettaglio più avanti. Sotto di loro abbiamo
il live.gain˜ che regola il volume complessivo di uscita, anch’esso memorizzabile col proprio
preset, mentre il messaggio 0 ancora alla sua sinistra permette di silenziare immediatamente
qualsiasi file audio che i player stiano riproducendo. Per ciò che concerne coll, i messaggi goto
$1 e next permettono di impostare un punto preciso di attivazione, da scegliere con il numero
11 Per la prima esecuzione è stato utilizzato un i-control della ICON.

47
Figura 4.2: L’inizio della partitura per l’interprete al live electronics.

48
soprastante, o di andare all’istruzione seguente; il numero di grandi dimensioni, con sfondo giallo,
indica quale linea di codice di coll è attiva, mentre il messaggio sottostante riporta l’istruzione
corrispondente. Della regolazione dei volumi degli effetti e player abbiamo già detto, così come
del preset al di sotto, mentre l’oggetto s feedback_value con due impostazioni possibili (0 e
0.3) è da usarsi in caso di emergenza, qualora la retroazione dell’effetto di delay, destinazione
del messaggio, tenda a far “esplodere” l’effetto. Gli oggetti presenti nell’interfaccia principale
permettono quindi la gestione del tutto in maniera semplice e diretta, il resto è delegato alle
automazioni previste per ogni effetto.

4.4 I cinque effetti/player utilizzati


Come detto, il blocco centrale della patch principale evidenzia cinque elementi tra effet-
ti e player. Dall’alto in basso troviamo cinque subpatch denominate balaenoptera-rt-grain,
balaenoptera-player4ch, balaenoptera-ircamverb-freeze, balaenoptera-rt-stretch, ba-
laenoptera-tap-transp. A queste corrispondono cinque patch di Max/MSP con lo stesso nome
e presenti nella stessa cartella della patch principale. In questo modo è possibile richiamarle con
un semplice doppio clic sulla subpatch corrispondente. Queste patch coincidono, in ordine, alla
lettura granulare di un file audio registrato dall’esecuzione, a due player, ad un riverbero con la
possibilità di “congelare” il suono, ad una funzione di dilatazione del suono in tempo reale, ad un
tap-delay con trasposizione ad ogni ripetizione, il tutto sempre in quadrifonia. Alla base degli
effetti utilizzati abbiamo specifici oggetti Ircam per Max/MSP. Di seguito si dà una descrizione
dettagliata di ognuno di essi.

4.5 balaenoptera-rt-grain
In Figura 4.3 la patch corrispondente all’effetto. Si tratta di un dispositivo che registra un
secondo di audio dell’esecuzione e restituisce la lettura continua, attraverso la sintesi granulare, di
quanto registrato, variando continuamente il punto di inizio lettura. L’oggetto principale è sogs˜
e fa parte della libreria Ircam MaxSoundBox. Nel riquadro 1 di figura 4.3 abbiamo il blocco di
lettura delle istruzioni in arrivo dall’oggetto coll, dalla patch genitore, ovvero dall’interfaccia
principale. Nello specifico r colldata riceve indiscriminatamente tutte le istruzioni inviate da
coll. Poi i vari oggetti route smistano le istruzioni in arrivo selezionando quelle inizianti con
la stringa bal-rt-gran, bal-rt-gran-stop o bal-rt-gran-play. Nel primo caso sono inviati i
parametri di impostazione di sogs˜ e del riverbero, di volta in volta stabiliti secondo le esigenze
compositive del momento. Gli altri due oggetti route fermano o attivano l’effetto, in quest’ultimo
caso aprendo la registrazione audio e innescando la scelta casuale del punto iniziale di lettura
da parte di sogs˜ del file registrato in memoria. I parametri dell’oggetto di questa libreria
Ircam generalmente consistono di un numero iniziale che stabilisce l’esponente della potenza di 2
corrispondente al massimo numero di sovrapposizioni possibili tra i grani, nell’esempio mostrato
6, ovvero 26 = 64. Poi il nome del buffer utilizzato, ossia del file audio memorizzato nella
memoria Ram, che poi è, come vedremo, il materiale registrato in tempo reale. Infine altri
quattro numeri interi corrispondenti alla variazione di punto di lettura del file, alla trasposizione
in cent, alla variazione casuale di altezza, sempre in cent, e alla variazione casuale della durata
dei grani in millisecondi. Nel nostro esempio il punto di lettura iniziale del file audio è impostato
a 500 millisecondi dall’oggetto loadmess 500, ossia la metà dell’audio registrato. I numeri interi
emessi da unpack (la serie di simboli i) impostano quindi, volta per volta, la variazione di
punto di lettura del file, cinque valori differenti di trasposizione che danno luogo a cinque voci
diverse (pack i i i i i) le cui frequenze sono selezionate secondo parametri precisi e paralleli

49
Figura 4.3: La patch corrispondente all’effetto di sintesi granulare applicata all’audio registrato
dall’esecuzione.

50
a quanto avviene nella parte strumentale, la variazione casuale di altezza e la variazione casuale
della durata dei grani. route bal-rt-gran-play attiva un trigger con tre bang, rispettivamente
indirizzati a:

• impostare la lettura iniziale del file audio a 500 millisecondi

• far partire il metronomo (riquadro 3) delegato allo spostamento casuale e continuo del-
l’inizio del punto di lettura del file audio

• attivare il meccanismo di registrazione audio in tempo reale (riquadro 2) con conseguente


creazione del buffer

Figura 4.4: Inviluppo di apertura e chiusura della registrazione audio in tempo reale.

La registrazione dell’audio in tempo reale avviene tramite l’apertura dello slider collegato
al volume di ingresso, con l’oggetto line che porta il valore dello slider da 0 a 100 in 200
millisecondi. L’oggetto delay 800 riporta il valore dello slider da 100 a 0 in 200 millisecondi,
800 millisecondi dopo che detto valore si è mosso da 0 a 100. In altre parole, gli eventi e i valori
si succedono secondo l’inviluppo riportato in figura 4.4.
L’oggetto route bal-rt-gran-stop invia un primo bang che ferma il metronomo (messag-
gio stop) e un secondo che cancella (messaggio clear) il buffer audio, reinizializzandolo per
l’uso futuro. Nel riquadro 4 abbiamo il blocco relativo al riverbero (oggetto ircamverb˜), im-
postato con 4 fonti sonore su 4 canali audio. I numeri decimali (f f) trasmessi dall’oggetto
route bal-rt-gran stabiliscono, per il riverbero, il tempo di riverberazione e un fattore di
moltiplicazione di ampiezza, quando necessario, per aggiustare il volume sonoro.

51
Ristudiando la patch per la scrittura di questo articolo ci siamo resi conto di come alcuni
processi potevano essere leggermente semplificati riducendo, di poco, il numero di oggetti o di
istruzioni utilizzate. Tuttavia la lieve ridondanza della programmazione, sebbene non del tutto
efficiente dal punto di vista informatico, non oblitera il senso e la funzione complessiva generale.

4.6 balaenoptera-player4ch
Abbiamo in questo caso due player audio quadrifonici. In figura 4.5 la subpatch corrispon-
dente. Inizialmente si era impostato un solo player, poi l’aumentare della complessità formale e
compositiva ha richiesto l’affiancamento di un secondo player da far intervenire nei momenti in
cui il primo non avesse ancora terminato il proprio compito.

Figura 4.5: I due player audio quadrifonici.

Come in precedenza, r colldata trasmette tutti i dati di coll dalla patch principale e i
differenti oggetti route smistano le istruzioni rivolte ai player. In particolare route play-rev
trasmette due numeri decimali, che impostano rispettivamente la durata del riverbero e un fattore
di amplificazione di ampiezza per aggiustare il volume in uscita dalla subpatch. route open
seleziona e apre il file audio da suonare, rendendolo di fatto disponibile all’esecuzione. route
play infine esegue il file audio preventivamente selezionato. La stessa cosa accade per il secondo
player, con gli oggetti route open2 e route play2.

4.7 balaenoptera-ircamverb-freeze
Questa subpatch si occupa dell’applicazione di un riverbero a tempo di decadimento infinito,
per il “congelamento” del suono utilizzato, effetto molto comune nel live electronics, così come
nella orchestrazione tradizionale. Per fare due esempi diacronicamente opposti possiamo pen-

52
sare all’orchestrazione in eco tipica di alcuni concerti di Vivaldi, o alla medesima tecnica come
applicata molto spesso in Berio.12 In Figura 4.6 la subpatch utilizzata.

Figura 4.6: La subpatch relativa al riverbero infinito.

Come già descritto, r colldata trasmette tutti i dati di coll dalla patch principale, e l’ogget-
to route bal-irc-freeze smista le istruzioni destinate a questo effetto. In dettaglio: in primis
viene attivata la registrazione dell’audio in tempo reale, con le stesse modalità descritte in prece-
denza; poi l’oggetto unpack f i f trasmette in ordine, da destra a sinistra come consueto in
Max/MSP, un numero decimale, uno intero e un altro decimale, destinati rispettivamente al
fattore di moltiplicazione di ampiezza per l’aggiustamento del volume in uscita dalla subpatch,
all’attivazione del riverbero infinito (1 = on, 0 = off), e alla durata della coda del riverbero, in
maniera tale che quando si disattiva il riverbero infinito questo non si tronchi bruscamente, ma
decada naturalmente per la durata specificata da quest’ultimo parametro.

4.8 balaenoptera-rt-stretch
Questo effetto consiste nella dilatazione temporale di un secondo di audio registrato in tempo
reale dal clarinetto basso. L’oggetto a ciò preposto è supervp.play˜ e fa parte della libreria
dell’Ircam SuperVPMaxMSP. I parametri di questo oggetto sono veramente innumerevoli, e
gestiscono il motore relativo al phase vocoding avanzato del programma SuperVP, che è alla base
anche del funzionamento di AudioSculpt.13 In questa sede si descrivono solo le caratteristiche
12 Per Vivaldi possiamo rimandare ad esempio al tempo lento centrale del Concerto per violino solo in la minore
dall’Estro Armonico; per Berio possiamo citare, tra gli innumerevoli casi a disposizione, l’inizio di Voci, per viola
e orchestra.
13 Il phase vocoder si basa sull’analisi e risintesi FFT di un segnale audio, e permette, tra le altre cose, la sua

trasposizione e dilatazione/contrazione temporale in maniera altamente indipendente. SuperVP è un programma


a linea di comando, al quale si riferiscono molti dei programmi Ircam, come ad esempio AudioSculpt stesso
che può essere considerato una sorta di interfaccia grafica a SuperVP, oltre ad alcune delle librerie pensate per
OpenMusic. E ovviamente SuperVP può essere utilizzato direttamente dal terminale, digitando il comando e le
opzioni necessarie allo scopo prefissato.

53
utilizzate. In Figura 4.7 la subpatch relativa, contenente due oggetti supervp.play˜ in parallelo,
che consentono la realizzazione di bicordi.

Figura 4.7: La subpatch per la dilatazione temporale in tempo reale.

Come al solito r colldata trasmette tutti i dati di coll, mentre route bal-rt-stretch-
play e route bal-rt-stretch selezionano le istruzioni di codice necessarie a questo effet-
to. route bal-rt-stretch trasmette numeri decimali e interi preposti all’impostazione dei
parametri. Da destra a sinistra si trasmettono in ordine: il fattore di riscalatura dell’ampiez-
za in uscita; il fattore di dilatazione temporale dell’oggetto supervp.play˜ di destra; il valore
di trasposizione, in cent, dell’oggetto supervp.play˜ di destra; il fattore di dilatazione tem-
porale dell’oggetto supervp.play˜ di sinistra; il valore di trasposizione, in cent, dell’ogget-
to supervp.play˜ di sinistra; la durata del riverbero. bal-rt-stretch-play attiva l’ese-
cuzione dell’effetto, con la registrazione dell’audio in tempo reale e l’esecuzione dei due oggetti
supervp.play˜, con un ritardo di 10 millisecondi (delay 10) dall’inizio della registrazione audio
e della creazione del relativo buffer, in maniera tale che il suono possa essere eseguito, dilata-
to, man mano che viene memorizzato nel buffer, ovvero praticamente iniziando subito dopo
la sua registrazione in tempo reale. Risulta ovvio che è possibile agire con efficacia solo sulla
dilatazione temporale dell’audio registrato, certamente non sulla contrazione, controllando che
supervp.play˜ non arrivi mai, sorpassandolo, alla fine del buffer in fase di costruzione. Se
supervp.play˜ procedesse più veloce della creazione del buffer, ossia del tempo reale della regi-
strazione, inevitabilmente si troverebbe ad un certo momento a superare il punto di riempimento
del buffer, per cui lo troverebbe vuoto e non avrebbe più niente da dilatare.14 In termini traslati
è come se il buffer in entrata fosse un rubinetto che riempie una vasca, e supervp.play˜ fosse
uno scarico che la svuota. Affinché ci sia sempre flusso di acqua occorre che le velocità di riem-

14 Generalizzando possiamo pensare al funzionamento descritto come ad un indice che scorre un file audio a

differenti velocità, volendo anche alla rovescia, restituendone una versione temporalmente identica se la velocità
di scorrimento è uguale a quella dell’esecuzione del file, oppure versioni dilatate o contratte se la velocità è minore
o maggiore dell’esecuzione ordinaria del file.

54
pimento e svuotamento siano uguali, oppure la velocità di svuotamento sia minore di quella di
riempimento. Il contrario interromperebbe il flusso.

4.9 balaenoptera-tap-transp
Questo effetto presenta otto istanze di effetti di eco con retroazione (Feedback Tap-Delay) con
la possibilità di trasporre indipendentemente di una certa quantità ogni ripetizione. In Figura
4.8 la subpatch relativa e in Figura 4.9 la ulteriore subpatch con il meccanismo di trasposizione.

Figura 4.8: L’effetto di eco ripetuti con possibile trasposizione.

route bal-tap-transp imposta i parametri dell’effetto. In particolare gli ultimi tre numeri
decimali sono relativi, dall’ultimo al terzultimo, al fattore di moltiplicazione di ampiezza del
volume finale delle ripetizioni, alla durata del riverbero e al fattore di moltiplicazione di ampiezza
della retroazione dell’eco, ossia del Feedback. I primi numeri interi impostano invece i valori
relativi alla trasposizione in cent e alla distanza in millisecondi tra una ripetizione e l’altra. route
bal-tap-transp-play attiva l’effetto, prima inviando i valori di trasposizione, poi attivando la
registrazione audio in tempo reale.
Per quanto riguarda la subpatch p traspositori essa risulta semplicemente composta di
otto oggetti supervp.trans˜, sempre della libreria SuperVPMaxMSP, che ricevono ognuno il
valore di trasposizione e l’audio su cui effettuare tale operazione. Poiché l’audio in uscita da
tapout˜ (Figura 4.8) viene prima trasposto e poi rimandato in circolo rientrando in tapin˜,
ad ogni ciclo le ripetizioni sono più acute o più gravi dello stesso modulo, a seconda del valore
positivo o negativo di trasposizione impostato. Nello spirito della concezione di questo brano
anche i valori di trasposizione e di ripetizione sono stati decisi in base a congruenze con la parte
strumentale ed elettronica. E questo ci porta alla prossima sezione.

55
Figura 4.9: La subpatch p traspositori della patch di Figura 4.8.

4.10 Relazioni tra live electronics, parte elettronica e parte


strumentale
Entrare troppo in dettaglio su quanto pertiene lo sviluppo del materiale elettronico ci por-
terebbe fuori argomento, tuttavia per chiarire alcune delle scelte e dei processi relativi al live
electronics è opportuno fornire qualche informazione. Tra i materiali principalmente utilizza-
ti nella composizione di Balaenoptera troviamo due insiemi di classi di altezze che sono stati
ricavati dalla mappatura dell’alfabeto italiano, modulo 12, applicata alla parola Balaenoptera,
considerando ae come e. Quindi b-a-l-e-n-o-p-t-e-r-a ha fornito le cifre 1-0-9-4-11-0-1-5-4-3-0 che
hanno dato l’insieme di classi di altezze 7-13 (0,1,2,4,5,6,8) <443532>, col suo complementare 5-
13 (0,1,2,4,8) <221311>.15 Dalla successione delle classi di altezze, misurando la loro distanza in
semitoni, è stato possibile ricavare le seguenti serie numeriche, 1 1 2 1 1 2 (4) e 1 1 2 4 (4),16 all’o-
rigine di numerosi trattamenti proporzionali, particolarmente per quanto riguarda il parametro
delle durate. Tra i suoni del clarinetto basso preventivamente registrati e utilizzati in vario modo
nella composizione, figurano quattro suoni multipli che, analizzati con AudioSculpt per ricavarne
sequenze di accordi, hanno dato gruppi di frequenze, mediamente approssimate al semitono o al
quarto di tono, utilizzate sia nella parte strumentale che in quella elettronica (suoni elettronici e
live electronics). Allo stesso modo in alcuni punti si sono usate trasformazioni per filtraggio se-
condo frequenze formanti, corrispondenti alle vocali di voci di Soprano, Contralto, Controtenore,
Tenore e Basso, che hanno fornito campi armonici ugualmente utilizzabili nella composizione. In
Appendice 2 troviamo l’elenco completo dei parametri relativi ad ogni vocale e ogni voce. Le
frequenze delle formanti sono state utilizzate variamente nel corso della composizione, non solo
nella parte elettronica, ma anche in quella strumentale.

15 Non è possibile in questa sede trattare della Pitch-class Set Theory, possiamo fornire solo alcune utili indi-

cazioni bibliografiche: Forte, Allen, The structure of atonal music, New Haven and London, Yale University Press
1973; Pasticci, Susanna, Teoria degli insiemi e analisi della musica post-tonale, in Bollettino del GATM, Anno
II, numero 1, Monografie GATM, marzo 1995; Tucker, Gary, A brief Introduction to Pitch-Class Set Analysis,
Mount Allison University 2001. Internet: http://www.mta.ca/faculty/arts-letters/music/pc-set_project/
pc-set_new/.
16 Il numero finale tra parentesi indica la distanza necessaria a chiudere il ciclo tornando al numero 12, ossia a

0.

56
Rileggendo il codice immesso in coll possiamo estrapolare qualche esempio per illustrare
come si è cercato di relazionare i tre mondi (strumentale ed elettronico in tempo differito e in
tempo reale) utilizzando lo stesso gruppo di parametri o di concetti.

L’istruzione n. 8 riporta i seguenti dati:

8, bal-tap-transp 10 20 40 80 -10 -20 -40 -80 500 1000 2000 333 666 1332 400 800
0.5 5 0.05;

I numeri +/- 10, 20, 40, 80, relativi ai cent di trasposizione per ognuno degli otto effetti,
sono proporzionali alla serie numerica 1-2-4-8, tratta dalla forma primaria di 5-13; ugualmente
i tempi di ritardo 500-1000-2000 e 333-666-1332 (e parzialmente anche 400-800) seguono una
progressione di incremento di +1 e +2, assumendo come unità la prima cifra, che è la stessa
successione di incremento della serie in questione, prendendo le prime tre cifre. Ovvero da 1 a 2
abbiamo +1, mentre da 2 a 4 si ha +2.

L’istruzione 17 riporta i seguenti dati:

17, bal-irc-freeze 5 0 0.5;

Il numero 5 indica la durata in secondi del riverbero. 5 è un numero strutturale ricorrente in


questa composizione, sia per il numero di frequenze che si è voluto estrarre dall’analisi audio dei
suoni multipli del clarinetto basso, sia, soprattutto, perché 5 è il numero delle formanti vocaliche.
Spesso i dati di altezza sviluppati algoritmicamente con OpenMusic e PWGL sono stati
approssimati al semitono, al quarto di tono, talvolta all’ottavo di tono. La stessa differenza
la ritroviamo in talune impostazioni parametriche dell’elettronica in tempo reale. Ad esempio
l’istruzione n. 4

4, bal-rt-stretch 2.5 1150 18 1200 18 0.25;

imposta una dilatazione temporale di 18 secondi sull’audio in entrata, con trasposizione di 1150
e 1200 cent, ossia un’ottava superiore e lo stesso intervallo abbassato di un quarto di tono (1200-
1150 = 50, che in cent dà appunto un quarto di tono). Oppure l’istruzione 20,

20, bal-rt-stretch 2.5 50 24 -50 24 0.25;

che di nuovo stabilisce una trasposizione di un quarto di tono superiore e inferiore (+50 e -50
cent).

Alla linea n. 64

64, bal-rt-gran 5 0 950 1600 1950 2150 25 1500 5 1;

abbiamo la lettura granulare dell’audio in entrata, nello specifico un micro-glissando su un Do


diesis centrale. La successione dei cinque valori 0 950 1600 1950 2150 corrisponde in cent alle
trasposizioni necessarie a ricreare le frequenze principali di un suono multiplo tra quelli utilizzati
dal clarinetto basso. Si realizza così una sorta di versione artificiale, in tempo reale, di un suono
multiplo suonato dal clarinetto basso in altra parte della composizione. Il valore 25 si riferisce alla
variazione casuale di intonazione dei grani, in cent, quindi corrispondente a un quarto di tono,

57
una delle soglie di approssimazione utilizzate nello sviluppo algoritmico del materiale compositivo
della parte strumentale.
Gli esempi riportati non sono molti, e non è possibile disquisire ampiamente su quanto operato
nella creazione dei file audio poi eseguiti dai due player dell’elettronica in tempo reale. Tuttavia si
spera che quanto brevemente riportato possa comunque offrire lo spunto per la ricerca personale
e ulteriori sviluppi.17

4.11 Conclusioni
Balaenoptera ha rappresentato un punto di volta importante nella produzione compositiva
dello scrivente. Ha stimolato un approccio più completo e integrato alla composizione, riunendo
mondi apparentemente lontani come il dominio strumentale e quello elettronico. In questo scritto
si è cercato di suggerire almeno un’idea di cosa sia possibile attuare in questo contesto, non
solo tecnicamente e tecnologicamente, ma soprattutto, una volta che si siano interiorizzate a
sufficienza tecniche e processi, espressivamente e artisticamente. Un modo di procedere che può
sembrare slegato dalla tradizione, ma che in realtà può gettare le basi per una nuova concezione
di tematismo, se vogliamo, in cui il termine “tema” è da intendersi in una accezione più allargata,
riconducibile ad un elemento, o a una serie di elementi musicali, cognitivi, espressivi, che possono
essere posti a fondamento completo della composizione. E forse può essere un modo non troppo
differente dal procedere di un compositore barocco che basa la sua Fuga sul Soggetto, o di
un compositore romantico come Brahms che nella prima battuta della sua composizione può
contenere e preannunciare gli sviluppi successivi, o ancora un compositore dodecafonico, che
nella serie include tutte le caratteristiche sonore delle strutture della sua composizione, o infine
un compositore seriale o post-seriale, che sviscera le possibilità più recondite e complete del suo
materiale. In nome di una tendenza aristotelica e cognitiva all’unità che caratterizza da sempre
la civiltà musicale occidentale, e che ha lasciato un’eredità immensa che sta a noi comprendere,
preservare, valorizzare e cercare di continuare.

4.12 Appendice 1: il codice di programmazione dell’oggetto


coll
1, play-rev 2.5 0.5;
2, open 0;
3, play 1;
4, bal-rt-stretch 2.5 1150 18 1200 18 0.25;
5, bal-rt-stretch-play 1;
6, bal-tap-transp 500 1000 1500 250 200 400 800 333 500 1000 1500 250 200 400 800 333 0.5 2.5
1;
7, bal-tap-transp-play 1;
8, bal-tap-transp 10 20 40 80 -10 -20 -40 -80 500 1000 2000 333 666 1332 400 800 0.5 5 0.05;
9, bal-tap-transp-play 1;
17 Il lettore interessato a questo tipo di approccio alla composizione potrà sicuramente trarre beneficio dalla

lettura dei seguenti testi: Agon, Carlos - Assayag, Gérard e Bresson, Jean, The OM Composer’s Book. Volume
One, Editions Delatour France/Ircam, Parigi, 2006; Bresson, Jean - Agon, Carlos e Assayag, Gérard, The OM
Composer’s Book. Volume Two, Editions Delatour France/Ircam, Parigi, 2008; Bresson, Jean - Agon, Carlos e
Assayag, Gérard, The OM Composer’s Book. Volume 3, Editions Delatour France/Ircam, Parigi, 2016; Hirs, Roza-
lie e Gilmore, Bob, Contemporary Compositional Techniques and OpenMusic, Editions Delatour France/Ircam,
Parigi, 2013; Giommoni, Marco, Gli algoritmi della musica, Padova, CLUEP 2011.

58
10, bal-tap-transp-play 1;
11, bal-rt-stretch 2.5 -1150 18 -1200 18 0.25;
12, bal-rt-stretch-play 1;
13, bal-irc-freeze 5 1 0.5;
14, play-rev 2.5 0.5;
15, open2 1;
16, play2 1;
17, bal-irc-freeze 5 0 0.5;
18, bal-tap-transp-play 1;
19, bal-tap-transp-play 1;
20, bal-rt-stretch 2.5 50 24 -50 24 0.25;
21, bal-rt-stretch-play 1;
22, bal-tap-transp-play 1;
23, bal-tap-transp-play 1;
24, bal-tap-transp-play 1;
25, bal-irc-freeze 5 1 0.5;
26, bal-rt-stretch 2.5 50 8 -50 8 0.25;
27, bal-rt-stretch-play 1;
28, bal-irc-freeze 5 0 0.5;
29, bal-rt-stretch-play 1;
30, open 2;
31, play 1;
32, bal-rt-stretch 2.5 1175 16 1200 16 0.25;
33, bal-rt-stretch-play 1;
34, bal-tap-transp 10 20 40 80 -10 -20 -40 -80 500 1000 2000 333 666 1332 400 800 0.5 5 0.25;
35, bal-tap-transp-play 1;
36, bal-tap-transp 10 20 40 80 -10 -20 -40 -80 500 1000 2000 333 666 1332 400 800 0.5 5 0.05;
37, bal-tap-transp-play 1;
38, bal-rt-stretch-play 1;
39, bal-irc-freeze 10 1 0.5;
40, bal-tap-transp-play 1;
41, bal-rt-stretch 2.5 1200 12 1175 12 0.25;
42, bal-rt-stretch-play 1;
43, bal-rt-stretch 2.5 1175 28 1200 28 0.25;
44, bal-rt-stretch-play 1;
45, bal-irc-freeze 10 0 0.5;
46, bal-tap-transp-play 1;
47, bal-rt-stretch 2.5 1200 16 1175 16 0.25;
48, bal-rt-stretch-play 1;
49, bal-rt-gran 5 0 950 1600 1950 2150 25 500 5 0.75;
50, bal-rt-gran-play 1;
51, bal-rt-gran-stop 1;
52, bal-irc-freeze 5 1 0.5;
53, bal-rt-gran 5 0 950 1600 1950 2150 25 500 5 0.75;
54, bal-rt-gran-play 1;
55, bal-irc-freeze 5 0 0.5;
56, bal-rt-gran-stop 1;
57, bal-irc-freeze 5 1 0.5;
58, bal-rt-gran-play 1;

59
59, bal-irc-freeze 5 0 0.5;
60, bal-rt-gran-stop 1;
61, open2 3;
62, play2 1;
63, bal-irc-freeze 5 1 0.75;
64, bal-rt-gran 5 0 950 1600 1950 2150 25 1500 5 1;
65, bal-irc-freeze 5 1 0.75;
66, bal-irc-freeze 5 1 0.75;
67, bal-rt-gran-play 1;
68, bal-irc-freeze 5 1 0.5;
69, bal-rt-gran-play 1;
70, bal-rt-gran-play 1;
71, bal-irc-freeze 5 1 0.75;
72, bal-rt-gran-stop 1;
73, bal-rt-gran-play 1;
74, bal-irc-freeze 5 0 0.5;
75, bal-rt-gran-stop 1;
76, bal-irc-freeze 5 1 0.75;
77, bal-rt-gran-play 1;
78, bal-rt-gran-stop 1;
79, bal-irc-freeze 5 1 0.75;
80, bal-irc-freeze 5 1 0.75;
81, open 4;
82, play-rev 2.5 0.5;
83, play 1;
84, bal-irc-freeze 5 1 0.75;
85, open 5;
86, play 1;
87, bal-rt-gran-play 1;
88, open 6;
89, play 1;
90, bal-rt-gran-stop 1;
91, bal-irc-freeze 5 0 0.75;
92, bal-irc-freeze 5 1 0.75;
93, open 7;
94, play 1;
95, bal-irc-freeze 5 0 0.75;
96, bal-rt-gran-play 1;
97, open 8;
98, play 1;
99, bal-rt-gran-stop 1;
100, bal-irc-freeze 5 1 0.75;
101, open 9;
102, play 1;
103, bal-rt-stretch 2.5 -25 4 25 4 0.5;
104, bal-rt-stretch-play 1;
105, open2 10;
106, play2 1;
107, bal-irc-freeze 5 0 0.75;

60
108, bal-rt-stretch 2.5 -25 8 25 8 0.5;
109, bal-rt-stretch-play 1;
110, open2 11;
111, play2 1;
112, bal-rt-stretch 2.5 -25 9 25 9 0.5;
113, bal-rt-stretch-play 1;
114, open2 12;
115, play2 1;
116, bal-rt-stretch 2.5 -25 14 25 14 0.5;
117, bal-rt-stretch-play 1;
118, open2 13;
119, play2 1;
120, bal-rt-stretch 2.5 -25 9 25 9 0.5;
121, bal-rt-stretch-play 1;
122, bal-irc-freeze 5 1 0.1;
123, bal-tap-transp 10 20 40 80 -10 -20 -40 -80 500 1000 2000 333 666 1332 400 800 0.5 5 0.05;
124, bal-irc-freeze 5 1 0.75;
125, bal-tap-transp-play 1;
126, bal-irc-freeze 5 1 0.75;
127, bal-irc-freeze 5 1 0.75;
128, bal-rt-gran-play 1;
129, bal-irc-freeze 5 1 0.75;
130, bal-tap-transp-play 1;
131, bal-irc-freeze 5 1 0.75;
132, bal-tap-transp-stop 1;
133, bal-irc-freeze 5 1 0.75;
134, bal-rt-gran-play 1;
135, bal-irc-freeze 5 0 0.5;
136, bal-irc-freeze 5 1 0.75;
137, bal-rt-gran-stop 1;
138, open 14;
139, play 1;
140, bal-irc-freeze 5 0 0.75;

4.13 Appendice 2: elenco dei parametri delle formanti


È noto come sia possibile sintetizzare le vocali secondo differenti tipi di voci filtrando ad
esempio un suono complesso o un treno di impulsi con cinque filtri in parallelo, assegnando i
valori relativi a frequenza di banda, ampiezza, larghezza di banda.
In ordine sono forniti i dati per le vocali a-e-i-o-u e le voci di Soprano, Contralto, Controtenore,
Tenore e Basso. Per ogni vocale abbiamo cinque triplette di dati. In ognuna di esse i dati si
riferiscono alla frequenza in Hz., all’ampiezza, alla larghezza di banda. I dati si sono ricavati con
una semplice patch di OpenMusic e utilizzando l’oggetto vowel-formants della libreria Chant
per OpenMusic. Per praticità i decimali sono stati approssimati al millesimo

• Soprano:

– ((800 1.0 80) (1150 0.501 90) (2900 0.025 120) (3900 0.1 130) (4950 0.003 140))

61
– ((350 1.0 60) (2000 0.1 100) (2800 0.178 120) (3600 0.01 150) (4950 0.002 200))
– ((270 1.0 60) (2140 0.251 90) (2950 0.050 100) (3900 0.050 120) (4950 0.006 120))
– ((450 1.0 40) (800 0.282 80) (2830 0.079 100) (3800 0.079 120) (4950 0.003 120))
– ((325 1.0 50) (700 0.158 60) (2700 0.018 170) (3800 0.01 180) (4950 0.001 200))

• Contralto:

– ((800 1.0 80) (1150 0.631 90) (2800 0.1 120) (3500 0.016 130) (4950 0.001 140))
– ((400 1.0 60) (1600 0.063 80) (2700 0.032 120) (3300 0.0178 150) (4950 0.001 200))
– ((350 1.0 50) (1700 0.1 100) (2700 0.032 120) (3700 0.016 150) (4950 0.001 200))
– ((450 1.0 70) (800 0.355 80) (2830 0.158 100) (3500 0.040 130) (4950 0.001 135))
– ((325 1.0 50) (700 0.251 60) (2530 0.031 170) (3500 0.01 180) (4950 6.310 200))

• Controtenore:

– ((660 1.0 80) (1120 0.501 90) (2750 0.070 120) (3000 0.063 130) (3350 0.012589254
140))
– ((440 1.0 70) (1800 0.199 80) (2700 0.126 100) (3000 0.1 120) (3300 0.1 120))
– ((270 1.0 40) (1850 0.063 90) (2900 0.063 100) (3350 0.016 120) (3590 0.016 120))
– ((430 1.0 40) (820 0.316 80) (2700 0.050 100) (3000 0.079 120) (3300 0.020 120))
– ((370 1.0 40) (630 0.1 60) (2750 0.071 100) (3000 0.032 120) (3400 0.020 120))

• Tenore:

– ((650 1.0 80) (1080 0.501 90) (2650 0.447 120) (2900 0.398 130) (3250 0.079 140))
– ((400 1.0 70) (1700 0.199 80) (2600 0.251 100) (3200 0.199 120) (3580 0.1 120))
– ((290 1.0 40) (1870 0.178 90) (2800 0.126 100) (3250 0.1 120) (3540 0.032 120))
– ((400 1.0 70) (800 0.316 80) (2600 0.251 100) (2800 0.251 130) (3000 0.050 135))
– ((350 1.0 40) (600 0.1 60) (2700 0.141 100) (2900 0.199 120) (3300 0.050 120))

• Basso

– ((600 1.0 60) (1040 0.447 70) (2250 0.355 110) (2450 0.355 120) (2750 0.1 130))
– ((400 1.0 40) (1620 0.251 80) (2400 0.355 100) (2800 0.251 120) (3100 0.126 120))
– ((250 1.0 60) (1750 0.032 90) (2600 0.158 100) (3050 0.079 120) (3340 0.040 120))
– ((400 1.0 40) (750 0.282 80) (2400 0.089 100) (2600 0.1 120) (2900 0.01 120))
– ((350 1.0 40) (600 0.1 80) (2400 0.025 100) (2675 0.040 120) (2950 0.016 120))

62
4.14 Bibliografia
Agon, Carlos - Assayag, Gérard e Bresson, Jean, The OM Composer’s Book. Volume One,
Editions Delatour France/Ircam, Parigi, 2006.
Bresson, Jean - Agon, Carlos e Assayag, Gérard, The OM Composer’s Book. Volume Two,
Editions Delatour France/Ircam, Parigi, 2008.
Bresson, Jean - Agon, Carlos e Assayag, Gérard, The OM Composer’s Book. Volume 3,
Editions Delatour France/Ircam, Parigi, 2016.
Forte, Allen, The structure of atonal music, New Haven and London, Yale University Press
1973.
Giommoni, Marco, Gli algoritmi della musica, Padova, CLUEP 2011.
Hirs, Rozalie e Gilmore, Bob, Contemporary Compositional Techniques and OpenMusic,
Editions Delatour France/Ircam, Parigi, 2013.
Pasticci, Susanna, Teoria degli insiemi e analisi della musica post-tonale, in Bollettino del
GATM, Anno II, numero 1, Monografie GATM, marzo 1995.
Tucker, Gary, A brief Introduction to Pitch-Class Set Analysis, Mount Allison University
2001, http://www.mta.ca/faculty/arts-letters/music/pc-set_project/pc-set_new/.

63
64
Capitolo 5

Jorge Antunes

Anadiplosia para Tirzo: una


Anadiplosi applicata alla struttura
musicale.

antunes@jorgeantunes.com.br

5.1 La Retorica di Aristotele


Aristotele ha distinto tre grandi generi nella Retorica (Aristotele, 1997): l’epidittico, con uno
stile divertente e piacevole, nel quale il pubblico prescrive l’elogio o la censura; il giudiziario,
nel quale si determina se una azione è giusta o no; e il deliberativo, in cui si deve decidere su
una azione, in funzione della sua utilità o dannosità. Questi tre generi hanno una componente
di ethos, una di pathos e un’altra di logos. In sintesi, un pubblico giudica se il discorso è bello
(epidittico), giusto (giudiziario) o utile (deliberativo) (Gardes-Tamine, 1996). La componente
ethos è presente nell’oratore, che nell’ambito della parola è oratore e nel dominio della musica
è il dipolo compositore-interprete. La componente pathos, la cui origine etimologica si riferisce
alla risposta dell’anima, si localizza nel dominio delle passioni. La componente logos (regola) è
presente anche nei tre generi: nella retorica epidittica, giudiziaria e deliberativa abbiamo a che
fare sempre con ciò che “sarebbe possibile”, ciò che “è possibile” e ciò che “sarà possibile” (Cooper,
1967).

5.2 Il genere Epidittico


Nelle relazioni interpersonali è frequente ascoltare: “Come va?”. E l’altro risponde: “Tutto
bene. Come va?”. In verità non si è realmente interessati a conoscere come sta l’altro. Questi
saluti spesso possono precedere un dialogo acido, che si occuperà di questioni delicate. I saluti
iniziali sono sempre importanti per stabilire una cortesia che mitiga o riduce al minimo qualsiasi
potenziale aggressività. D’accordo con Esther Godoy, questi e altri aspetti della comunicazione
umana hanno l’obiettivo di diminuire la distanza tra gli individui. In questa forma di discorso
iniziale si verifica “una negoziazione per la quale si concretizza una diminuzione di tale distanza.

65
Il genere epidittico, che mira ad annullare la distanza, svolge perfettamente questa funzione”.
(Godoy, 1978).

5.3 Persuasione e seduzione


In lavori precedenti si è descritta l’identificazione delle varie figure del linguaggio nella musica
elettroacustica. Qui si intende mettere in evidenza alcuni tipi di fenomeni causati, durante la
comunicazione musicale, dalle sintassi che usano i semantemi (Antunes, 2001a, 2001b): la “con-
vinzione”, la “commozione” e la “persuasione”. (Antunes, 2004). Introduciamo, pertanto, un’altra
parola che ben definisce l’intenzione del compositore nel processo di “conquistare” il pubblico:
la “seduzione”. Il concetto di “seduzione” viene applicato prevalentemente nella pubblicità, nella
propaganda, nelle relazioni amorose e in politica. Ma non è solo in questi quattro processi di
comunicazione che la seduzione è presente. Anche in musica possiamo parlare di una “retorica
della seduzione”. Nel fenomeno della comunicazione musicale incontriamo allo stesso modo il
discorso indiretto, figurato, che non dice letteralmente ciò che motiva e ispira il comunicatore
o l’autore, ma che, sebbene non espresso, è incorporato nella sintassi del compositore, con tat-
tiche e strategie che rivelano l’intenzione che qualcosa di nascosto sia percepito e assimilato dal
pubblico. Il compositore di musica elettroacustica, oltre a voler convincere e commuovere, non
pratica più solo il puro piacere sonoro, spesso cerca di “sedurre” l’ascoltatore. L’indagine che ab-
biamo sviluppato è volta alla ricerca e all’identificazione di elementi del linguaggio che denotino
evidenze di una “eloquenza elettroacustica”.

5.4 Le espressioni figurate e il LIEM


Nel Libro IX, Quintiliano si occupa della “Elocuzione Figurata”, soffermandosi sulle “Figure di
Parola”. È nel Paragrafo I del capitolo III che incontriamo le figure principali: Anafora, Epistrofe,
Poliptoto, Anadiplosi, Epizeusi, Anadiplosi, Diacope, Symploché, Epanalessi, Epanodo, Sinoni-
mia, Congerie, Polisindeto e Climax (Quintiliano, 1944). Una delle figure di parola più adatte
alla costruzione musicale è l’Anadiplosi. Nel 2008, a seguito del premio Estancias ottenuto dal
Ministro della Cultura spagnolo, abbiamo sviluppato un progetto di composizione nello studio di
musica elettroacustica LIEM (Laboratório de Informática y Electroacústica Musical ) di Madrid.
Nel LIEM si sono composte quattro opere, tutte basate su poesie, usando figure sintattiche. Uno
di questi lavori, intitolato Anadiplosia para Tirzo, della durata di poco più di 7 minuti, è stato
riconosciuto come brano di grandi capacità espressive e di comunicazione.

5.5 Anadiplosi
L’Anadiplosi è una figura retorica che consiste nel ripetere all’inizio di un verso, o di una frase,
una parola che era alla fine del verso o della frase precedente. Ecco un esempio di Anadiplosi, nel-
la poesia dello spagnolo José de Espronceda, intitolata A la muerte de Torridos y sus compañeros:

Españoles, llorad; mas vuestro llanto


lágrimas de dolor y sangre sean,
sangre que ahogue a siervos y opresores

(Espronceda, A la muerte de Torridos y sus compañeros)

66
In Shakespeare incontriamo esempi interessanti di Anadiplosi. Eccone uno:

The love of wicked men converts to fear,


That fear to hate, and hate turns one or both
To worthy danger and deserved death.
(Shakespeare, Richard II 5.1.66-68)

Incontriamo l’Anadiplosi in alcune poesie di autori brasiliani:

Contou muitas histórias.


Histórias de lembranças

(Álvaro Moreira, Havia uma Oliveira no Jardim, p.104)

E a fonte, rápida e fria,


Com um sussurro zombador,
Por sobre a areia corria,
Corria levando a flor.

(Vicente de Carvalho, Poemas e Canções, p.263)

O dia surge todo de bruma,


todo de bruma, todo de neve.

(Alphonsus de Guimaraens, Obras Completas, p.117)

Nella musica elettroacustica, dove l’eloquenza nella trasmissione di un’idea musicale potrebbe
manifestarsi, l’uso della Anadiplosi dovrebbe inserirsi nella costruzione in cui lo stesso oggetto
audio, o il medesimo semantema, si incontra in finale di frase, e, con ripetizione, all’inizio della
frase seguente. È stato il criterio utilizzato nella costruzione di Anadiplosia para Tirzo.

5.6 Tirso de Molina


Tirso de Molina fu un monaco spagnolo che visse dal 1579 al 1648. Il suo vero nome era
Fray Gabriel Téllez. Fu scrittore drammatico e poeta, e ci ha lasciato drammi importanti.
Avendo trattato, nei suoi scritti, temi profani con idee coraggiose, fu un creatore molto polemico.
Ha scritto 400 commedie di tutti i tipi, diventando famoso per la creazione dell’archetipo Don
Juan. Le sue opere più importanti sono El burlador de Sevilla, Don Gil de las calzas verdes,
El vergonzoso em palacio e El condenado por desconfiado. Da lui abbiamo una delle più belle e
poetiche costruzioni con Anadiplosi:

¿Ves essas yedras y parras


de esos alamas enredos?
Pues celosas de sus hojas,
tienen ya sus troncos secos.

Celos que del prado tiene,


hacen que aquel arroyuele
hechos labios sus cristales,

67
se coma aquel lirio a besos.

No hay criatura sin amor,


amor sin cellos perfecto,
ni celos libres de engaños.
Ni engaños sin fundamento.
(Tirzo de Molina, La Gallega Mari-Hernández )

La poesia è un estratto del lavoro teatrale La Gallega Mari-Hernández. Si tratta del discorso
di uno dei personaggi, che fa riferimento alla sensualità, all’amore e alla gelosia causata dall’at-
trazione dei corpi. Il materiale sonoro che si è utilizzato nella composizione elettroacustica è
principalmente la registrazione di queste tre strofe, con la voce della pianista Ana Vega-Toscano
che è presentatrice professionista della Radio Nazionale di Spagna. La composizione musicale
aveva una struttura precedentemente stabilita, in modo da costituirsi in un discorso musicale in
forma di Anadiplosi. Ossia, gli oggetti sonori utilizzati alla fine di una frase si ripetono all’inizio
della frase successiva. La Figura 5.1 illustra la struttura della prima sezione dell’opera. Essa è
costituita da quattro frasi, in configurazione simmetrica. La seconda frase inizia con l’elemento B
processato: la prima frase termina con l’elemento B. L’elemento A appare nel finale della seconda
frase ed esso stesso, processato, sta all’inizio della terza frase. Questa termina con l’elemento C,
che è ripetuto, processato e moltiplicato nella stereofonia spaziale, all’inizio della quarta frase. Il
periodo di quattro frasi termina con il processamento dell’elemento D, utilizzato all’inizio della
prima frase dell’opera.

Figura 5.1: Struttura della prima sezione dell’opera.

La Figura 5.2 mostra la struttura totale dell’opera, con le sue tre sezioni. La seconda sezione
è una specie di grande divertimento, nello stesso spirito dello Sviluppo della Sonata: gli elementi
di base sono elaborati e moltiplicati con diversi tipi di trattamento elettroacustico, con ripetizioni
parziali, dando luogo ad un finale in cui si esplora la parola “amor”. La terza sezione dell’opera
sfida i canoni della musica elettroacustica tradizionale, perché inizia con un linguaggio di poesia

68
sonora. Il testo viene presentato integralmente, con una voce sensuale, nell’interpretazione di
Ana-Vega Toscano, in autentico spagnolo antico. Nella parte finale del lavoro, seconda parte della
sezione terza, uno sviluppo e una coda danno risalto a due parole chiave del poema: “amor” e
“engaños”.1 Tutte le trasformazioni e i processamenti furono realizzati con plugin del programma
GRM-Tools: FreqShift, FreqWarp, PitcAccum, Flanger, Doppler e Comb Filter.

Figura 5.2: La struttura complessiva dell’opera. Tre sezioni, dall’alto al basso.

5.7 Conclusioni
Nella nostra esperienza si è evitata la ridondanza che espressione letteraria e musicale pote-
vano presentare. La caratteristica dell’Anadiplosi nella costruzione musicale non è stata utilizzata
sulle parole e sui versi di Molina in cui il poeta usava l’Anadiplosi. L’uso della figura di parola
dell’Anadiplosi, come modello di base per una struttura musicale, si rivela molto efficace in un’o-
pera elettroacustica, per facilitare la comunicazione con il pubblico. Questo è stato dimostrato
nei concerti in cui si è presentato il lavoro, a Madrid e Brasilia, e nel dibattito che è seguito con
il pubblico.
Gli indizi di una possibile eloquenza nella musica elettroacustica, che dimostra l’intenzione del
compositore di sedurre l’ascoltatore attraverso gesti poetici, fa luce sulla possibilità di evidenziare
le strutture della nuova musica come qualcosa di più di un semplice meta-linguaggio.2
1 Inganni [t.d.c.].
2 Testo originale in portoghese pubblicato in Revista Música Hodie, Goiânia, Brasil – V.14, n.1, 2014.

69
5.8 Bibliografia
Antunes, Jorge, Volatas e Cascatas: primeiras identificações de semantemas musicais na
música eletroacústica, com base em significações do tipo emoção forte, in Anais do XI Encontro
Nacional da Anppom, XI Encontro Nacional da Anppom, Campinas, 1998, pp. 156-161.
Antunes, Jorge, Baques e Quicadas: novas identificações de semantemas musicais na música
eletroacústica, com base em significações do tipo emoção forte, in Anais do XII Encontro Nacional
da Anppom, XII Encontro Nacional da Anppom, Salvador, 1999, CD-Rom.
Antunes, Jorge, O Semantema, in Opus no 7, Revista eletrônica da Anppom, 2000, disponi-
bile in http://www.anppom.com.br/revista/index.php/opus/article/view/42/34. Ultimo
accesso il 27/08/2016.
Antunes, Jorge, Clamores e Argumentos: identificação de semantemas musicais na música
eletroacústica, com base em significações do tipo persuasão, in Anais do XI Encontro Nacional
da Anppom, XI Encontro Nacional da ANPPOM, Belo Horizonte, 2001, pp. 253-260.
Antunes, Jorge, Anáfora, Epístrofe e Poliptóton: identificação de figuras de linguagem na
música eletroacústica, no âmbito da retórica e da eloqüência, com base em significações do tipo
persuasão, in Anais do XIV Encontro Nacional da Anppom, XIV Encontro Nacional da Anppom,
Porto Alegre, 2004.
Aristotele, Poética, São Paulo: Editora Cultrix 1997. Trad. diretta dal Greco e dal Latino di
Jaime Bruna: A Poética Clássica.
Cooper, Lane, Aristotle on the Art of Poetry, an amplified version with supplementary
illustrations, Ithaca, Cornell University Press 1967.
Gardes-Tamine, Joëlle, La réthorique, Paris, Armand Colin 1996.
Godoy, Esther, Questions and Politeness, Cambridge, Cambridge Press 1978.
Quintiliano, Marco Fabio, Instituições Oratórias, São Paulo, Edições Cultura 1944. Traduzione
di Jerônimo Soares Barbosa, 2 Voll.

70
Capitolo 6

Jorge Antunes

Dossier M-8 : un contributo allo


studio della storia della computer
music algoritmica brasiliana

antunes@jorgeantunes.com.br

6.1 Introduzione
L’intento di fare musica con i suoni delle cose emerse nell’Istituto Torcuato Di Tella, a Buenos
Aires, a seguito di un’idea che si era lanciata, in una sessione di improvvisazione collettiva, agli
altri studenti borsisti del Centro Latino Americano per gli Studi Musicali Avanzati. La prima
esperienza si costituì in una composizione collettiva dal titolo Oggetti. Sebbene il risultato
musicale non fu rilevante, serviva a dimostrare che era possibile pensarlo come una sorta di
“musica concreta dal vivo”. L’idea fu maturata a Utrecht nel 1970, con la catalogazione di
una tipologia di suoni di materiali: linee semplici, spettri di linee, suoni puntuali secchi, punti
riverberati, linee rugose e intrecciate.
La struttura del pezzo fu sviluppata in modo logico e progressivo, dopo la concezione di un
modello di trasformazione continua: fenomeni sonori in progressione dai più semplici a quelli di
grande complessità. Punti sparsi si sarebbero gradualmente trasformati in nuvole, costellazioni,
linee rugose, ecc., fino a quando non si sarebbe raggiunta un’ampia banda spettrale. Solo l’uso di
un computer avrebbe consentito il calcolo dei numeri necessari al montaggio di una trasformazione
perfetta e graduale di parametri.
Questo testo ha lo scopo di contribuire alla storia della Computer Music brasiliana, in par-
ticolare per quella parte definita musica algoritmica. Tuttavia, tenendo presente che il processo
principale utilizzato nel lavoro qui studiato fu l’uso di routine di generazione di numeri casuali,
preferiamo che essa sia definita come musica creata con l’assistenza del computer. Fu grazie al
computer Electrologica X-8 dell’Università di Utrecht, nel periodo dall’ottobre al dicembre 1970,
che fu possibile comporre il lavoro intitolato Musica per otto persone che suonano oggetti. Il
lungo titolo del pezzo fu sostituito, nelle bozze, dalla sigla M-8.

71
6.2 Project 2
Nel primo mese di studi al Instituut voor Sonologie, Utrecht, nel 1970, realizzammo che
alcuni programmi di test di Project 2, il nuovo programma scritto da Gottfried Michael Koenig,
potevano rappresentare gli strumenti di cui si aveva bisogno: un programma per il calcolo delle
variazioni delle strutture musicali.

The program is fashioned in such a way that its user defines the compositional
rules and also provides the data. Seen in this light, the computer does not ‘compose’;
it merely carries out the orders, which it is given. . . In other words, the computer can
help to solve problems which previously had to remain unsolved, because of the of
time it took to solve them.1

Project 2 è scritto nel linguaggio ALGOL 60 e consiste di tre parti con un programma
preliminare. Questo serve a introdurre e convertire in codice i dati forniti dal compositore. Le
altre due parti del programma sono progettate, rispettivamente, per organizzare l’ordinamento
dei parametri e l’organizzazione temporale.

Koenig suggests that computers provide the essential means for realizing composi-
tion in which the sound patterns and the rules of composition are closely linked, [. . . ]
He compares deterministic means and chance means which of producing components
of a score, pointing out that chance is ‘serviceable’ if a process requires variants or if
minor details are unimportant.2

Il problema che si voleva risolvere si riferiva principalmente al parametro densità. Eravamo


anche interessati alla collaborazione del computer nella costruzione timbrica del pezzo.
Alcuni concetti di base motivarono le nostre considerazioni durante la composizione del pezzo:

1. La rapida successione di suoni-punto produce una linea (un suono sostenuto). Questo
concetto era ispirato dall’esperienza, che portò Pierre Schaeffer a stabilire la nozione di
grano sonoro (Schaeffer, 1966).
2. Tra il suono-punto e il suono-linea esiste una fase intermedia, che consiste del cosid-
detto suono-punto risonante (suono secco riverberato, o breve suono seguito da qualche
risonanza).
3. L’agglomerato caotico di suoni-punto dà origine a una nuvola di suoni. Questo concetto fu
ispirato dall’esperienza di Xenakis e dalla teoria compositiva di Luis De Pablo (De Pablo,
1968).
4. Tornando al primo concetto, è necessario puntualizzare che la linea risultante dall’accumu-
lazione di suoni-punto emessi rapidamente diventa una linea rugosa. Le fonti sonore che
si selezionarono per produrre suoni rugosi furono quelle prodotte da frizione, raschiatu-
ra, tremolo, attraverso azioni di accartocciamento e lacerazione (di giornali, riviste) e di
scuotimento, trascinamento e collisione (di dadi e bulloni, pedine di plastica, biglie).
1 «Il programma è modellato in modo tale che il suo utente definisce le regole di composizione e fornisce anche

i dati. Visto in questa luce, il computer non ’compone’; esso si limita ad eseguire gli ordini, che gli sono dati. . . In
altre parole, il computer può aiutare a risolvere i problemi che finora dovevano rimanere irrisolti, a causa del
tempo che occorreva per risolverli.» (Koenig, 1970, p. 8) [t.d.c.].
2 «Koenig suggerisce che i computer forniscono i mezzi necessari per la realizzazione della composizione in cui

i pattern sonori e le regole di composizione sono strettamente legate, [. . . ] Egli paragona mezzi deterministici
e mezzi casuali quali mezzi di produrre componenti di una partitura, sottolineando che il caso è ’utile’ se un
processo richiede varianti o se i dettagli minori non sono importanti.» (Hiller, 1971, p. 86) [t.d.c.].

72
5. Al limite la linea rugosa diviene una linea sostenuta continua. Questo nuovo comporta-
mento sonoro si verifica quando l’alta densità dei campioni di micro-suoni non permette
più la percezione del grano sonoro.

6. L’accumulo verticale di suoni sostenuti originati da spettri sonori. Questi potevano avere
il carattere di cluster armonici o inarmonici, ma potevano comportarsi anche come ampie
bande di frequenza cangianti. I modi principali di produrre questo tipo di suono nella
nostra orchestra di oggetti furono: sfregamento dei lati di barili di petrolio con pezzi di
polistirolo, sfregamento dell’arco di un contrabbasso sull’orlo del barile di petrolio, sui bordi
taglienti di coperchi della pattumiera e sui bordi di tubi di cartone e ferro.

La Figura 6.1 rappresenta uno schizzo della struttura del pezzo. Si è inteso costruire una
trasformazione progressiva del suono, dal vivo, che avrebbe portato una sequenza di punti sonori
rarefatti a trasformarsi – gradualmente e senza interruzione – in uno spettro ampio, ricco e
complesso.

Figura 6.1: Uno schizzo temporale della struttura del lavoro M-8.

I cambiamenti di comportamento e tipologia di suono sarebbero intercorsi in un modo im-


percettibile. Questa fu la grande sfida. Per questo motivo si stava cercando la collaborazione del
computer, ma già avevamo intuito che un trattamento strategico dei suoni sovrapposti attraverso
il cross-fade avrebbe potuto condurci bene alla soluzione del problema.

The overlapping of different pitch ranges, on the other hand, might guarantee
timbric heterogeneity of the resulting cloud of points, in such a way that the super-

73
position of patterns might not be perceptible to hearing, being chamfered in different
timbric bands.3
Esaminando la stampa della partitura definitiva si può verificare come l’invenzione musi-
cale abbia permesso eccezioni alla rigida regola strutturale. Elementi in contrappunto furono
introdotti nel discorso, derivando da criteri musicali soggettivi.
There are two general classes of random processes which have been used to gener-
ate material for music composition: random processes with independent observations,
and processes in which previous results influence the current outcome in some way.4
Fummo affascinati dalla possibilità di istigare il computer con regole e dati, cosicché potesse
istigarci con nuovi dati e serie.

6.3 Fonti sonore e modalità di esecuzione


Una collezione di oggetti di molte diverse forme, dimensioni, volumi e materiali garantirono
la disponibilità di una ricca tavolozza di suoni e rumori. Semplici cose di ogni giorno poterono,
quindi, essere elevate alla categoria di strumenti musicali. La Figura 6.2 mostra una descrizione
degli “strumenti”, con i loro simboli rispettivi: 2 barili di petrolio, 4 estintori, 5 brocche di
plastica, 8 bottiglie di vetro, 3 coperchi di latta (di taniche di acqua e pattumiere), 10 tubi di
metallo, 3 tubi di cartone, 5 ampi fogli di carta metallizzata, 3 paia di assi (di pavimento), 1
scatola di dadi metallici, 1 scatola di viti e bulloni, 1 scatola di biglie, 1 scatola di dischetti di
plastica, 2 grandi fogli di stagno galvanizzato, 8 giornali e 4 bicchieri.
La varietà dei materiali sonori fu garantita dalle diverse modalità di esecuzione: tremolo o
colpi con bacchette in panno (smorzate), colpi con bacchette in legno o metallo, sfregamento sul
bordo con un arco di contrabbasso, colpi con un martello metallico, sfregamenti con un pettine
o un pezzo di polistirolo, agitazioni, collisioni, scuotimenti o rimescolamenti, manciate di oggetti
fatti cadere nella scatola, accartocciamenti, lacerazioni, ecc.
I differenti modi di esecuzione, in particolare per ogni fonte sonora, e i loro simboli corrispon-
denti sono descritti in Figura 6.2 e 6.3.

6.4 Problemi di densità e dati


Tre dei programmi di selezione di Koenig (programmi di test integrali di Project 2 ) risultarono
estremamente utili: il programma ALEA, chiamata numero 1; il programma SERIES, chiamata
numero 2; il programma TENDENCY, chiamata numero 6.
Si aveva intenzione di usare un espediente di intensità simmetriche in un modello di crescendo-
diminuendo, in una maniera che avrebbe permesso la realizzazione di effetti di dissolvenza incro-
ciata, e per questo motivo organizzammo una serie di domande complesse, alle quali il computer
poteva rispondere facilmente. Ciò che segue descrive alcune di esse:
1. In che maniera la densità di una sezione formale di suoni-punto dovrebbe crescere, in una se-
quenza della durata di un minuto, così da sovrapporsi, gradualmente e impercettibilmente,
ad una sezione emergente di suoni-punto risonanti ?
3 «La sovrapposizione di diverse gamme di altezza, d’altra parte, potrebbe garantire eterogeneità timbrica della

risultante nube di punti, in modo tale che la sovrapposizione dei modelli potrebbe non essere percepibile all’udito,
essendo distribuiti in diverse bande timbriche.» (Antunes, 1989, p.141) [t.d.c.].
4 «Ci sono due classi generali di processi casuali che sono stati utilizzati per generare materiale per la com-

posizione musicale: processi casuali con esiti indipendenti, e processi in cui i risultati precedenti influenzano il
risultato corrente in qualche modo.» (Dodge & Jerse, 1985, p. 265) [t.d.c.].

74
Figura 6.2: Descrizione degli “strumenti” (fonti sonore) usati nel lavoro.

Figura 6.3: Azioni sugli “strumenti” (fonti sonore) usate nel lavoro.

75
2. In che modo la densità di una sezione formale di suoni-punto risonanti dovrebbe crescere, in
una sequenza della durata di un minuto, così da sovrapporsi, gradualmente e impercettibil-
mente, ad una sezione emergente di nuvole di punti ?

3. In che modo la densità verticale di una sezione formale di nuvole di punti dovrebbe
crescere, in una sequenza della durata di un minuto, così da sovrapporsi, gradualmente
e impercettibilmente, ad una sezione emergente di suoni rugosi continui ?

4. In che modo la densità orizzontale di una sezione formale di suoni rugosi dovrebbe crescere,
in una sequenza della durata di un minuto, così da sovrapporsi, gradualmente e im-
percettibilmente, ad una sezione emergente di suoni lisci sostenuti ?

5. Quale sequenza di densità si dovrebbe usare cosicché suoni-punto (bottiglie di vetro colpite
con una bacchetta morbida) possano agglomerarsi gradualmente e verticalmente, in una
sezione della durata di un minuto, con una sezione emergente di suoni-punto risonanti
(bottiglie di vetro colpite con una bacchetta di legno)?

6. In che modo la densità verticale di una sezione formale di suoni lisci sostenuti dovrebbe
crescere, in una sezione della durata di un minuto, così da sovrapporsi, gradualmente e
impercettibilmente, ad una sezione emergente di spettri complessi con bande di frequenza
ampie?

Le differenti domande furono organizzate in modo che fosse possibile fare uso dei tre pro-
grammi di selezione: Tendency, Alea e Series-In.

6.5 Dettagli sui 3 programmi di selezione


ALEA è un programma di selezione che sceglie, casualmente, elementi di un insieme di dati.
Gli elementi sono considerati come “campioni” e, così, possono essere usati ripetutamente. Prima
di fornire tutti gli elementi dell’insieme di dati, non c’è verifica di possibili ripetizioni “premature”
di elementi (Koenig, 1970, p. 38).
L’istruzione usata per selezionare l’indice di un elemento del programma fu:

i := entier [(z-a+1) x RANDOM + a]

a e z indicano la gamma casuale [a minore o uguale a z], mentre RANDOM genera numeri
distribuiti egualmente tra 0 e 1.
Le risposte fornite dal computer con il programma ALEA, e usate nei segmenti di densità
stabile tra una sezione di crescendo e una di diminuendo, garantirono la costruzione di ricche
costellazioni di suoni di timbri differenti (vetro, plastica e legno).
SERIES-IN è un programma di test che ugualmente sceglie, casualmente, elementi di un
insieme dato, ma con i “campioni” che vengono rimossi dalla disponibilità. A differenza di ALEA
le ripetizioni sono evitate e così il programma garantisce che nessun elemento sia ripetuto sino a
che tutti i numeri non siano stati selezionati.
Per verificare le ripetizioni, il programma ha una array r che contiene indici di elementi. Un
contatore c indica quanti elementi sono ancora disponibili:

i : r[ALEA(1,c)]

76
8 volte Si forniscono 10 numeri tra 0 e 28, in Tendency Sezione di suoni-punto
ordine crescente
4 volte Si forniscono 10 numeri tra 0 e 28, in Tendency Suoni-punto
ordine decrescente
4 volte Si forniscono 10 numeri tra 0 e 28, in Tendency Suoni-punto risonanti
ordine crescente
8 volte Si forniscono 10 numeri tra 12 e 28 Alea Suoni-punto risonanti
4 volte Si forniscono 10 numeri tra 0 e 28, in Tendency Suoni-punto risonanti
ordine decrescente
4 volte Si forniscono 10 numeri tra 0 e 14, in Tendency Nuvole di punti
ordine decrescente
4 volte Si forniscono 10 numeri qualsiasi tra 4 Alea Nuvole di punti
e 14
8 volte Si forniscono 10 numeri qualsiasi tra 2 Series-In Da suoni-punto a nuvole di
e 10 suoni-punto
8 volte Si forniscono 10 numeri qualsiasi tra 0 Tendency Entrate di nuvole di suoni-punto
e 60
4 volte Si forniscono 10 numeri tra 0 e 14, in Tendency Nuvole di suoni-punto
ordine decrescente
4 volte Si forniscono 4 numeri tra 0 e 60, in Tendency Entrate di suoni rugosi
ordine crescente
1 volta Si forniscono 4 numeri tra 0 e 60, in Tendency Entrate di 4 suoni rugosi
ordine crescente
1 volta Si forniscono 4 numeri tra 0 e 60, in Tendency Entrate di 4 linee
ordine crescente
1 volta Si forniscono 4 numeri tra 0 e 60, in Tendency Colpi di 4 suoni rugosi
ordine crescente
1 volta Si forniscono 4 numeri tra 0 e 60, in Tendency Entrate di 4 linee
ordine crescente
1 volta Si forniscono 5 numeri tra 0 e 60, in Tendency Entrate di 5 spettri
ordine crescente
1 volta Si forniscono 3 numeri tra 0 e 60, in Tendency Entrate di 3 suoni rugosi
ordine crescente
1 volta Si forniscono 4 numeri tra 0 e 60, in Tendency Colpi di 4 linee
ordine crescente

Tabella 6.1: Schema relativo all’uso dei tre programmi di Koenig.

77
Così nel lavoro M-8 le sezioni in cui il programma ALEA è stato utilizzato sono presentate
come costruzioni in cui i numeri che determinano le densità verticali formano gruppi del tipo di
arrangiamento. La stabilità della densità (somma verticale del numero di elementi) viene così
verificata in queste sezioni di transizione.
TENDENCY è un programma di test che rende possibile definire una sezione particolare
nell’insieme e che induce le selezioni con ALEA in questa sezione. In questo modo, nella realiz-
zazione di strutture musicale prestabilite, fu possibile creare trasformazioni graduali di densità
– crescente e decrescente – con la piena partecipazione del caso nella creazione.

Figura 6.4: Una pagina del codice utilizzato.

The methods of generation of Koenig’s program are based on chance. A new and
important concept, which came to be introduced, is the tendency mask: a criteri-
on with which the composer can control, in a precise way, what he wants at each
moment.5
Il concetto di “finestra” o “maschera di tendenza” ha avuto influenze importanti nella Compu-
ter Music. Lo stesso concetto fu usato da Barry Truax nel suo sistema POD per la composizione
di musica assistita al computer (Truax, 1977).
TENDENCY establishes a “window“ of a specified size through which sequential
elements of a group can be viewed and then chooses randomly among the elements
within the window.6
5 «I metodi di generazione del programma di Koenig si basano sul caso. Un nuovo e importante concetto, che

venne ad essere introdotto, è la maschera tendenza: un criterio con cui il compositore può controllare, in modo
preciso, quello che vuole in ogni momento.» (Nunez, 1993, p. 179) [t.d.c.].
6 «TENDENCY stabilisce una finestra di una dimensione specificata attraverso la quale gli elementi sequenziali

di un gruppo possono essere visualizzati e quindi sceglie a caso tra gli elementi all’interno della finestra.» (Dodge
& Jerse, 1985, p. 299) [t.d.c.].

78
Figura 6.5: Una pagina della partitura di M-8.

79
6.6 Il lavoro, risultati e conclusioni
L’opera è scritta in notazione proporzionale e può essere eseguita da gruppi di 8 musicisti,
amatori o professionisti. La sua prima esecuzione mondiale fu a Bilthoven, Olanda, il 12 settembre
1971, selezionata in un concorso della fondazione Gaudeamus per giovani compositori. In quella
occasione essa vinse il Premio AVRO della Gaudeamus Contemporary Music Week, con François
Bayle presidente di giuria.
Nella Figura 6.1, in cui si presenta la struttura del brano, c’è un punto interrogativo alla
fine dell’opera. Questo segno dubitativo fu approssimativamente abbozzato nel primo progetto
della composizione: la decisione su come “finire l’opera” fu posposta. Dopo che il lavoro fu
terminato si decise di includere un finale inutilizzabile: gli esecutori – ognuno di loro provvisto di
un arco di contrabbasso – avrebbero abbandonato il palcoscenico per muoversi verso il pubblico.
Ognuno dei musicisti sarebbe andato ad investigare e cercare un suono interessante presso il
pubblico. Le fonti sonore da trovarsi erano sempre le più variabili: ciocche di capelli di persone
del pubblico, lacci di scarpe, frange delle poltrone del teatro, cinghie di borse, angoli delle pareti,
beni personali del pubblico ecc. Quando il direttore vedeva che ogni musicista aveva trovato il
suo “suono” fermava la massa di suoni per produrre un attacco finale sul medesimo “accordo di
rumori”.
La partitura fu pubblicata dall’editore italiano Suvini Zerboni, di Milano, nello stesso an-
no 1971. Nel 1972 il lavoro fu presentato a Parigi, al Théatre de la Cité Universitaire, in un
concerto delle borse di studio per compositori del governo francese. Nel gruppo di interpreti,
diretti dal compositore, c’erano, tra gli altri, gli allora studenti Denys Smalley, Klaus Ager,
Stanley Haynes, Peter Schuback, Mariuga Lisbôa Antunes e Eliana Carneiro. La musica provocò
polemiche e reazioni presso il pubblico. Un terzo del pubblico latino-americano derideva l’autore
con il termine “maricón”!7 Due terzi del pubblico applaudirono freneticamente e i due gruppi
si affrontarono con violenza. Volarono scarpe e l’ambasciatore Alvaro Franco, al tempo addetto
culturale dell’Ambasciata Brasiliana a Parigi, si rannicchiò in imbarazzo e vergogna.
Dagli anni ’70 l’opera è stata presentata da gruppi musicali in Rio de Janeiro (Grupo Ars
Contemporanea, de Guillherme Bauer ), São Paulo (John Boudler’s ensemble), Parigi (Marius
Constant’s ensemble), in Olanda (Peter Keuschnig’s ensemble), Brasília (GeMUnB ), São Bernar-
do do Campo (gruppi di studenti di musica, inclusa la partecipazione dell’allora giovane studente
Wilson Sukorsky, che si assunse il compito arduo di raccogliere gli oggetti dalle discariche della
città), Roma (Quartetto Italiano e altri), La rochelle (gruppi di studenti adolescenti di musica),
ecc.
L’utilizzo dei programmi di test di Koenig fu molto utile nel lavoro compositivo. La matema-
tica in generale e l’ordinamento numerico in particolare sono sempre presenti nel lavoro artistico,
come lo è la fallibile intuizione dell’artista.

. . . so that music may constitute itself as a language it needs to have an order


by which it can manifest itself. And an order, whatever it may be, can admit a
numerical representation, which does not, by any means, pose a limitation, but just
the assertion of a simple fact8

L’efficacia del processo, in cui il computer assiste nella risoluzione di domande complesse,
anche talvolta usato in maniera casuale, ha permesso alla triade artista-macchina-casualità di
fornire materiale organizzato per l’esecuzione dal vivo, in cui una nuova triade, questa volta
7 Termine dispregiativo e offensivo per omosessuale [n.d.c.].
8 «[. . . ]
affinché la musica possa costituirsi come linguaggio deve avere un ordine con il quale può manifestarsi.
E un ordine, qualunque esso sia, può ammettere una rappresentazione numerica, che non, con qualsiasi mezzo,
rappresenta un limite, ma solo l’affermazione di un semplice fatto.» (De Pablo, 1968, p. 53) [t.d.c.]

80
artista-oggetti-casualità, ha potuto confrontarsi con le sfide e il condizionamento tradizionale
della percezione estetica.

Gottfried Michael Koenig affirms that the composer should not only select, but
also have some influence on the agents which prepare the selection options9

Nel fare uso dei programmi di test di PROJECT 2, concedendo partecipazione alla “casualità
meccanica”, siamo arrivato alla conclusione che il semplice uso delle sub-routine ha servito lo
spirito da ricercatore di Koenig. Egli fu interessato all’idea del compositore che è un “selettore”;
il computer che genera esempi sonori di strutture musicali e il compositore che seleziona campioni
tra le varie possibilità generate dal computer.10

6.7 Bibliografia
Antunes, Jorge, Notação na música contemporânea, Brasília, Editora Sistrum 1989.
De Pablo, Luis, Aproximación a una estética de la música contemporánea, Madrid, Editorial
Ciencia Nueva 1968.
Dodge, Charles & Jerse, Thomas A., Computer music: synthesis, composition and perfor-
mance, New York, Schirmer Books, 1985.
Hiller, Lejaren, Music composed with computers - a historical survey, in The Computer and
Music, edited by Harry B. Lincoln, Ithaca and London, Cornell University Press 1971.
Koenig, Gottfried Michael, Project 2, in Electronic Music Reports, No 3, Utrecht, Utrecht
State University 1970.
Nuñez, Adolfo, Informatica y electronica musical, Madrid, Editorial Paraninfo 1993.
Roads, Curtis, An interview with Gottfried Michael Koenig, In Computer Music Journal,
2(3), 1978, pp. 11-16.
Schaeffer, Pierre, Traité des objets musicaux, Paris, Éditions du Seuil 1966.
Truax, Barry, The POD System of interactive composition programs, in Computer Music
Journal, 1(3), 1977, pp. 30-39.

9 «Gottfried Michael Koenig afferma che il compositore non dovrebbe solo selezionare, ma anche avere una

certa influenza sugli agenti che preparano le opzioni di selezione.» (Roads, 1978, p. 13) [t.d.c.]
10 Articolo presentato al VII Brazilian Symposium on Computer Music, Curitiba, Paraná, Brazil, luglio 2000.

81
82
Capitolo 7

Alberto Carretero

Tracciando ponti per la musica


elettroacustica: Siviglia-Livorno

albertocarretero@hotmail.com

7.1 Introduzione
Nell’articolo presente si passa in rassegna la partecipazione della classe di Composizione Elet-
troacustica del Conservatorio Superiore di Musica “Manuel Castillo” di Siviglia, docente il pro-
fessore Alberto Carretero, al ciclo di concerti Suoni Inauditi – L’Auditorium che canta dell’anno
2016, nell’Istituto Superiore di Studi Musicali “P. Mascagni” di Livorno, rassegna coordinata
dal professor Fabio De Sanctis De Benedictis. Questa partecipazione è consistita di una Ma-
ster Class di Alberto Carretero, oltre ad una presentazione pubblica – tavola rotonda di opere
elettroacustiche spagnole, e di un concerto nell’Auditorium dell’Istituto livornese, nel maggio
2016.
Dal 2014 si svolge continuativamente uno scambio Erasmus tra i due Istituti Superiori, cosic-
ché il professor Fabio De Sanctis De Benedictis ha tenuto una Master Class a Siviglia su Musica
e Matematica, così come su altri aspetti relazionati con la tecnologia, e il professor Alberto Car-
retero ha presentato alcune sue opere in Livorno, spiegando le sue tecniche compositive e le sue
idee estetiche. Inoltre sono stati effettuati due festival di musica elettroacustica, uno in Siviglia
(JomeX’15 ) e l’altro in Livorno (Suoni Inauditi 2016), nei quali questo scambio di conoscenze si
è manifestato in forma di rappresentazione artistica, vale a dire in forma di concerti di musica
elettroacustica.
Il professor De Sanctis De Benedictis ha mostrato a Siviglia il suo lavoro con l’ambiente
di programmazione musicale PWGL, orientato alla composizione algoritmica e all’analisi as-
sistita all’elaboratore elettronico, spiegando le possibilità di formalizzazione musicale e le sue
applicazioni nella creazione e nell’investigazione. Inoltre ha presentato il suo brano Anagrammi
(2009), per flauto ed elettronica, approfondendo anche il lavoro effettuato con l’elettronica dal
vivo mediante patch realizzate coi programmi Max/MSP, Pure Data e Csound, tra l’altro, re-
lativamente a differenti progetti del duo Flauto ex Machina, e infine il brano Balaenoptera, per
clarinetto basso ed elettronica. Allo stesso tempo ha centrato l’attenzione, nei suoi seminari a
Siviglia, sulle applicazioni dell’analisi algoritmica e matematica alla musica per pianoforte, con

83
speciale interesse al secolo XX, così come sull’opera del compositore Luis de Pablo Per Fagotto,
interpretata a Siviglia dal fagottista Paolo Carlini, anche lui professore dell’Istituto “P. Mascagni”.
Questa ultima collaborazione ha dato come frutto un concerto straordinario di Paolo Carlini con
la presenza e l’intervento di Luis de Pablo e Fabio De Sanctis De Benedictis.
Parallelamente il professor Carretero ha mostrato a Livorno le sue ricerche sulla composizione
bio-ispirata, spiegando l’uso dei P System 1 come strumenti di intelligenza artificiale applicati alla
musica. Quindi ha mostrato il suo brano per orchestra d’archi Ars vivendi, realizzato integral-
mente con tecniche algoritmiche di intelligenza artificiale. Altra grande asse dei suoi seminari è
stata la relazione della sua opera con la tecnologia, attraverso l’elettronica dal vivo, presentando
perciò progetti interdisciplinari con la danza come Passio, per marimba, danza, captazione di
movimento ed elettronica, sviluppata all’Ircam, così come altri brani con l’elettronica: Imagi-
naire, per violoncello ed elettronica, progetto dell’Ensemble Intercontemporain di Parigi, Metá-
foras, per percussione ed elettronica, Videns, per pianoforte ed elettronica, e via di seguito. Come
terzo ed ultimo argomento dei suoi seminari, il professore Carretero ha analizzato alcune delle
opere più recenti della musica spagnola e i loro legami culturali con la tradizione spagnola e le
differenti arti.
Nelle pagine seguenti di questo scritto si entrerà in dettaglio in merito ad alcune informazioni
sui brani eseguiti in Italia nell’Auditorium “Cesare Chiti”, come risultato di questo interscambio
europeo tra i centri musicali superiori di Siviglia e Livorno, che è stato recepito molto positiva-
mente da entrambi gli studenti dei due centri, e presuppone un’importante base di lavoro per
costruire progetti futuri artistici ed accademici in entrambe le istituzioni, coordinati dai profes-
sori De Sanctis De Benedictis e Carretero. Per esempio ne è testimone questa pubblicazione, che
raccoglie il resoconto di detta collaborazione, così come la diffusione del lavoro degli studenti più
meritevoli e dei docenti.

7.2 I seminari di Suoni Inauditi 2016


Il professore Alberto Carretero ha proposto a Livorno tre seminari unificati dal tema generale
“Musica ex Machina”, nei quali ha presentato diversi aspetti tecnici ed estetici delle implicazioni
tra la musica e la tecnologia. In ognuno di questi incontri, centrati su temi specifici, sono stati
presentati esempi musicali in forma di partiture e ascolti, con discussioni e commenti da parte
degli studenti dell’Istituto livornese.
Il primo dei seminari era intitolato “Composizione assistita al calcolatore attraverso le tecniche
bio-ispirate di Intelligenza Artificiale: Automi cellulari e P System”. In questa sessione si è
approcciata l’indagine sulla teoria e l’applicazione pratica nella composizione musicale assistita
al calcolatore di due tecniche bio-ispirate di Intelligenza Artificiale: gli automi cellulari e i P
System. I risultati ottenuti permettono di ampliare le possibilità della composizione algoritmica
mediante l’uso di alcuni rami relativamente recenti dell’Intelligenza Artificiale che si occupano
del Natural Computing 2 e del Membrane Computing.
1 I P System sono inerenti al cosiddetto Membrane Computing, ossia un paradigma computazionale che consente

di realizzare algoritmi le cui operazioni sono reazioni chimiche che avvengono all’interno delle cellule. Tali algoritmi
possono sfruttare l’organizzazione delle cellule stesse in compartimenti racchiusi da membrane (da cui il nome)
e l’elevato grado di parallelismo delle reazioni chimiche. Sebbene la realizzazione di un calcolatore basato sul
paradigma del Membrane Computing sia in realtà difficilmente ipotizzabile, i modelli computazionali definiti
nell’ambito del Membrane Computing hanno trovato larga applicazione come modelli per la descrizione e l’analisi
di sistemi biologici di varia natura. Si veda Paolo Milazzo, Computazione naturale, in APhEx 10, 2014, Internet:
http://www.aphex.it/public/file/Content20141031_APhEx10,2014TemiComputazionenaturaleMilazzo.pdf.
2 Il Natural Computing si riferisce a processi computazionali osservabili in natura e formalizzabili dall’uomo in

algoritmi eseguibili da un elaboratore elettronico.

84
L’aspetto più rilevante del processo di indagine è l’approccio dal punto di vista della creazione
musicale. Così il compositore rende evidente e dettaglia il suo lavoro artistico e scientifico passo
per passo, offrendo strumenti che possono risultare utili ad altri compositori per sviluppare il
loro linguaggio artistico personale.
Le tecniche bio-ispirate di Intelligenza Artificiale permettono di simulare alcune sfaccettature
del lavoro compositivo, specialmente quelle di carattere meccanico o sistematico, che necessitano
di un gran volume di calcolo. In questi casi i mezzi tecnologici attualmente disponibili si con-
vertono in assistenti eccellenti per il compositore, allo stesso modo dell’architetto che si serve del
calcolatore per realizzare il disegno dei suoi progetti, sebbene in nessun caso venga soppiantata
la sua funzione creativa.
Sono state esposte le possibilità di generare forma e materiale musicale a partire da algoritmi
e tecniche informatiche che imitano processi naturali a livello cellulare, per i quali sono stati
utilizzati concetti procedenti da discipline ausiliarie come la Biologia, la Genetica o la Neurologia.
Ugualmente sono stati analizzati come casi di studio vari esempi di alcuni dei compositori più
noti dei secoli XX e XXI come Xenakis e Ligeti.
Nel secondo seminario del professore Carretero sono stati presentati alcuni suoi pezzi più
recenti, con particolare attenzione a quelli concepiti con una componente tecnologica attraverso
l’uso dell’elettronica dal vivo. In evidenza il brano Videns, per pianoforte ed elettronica, nel
quale si rielabora un canto gregoriano a modo di glossa con l’aiuto di processi elettroacustici.
Questo tipo di forma glossata per tastiera è abituale nella musica spagnola dei secoli XVI e
XVII, per cui gli spazi che sono liberi nel testo musicale si completano con diversi ornamenti e
“commenti musicali”. Gli aspetti che si prendono come riferimento per la composizione del brano,
e particolarmente per la parte elettronica dal vivo, sono:

• il fraseggio del canto piano


• il movimento dei neumi
• il ritmo libero
• la relazione tra musica e testo

Alla fine la struttura stessa del canto gregoriano viene sfocata e restano in evidenza solo deter-
minati impulsi che sono congelati o modificati per mezzo dell’elettronica. Le trasformazioni del
segnale audio simulano arabeschi in continua fluttuazione e grazie al sistema di spazializzazione
quadrifonica permettono la creazione di uno spazio virtuale per il pianoforte. L’elettronica dal
vivo si svolge con una patch di Max/MSP che realizza effetti di riverberazione, congelamento,
modulazione ad anello, delay, risonatori, delay spettrali, convoluzioni, filtraggi, granularizzazioni,
equalizzazioni e armonizzazioni.
Successivamente è stata analizzata la composizione Passio, un progetto interdisciplinare per
marimba, danza con captazione di movimento ed elettronica. Il pezzo è basato sul concetto di
passione come stato limite di espressione umana nella forma di amore estremo, sofferenza, hobby,
inazione ecc. Si tratta di un itinerario tra differenti spazi-passione composti con distinti gesti e
materiali musicali e coreutici. Il progetto si basa sulla captazione e il riconoscimento del gesto
da parte di una telecamera con sensori ad infrarosso che trasmettono dati di posizione a una
patch Max/MSP. Il movimento modifica la spazializzazione del suono e alcuni parametri delle
trasformazione, così come il trattamento spettrale del suono.
L’elettronica dal vivo si basa sulla sintesi per modelli fisici (il software Modalys, sviluppato
dall’Ircam) in maniera tale da simulare che la marimba vada acquisendo caratteristiche timbriche
di differenti materiali: legno, metallo, cristallo ecc. Si utilizzano anche trasformazioni di tipo
vocoder nel dominio del tempo e della frequenza (software SuperVP, sviluppato dall’Ircam),

85
spazializzazione e simulazione di spazi (software SPAT, sviluppato dall’Ircam), così come altre
serie di effetti come armonizzatori, delay multipli, risonatori, granularizzatori e flanger.
Il terzo seminario di Alberto Carretero ha affrontato il tema della cultura ispanica nella musica
spagnola recente. Quindi si sono assunti quattro punti di riferimento con i quali strutturare lo
studio: le arti visuali, la cultura e il pensiero, la letteratura, la musica tradizionale. Si sono
ascoltate e commentate opere di José María Sánchez-Verdú, Mauricio Sotelo, Cristóbal Halffter,
e anche alcune creazioni proprie di musica elettronica. Alcuni aspetti chiave sono stati l’influenza
del mondo islamico sulla musica spagnola dei nostri giorni, il Flamenco, la pittura e la letteratura
in Spagna.

7.3 Il concerto di Suoni Inauditi 2016


Per quanto riguarda il concerto, eseguito nell’Auditorium dell’Istituto “P. Mascagni” di Livorno,
sono state presentate opere elettroacustiche multicanale di compositori spagnoli, alcune delle
quali di studenti della classe di Composizione Elettroacustica del professore Alberto Carretero,
del Conservatorio Superiore di Musica “Manuel Castillo” di Siviglia. Di seguito il programma
presentato:

• Alberto Carretero (1985): Spherical Sights (2012)*


• Alejandro Gómez (1992): Kinetic Resolution (in the musical reaction) (2016)**
• Javier Campaña (1980): Planeta propio (2013)*
• Andrea Faraco (1994): Panoramas mundanos (2016)**
• Antonio Flores (1961): Ligne ondulée (2013)*
• Juan Antonio Godoy (1992): Nostalgie (2016)**
• José López Montes (1977): Microcontrapunctus (2016)**
• Julio Cañizares (1991): Discurso (2016)**
• Lara López (1976): Intenta dormir (2016)**
• Juan de Dios García Aguilera (1959): De la luz y el color de las cosas: rojo (2013)*
• Daniel Muñoz (1993): Homenaje (2016)**
• Alberto Carretero (1985): Indlandsis (2013)*

* Prima esecuzione italiana.


** Prima esecuzione assoluta.
Proiezione sonora: Alberto Carretero.

Il brano di Alejandro Gómez, Kinetic Resolution (in the musical reaction), è stato composto
alla maniera di una reazione chimica. In esso si realizza un lavoro di spazializzazione avvolgente
molto elaborato che esplora suoni sintetici gorgoglianti che si combinano, interagiscono e generano
continuamente nuovo materiale musicale in maniera organica.
Javier Campaña, compositore e interprete di musica elettroacustica con l’Ensemble Taller
Sonoro di Siviglia, ha presentato il suo lavoro Planeta Proprio, basato su suoni concreti quoti-
diani con un forte carico emozionale, che ci riconducono all’età dell’infanzia, dell’adolescenza, al

86
lavoro e così di seguito. Si tratta di una sorta di fotografia sonora tridimensionale che ci porta
all’universo sonoro vitale del compositore.
La giovane compositrice Andrea Faraco è l’autrice di Panoramas mundanos, un pezzo basato
sulla parola che appare incorporata in texture sonore in alcuni casi quasi ipnotiche. La parola
assume un sentimento sociale di protesta, assumendo discorsi di capi politici di diversi ambiti e
ideologie come objet trouvé che ha una risonanza elettronica attraverso la distorsione, la sintesi
per modelli fisici e via di seguito.
Antonio Flores, compositore e professore di Composizione nel Conservatorio Superiore di Mu-
sica “Manuel Castillo” di Siviglia, realizza nel suo Ligne ondulée una astrazione sonora geometrica
che si percepisce nella spazializzazione e nei timbri purissimi realizzati con diverse tecniche di
sintesi, che disegnano una sorta di coreografia sonora.
Nostalgie, del giovane compositore Juan Antonio Godoy, è un pezzo deliberatamente lirico,
fondato sul suono del sassofono che appare trasformato in distinti punti dello spazio e fuso con i
suoni elettronici che gli apportano un’aura speciale. Si tratta di un’opera riflessiva e minimalista,
con una struttura trasparente e circolare.
Il compositore di Granada José López Montes mostra in Microcontrapunctus la sua maestria
nella tecnica di sintesi granulare, applicata tanto al materiale sonoro, quanto ai gesti musicali
e alla propria spazializzazione nell’Auditorium, sempre sulla base di punti discreti e senza mai
realizzare percorsi continui. Il suo dinamismo interno e la gestione del tempo permettono al
compositore di lavorare sulla forma in un solo arco, come una composizione contrappuntistica
monolitica e con grande ricchezza timbrica.
Julio Cañizares, un altro degli studenti compositori, presenta nel suo Discurso un brano
che racchiude idee musicali assai diverse attraverso un filo conduttore elettroacustico, il che ci
permette di pensare a una sorta di soliloquio o monologo, nel quale le idee vanno affiorando e
passando da una all’altra mantenendo una tensione continua.
La compositrice Lara López dimostra nella sua opera Intenta dormir il suo carattere creativo
multiforme, che abbraccia mondi diversi come la pubblicità e il cinema, la musica popolare e
la musica da concerto. Il brano funziona come un cortometraggio sonoro, in cui si drammatiz-
za l’ossessione per conciliare il sogno col quotidiano, attraverso campioni sonori che generano
in noi stress e insonnia, i quali acquisiscono un carattere magico e personificato mediante la
combinazione con suoni elettronici che si spazializzano nelle distinte pareti della sala.
Juan de Dios García Aguilera, compositore madrilegno che vive a Cordoba, si è sempre
interessato alla composizione elettroacustica. La sua opera De la luz y el color de las cosas: rojo
è una chiara allusione poetica e pittorica che ci fa pensare a relazioni sinestetiche. Il rapporto
con il colore plastico gli permette di trasferire alcune tecniche pittoriche alla sua composizione
musicale, con un marcato carattere intimista e onirico, attraverso un lavoro molto dettagliato su
suoni lunghi che si espandono come pennellate su una tela.
Il brano Homenaje, del compositore successivo, Daniel Muñoz, si interessa alla sonorità del
linguaggio e al modo in cui la personalità umana viene catturata attraverso il timbro e la ca-
denza della voce. Si tratta di un’opera di struttura chiara e un contesto elettroacustico realiz-
zato mediante modelli di sintesi additiva e per modulazione, così come attraverso alcuni esempi
granulari.
I pezzi Spherical Sights e Indlandsis di Alberto Carretero saranno descritti nella sezione
seguente. In margine al concerto, in una sessione esplicativa precedente che ha incluso una
tavola rotonda con i compositori, il Mo Carretero ha presentato anche la sua opera Imaginaire, per
violoncello ed elettronica ad otto canali, approfittando dell’impianto multicanale dell’Auditorium.
Questo progetto è stato effettuato all’Ircam nel 2015 con l’assistenza di Marco Liuni (equipe
pedagogica dell’Ircam) e Eric-Maria Couturier (violoncellista dell’Ensemble Intercontemporain).
Si tratta di un’opera per “violoncello aumentato”, che si muove tra il suono “reale” e “immaginario”,

87
lavorando con il possibile e l’impossibile a livello temporale, gestuale e timbrico. Possiamo parlare
pertanto di una relazione dialettica tra lo strumento e l’elettronica registrata, che simula una
falsa elettronica dal vivo, utilizzando campioni molto brevi che scorrono in tempo reale.

7.4 Spherical Sights (2012) – Analisi tecnica ed estetica


Il brano elettroacustico ottofonico Spherical Sights di Alberto Carretero è concepito come
un ritratto sonoro dell’essere umano visto dall’interno. Si tratta di un viaggio che percorre i
distinti livelli architettonici della materia organica e allo stesso tempo esplora le componenti
più soggettive e spirituali. Le interazioni tra la geometria microscopica della natura e le forme
complesse, e anche misteriose, del pensiero e della emozione danno luogo a una drammaturgia
musicale in cui la percezione spaziale svolge un ruolo molto importante. Le piccole trasformazioni
del materiale si realizzano mediante tecniche di filtraggio e spostamento nel tempo e nello spettro.
Queste trasformazioni equivalgono ai cambi di colore nel ritratto che, in questo caso, finiscono
per essere uno specchio disposto internamente all’ascoltatore.
Formalmente l’opera si svolge in tre grandi momenti, senza soluzione di continuità, e rea-
lizzando un procedimento di morphing tra loro. La prima sezione, che arriva sino a 1’42”, si
concentra su suoni lunghi di metallo risonante percosso che presentano una evoluzione spettrale
che li trasforma elettronicamente in voci umane.
La seconda sezione arriva sino a 4’44” e la sua materia basilare è il tremolo con timbri distinti,
evidenziando specialmente i suoni metallici acuti e con una importante quantità di rumore filtrato.
L’uso della ripetizione in forma di loop con variazione timbrica continua crea una sorta di texture
frattale, nella quale predomina l’autosomiglianza a differenti livelli musicali.
In ultimo, la terza sezione arriva sino alla fine del brano e si concentra su campioni sonori
più caldi, con una predominanza delle componenti gravi. Principalmente si tratta di numerosi
campioni di woodblock sui quali si sfrega una bacchetta di gomma di tipo superball a differenti
velocità, ottenendo perciò altezze distinte, glissando e variazioni timbriche. Questi suoni, nel-
la maggior parte dei casi dotati di un timbro nasale, si raggruppano in parole, per così dire,
articolando suoni che simulano il parlato umano. Su di loro si lavora ulteriormente attraverso
processamento delle componente spettrale con il programma SuperVP.
Spherical Sights è parte di un progetto per percussioni ed elettronica intitolato Metáforas,
composto nello stesso anno per il percussionista Domenico Melchiorre, eseguito in prima assoluta
nel concerto Electrobag on tour nell’Auditorium San Fedele di Milano e inciso in disco con
l’appoggio della fondazione Cariplo. L’idea era quella di utilizzare solamente un insieme ridotto di
percussioni di piccole dimensioni: 3 woodblock (grave, medio e acuto), 1 guiro, 5 gong thailandesi
intonati, 2 opera gong con glissando ascendente (medio e acuto) e 2 ciotole tibetane, utilizzando
bacchette di diversi materiali.
Gli strumenti a percussione acquisiscono un certo carattere vocale, con l’intento di “umaniz-
zare” lo strumento, imitando l’articolazione e l’inviluppo della voce. Il tutto viene rinforzato
dall’uso dei vocoder e di filtri risonanti nell’elettronica che potenziano le formanti dei fonemi
vocalici di differenti lingue. È possibile così ottenere l’articolazione di parole “immaginarie”
grazie a una sorta di implementazione elettronica degli organi fonatori dell’essere umano, che
permette transizioni tra le vocali.
Insieme a tecniche di campionamento, il brano utilizza anche suoni sintetici attraverso l’analisi
e risintesi FFT, ovvero i suoni degli strumenti a percussione sono analizzati utilizzando l’algoritmo
della trasformata veloce di Fourier e lo spettro risultante viene generato per sintesi additiva con
oscillatori sinusoidali. Questi processi sono stati sviluppati con i programmi Max/MSP (vedi le
Figure 7.1 e 7.2), Spear e Audiosculpt.

88
Figura 7.1: La patch di Max/MSP relativa all’interfaccia principale.

Figura 7.2: La subpatch relativa ai buffer.

89
Quanto al lavoro sulle altezze sonore, sono stati utilizzati traspositori e armonizzatori, com-
binati con un processo che simula i suoni di Shepard. Si tratta di un’illusione psicoacustica,
per cui l’ascoltatore percepisce glissandi infiniti ascendenti o discendenti. Questa tecnica è stata
ampiamente usata dal compositore Jean-Claude Risset in opere come Mutations.
Lo scenario ritmico e timbrico consiste di un cambiamento continuo e nessun materiale riap-
pare identico a come è stato ascoltato un momento prima. Si crea così una specie di spirale che
si rinforza con effetti quali Flanger e Multidelay. In questo modo il ritmo si converte in una
superficie testurale che acquista caratteristiche differenti a seconda del numero di modelli attivi
e delle loro ripetizioni.
Infine, rispetto a questo brano, la spazializzazione non è utilizzata solamente per collocare
i suoni in uno spazio tridimensionale, ma anche come strumento di trasformazione del suono,
attraverso l’effetto Doppler e i giochi di velocità dei percorsi circolari intorno all’ascoltatore.
Anche il riverbero è stato associato allo spazio, mediante gli algoritmi di convoluzione interni del
programma SPAT.

7.5 Indlandsis (2013) – Analisi tecnica ed estetica


L’opera elettroacustica Indlandsis di Alberto Carretero, in otto canali audio spazializzati dal
vivo mediante l’applicazione SPAT sviluppata all’Ircam, è stata concepita come una “contem-
plazione sonora” di un deserto polare (denominato indlandsis) che evolve lentamente e inesora-
bilmente. Le forme curve generate si osservano a partire da differenti prospettive, in maniera tale
che il discorso musicale presenti diversi punti focali più che seguire un processo lineare. Questi
punti appaiono e scompaiono continuamente, coesistono e si relazionano attraverso tecniche di
composizione, contrasto, giustapposizione e subordinazione.
Tutti i suoni sono stati trattati elettronicamente a partire da registrazioni di pianoforte dei
Preludi di Debussy interpretati da Arturo Benedetti Michelangeli e pubblicati dalla Deutsche
Gramophon nel 1978 in vinile. Questi suoni si dispongono nello spazio acustico come superfici
glaciali che operano a differenti livelli di attività. L’intenzione è quella di sommergere il pubblico
in un paesaggio inospitale a priori, che alla fine giunge a produrre una sorta di attrazione o ipnosi
irrazionale che fa perdere l’orientamento e ci cattura in contemplazione.
L’opera nasce inizialmente come colonna sonora per la pellicola muta Días de Juventud (1929)
del regista giapponese Yasujirô Ozu nella quale appaiono continuamente paesaggi innevati con
inquadrature in genere abbastanza statiche. A partire dalla composizione di una colonna sonora
completa, sono stati selezionati alcuni dei momenti in cui la musica si caricava di speciale rilevanza
e si è creta una sorta di Suite, per utilizzare la terminologia tradizionale, con una durata intorno
ai dieci minuti. Tuttavia, invece di pensare ad una Suite come un insieme di numeri diversi in
successione, qui si tratta piuttosto di un fregio sonoro continuo in cui i distinti elementi appaiono
sovrapposti, scorrendo gli uni sugli altri.
I processi che appaiono si svolgono normalmente a velocità molto basse, il che invia all’a-
scoltatore un gioco di stimoli e il tempo necessario per permettere la percezione dei distinti
livelli. Da un punto di vista compositivo si usano tecniche ispirate al montaggio cinematografico,
i movimenti della cinepresa e i cambi di piano. Il materiale musicale corrisponde in molti casi ad
azioni che hanno luogo in lassi di tempo di differenti durate e velocità interne, il che permette
diversi ascolti del medesimo gesto a seconda del livello di dettaglio che si percepisce, così come
in funzione delle ripetizioni che si susseguono in forma di loop e gli spazi sonori che si creano.
Una delle tecniche più importanti utilizzate per questo brano è stata l’applicazione dell’al-
goritmo Paulstretch, progettato da Paul Nasca, e denominato letteralmente in inglese Pauls
Extreme Sound Stretch. L’utilità di questo programma è di dilatare i suoni su grandi proporzioni,

90
permettendo differenti fattori di dilatazione e risoluzione. Analogamente esso lavora anche con
gradi diversi di levigatura, ottenendo diversi tipi di texture a partire dai grani sonori che si
dilatano e sembrano rimanere congelati.
Il materiale, estratto integralmente dalle registrazioni di Debussy, a volte acquisisce caratte-
ristiche corali, applicando la dilatazione e inviluppi spettrali simili a voci maschili e femminili di
un coro. In altri casi si realizza un lavoro più granulare, combinato con tecniche di equalizzazione
e filtraggio che conferiscono al suono un timbro più elettronico, distante dal timbro originale del
pianoforte.
Quanto alla spazializzazione, essa è stata svolta dal vivo attraverso il programma Spat, che
dirige il suono a otto canali a partire da sei fonti (vedi figura 7.3). Queste sei fonti sono come
personaggi o figure indipendenti, che presentano materiali musicali diversi. In funzione della sala
e della disposizione del pubblico, il compositore muove queste fonti sonore dal vivo in maniera
che l’ascoltatore possa percepire intorno a lui distanze e velocità diverse, in un gioco ipnotico
che rende imprevedibile la direzione che prenderà il suono, come se fosse un ologramma a tre
dimensioni.

Figura 7.3: La patch delegata alla spazializzazione.

91
7.6 Conclusioni
Come conclusione possiamo affermare che lo scambio tra i centri musicali superiori di Siviglia
e Livorno, attraverso i professori Alberto Carretero e Fabio De Sanctis De Benedictis, ha rap-
presentato un grande arricchimento per entrambe le parti e ha creato già un legame solido per
lavorare su progetti musicali e accademici futuri.
La possibilità di lavorare con l’impianto di diffusione sonora dell’Auditorium dell’Istituto
“P. Mascagni” di Livorno è stata per gli studenti di un gran valore per lo sviluppo uditivo e
la capacità di astrazione musicale e sonora. Per loro è stata una grande motivazione poter
ascoltare le proprie composizioni in uno spazio reale e progettato per sviluppare una percezione
tridimensionale del suono, isolando i piani ritmici, timbrici e la caratterizzazione dei distinti
gesti musicali nel tempo e nello spazio. Per questo progetto gli studenti hanno sperimentato
preventivamente con simulazioni di traiettorie in formato stereo con tecniche Ambisonic, che
successivamente hanno potuto sperimentare in situ. La maggior parte di questi brani hanno
stimolato la progettazione del suono tramite i distinti modelli di sintesi conosciuti, motivando
l’immaginazione sonora al lavoro diretto con la materia prima del suono, cioè con onde pure
combinate e modulate.
Di controparte la partecipazione di Fabio De Sanctis De Benedictis ai distinti seminari orga-
nizzati a Siviglia, così come al festival di musica elettroacustica e mista JomeX 2015, ha permesso
la presentazione del suo lavoro nel campo della tecnologia musicale e la collaborazione con gli
interpreti del gruppo specializzato in musica contemporanea Zahir Ensemble. Le conferenze su
Musica e Matematica, così come le possibilità di analisi e composizione algoritmica del pro-
gramma PWGL sono state di grande utilità per il Dipartimento di Composizione come pure per
quello di Pianoforte, che ha potuto applicare queste conoscenze all’analisi del repertorio piani-
stico, centrato particolarmente sui secoli XX e XXI. L’incontro tripartito tra il fagottista Paolo
Carlini, il compositore spagnolo Luis de Pablo e il professore Fabio De Sanctis De Benedictis è
risultato molto appagante, apportando nuove conoscenze sull’opera del Maestro Luis de Pablo,
compositore riconosciuto della generazione spagnola del ’51.
Concludendo, il successo dell’esperienza permette di pensare a futuri scambi mediante l’orga-
nizzazione di seminari su nuove aree di indagine, laboratori pratici con gli studenti, presentazioni
e concerti, così come commissioni specifiche di opere acusmatiche o miste multicanale per l’Au-
ditorium di Livorno, così come per i festival e i concerti che formano parte della programmazione
musicale contemporanea in Siviglia. Speriamo di continuare con l’aiuto del programma Erasmus+
dell’Unione Europea, delle due istituzioni superiori, così come eventualmente altre istituzioni e
organizzazioni che desiderino dare sostegno a questo progetto internazionale.

7.7 Bibliografia e sitografia


Carretero, Alberto, Composición musical bio-inspirada, Siviglia, Punto Rojo 2015.
Carretero, Alberto, Componer música celular con ayuda del ordenador. Paso a paso, Siviglia,
Punto Rojo 2015.
Pagina web dei corsi del professor Fabio de Sanctis de Benedictis:
https://sites.google.com/site/fdsdbmascagni/conferenze-e-seminari
Registrazione audio di Videns (Spotify):
https://open.spotify.com/track/6VEhxH3T70j5cITc3ErAdX
Registrazione video di Passio (Ircam):
http://medias.ircam.fr/xbb9d6b_passio-for-dancer-marimba-and-live-elect
Registrazione audio di Imaginaire (Ircam):
http://medias.ircam.fr/x8568ad

92
Registrazione audio di Spherical Sights (Soundcloud):
https://soundcloud.com/albertocarretero/spherical-sights
Registrazione audio di Indlandsis (Soundcloud):
https://soundcloud.com/albertocarretero/indlandsis

93
94
Capitolo 8

Gianpaolo Antogirolami, Nicola Casetta

Note in margine al concerto di


Suoni Inauditi 2017

Gianpaolo Antongirolami
gianpaolo@antongirolami.it
Nicola Casetta
nicolacasetta@gmail.com

8.1 Introduzione
Il presente contributo intende documentare l’attività svolta per la preparazione e la realiz-
zazione di un concerto per sassofono e live electronics tenuto il 19 maggio 2017 presso l’Audito-
rium “Cesare Chiti” dell’Istituto Superiore di Studi Musicali “P. Mascagni” di Livorno.
Il testo è articolato in due parti: la prima (a cura di Gianpaolo Antongirolami) approfondisce
le ragioni legate alla scelta del programma e ricostruisce l’idea compositiva, la genesi e la struttura
dei brani eseguiti; la seconda (a cura di Nicola Casetta) definisce invece la figura dell’interprete
all’elettronica, illustrando inoltre le soluzioni tecniche adottate per il concerto.1

8.2 Il programma
8.2.1 Caratteristiche dello spazio esecutivo e scelta del programma:
una relazione biunivoca
Durante l’A.A. 2016-2017 l’Istituto Superiore di Studi Musicali “Pietro Mascagni” di Livorno
mi ha invitato a tenere una Master Class per il corso di sassofono del Prof. Valerio Barbieri. A
conclusione delle due giornate di lavoro, il 19 maggio ho tenuto un concerto per sassofono e live
electronics, con Nicola Casetta alla regia del suono e al live electronics.
Il concerto ha avuto luogo presso l’Auditorium “Cesare Chiti” dell’Istituto ed era parte della
stagione denominata Suoni Inauditi, giunta nel 2017 all’VIII edizione.

1 La sezione 8.2 è stata scritta da Gianpaolo Antongirolami e la sezione 8.3 da Nicola Casetta.

95
Il programma prevedeva:

Jean-Claude Risset Saxatile (1992)


per saxofono soprano ed elettronica

Riccardo Dapelo Adaptive_study#02, Symbolic structures (2016)


per saxofono contralto e live electronics

Roberto Doati ANTIDINAMICA (2016)


per saxofono soprano e live electronics

Nicoletta Andreuccetti >=< c p d (in two minds) (2015)


per saxofono soprano e live electronics

Carmine Emanuele Cella Improvviso statico I (2012)


per saxofono contralto e live electronics

Andrea Agostini Gli atomi che s’accendevano e radiavano (2009)


per saxofono baritono e live electronics

Le interessantissime caratteristiche dell’auditorium, in cui sono installati in pianta stabile


24 diffusori che consentono, per l’appunto, la produzione di “suoni inauditi”,2 hanno orientato
in gran parte la scelta del programma. Inoltre, tale scelta è stata guidata dalla volontà di
proporre principalmente brani recentissimi – come è buona consuetudine nel campo della musica
contemporanea e, in particolare, in quello della musica elettronica – senza però dimenticare una
delle pietre miliari del repertorio per sassofono ed elettronica, Saxatile di Jean-Claude Risset,
del 1992. È stato così individuato un percorso storico che ha evidenziato come le più nuove
espressioni dell’interazione tra strumento acustico ed elettronica dal vivo affondino le loro radici
nel lavoro pionieristico compiuto ormai diversi decenni or sono da compositori come Risset.
Anche se la maggior parte delle composizioni elettroacustiche esistenti – e quindi presenti nel
nostro repertorio – sono state ideate dai loro autori per un sistema di diffusione su due canali
(sistema stereofonico o a doppio mono), e quindi solitamente realizzate con questa configurazione,
esistono molte altre opere, soprattutto le più recenti, in cui il compositore adotta un sistema di
diffusione multicanale. In questi lavori la componente spaziale del suono diventa un vero e proprio
parametro compositivo.
La scelta è quindi ricaduta su tre brani nati per una diffusione su otto canali, Improvviso
statico I di Carmine Emanuele Cella, Gli atomi che s’accendevano e radiavano di Andrea Ago-
stini e Adaptive_study#02, Symbolic structures di Riccardo Dapelo, e uno che prevedeva un
live electronics su quattro canali, ANTIDINAMICA di Roberto Doati. Il brano di Nicoletta
Andreuccetti, >=< c d p (in two minds) pur prevedendo una diffusione stereofonica, ben si
adattava per le sue caratteristiche morfologiche a una diffusione multicanale. In omaggio a Jean-
Claude Risset, autentico capostipite della musica elettronica, scomparso di recente, abbiamo
deciso di iniziare il concerto con il primo brano che il compositore francese dedicò al sassofono,
Saxatile, per saxofono soprano e suoni sintetici, scritto ormai un quarto di secolo fa.3

2 De Sanctis De Benedictis, Fabio (cur.), L’Auditorium che canta 1.0, ISSM “P. Mascagni”, Livorno 2015,

Internet: https://drive.google.com/file/d/0B3MEy62wz8QDcm56MUlLT3Y4ZHM/view?pref=2&pli=1.
3 Carmine Emanuele Cella (n. 1976); Andrea Agostini (n. 1975); Riccardo Dapelo (n. 1963); Roberto Doati

(n. 1953); Nicoletta Andreuccetti (n. 1968); Jean-Claude Risset (1938-2016).

96
8.2.2 Saxatile di Jean-Claude Risset
Jean-Claude Risset ha composto Saxatile nel 1992, dedicandolo a Iannis Xenakis in occasione
del suo settantesimo compleanno. Il nastro è stato realizzato presso l’atelier UPIC,4 una struttura
fondata proprio da Iannis Xenakis.5
La dedica a Xenakis non comporta però, nella parte del sassofono, citazioni o prestiti tratti
dalle sue tecniche di scrittura; il nastro, invece, presenta alcune allusioni grafiche a Metastasis, il
capolavoro sinfonico che Xenakis scrisse nel 1953-54. Il titolo Saxatile ha un doppio significato:
da un lato si riferisce chiaramente al nome dello strumento musicale adottato, dall’altro prende
in prestito l’aggettivo inglese ’saxatile’, che deriva dal latino e designa organismi o piante che
vivono o crescono tra le rocce. Il titolo quindi suggerisce metaforicamente la relazione tra il
sassofono e i suoni sintetici, come se si trattasse di un incontro tra il mondo biologico e quello
minerale.
All’inizio, i suoni sintetici girano attorno a un’altezza precisa, poi subiscono scivoloni e de-
rive, infine si disperdono in grani. Nonostante queste diversità morfologiche, i suoni di sintesi
appartengono allo stesso regno, come strati geologici, rocce, ciottoli e sabbia appartengono tutti
al regno minerale. Le linee del sassofono giocano intorno a questo contesto “minerale” con una
flessibilità ed una vitalità tipiche, invece, del mondo biologico.
Il nastro di Saxatile è stato prodotto interamente utilizzando il sistema grafico digitale UPIC:
su una tavoletta grafica vengono disegnate alcune caratteristiche del suono quali il tipo di onda,
le forme degli inviluppi d’ampiezza e le frequenze. A partire da questi disegni – che possono
anche specificare l’onda sonora non solo come un’onda sinusoidale ma come porzione di un
suono registrato – il sistema genera i suoni. In Saxatile Risset ha sfruttato questa opportunità
utilizzando come segnale generativo sia le sinusoidi sia i suoni del sassofono di Daniel Kientzy, a
cui si deve la prima esecuzione assoluta del pezzo.6

8.2.3 Adaptive_Study#02-Symbolic Structures di Riccardo Dapelo


Nel mese di ottobre 2015, presso il Conservatorio di Piacenza, ho tenuto un workshop sull’im-
provvisazione, insieme a Walter Prati e Riccardo Dapelo. Al termine dei quattro giorni di lavori
abbiamo realizzato un concerto in cui ho anche eseguito in prima assoluta una composizione di
Dapelo per sassofono baritono e live electronics dal titolo Adaptive Study_#02 Lexicon.
La collaborazione con il compositore è proseguita nei mesi successivi ed è quindi approdata
a una nuova composizione, Adaptive_Study#02-Symbolic Structures per sassofono contralto e
sistema adattivo di live electronics su otto canali. Nell’ambito del XXI CIM (Colloquio di
Informatica Musicale), ho poi effettuato la prima esecuzione del brano (Cittadella dei Musei di
Cagliari, 29 ottobre 2016). Il compositore era al live electronics e Roberto Zanata alla regia del
suono.
4 UPIC: Unité Polyagogique Informatique CEMAMu (Centre d’Études de Mathématique et Automatique

Musicales).
5 «The first version [of the UPIC] was born in 1977 and ran on a SOLAR mainframe. In 1983, the second

version was based on two 8086 INTEL microprocessors. The first real-time version came in 1987, which increased
the interaction between composer and machine tremendously. The newest PC/AT version (1991) that is described
below is the first commercial UPIC system. It is totally real time and includes advanced “user-friendly” concepts
in its graphic interface»: Marino, Gérard, et al. The UPIC System: Origins and Innovations, in Perspectives
of New Music, vol. 31, no. 1, 1993, p. 260. Internet: www.jstor.org/stable/833053. («La prima versione
[dell’UPIC] nacque nel 1977 e veniva eseguita su un mainframe SOLAR. Nel 1983 la seconda versione si basò su
due microprocessori INTEL 8086. La prima versione in tempo reale venne nel 1987, il che aumentò tremendamente
l’interazione tra il compositore e la macchina. La versione più recente PC/AT (1991) che è descritta oltre è il
primo sistema UPIC commerciale. Essa è totalmente in tempo reale e include concetti “amichevoli” avanzati nella
sua interfaccia grafica.» [t.d.c.].
6 Cfr. Jean-Claude Risset in http://brahms.ircam.fr/works/work/21327/.

97
È lo stesso compositore a spiegare in maniera esaustiva la concezione, la progettazione e la
realizzazione del pezzo:

Si tratta del secondo di una serie di studi inaugurati nel 2015 che hanno incluso
tutti i parametri dell’opera dal momento del concepimento alla realizzazione della
partitura, dalle istruzioni per l’esecuzione alla concezione algoritmica (e compositiva)
del live electronics. L’obiettivo, innanzitutto compositivo, è di realizzare/progettare
un’opera non definita/chiusa a livello temporale. Per concepire tale lavoro è stato
necessario suddividere e definirne i vari aspetti e capacità:

• reagire agli stimoli del performer (osservandone i comportamenti);


• simulare una sorta di “coscienza temporale” (memoria del tempo trascorso du-
rante la performance);
• manipolare strutture simboliche (frammenti di partiture);
• operare scelte sulla base di quanto prodotto ed eseguito fino al momento attuale,
mantenere il controllo della densità massima senza degenerazione entropica.

Rispetto a queste posizioni la ricerca è consistita nel progettare un’opera aperta con
le seguenti caratteristiche:

• adattiva (in grado cioè di adattarsi a certe condizioni esterne), in cui però sia
possibile il controllo di determinati aspetti temporali, in primis, ma non solo, la
modulazione della densità degli eventi nel micro e macro livello;
• che consenta e realizzi ciò che Michelangelo Lupone definisce “stile” (invarianza
organizzativa del materiale sonoro);
• interattiva, ossia in forma dialogante con uno o più esecutori;
• in cui le azioni possibili sia da parte del performer sia da parte del sistema non
siano predeterminate; altrimenti si tratterebbe semplicemente di assegnare un
coefficiente di probabilità a una delle diverse possibili soluzioni;
• che sia in grado di reagire a uno stimolo diretto e simuli un certo grado di
memoria del passato;
• che sia in grado manipolare strutture simboliche (frammenti di partitura sia in
input che in output).

Queste le ambiziose aspirazioni. Nell’affrontare un tale percorso, quando si tratta


di un tale livello di complessità, si è preferito optare per lo studio, ossia una for-
ma in cui sperimentare con un sistema di ipotesi, test, retrodizione, ritenendo che
l’opera d’arte, per quanto oggettiva, non abbia metodo e tanto meno sia o possa
essere definita scientifica. Lungi dal confutare una qualche ipotesi, essa non cessa di
confermare che l’uomo è materia variabile sulla quale è impossibile pronunciare un
giudizio permanente (P. Veyne).
Il lavoro è dedicato a Gianpaolo Antongirolami, prezioso collaboratore in tutte le fasi
del lavoro.7
7 Riccardo Dapelo, lettera personale.

98
8.2.4 >=< cpd (in two minds) di Nicoletta Andreuccetti
Con >=< c p d (in two minds), realizzato su commissione del Festival Spaziomusica 2015,
l’autrice ha inteso narrare

l’alternanza di stati mentali trasfigurati in suono mediante un’interferenza continua


che accosta antitesi estreme, rappresentate da sonorità che privilegiano i registri e-
stremi del sax in una dialettica imprevedibile tra overtones/subtones e distorsioni
‘acide’/sinusoidi ‘pure’. Convergent Parallel Divergent sono i modelli di sviluppo
che strutturano la relazione tra sax e live electronics: sinusoidi pure che ‘nascono’
dal sax evolvono in differenti direzioni, producendo battimenti e modulando, secondo
differenti prospettive, la forma generale. Il sax diviene così, attraverso l’uso della
dinamica, del gesto, dell’attacco e dello sviluppo del suono, un tool di controllo che
plasma il live electronics.8

Ho effettuato la prima esecuzione assoluta di >=< c p d (in two minds) il 4 novembre 2015,
presso il Centro Culturale di Arte (Lazzaretto), Cagliari, nell’ambito del Festival Spaziomusica.

8.2.5 Improvviso statico I di Carmine Emanuele Cella


Alla base di Improvviso statico I c’è un’idea narrativa, una concezione del suono come entità
che abita il tempo in maniera misteriosa ed evocativa. L’interazione tra sassofono ed elettronica
costruisce uno spazio mentale poetico, vago, eppure presente. Il compositore descrive così l’idea
alla base del brano:

Improvviso statico disegna uno spazio narrativo fatto di isole sonore che galleggiano
in un mare di nebbia. Senza ragione apparente un’isola si avvicina, si allontana,
scompare o riappare trasformata, in uno spazio irreale in cui le distanze sono interiori
e le relazioni immaginarie. Ogni isola rappresenta un nastro di Moebius che viaggia
dal dentro al fuori del suono in modo continuo; in ogni isola il sassofono e l’elettronica
creano un’immagine sonora indissolubile, senza gerarchie, priorità e tempo.9

8.2.6 Gli atomi che s’accendevano e radiavano di Andrea Agostini


Gli atomi che s’accendevano e radiavano è stato scritto da Andrea Agostini nel 2009, come
brano finale del corso che ha seguito all’IRCAM di Parigi, e per tale ragione prevede un uso
abbastanza estremo dell’elettronica in tempo reale. Si riassumono di seguito le indicazioni fornite
dall’autore.
Nella prima metà del pezzo l’elemento ritmico assolve un ruolo unificante, poiché la fisionomia
ritmica è la stessa sia nell’elettronica che nella parte strumentale. Un altro aspetto caratterizzante
è un impiego dell’elettronica direttamente influenzato dalla popular music, nonostante non ci
siano citazioni dirette in relazione alle sonorità, ai comportamenti, o al tipo di scrittura. È invece
evidente e dichiarato, nella scrittura del sassofono, un certo sincretismo che fonde il linguaggio
della musica contemporanea colta con quello di un certo tipo di jazz e con un virtuosismo
extra-colto, ma anche in questo caso non ci sono citazioni dirette.
Nella seconda parte del lavoro la scrittura è estremamente rigorosa per quanto riguarda la
formalizzazione dei materiali e l’interazione tra live electronics e strumento. Timbro e armonia
vengono messe in relazione secondo procedure influenzate dallo spettralismo francese, anche se
non c’è un impiego diretto di tecniche spettrali pure.
8 Cfr. Nicoletta Andreuccetti in http://www.nicolettaandreuccetti.it/works-post/cpd-in-two-minds/.
9 Carmine Emanuele Cella, note di sala per il concerto del 16/9/2014 nell’ambito dell’ICMC2014, Atene.

99
Secondo Andrea Agostini, in questo brano è particolarmente marcato un atteggiamento che
caratterizza la sua produzione degli ultimi anni: «la ricerca di una zona grigia, di un terreno
comune dove timbro e armonia si incrociano, si accavallano e si confondono».10

8.2.7 ANTIDINAMICA di Roberto Doati


Il punto di partenza di ANTIDINAMICA è un’improvvisazione che avevo realizzato per un
altro pezzo di Roberto Doati, Il domestico di Edgar :

La composizione ha inizio con l’elaborazione, in tempo reale, della registrazione di


un’improvvisazione di Gianpaolo Antongirolami (saxofono contralto) per la mia opera
Il domestico di Edgar. L’analisi spettrale di questa elaborazione, che non contiene più
alcun suono riferibile alla sorgente acustica, definisce la partitura per i sassofoni in
ANTIDINAMICA. Il sassofonista può scegliere e cambiare il metronomo (semiminima
da 20 a 120) ad ogni pagina, così come quali e quanti pentagrammi eseguire, fra i
6 di ogni pagina, ma entro una durata stabilita (minimo 6’, massimo 12’). Nei
restanti 4’ (massimo 6’) prosegue improvvisando liberamente sulla memoria di quanto
precedentemente letto. L’interprete al live electronics improvvisa liberamente sui
parametri di un ambiente costituito da una convoluzione con impulsi filtrati e inviati
a 4 ritardi in parallelo con traspositore nel feedback, dapprima sulla registrazione
usata per generare la partitura e poi sui sassofoni dal vivo.11

Si tratta quindi di una composizione in cui gli esecutori, al sassofono e al live electronics, hanno
ampi margini di libertà, contribuendo fattivamente alla realizzazione del brano. Ho realizzato la
prima esecuzione di ANTIDINAMICA, con l’autore al live electronics, nell’ambito del XXI CIM
(Cagliari, 29 settembre 2016).

8.3 Note per l’interpretazione elettroacustica


8.3.1 L’interprete elettronico
Prima di affrontare le problematiche di carattere interpretativo e relative l’allestimento del
concerto, si ritiene opportuno definire la funzione dell’interprete elettronico.
Nel corso del ’900 la nascita della musica elettronica ha apportato mutazioni del linguaggio e
delle tecniche di realizzazione musicali. Tali mutazioni hanno prodotto radicali trasformazioni del
ruolo dell’interprete e delle sue competenze. Da una parte troviamo l’interprete degli strumenti
tradizionali che si è specializzato in nuove tecniche esecutive, dall’altra si è creata la figura
dell’interprete degli strumenti musicali elettronici il cui ruolo spazia dalla regia del suono alla
progettazione dell’ambiente esecutivo (Vidolin, 1997).
Nel caso specifico del concerto di Livorno, l’attenzione dell’interprete elettronico si è focaliz-
zata principalmente nei confronti della regia del suono.

8.3.2 Problematiche di interpretazione


Nell’affrontare un programma da concerto composto da diversi brani che prevedono l’uso del
live electronics, si deve porre particolare attenzione nel creare un insieme di ambienti esecutivi
10 Cfr. intervista a Andrea Agostini per la Biennale Musica 2011, in https://www.youtube.com/watch?v=

AiyYV1RszcE.
11 Roberto Doati, lettera personale.

100
omogeneo e compatto, affinché le transizioni tra i vari ambienti avvengano in maniera rapida e
fluida; è opportuno evitare che ci siano tempi di attesa tra un brano e l’altro e che non si debba
fare nessuna modifica software o hardware alla patch list, ovvero la lista degli input-output del
mixer o della scheda audio.
Nel caso specifico del concerto di Livorno sono stati mappati gli input e gli output virtuali
dei diversi ambienti esecutivi con gli input e output fisici della scheda audio, facendo attenzione
che, ad ogni apertura di un nuovo ambiente, i valori di input ed output rimanessero gli stessi.
Per nostra fortuna le varie patch fornite dai compositori sono state tutte realizzate in ambiente
di programmazione Max/MSP12 rendendo così agevole la configurazione.
Nonostante l’uso di questa piattaforma software sia una scelta comune a molti compositori,
l’implementazione delle patch non risulta sempre uniformata secondo una prassi esecutiva ormai
consolidata.
La patch da concerto deve avere caratteristiche di ergonomicità, deve essere concepita sia per
il concerto che per le prove, deve essere come uno strumento musicale, facilmente utilizzabile,
prevedibile e deterministica. Una buona patch deve contenere degli identificatori visuali che si
possano rintracciare rapidamente e le diverse unità (inizializzazione, partitura, dsp, dac-outs,
ecc.) si devono poter identificare chiaramente così da permettere un facile settaggio in caso di
necessità.
Di seguito analizzeremo i diversi ambienti esecutivi dei diversi compositori.

8.3.3 Gli ambienti esecutivi


Per ambiente esecutivo si intende l’interfaccia musicale formata da tutto l’apparato hardware
e software che l’interprete utilizza come fosse uno strumento musicale generalizzato, adatto al-
l’esecuzione di una o più specifiche composizioni musicali. In questo caso l’hardware è formato
dai diffusori dell’auditorium, il mixer, le schede audio e i microfoni; il software dall’insieme delle
diverse patch fornite dai compositori.
Ora analizzeremo, senza entrare troppo nei dettagli, il funzionamento di ogni ambiente ese-
cutivo software, le patch Max/MSP dal punto di vista del signal processing, della progettazione
della UI (User Interface) e la tipologia di interazione richiesta all’interprete elettronico.

8.3.3.1 Adaptive_study#2, symbolic structures (2016) di Riccardo Dapelo.


Questo brano, dal punto di vista del trattamento digitale del segnale, non interviene a livello
audio ma a livello simbolico, cioè sulla manipolazione di strutture simboliche, ossia frammenti
di partitura.
L’autore ha deciso di utilizzare l’oggetto sigmund64˜13 di Miller Puckette per il pitch tracking,
le librerie Bach14 di Andrea Agostini e Daniele Ghisi per la composizione assistita e il tool ICST15
come spazializzatore ambisonico.
La composizione presenta un’interfaccia chiara (vedi Figura 8.1). L’interprete elettronico,
oltre ad aver cura di tutti i livelli e di alcuni controlli riguardanti la composizione assistita,
deve attivare la registrazione di frammenti suonati dallo strumento dal vivo, i quali andranno
ad alimentare il processo di manipolazione a livello simbolico, e quindi gestire alcuni controlli di
riproduzione.
In questo brano c’è una discreta libertà interpretativa che lascia un buon margine decisionale
all’interprete elettronico.
12 Per approfondimenti sul software si rimanda al sito ufficiale di Max/MSP: https://cycling74.com/.
13 Per approfondimenti: https://github.com/v7b1/sigmund_64bit-version/releases.
14 Per approfondimenti: http://www.bachproject.net/.
15 Per approfondimenti: https://www.zhdk.ch/en/downloads-ambisonics-externals-for-maxmsp-5381.

101
Figura 8.1: Interfaccia grafica di Adaptive_study#2.

102
8.3.3.2 ANTIDINAMICA (2016) di Roberto Doati
La scheda tecnica a corredo di questa composizione prevede, tra l’altro, tre microfoni e quattro
altoparlanti. Al fine di rispettare lo stage plan (Figura 8.2) e considerando la posizione fissa dei
diffusori dell’auditorium, sono state posizionate due casse aggiuntive davanti allo strumentista e
in linea con le casse già installate.

Figura 8.2: Stage plan.

Secondo quanto indicato in partitura sono stati quindi utilizzati quattro diffusori, ottenendo
una localizzazione del suono molto centrale; inoltre un primo microfono è stato posizionato
sulla campana del sassofono, un secondo all’altezza della spalla del sassofonista ed il terzo in una
posizione diversa, qualche metro più indietro, dove l’interprete si sarebbe spostato per l’esecuzione
della seconda parte.
In ANTIDINAMICA le tipologie di processamento del suono utilizzate sono principalmente
due, la convoluzione su otto canali e un sistema di quattro ritardi con feedback ; inoltre l’autore
rende disponibili alcuni tools utili anche per migliorare la qualità del suono, quali un equalizza-
tore, un compressore, un sistema di amplificazione trasparente, un frequency shifter con delay e
un modulatore ad anello.
La patch (Figura 8.3), sviluppata da Roberto Doati in ambiente Microsoft Windows, utilizza
per la convoluzione il plug-in Pristine Space della Voxengo16 che viene distribuito esclusivamente
per tale piattaforma. Quindi, d’accordo con il compositore, è stato implementato su ambiente
Mac-OsX un nuovo algoritmo di convoluzione utilizzando l’external partconvolve˜, scritto da
Alexander Harker, parte della libreria The HISStools Impulse Response Toolbox.17
Si è dovuto effettuare un ulteriore porting per l’oggetto frequency shifter single side band con
filtro e delay, eseguito in ambiente Windows dal plugin SCOPE: SSB Delay S, realizzando una
specifica implementazione con oggetti della libreria di Max/MSP, tra i quali freqshift˜, tapin˜
e tapout˜.
L’interfaccia risulta molto chiara e all’interprete elettronico è data la possibilità di intervenire
liberamente su tutti i parametri della patch, improvvisando sui controlli dry/wet e di volume
relativi ad ogni singolo convolutore, nonché sulla velocità di lettura e play/pause di un file audio.
Sono inoltre possibili interventi sui parametri di feedback – frequenza di taglio del filtro passa-
basso, trasposizioni, clock random dei guadagni, generazione casuale dei valori della matrice dei
ritardi – e del sistema dei quattro diversi ritardi, chiamato dall’autore pattern delay (Figura 8.4).
Nella seconda parte della composizione, quando il sassofonista raggiunge la postazione in cui è
stato posizionato il terzo microfono, l’interprete elettronico interviene improvvisando sull’effetto
denominato dall’autore “di ottavazione”, ovvero trasposizione di altezza controllata da tastiera
midi in cui il guadagno in uscita dipende dalla velocity MIDI.
16 Per approfondimenti: http://www.voxengo.com/product/pspace/.
17 Per approfondimenti: http://eprints.hud.ac.uk/id/eprint/14897/.

103
Figura 8.3: Interfaccia grafica della patch di ANTIDINAMICA.

104
Figura 8.4: Il pattern delay.

8.3.3.3 >=< c p d (in two minds) (2015) di Nicoletta Andreuccetti


In questo brano la patch fornita (Figura 8.5) è estremamente automatizzata e, una volta
settati opportunamente i livelli di volume in ingresso ed uscita del master e dei vari parametri,
l’interprete deve lanciare le sei scene in cui è suddivisa la composizione.
Dal punto di vista del signal processing l’ambiente esecutivo è suddiviso, anche graficamente,
in tre subpatch che corrispondono a specifici trattamenti del segnale. Nella prima sezione trovia-
mo un envelope follower che va a gestire alcuni parametri della granulazione, quali brillantezza,
lunghezza e dinamica dei grani. Nella seconda sezione l’envelope follower va a gestire dei suoni
sinusoidali, per creare, tra i diversi effetti, anche quello dei battimenti. L’interfaccia presenta
pure la possibilità di escludere l’automatismo dell’envelope follower e di passare ad un controllo
manuale. L’ultimo blocco presenta un pitch tracking realizzato con l’external analize˜ della
libreria CNMAT ed un harmonizer fatto con l’oggetto nativo di Max/MSP denominato gizmo˜.

8.3.3.4 Gli atomi che s’accendevano e radiavano (2009) di Andrea Agostini


Nel documento fornito a corredo della patch di esecuzione (Figura 8.6), il compositore specifica
dettagliatamente e minuziosamente i requisiti di sistema, la modalità di installazione del software
e di utilizzo della patch. Una dettagliata checklist fornisce ulteriori indicazioni degli step (dal n.
1 al n. 9 come indicato nella UI ) necessari per inizializzare correttamente il software.
Nella parte superiore destra dell’interfaccia grafica si trova un comodo sub-mixer con i livelli
separati del volume dei file audio, dei suoni di sintesi, dei trattamenti e del riverbero, cosa molto
utile durante una esecuzione live. Al centro si trovano un indicatore del numero di battuta,
di cue e la transport control che permette di saltare da una battuta ad un’altra direttamente

105
Figura 8.5: Patch di esecuzione di >=< c d p (in two minds).

106
Figura 8.6: La UI della patch Gli atomi che s’accendevano e radiavano.

107
cliccando sulla barra verde, funzione molto utile in fase di studio. Subito sotto troviamo la
sezione dei livelli: il primo a sinistra è quello di input, sia con livello RMS che di picco, al centro i
livelli multicanali per ogni trattamento ed infine i livelli di uscita. Infine, in basso, troviamo una
finestra per monitorare il carico della CPU, una finestra con il contenuto del buffer per le battute
163-164 in cui avviene una granulazione, e una finestra in cui si possono aprire e visionare le
diverse subpatch. L’interfaccia nel suo complesso appare molto chiara, leggibile e funzionale.
Per l’avanzamento delle cue l’autore suggerisce l’uso di un pedale da azionarsi da parte dello
strumentista; ma in questo caso, per uniformarci con gli altri ambienti esecutivi, si è preferito
procedere con il lancio delle cue dalla regia del suono. Il brano prevede l’utilizzo di un click in
cuffia per il sassofonista, quindi un’uscita della scheda audio è stata utilizzata per tale scopo.
Dal punto di vista dei trattamenti sono presenti un modulo di risintesi realizzato utilizzando
l’oggetto spreadosc˜ creato dall’autore, tre diverse implementazioni di frequency shifter che han-
no tutte alla base l’oggetto nativo di Max/MSP freqshift˜, un granulatore su quattro canali che
sfrutta per la spazializzazione l’oggetto vpab della libreria vector size amplitude panning library 18
sviluppata da Ville Pulkki, due linee di ritardo multicanale, una delle quali con parametrizzazioni
random, ed infine due riverberi, uno della libreria SPAT19 sviluppata all’IRCAM e l’altro con
funzione di doppler sviluppato dall’autore.

8.3.3.5 Improvviso statico I (2012) di Carmine Emanuele Cella

La patch di Improvviso statico I (Figura 8.7) risulta subito, fin dalla prima apertura, molto
chiara: tutti gli identificatori visivi essenziali si rintracciano molto rapidamente (il livello del
master, quello di input e degli eventi sono evidenziati in giallo), così come anche gli altri parametri
utili come i diversi processori, la spazializzazione, la partitura, e via di seguito. Anche dal punto
di vista ergonomico risulta essere molto ben concepita in quanto funzionale sia per il concerto che
per le prove in studio. Grazie all’implementazione di una matrix, di preset, di una playlist e di un
interessante scene manager, questa patch risulta essere utilizzabile anche in fase di concepimento
di un nuovo brano, in cui certi parametri devono essere funzionali e velocemente accessibili.

Figura 8.7: La UI della patch di Improvviso statico I.

18 Per approfondimenti: http://research.spa.aalto.fi/projects/vbap-lib/vbap.html.


19 Per approfondimenti: http://forumnet.ircam.fr/product/spat-en/.

108
La UI dell’ambiente esecutivo è divisa in blocchi colorati quindi ben identificabili e si percorre,
in maniera molto intuitiva, seguendo un percorso che va dall’alto in basso per ogni blocco e da
sinistra verso destra.
Cliccando sulla checklist si apre una subpatch con una serie di informazioni divise per impor-
tanza: la prima è una lista todo, ovvero la sequenza delle azioni essenziali per iniziare corretta-
mente l’esecuzione, in cui si richiede di controllare l’audio, il midi, il messaggio di inizializzazione,
lo speakers layout, e così via. Subito sotto troviamo una serie molto comoda di shortcuts quali
pulsanti di accensione-spegnimento audio, movimento di scene, apertura della console, e altri.
A seguire troviamo una serie di good advices, che ci informano su come settare nelle preferenze
di Max il buffer e lo schedule overdrive. Infine una serie di istruzioni su come creare una nuova
scena.
Sotto la checklist si trova una sezione per rimappare il controller BCF2000 nel caso in cui si
vogliano fare delle modifiche ai CC (Continous Controller ) che comunque risultano già comoda-
mente assegnati. Successivamente si trovano i diversi blocchi, quali attivazione degli shortcuts,
tasti di inizializzazione e reset, audio on/off con cpu meter e partitura.
L’interfaccia, nonostante la sua complessità progettuale, risulta essere perfettamente leggibile
e anche la strutturazione interna delle varie patch risulta estremamente chiara e commentata.
Nel suo complesso raggiunge un alto grado di modularità che facilita la gestione degli eventi
e la riutilizzazione degli elementi, strategie che rendono la patch più prevedibile. Ogni blocco
della main patch è formato da altre patch in cui l’autore divide la GUI dall’algoritmo e utilizza
l’oggetto bpatcher per visualizzare gli elementi utili alla performance. L’ambiente esecutivo, nel
suo utilizzo, risulta molto stabile, prevedibile e deterministico.
Dal punto di vista del digital signal processing troviamo ben cinque unità, tre file player e lo
spazializzatore implementato con ICST.
Il primo trattamento è un harmonizer nel dominio della frequenza in cui è possibile scegliere
tra l’oggetto nativo di Max/MSP gizmo˜ e l’oggetto sparkle˜, fornito come external e sviluppato
dall’autore.20
I tre file player hanno una comoda interfaccia con funzionalità di fade in/fade out, speed, loop,
stop, reset e un menu a tendina in cui è possibile selezionare i campioni dalla cartella sample. È
inoltre presente un modulo denominato xsynth che realizza una sintesi incrociata per formanti
implementata sempre con l’algoritmo sparkle˜.
Va evidenziato che sparkle˜ è il risultato di una ricerca che Carmine Emanuele Cella ha
effettuato nel campo della matematica, la formulazione della teoria dei sound types, un nuovo
metodo di rappresentare e manipolare il suono attraverso strumenti matematici (Cella, 2011).
Il penultimo modulo è un multidelay multicanale in cui è possibile parametrizzare, per ogni
singolo canale, ritardi, filtri, feedback e modulatori.
Infine troviamo un processore di riverbero implementato dall’autore con l’oggetto liteverb˜.
Per quanto concerne la performance, l’interprete elettronico segue le cue in partitura e le
attiva. Alla fine della cue D.2 è inoltre richiesta un’improvvisazione in cui l’interprete può agire
liberamente sui parametri del multidelay al fine di portare a saturazione e successiva “distruzione”
il materiale catturato dal loop.

8.3.4 La regia del suono


In questo concerto i brani in repertorio non prevedevano nessun tipo di controllo esterno da
parte del performer ed è stato quindi possibile individuare liberamente la sua posizione, così
come quella della regia, in relazione alle caratteristiche architettoniche dell’auditorium. È stato
20 Disponibile una versione gratuita standalone nel sito http://www.sonic-pad.com.

109
quindi possibile posizionare la regia a centro sala per un ascolto multicanale ottimale come si
vede sotto in Figura 8.8.

Figura 8.8: Posizionamento della regia del suono nell’auditorium.

8.3.5 Scheda tecnica


Per la realizzazione di questo concerto abbiamo utilizzato la seguente configurazione tecnica:

• 2 monitor Montarbo MT 200 A


• il sistema multicanale dell’Auditorium “Cesare Chiti” che prevede 16 diffusori Proel LKM
100 A
• 3 interfacce audio Presonus FireStudio Project collegate in serie per gestire i diffusori
• 1 computer Mac con Max/MSP 6 collegato alle interfacce Presonus per la gestione della
spazializzazione
• 1 mixer digitale Yamaha 03D
• 1 interfaccia RME UCX
• 1 preamplificatore Shure FP24
• 1 computer Mac con Max/MSP 7 per la gestione delle patch
• 1 microfono DPA 4099
• 1 microfono Neumann KMS 104
• 1 microfono AKG 1000s

110
• 1 controller Beringher BCF2000

• 1 controller Samson Graphite M25

Figura 8.9: Tech Rider.

Il routing del segnale è stato così impostato: il microfono DPA 4099 entrava nell’input n. 1 del-
la scheda RME UCX, il Neumann MKS 104 nell’ingresso n. 2 ed il terzo microfono, l’AKG 1000s
(utilizzato solo nella seconda parte del brano ANTIDINAMICA di Doati) entrava nell’ingresso
n. 3.
La scheda audio è stata collegata via USB al primo Mac, che fungeva da host per le patch, al
quale erano collegati sempre via USB i due controller necessari per l’interpretazione, il BCF2000
ed il Samson.
Gli 8 canali di uscita della scheda audio sono stati collegati con cavo ottico ADAT al mixer
Yamaha 03D le cui uscite analogiche, i 4 bus ed i 4 aux, andavano all’ingresso dell’interfaccia
Presonus.
Il secondo Mac collegato alle Presonus è servito come host per la mappatura degli 8 canali in
input sui 16 output collegati agli altrettanti diffusori della sala.
Per la preamplificazione dei microfoni si è preferito avvalersi dell’interfaccia RME UCX piut-
tosto che del mixer Yamaha, in quanto di più recente fabbricazione e migliore fattura. Lo Yamaha
è stato utilizzato come controller e convertitore in uscita per gli 8 output, mentre la RME anche
per controllare le due ulteriori casse utilizzate.

111
8.3.6 L’amplificazione dello strumento e la spazializzazione
Per quanto concerne l’amplificazione del sassofono, si è ritenuto opportuno effettuare una
leggera amplificazione, utile a rendere maggiormente il senso di coesione tra il sassofono e il
suono elettronico.
Considerando che qualsiasi tipo di amplificazione rende il suono meno naturale e che è
opportuno usarla solo quando strettamente necessario, si è optato quindi per la cosiddetta
amplificazione trasparente, realizzabile in una situazione multicanale.
Questa tecnica simula le prime riflessioni di un ambiente acustico. Il suono viene ritardato
in maniera proporzionale alla distanza tra altoparlante e sorgente e contemporaneamente viene
attenuata l’ampiezza proporzionalmente alla distanza percorsa dal suono e al fattore riflettente
della parete. Infine si altera lo spettro in base alle caratteristiche di riflessione della superficie e
alla attenuazione delle alte frequenze in funzione della distanza. Con una velocità del suono di
circa 340 m/s, le riflessioni risultano ritardate di una distanza (d) (sorgente-diffusore) secondo
la semplice formula:

ritardo[s] = (d)/340

attenuate in ampiezza secondo la legge della distanza:

a = 1/(d)

ed alterate nello spettro con un filtro passa basso del primo ordine con frequenza di taglio attorno
ai 2000 Hz.
Quindi si è proceduto con il calcolo della distanza tra la sorgente S (in Figura 8.11 rappre-
sentata con il cerchio turchese e la S), ovvero la posizione dello strumento, e i diversi diffusori
presenti nel piano a livello del pubblico, posizionati a 150 cm. di altezza. Ottenute le diverse
distanze (in figura in linea blu tratteggiata), si è proceduto con il calcolo dei guadagni e dei tempi
di delay per ogni altoparlante.
L’amplificazione trasparente dello strumento (Figura 8.10) è stata distribuita sugli otto al-
toparlanti del primo livello. Si è deciso cioè di non utilizzare a tale scopo i diffusori del secondo
livello, posizionati a 380 cm. di altezza (indicati in Figura 8.11 dal n. 9 al n. 16), sfruttati
comunque per la diffusione della parte elettronica, come descriveremo più avanti.
Per quanto concerne la spazializzazione, considerando che parte del programma era composto
da brani che prevedono una diffusione in ottofonia (Adaptive_study#2, symbolic structures di
Dapelo, Improvviso statico I di Cella e Gli atomi che s’accendevano e radiavano di Agostini), il
parametro spazio era già stato appositamente pensato e composto degli autori.
È stato quindi sufficiente mappare gli 8 out già spazializzati sui primi 8 canali, utilizzando gli
altoparlanti 2 e 3 spostati in avanti. Per sfruttare anche il secondo livello di altoparlanti abbiamo
riassegnato i canali dal n. 1 al n. 8 rispettivamente sui canali dal n. 9 al n. 16 ed applicato
a questi ultimi dei piccoli ritardi e diminuzione dei guadagni calcolati in base alla distanza tra
ogni coppia di altoparlanti (ad esempio: la distanza tra canali 1 e 9).
In ANTIDINAMICA di Doati, che prevede una precisa disposizione di quattro altoparlanti
allineati dietro lo strumentista, l’autore gestisce chiaramente il parametro spazio e per tale ragione
si è deciso di non applicare ulteriori spazializzazioni; tale scelta è stata adottata anche per
l’esecuzione dei brani Saxatile di Risset e >=< c p d (in two minds) di Andreuccetti, realizzati
in stereofonia.

112
Figura 8.10: Schema a blocchi amplificazione trasparente in otto canali.

113
Figura 8.11: Disposizione diffusori in auditorium.

114
8.4 Bibliografia
Agostini Andrea e Ghisi, Daniele, bach: una libreria per la composizione assistita in Max, in
Proceedings of the XIX Colloquio d’Informatica Musicale (CIM 2012), Trieste, 2012. Internet:
http://visualsonic.eu/pdf/Proceedings_19th_CIM_Trieste_2012.pdf.
Bernardini, Nicola e Vidolin, Alvise, Sustainable Live Electro-Acoustic Music, in Proceedings
XV CIM, Salerno 2005. Internet: https://www.researchgate.net/publication/252500438_
SUSTAINABLE_LIVE_ELECTROACOUSTIC_MUSIC
Cella, Carmine E., Sound-types: a new framework for symbolic sound analysis and synthesis,
in Proc. ICMC 2011, Huddersfield, UK. Internet: http://www.carminecella.com/research/
205_CELLA_CARMINE_EMANUELE_PAPER_CR.pdf.
Harker, Alexander e Tremblay, Pierre A., The HISSTools Impulse Response Toolbox: Convo-
lution for the Masses, in ICMC 2012: Non-cochlear Sound, The International Computer Music
Association, pp. 148-155. ISBN 9780984527410.
Vidolin, Alvise, Interpretazione musicale e signal processing (1997). Internet: http://www.
dei.unipd.it/~musica/Dispense/VidolinMit.pdf.

115
116
Parte II

Mascagni, Cambini, Nardini


Remix

117
Capitolo 9

Paolo Besagno

Largo IV – Mascagni Remix 2015.

paolo.besagno@telecomitalia.it

9.1 Introduzione
Largo IV è un brano ispirato alla musica di Pietro Mascagni.
Si sono utilizzati alcuni campioni sonori,1 limitandoci a quelli in cui fosse impiegato un solo
strumento: non si desiderava avere a che fare con sonorità acusticamente complesse per avere la
libertà – magari solo apparente – di poter lavorare su suoni più definiti.
La scelta è così ricaduta sulla Pifferata di Natale per pianoforte e su un lungo frammento
della parte di violoncello dell’Intermezzo sinfonico della Cavalleria Rusticana. Si voleva provare
a dare una connotazione di Mascagni che, oltre a essere prevalentemente sonora – ovvero rispetto
alla sua produzione musicale – contribuisse a collocare il Maestro nel tempo storico durante il
quale egli visse e cioè il periodo fascista.
Non vorremmo essere fraintesi: non era nostra intenzione discutere delle scelte politiche e
ideologiche di una persona ma, semplicemente, utilizzare alcuni dei suoni provenienti da quel
periodo e rielaborarli per ottenerne quasi un soundscape, almeno per quanto concerne i primi
minuti del brano.
I frammenti non propriamente musicali riguardano la voce di Pietro Mascagni, in una re-
gistrazione dell’epoca mentre presenta al suo pubblico la Cavalleria Rusticana, e un discorso
del Duce; in particolare abbiamo impiegato alcuni frammenti dal discorso sulla superiorità della
razza, tenuto a Trieste nel settembre del 1938.
Il titolo Largo IV si riferisce naturalmente a un’indicazione agogica che in questo brano viene
applicata prevalentemente sui tempi di transito dei vari elementi sonori nello spazio acustico. Le
trasformazioni che subiscono i singoli frammenti sono piuttosto lente e, almeno nell’intenzione,
richiamano un movimento agogico dal tempo dilatato.

1 Sono stati utilizzati: il discorso introduttivo del Mo Mascagni all’incisione completa della Cavalleria Rusti-

cana, da lui diretta per la Voce del Padrone, in occasione del cinquantesimo anniversario della prima rappresen-
tazione (1890/1940) – l’Andantino della Pifferata di Natale (1890) – il discorso di Mussolini sulla superiorità della
razza. Nel settembre 1938 Mussolini annuncia con questo discorso a Trieste l’entrata in vigore delle leggi razziali.

119
Anche gli stessi lunghi treni di grani sonori ricavati dal suono del violoncello generano –
attraverso la sintesi granulare – texture sonore che hanno a che fare con la dilatazione degli
eventi nel tempo.
A prima vista il brano si presenta con un forte contenuto didascalico che però è di breve
durata. Dopo l’apertura durante la quale le voci di Mascagni e Mussolini hanno la prevalenza
sul resto del materiale sonoro, i livelli d’ascolto si intensificano fino a generare quella che sarà
la matrice tridimensionale completa. È stato emozionante scrivere un brano per un sistema di
diffusori così particolare come quello dell’auditorium “Cesare Chiti” dell’Istituto Superiore di
Studi Musicali “Pietro Mascagni” di Livorno.
Al termine di questa prima scrittura di Largo IV – poiché non si esclude ve ne saranno altre
– si può quasi dire con certezza che si è trattato più che altro della scrittura di una partitura di
spazializzazione.
Questo aspetto del brano entusiasma assai; poter finalmente dichiarare la modalità con la
quale i suoni debbano occupare lo spazio ristretto ad essi assegnato è – a nostro avviso – atto
liberatorio.
L’esperienza più gratificante e arricchente è stata, senza dubbio, quella di lavorare al brano
conoscendo solo, attraverso uno schema, le caratteristiche dell’impianto di diffusione attraverso
il quale sarebbe stato eseguito e ascoltato il pezzo.

9.2 Spazializzazione
Come è già emerso in numerosi lavori, specie degli ultimi anni, la spazializzazione è ormai
divenuta un vero e proprio parametro compositivo.
L’impianto di diffusione dell’Auditorium “Cesare Chiti” dell’Istituto Superiore di Studi Musi-
cali “Pietro Mascagni” presenta senz’altro molte caratteristiche interessanti, proprio per quanto
riguarda questo aspetto.
Il suono può essere distribuito su 24 diffusori, installati su tre livelli. Per la realizzazione di
Largo IV vengono impiegati i sedici diffusori, 8 a 150 cm. e altri 8 a 380 cm. da terra, secondo
lo schema riportato in Figura 9.1.
L’idea è stata quella di creare in qualche modo delle traiettorie sulle quali poter “far muovere”
i suoni e quindi era necessario generare un modello tridimensionale dell’Auditorium, a partire
dal quale poter ricavare una sorta di partitura per il controllo del suono nello spazio.
In una prima versione del brano si era optato per un controllo live dei crossfade fra i vari
diffusori ma, con l’andare del tempo, il brano si sviluppava e i segnali audio diventavano troppi
per essere gestiti da uno o due esecutori.
Così si è pensato di automatizzare il tutto, scrivendo una partitura dedicata alla spazializ-
zazione,utilizzando il programma Geosonix©.2
Per prima cosa era necessario approntare un modello tridimensionale dell’auditorium, rica-
vandolo dalla piantina allegata al bando di concorso.
Dopo aver inserito la piantina come immagine di background della patch di Geosonix (Figura
9.2), nel modello tridimensionale vengono poi definite le posizioni dei 16 diffusori, secondo le
indicazioni di altezza rispetto al livello del pavimento. I singoli diffusori sono rappresentati nella
patch di Geosonix da trigger di forma circolare (vedi Figura 9.3).
Ecco infine in Figura 9.4 come si presenta la patch del modello 3D, con i diffusori in azzurro
e la pianta dell’auditorium al di sotto di essi.
2 Geosonix è un sequencer grafico e un ambiente di programmazione per live performance, ottenibile all’indirizzo

www.geosonix.com.

120
Figura 9.1: Auditorium “Cesare Chiti”: la disposizione dei diffusori.

121
Figura 9.2: Geosonix, inserimento della pianta dell’Auditorium.

Figura 9.3: Geosonix, localizzazione dei 16 diffusori nello spazio sonoro dell’Auditorium.

122
Figura 9.4: Geosonix, patch completa di diffusori e pianta.

Il brano è costituito da 12 file monofonici che vengono associati ad altrettante traiettorie


sulle quali si muovo cursori a diverse velocità; i cursori, muovendosi nello spazio loro assegnato,
agiscono sui crossfade che regolano la diffusione sonora.
Geosonix invia alla patch principale di Pure Data,3 tramite messaggi in protocollo OSC, i
valori di posizione dei singoli cursori, dai quali viene calcolata la distanza di ognuno di essi da
ciascuno dei 16 diffusori, secondo la relazione del calcolo della distanza di due punti nello spazio
cartesiano, dataci dalla matematica:
p
d(A, B) = (xB − xA)2 + (yB − yA)2 + (zB − zA)2

A questo punto si definiscono le traiettorie dei singoli cursori, rappresentate dalle linee in
bianco in Figura 9.5.
La patch giunge così alla sua forma definitiva. La velocità di lettura della partitura è regolata
dal cursore Score Speed, visibile in Figura 9.5.
Tuttavia, le velocità dei singoli cursori vengono determinate singolarmente dallo script che
gestisce l’intero brano, espresse in millisecondi e moltiplicate per il fattore Score Speed.
La patch di Geosonix rappresenta la partitura della spazializzazione intesa quindi come ele-
mento compositivo fondamentale. In questo modo, i singoli movimenti delle tracce audio sono
fissati inequivocabilmente e ripetibili in maniera costante, ogniqualvolta si desideri.
Le singole traiettorie vengono descritte in uno script (se ne può vedere un esempio in Figura
9.6); dopo il comando di creazione funzione function onCreate(), vengono dichiarate le varia-
3 Pure Data è un software Open source ottenibile gratuitamente all’indirizzo https://puredata.info/

downloads

123
Figura 9.5: Geosonix, le traiettorie e i cursori.

Figura 9.6: Geosonix, esempio di script relativo alla traiettoria del file audio della voce di
Mascagni.

124
bili che contengono le caratteristiche della traiettoria: i confini nello spazio sonoro, il cursore
relativo, la sintassi del messaggio OSC da inviare alla patch di Pure Data, l’istante al quale il
movimento del cursore avrà inizio, la velocità del cursore.
Questo set di comandi viene ripetuto per le 12 tracce e rappresenta la partitura della spazia-
lizzazione.

9.3 I suoni di Largo IV


Largo IV non prevede la presenza di esecutori dal vivo e tutti i suoni che ne fanno parte sono
stati tratti da registrazioni preesistenti; alcuni frammenti di essi sono stati lasciati allo stato
originale, soprattutto nella parte iniziale del brano; in seguito sono stati trattati mediante algo-
ritmi di sintesi granulare, attraverso l’applicazione Density,4 un software per la sintesi granulare,
completamente gestibile via MIDI o OSC.
Come già accennato nell’introduzione del presente articolo, si è preferito utilizzare sonorità
definite, caratterizzate dall’uso di uno o due strumenti al massimo o dalla sola voce umana,
proprio per avere a disposizione spettri sonori più semplici. Density ha reso agili le operazioni di
granulazione dei suoni di partenza. In Figura 9.7 è visibile l’interfaccia principale del programma.

Figura 9.7: Density, la main window.

La Tabella 9.1 fornisce la partitura di Largo IV.


4 Density è un’applicazione per la sintesi granulare, utilizzata in Largo IV per gentile concessione del suo autore,

Alessandro Petrolati. Density può essere ottenuto qui: http://www.apesoft.it/download/.

125
Contenuto Tracce – Durate eventi sonori
Trk Contenuto start stop durata note
1 La voce di Mascagni 0 13 13
2 Discorso di Mussolini 7 17 10
3 La Pifferata di Natale (pf.) 16 62 46 Riverberare bene per ultima nota
4 Grano lunghissimo pianoforte 214 408 194 Traiettoria ellittica
5 Testone pifferata 23 62 39
6 Violoncello, grani lunghi 214 408 194 Traiettoria ellittica
7 Grani duce 218 264 46
8 Lezione e duce 304 391 87
9 Testone violoncello 171 232 61
10 Regione 18 Cavalleria 76 180 104
11 Rumori perc_1 62 125 63
12 Rumori perc_2 106 404 298

Tabella 9.1: Largo IV, tabella dei 12 suoni.

9.4 La patch di Pure Data


La parte attiva di Largo IV è gestita attraverso una patch di Pure Data (vedi Figura 9.8) la
quale viene utilizzata per produrre i 16 file mono che costituiscono l’output per ciascuno dei 16
diffusori utilizzati.

Figura 9.8: Pure Data, la patch per Largo IV.

La versione attuale della patch prevede inoltre un ampliamento dal quale sia possibile scegliere
il numero di canali in uscita, la loro posizione e le dimensioni dell’ambiente, per fare in modo
che il sistema non sia vincolato ad un solo ambiente sonico.
Quest’ultima possibilità prevede l’utilizzo di una superficie di controllo (si è usato lo smart-
phone personale) con un set di comandi minimo, che permetta le principali regolazioni che di
volta in volta si rendano necessarie.

126
L’attuale patch di Pure Data svolge le seguenti funzioni:

• calcolare la distanza virtuale cursore-diffusori


• regolazione del riverbero sulle singole traiettorie
• controllo dei crossfade secondo un inviluppo gaussiano
• registrazione dei 16 file audio da far suonare contemporaneamente

L’inviluppo per il controllo dei crossfade è una rampa di curva gaussiana (Figura 9.9).

Figura 9.9: Pure Data, curva di inviluppo per il crossfade dei 16 canali.

A tale proposito può essere utile ricordare che, all’interno della patch principale di controllo
delle traiettorie 3D, è presente un array contenente il profilo dell’inviluppo desiderato per i
crossfade. Questa curva può essere modificata a piacere ed è possibile decidere quanto suono
residuo deve essere diffuso dagli altoparlanti quando la distanza da uno degli stessi sia massima.
La curva adottata per questa versione di Largo IV è stata disegnata manualmente nell’array e
si ritiene sia quella che funzioni meglio.
Il primo nucleo della patch principale è il tracciatore di posizione. I valori delle coordinate
sugli assi x,y,z relative alle posizioni di ciascun cursore sono realizzate dal blocco di oggetti
mostrati nella Figura 9.10.
Il segnale audio che dovrà essere inviato ai diffusori proviene dalle subpatch.
I valori x, y, z arrivano dalla partitura Geosonix via messaggi OSC e sono resi disponibili al
resto della patch tramite gli oggetti della libreria mrpeach.5 Il number box collegato al primo
outlet di unpack fornisce il numero del cursore al quale competono le coordinate a fianco.
Il blocco in figura viene ripetuto per le 12 traiettorie, a ciascuna delle quali sono associati
una curva e un cursore Geosonix.
5 Per informazioni sulla libreria mrpeach, consultare il web all’indirizzo http://puredata.info/docs/

LibrariesInPdExtended/.

127
Figura 9.10: Pure Data, tracciatore di posizione del cursore e inviluppo.

128
In uscita all’oggetto sqrt si ha il valore di distanza tra cursore e diffusore. Questo blocco
viene, ovviamente, ripetuto per tutti i 16 diffusori.
A valle di sqrt si ha il valore della distanza tra un dato cursore e, di volta in volta, ogni
singolo diffusore.
L’oggetto expr (vedi Figura 9.11) è utilizzato come un registro dove viene memorizzata la
distanza più grande rilevata perché le traiettorie, di volta in volta, potrebbero variare e quindi
è necessario conoscere la massima distanza alla quale si trovano i cursori, per poter calcolare il
valore dei coefficienti di riscalatura a 1 di ogni crossfade.

Figura 9.11: Pure Data, il blocco [expr ...] accumula il massimo valore della distanza tra un
cursore e i diffusori.

Per eseguire questa operazione è necessario “far girare a vuoto” una volta i cursori, prima di
procedere all’esecuzione di Largo IV.
In questo modo è possibile utilizzare la patch anche per altre installazioni, dove la posizione
dei diffusori può essere differente da un’esecuzione a un’altra. Per agevolare o velocizzare questa
taratura è possibile settare su Geosonix la velocità di spostamento dei cursori ad un valore
elevato.
Una volta memorizzata la distanza massima raggiunta da ogni cursore, relativa a tutti i
diffusori, è possibile eseguire la patch.
La ricezione dei segnali di controllo posizione cursori provenienti da Geosonix è gestita dal
blocco della patch di Pure Data riportato in Figura 9.12.
I messaggi transitano da Geosonix verso Pure Data in protocollo OSC. È necessario importare
nella patch la libreria mrpeach che permette la gestione di messaggi OSC.
Sui tre outlet dell’ultimo oggetto unpack saranno disponibili i valori delle posizioni sui
rispettivi assi cartesiani di ogni cursore.
È superfluo ricordare che ogni segnale di controllo in uscita da questi oggetti è opportunamente
tarato e riscalato a 1.
Nella schermata principale sono presenti le subpatch (un esempio è visibile in Figura 9.13)
all’interno delle quali trovano posto:

• i lettori dei 12 file che compongono Largo IV


• l’unità di riverbero

129
Figura 9.12: Pure Data, gestione della posizione dei cursori attraverso messaggi OSC.

Figura 9.13: Pure Data, la subpatch track_n.

130
I segnali audio vengono, da questi oggetti, inviati alle subpatch traiettoria_n, per il trat-
tamento e la spazializzazione.
L’obiettivo della patch principale è quello di generare 16 file mono che verranno “suonati”
tutti insieme per ascoltare il brano finito.
Per realizzare questo scopo si è scelto di inviare i 16 canali mono a un software di produzione
musicale tipo Logic o altro, mettere in registrazione 16 tracce e far partire la lettura sincrona dei
16 segnali da Geosonix.
Al termine della registrazione si hanno a disposizione i 16 file monofonici che costituiscono
Largo IV.

9.5 Note conclusive


Questa relazione ha avuto l’obiettivo di illustrare, almeno a grandi linee, quale sia stato il
modo di procedere per scrivere Largo IV.
Per la prima esecuzione del brano si è ritenuto fosse meglio attribuire il solo riverbero richiesto
da alcuni suoni affinché prendessero le caratteristiche che ci eravamo prefissato dovessero avere,
mentre per la riverberazione complessiva abbiamo scelto di non aggiungerne altra ma di ascoltare
direttamente il risultato sul posto, collaudando la prima esecuzione direttamente all’Auditorium
“Cesare Chiti”.
Appare chiaro che la patch Pure Data può essere adattata a qualunque tipo di ambiente.
E’ sufficiente descrivere di volta in volta il luogo ove si voglia eseguire il brano, dichiarandone
in partitura Geosonix la forma, la dislocazione dei diffusori, le distanze, ecc., decidere quali siano
i segnali in ingresso o i file audio che si vogliano diffondere.
Desidero, infine, ringraziare alcune persone che in questo progetto hanno avuto la loro parte
importante:
il Mo Alessandro Petrolati, autore dell’applicazione Density, utilizzata in Largo IV per i suoni
derivati da sintesi granulare, il quale ha messo a disposizione competenza, amicizia e ...software!
Nelle note in calce si possono trovare le indicazioni per avere informazioni sulle sue applicazioni;
il Mo Fabio De Sanctis De Benedictis, per avermi accolto all’Istituto Superiore di Studi Musicali
“Pietro Mascagni” di Livorno e aver resa possibile l’esecuzione di Largo IV.
Il mio insegnante di composizione, Mo Riccardo Dapelo, al quale va tutto il mio affetto.

131
132
Capitolo 10

Enrico Francioni

Sixteen for Sixteen

francioni61021@libero.it

Io non so più qual è la realtà, o almeno,


conosco la realtà uditiva e trovo brani musicali
che sono in molti aspetti sfuggenti ed ambigui.
(Denis Smalley)

10.1 Introduzione
Prima di iniziare a parlare in maniera analitica del brano Sixteen for Sixteen, vorremmo ripro-
porre il testo di presentazione che potrebbe costituire l’abstract sul lavoro che lo ha accompagnato
alla selezione delle opere per Suoni inauditi.
Il lavoro si compone sostanzialmente di due elementi: in primo piano un macro-
gesto che accompagna tutto il brano (quasi un continuum) e nello sfondo una seconda
idea generata dal numero 16 (16 sono i monitor a disposizione nell’Auditorium e 16
le opere di Pietro Mascagni; 16 le tecniche di FX adottate nell’elaborazione... e più
avanti ricorre ancora la stessa cifra). Entrambi gli elementi costituiscono citazioni
tratte dal materiale di Mascagni.
Di questo abbiamo utilizzato Intermezzi, Preludi o Ouvertures. Le 16 opere prese
in considerazione sono state: Cavalleria Rusticana, L’amico Fritz, I Rantzau, Silvano,
Guglielmo Ratcliff, Zanetto, Iris, Le Maschere, Amica, Isabeau, Parisina, Lodoletta,
Si, Il Piccolo Marat, Pinotta, Nerone.
Tecnicamente il lavoro prende forma da un algoritmo scritto nel linguaggio di
Csound, non altro che una patch per il multicanale.
Ad ogni esecuzione (o performance in real-time) il risultato finale, nel percorso
scelto e nell’esito dei 16 segnali audio, può subire dei sostanziali cambiamenti a causa
appunto dello stile di scrittura scelto che è governato dalla parziale, controllata o
totale casualità. Ad un alto livello di organizzazione, attraverso questo stile di pro-
grammazione, è possibile decidere preventivamente le caratteristiche di massima da

133
imprimere al destino dell’intera performance e quindi al risultato complessivo del
brano (dalla gestione della forma complessiva, alla localizzazione del segnale fino alla
scelta e alla durata dei singoli samples all’interno del materiale disponibile).

Non un lavoro acusmatico completamente fissato e definitivo quindi, ma un evento che per
certi versi – e per sua natura – può restituire risultati variegati e diversi ad ogni performance,
ad ogni nuovo ascolto.
Partendo da questo scritto vorremmo orientare ora l’osservazione su alcuni aspetti che elen-
chiamo, che di seguito saranno trattati in maniera dettagliata:

• analisi del pezzo;

• processi e tecniche compositive;

• conclusioni.

10.2 Analisi del pezzo


10.2.1 Premessa
Nella stesura di questa analisi si farà ricorso ad una metodologia, o meglio ad un approccio,
che, almeno nelle intenzioni ideali iniziali, vorremmo fosse ricondotta dal lettore alla tipologia
detta spettro-morfologia (che per brevità in seguito nomineremo con l’acronimo TSM), teoria
ideata dallo studioso Denis Smalley.
Purtroppo e per fortuna, al tempo stesso, la breve introduzione (abstract) che precede lo
svolgimento della nostra analisi, vanifica un po’ il carattere e la natura acusmatica del “testo
sonoro” 1 che ci è dato fruire, in quanto dopo la sua lettura si è coscienti e quasi “intimoriti” dalla
natura della sorgente, dall’origine dei suoni percepiti.
In altre parole e per riallacciarci alla TSM, stiamo parlando e alludendo a ciò che nella
teoria smalleyiana possiamo far rientrare nella parte dell’approccio analitico, definito dallo stesso
studioso come “source bonding”. Nel caso specifico (e tenendo conto della palette dei suoni che
spaziano all’interno della musica elettroacustica, dai suoni naturali fino a quelli sintetici) si sta
pensando al materiale impiegato in Sixteen for Sixteen, come ad eventi che possiamo ricondurre
con facilità ad un’area di provenienza che potrebbe appartenere al gruppo dei suoni di natura
concreta.
Detto ciò, da questo punto in avanti pensare che il materiale abbia determinato anche la
struttura dell’intero lavoro, e cioè sostenere che ci troviamo di fronte ad un evidente caso di “ab-
stracted syntax ” (S. Emmerson) potrebbe essere di fatto esagerato, molto azzardato e fuorviante
in quanto nella TSM concorrono anche molti altri elementi a comporre l’osservazione analitica.
Ci pare invece più ragionevole parlare di “transcontestuality” (D. Smalley) riguardo al tema
della sorgente e quindi del materiale sonoro impiegato.
Ascoltando questo brano ci piacerebbe che il lettore/ascoltatore si riallacciasse al concetto di
“ascolto ridotto” (P. Schaeffer). Infatti questo atteggiamento analitico potrà servire a pensare di
non scartare l’idea di avvicinarci all’opera focalizzando l’attenzione principalmente su quelli che
possiamo definire “oggetti sonori”, quasi interrompendo quel cordone ombelicale che lega spesso,
anzi il più delle volte, il “testo sonoro” con la “sorgente”.
1 Per questa citazione e le seguenti ci si riferisca al seguente testo: Camilleri, Lelio, Metodologie e concetti

analitici nello studio di musiche elettroacustiche, in Rivista di Musicologia, 28(1), 1993.

134
Concludendo, si pensa che non sia da scartare una doppia lettura: una di “tipo referenziale”
e una di “tipo musicale”, in base al contesto musicale specifico che ci troviamo a dover analizzare
(L. Camilleri).
Dopo un primo ascolto del brano ci siamo resi conto di come la lettura fisica dello spettro
sonoro (o sonogramma), scandito passo passo durante l’ascolto, avesse avuto in fin dei conti
una buona corrispondenza col testo sonoro tanto da poterne intravedere l’enorme utilità quale
strumento di interpretazione analitica. Infatti non sempre il sonogramma è in grado di spiegare,
“raccontare”, o comunque darci l’idea della struttura di un pezzo; a volte questo strumento
può addirittura intralciare la strada per la sua non corrispondenza col testo sonoro, per la sua
incapacità di illustrare puntualmente certi parametri del suono, certi timbri, o la relazione tra le
altezze, elementi che, al contrario, non vengono colti nello spettro della forma d’onda.
Dello stesso lavoro vorremmo mostrare diversi tipi di sonogramma (Figure 10.1, 10.2, e 10.3)
– realizzati con l’ausilio di alcuni software come Audition, Audacity, o Acousmographe.2 In
questo modo è possibile confrontarli e constatare ad esempio come ogni rappresentazione grafica
riesca a cogliere meglio di un’altra certi elementi.

Figura 10.1: Sonogramma visualizzato con Audition.

Figura 10.2: Sonogramma visualizzato con Audacity.

Di seguito (Figura 10.4) invece una rappresentazione del segnale sonoro visualizzato sul piano
energetico (forma d’onda).
2 Per le versioni dei programmi utilizzati si veda alla fine del testo l’elenco relativo.

135
Figura 10.3: Sonogramma visualizzato con Acousmographe.

Figura 10.4: Segnale sonoro con Acousmographe.

136
10.2.2 Processo di strutturazione
Qualche elemento già espresso nell’Introduzione ci fa pensare che dal punto di vista for-
male non avremo ad ogni esecuzione lo stesso identico risultato, lo stesso identico testo sonoro,
rispetto per esempio ad un’esecuzione precedente; ciò a causa delle tecniche compositive scelte
consapevolmente, e illustrate più avanti, che mirano ad ottenere proprio questo.
Tuttavia questa variabile, che definiremmo non determinante dal punto di vista della strut-
turazione complessiva del brano osservato ad un alto livello, può essere compresa tra gli elementi
che entrano in qualche modo in gioco quando, nei paragrafi successivi, si parlerà di moti, modelli
morfologici e tipologia spettrale e quindi ad un livello di osservazione più raffinata.
Ad un alto livello di osservazione, anche analizzando bene il sonogramma, è abbastanza facile
percepire la geometria dell’intero pezzo, come un corpo unico (o un’unica macrosezione); inoltre
si nota nelle rappresentazioni del segnale e dello spettro una certa simmetria tra la prima metà
del brano (sezioni 1, 2 e 3) e la seconda metà (sezioni 4, 5 e 6); una sorta di reverse, tanto da
poter essere raffigurato in maniera riduttiva e semplificativa anche come in Figura 10.5.3

Figura 10.5: Raffigurazione geometrica della struttura del brano.

Ovviamente omettendo i dettagli che invece, se considerati, ci porterebbero ad un altro tipo


di rappresentazione che, ancora in maniera grossolana, potremmo tracciare come in Figura 10.6,
ed in cui l’idea di fondo è sostanzialmente quella della prima rappresentazione.

Figura 10.6: Raffigurazione geometrica più dettagliata.

Dall’osservazione della rappresentazione del segnale sonoro si può dedurre che il pezzo è
suddiviso in sei (macro) sezioni, o parti; entriamo con ciò nel campo della definizione del processo
(generale) di strutturazione del brano.
Questo elemento risulta invece meno marcato dall’osservazione del sonogramma.
Secondo questa visione strutturale:

• la prima sezione (SZ_01) si articola da 0’00” a 01’35” ca.;

• la seconda (SZ_02) va da 01’35” a 02’20” ca.;

• la terza (SZ_03) va da 02’20” a 03’00” ca.; siamo alla metà del pezzo;

• la quarta (SZ_04) va da 03’00” a 03’50”;

• la quinta (SZ_05) va da 3’50” a 04’25” ca.;


3 Ricordiamo che ciò era già stato in parte “messo in conto” nell’Introduzione: «[...] in primo piano un

macro-gesto che accompagna tutto il brano (quasi un continuum) [...]»; questo elemento di fatto caratterizza
marcatamente la condotta dinamica dell’intero pezzo.

137
• la sesta sezione (SZ_06) infine va da 04’25” a 06’15” e cioè alla fine.

Come illustrato in Figura 10.7.

Figura 10.7: Sezioni del brano ricavate in base all’osservazione dello spettro della forma d’onda.

Possiamo notare inoltre come tutte le sezioni individuate, che vanno a formare la Stringa
Morfologica, siano accomunate da un comune denominatore che è la forma del loro macro-disegno
d’ampiezza, o Modello Morfologico (del tipo: attacco/decadimento), consistente generalmente in:

• una prima fase di attacco che parte da un livello d’ampiezza a volte anche minimo;

• una seconda fase di sviluppo in cui l’ampiezza cresce;

• un’ultima fase di estinzione in cui l’ampiezza diminuisce.

Anche osservando il sonogramma le sezioni, o parti, che riusciamo ad individuare sono


sostanzialmente sei, eccole in Figura 10.8.4

Figura 10.8: Sonogramma e segnale: suddivisione del testo sonoro in sezioni.


4 Anche se dal punto di vista del Sonogramma questa corrispondenza può essere per certi versi smentita. Per

un confronto sul sonogramma è stata sovrapposta l’immagine della condotta del segnale.

138
All’interno di ciascuna sezione è possibile identificare comportamenti dinamici non sempre
riconducibili in maniera rigorosa a ciò che è stato affermato sopra in merito al modello morfologico
adottato (ad esempio nella terza e nella quinta sezione); la ragione di questo va ricercata in
parte nell’impiego del materiale che costituisce la seconda idea, così come è stato anticipato
nell’Introduzione e come verrà descritto di seguito.
In genere la fase finale degli inviluppi (release, o meglio termination) – quando ormai l’energia
dell’intero macro-evento si è quasi esaurita – ha la funzione di pseudo-cesura tra una sezione e
l’altra.
In linea generale in corrispondenza a queste pseudo-cesure non troviamo comportamenti o
condotte conseguenti nel resto del materiale sonoro situato all’interno dello spettro. È comunque
evidente che il materiale appartenente a quella che più volte abbiamo definito come la seconda
idea, qualora presente in detti momenti temporali, passa dinamicamente in una posizione di
primo piano nel testo sonoro.
In sintesi, analizzando l’intero brano ad un alto livello di osservazione, notiamo la presenza
costante di alcuni elementi:

1. il “macro-oggetto” in primo piano, che definirei col termine di “pedale narrativo” 5 che
scandisce anche le varie sezioni e agisce quasi sempre (ad esclusione di brevi pause) da
“complesso bordone”. Esso si muove su un registro generalmente grave (55/600 Hz), con
un moto minimo che gli è dato da un lieve glissando;

2. una “seconda idea” costituita dal “materiale mascagnano”, già citato nell’Introduzione, che
si articola con elementi molto eterogenei, in maniera alquanto frammentata, con durata
generalmente breve o molto breve, con una distribuzione e densità pressoché casuale e una
distribuzione frequenziale che abbraccia l’intero spettro;6

3. lo spettro frequenziale ha generalmente un comportamento molto simile e quasi “ricon-


ducibile” alla condotta del segnale sul piano energetico;

Sempre trattando del brano ad un elevato livello analitico, ed in sintonia con ciò che sostiene
anche il Camilleri,7 vorrei fare alcune osservazioni in merito alla localizzazione generale del
suono e la cornice di riferimento, aspetti che costituiscono un elemento direi molto importante e
determinante nel quadro morfologico d’insieme di questo lavoro a 16 canali.
Partirei dal presupposto che, come anche la spaziomorfologia ci suggerisce, questa compo-
sizione (per suoni elettronici a 16 tracce) potrebbe essere un caso da far rientrare all’interno di
una tipologia di spazio composto.
Nella descrizione spaziomorfologica del brano individuerei almeno due tipi di comportamento
spaziale:

• lineare-composto (quello della prima idea, del bordone);

• randomico (quello della seconda idea);

che potremmo tranquillamente ricondurre rispettivamente alle due classi di materiale impiegato
e già sopra menzionate.
5 Ma che potremmo classificare ancor meglio usando il termine specifico, che ci passa la TSM, come un “macro-

gesto” (gesture).
6 La “seconda idea” può essere considerata come un secondo personaggio che a volte sottace ma che altre volte

sale anch’essa su un gradino più elevato.


7 Si veda a questo proposito Camilleri, Lelio, “Il peso del suono”, forme d’uso del sonoro ai fini comunicativi,

Apogeo, Milano 2005.

139
Figura 10.9: Sonogramma e segnale dell’intero testo sonoro.

Per la prima classe parlerei di spazio ordinato, che segue cioè un percorso, una traiettoria
programmata e ben definita; mentre per la seconda classe parlerei invece di spazio mutante in
cui la localizzazione risponde a criteri di casualità.
Parallelamente anche la cornice di riferimento per la prima classe varia dal tipo arena al tipo
paesaggio, mentre per la seconda classe “cambia” in maniera randomica, anche in forte relazione
alla morfologia del materiale di partenza (spiccatamente concreto).
Ecco lo spazio di riferimento dell’Auditorium e la disposizione dei monitor, rappresentato
nelle due mappe che seguono (Figure 10.10 e 10.11).
La numerazione progressiva dei monitor segue un andamento che potremmo quasi definire
come due poligoni (due ottagoni con diverse aperture angolari) disposti a due diverse altezze su
due livelli sovrapposti, e che disegnano un percorso del suono molto vicino ad una spirale che dal
basso si proietta verso l’alto, poco ristretta nella parte centrale al secondo livello.
Come possiamo osservare abbiamo: al primo livello i monitor 1, 2, 3, 4, 5, 6, 7 e 8, posti ad
un’altezza di cm. 150 mentre al secondo livello i monitor 9, 10, 11, 12, 13, 14, 15 e 16, posti ad
un’altezza di cm. 380.8
La prima idea si “muove” in maniera “lineare-composta” nello spazio acustico partendo dal 1o
monitor, raggiungendo il 16o e ritornando al 1o , così come semplificato nella SmartArt di Figura
10.12.9 Mentre i sedici oggetti che costituiscono la seconda idea sono localizzati (e non in movi-
mento) nello spazio acustico in maniera del tutto randomica, con cambi aleatori di assegnazione
al numero di canale temporalmente stabiliti in maniera pseudo-casuale (vedi Figura 10.13).
Di seguito ulteriori osservazioni di carattere generale in merito ai modelli spaziomorfologici
adottati nel corso delle varie sezioni individuate sopra:

• una risonanza molto marcata, con un tempo di riverberazione estremamente lungo su tutta
la prima idea;
8 Nell’edizione 2015 di Suoni Inauditi sono stati impiegati 16 canali, ricordiamo che l’Auditorium è predisposto

anche per 24 canali: il terzo ordine di monitor si trova su un terzo livello detto Matroneo.
9 Anche se di fatto, trattandosi di un file a due canali, il segnale del canale Left compie un movimento che

parte dal monitor 1 raggiunge il monitor 16 e ritorna sul primo, mentre il segnale sul canale Right si muove
partendo dal monitor 5 rimanendo costantemente a quattro monitor di distanza dal canale Left; ciò per amplificare
maggiormente la sensazione di una spazialità ampia e allo stesso tempo variegata della prima idea.

140
Figura 10.10: Disposizione dei monitor al primo livello.

141
Figura 10.11: Disposizione dei monitor al secondo livello.

142
Figura 10.12: Movimento della prima idea.

Figura 10.13: Localizzazione randomica dei sedici oggetti.

143
• valori randomici dei tempi di riverbero sugli elementi della seconda idea che potremmo
comprendere tra 0.1’ e 0.9’;
• ogni fine di sezione corrisponde generalmente ad un momento di riposo, che ha in sé il peso
e la densità del materiale della sezione corrente; questa fase ha una funzione di rilassamento
e di “termination” della sezione, sottolineato anche dalla coda riverberante;
• ancora rimanendo sul piano generico è da notare l’estrema difformità, quasi un contrasto
voluto, anche sul piano delle durate degli eventi;
• ad un alto livello di osservazione si nota la “corrispondenza” del profilo dinamico generale
tra le due idee, ma allo stesso tempo, “zummando” l’osservazione alle singole sezioni, la
“non corrispondenza” dinamica tra i due macro-elementi data dal criterio di randomicità
dei valori di questo parametro applicato sul materiale che compone la seconda idea; ciò,
insieme ai valori di durata, è determinante nella formazione del profilo dei modelli mor-
fologici (indicati anche dalla TSM) e conseguentemente nella composizione delle stringhe
morfologiche.

A questo punto della mia analisi vorrei cercare di addentrarmi ancor più nei particolari delle
singole sezioni per mettere in evidenza le caratteristiche del testo sonoro e scendere così ad un
livello di osservazione più raffinato.

10.2.3 Prima e seconda idea: sezioni, moti, modelli morfologici e tipolo-


gia spettrale
Ribadisco che essere coscienti, prima di analizzare il testo sonoro, che si tratti di materiale di
natura concreta (nella fattispecie di frammenti di registrazioni del repertorio operistico di Pietro
Mascagni), può costituire per certi versi un limite e forse anche un condizionamento al lavoro
d’analisi.
Qui analizzeremo nei dettagli le varie sezioni del testo sonoro: gli elementi della prima idea e
le comparse dei sedici oggetti sonori della seconda idea; per questi ultimi oggetti si è pensato ad
un’analisi avulsa dalle singole sezioni del brano in quanto questi rispondono ad una distribuzione
temporale di tipo randomica, sempre diversa ad ogni nuova performance dell’algoritmo.

10.2.3.1 Analisi della prima idea


In Figura 10.14 il sonogramma di tutta la prima idea.
Nella prima sezione (0’00”-01’35”, vedi Figura 10.15) – come generalmente nelle sezioni suc-
cessive – la prima idea è caratterizzata, oltre che da un dominante processo di strutturazione di
tipo onset-continuant- termination, dall’essere un oggetto con un’unica direzionalità strutturale
a livello di gesto; direzionalità che gli è data in modo molto marcato dal movimento del pitch del
materiale di partenza.
A questo proposito occorre dire che tutta la prima idea è ricavata dall’elaborazione del file
audio contenente una registrazione del primo minuto (01’01”) del Preludio del Primo Atto di Iris
(La notte) di Pietro Mascagni, con operazioni di stretching (elongazione, modificazione del pitch,
verse reading change file) e correzione della riverberazione. Per giunta concorre alla direzionalità
strutturale di questa prima idea, o primo macro-gesto, anche la modificazione del pitch nell’azione
di streching (analisi/risintesi).
In Figura 10.16 la partitura orchestrale.
Il modello morfologico che è alla base dell’oggetto è del tipo attacco-decadimento aperto.
La tipologia spettrale di questo gesto è del tipo Nota/Nodo/Nota all’interno del quale il primo

144
Figura 10.14: Sonogramma della prima idea.

Figura 10.15: Sonogramma della prima sezione.

145
Figura 10.16: La partitura orchestrale delle prime 16 battute di Iris di Pietro Mascagni.

146
episodio Nota ha caratteristiche di inarmonicità, il secondo (Nodo) ha uno spettro complesso e il
terzo invece ha spettro armonico; il pitch è tendenzialmente a crescere. Notiamo nel sonogramma
di Figura 10.17 l’andamento del pitch limitato a 2000 Hz dei primi 95 secondi circa (corrispondenti
alla prima sezione); la rappresentazione è facilmente riconducibile alla partitura orchestrale,
anche se trasportata sotto di almeno due ottave.

Figura 10.17: Sonogramma della prima idea nella prima sezione.

La seconda sezione (01’35”-02’20”, vedi Figura 10.18) a livello di processo di strutturazione ha


onset e termination brevi e continuant esteso per tutta la durata della sezione (45”); anche qui
il pitch è determinante nel decidere il gesto che ha un’unica direzionalità. La tipologia spettrale
di questo gesto rientra decisamente nel tipo Nota con caratteristiche di inarmonicità.

Figura 10.18: Sonogramma della seconda sezione.

Qui il pitch ha il seguente comportamento (vedi Figura 10.19):

• un disegno dominante sulle frequenze gravi;

147
• una tendenza generale del gesto “a crescere” gradualmente.

Figura 10.19: Sonogramma della seconda sezione (limitata in frequenza a 1350 Hz).

Questa sezione può anche essere letta come un’imitazione della prima parte della prima
sezione (Nota), alla quale segue una terza sezione (02’20”-03’00”, vedi Figura 10.20) che termina
esattamente alla metà della composizione. La terza sezione dal punto di vista del processo di
strutturazione può essere vista come composta da almeno tre elementi:
• il primo (02’20”-02’30”) con una tipologia spettrale del tipo Nota (con caratteristiche di
inarmonicità);
• il secondo (02’30”-02’40”) con una tipologia spettrale del tipo Nodo (a spettro complesso);
• il terzo (02’40”-03’00” ca.) con una tipologia spettrale del tipo Nota (con caratteristiche di
pseudo-armonicità) e decadimento marcatamente aperto.
Ancora una volta l’intero gesto è declinato secondo un movimento di pitch con direzione “a
crescere”. L’attenzione su questo gesto si sposta nella parte centrale sull’aspetto della “rumoro-
sità”, ma anche sulla variazione graduale del pitch, nella terza parte: sulle fasce medio-acute di
armonicità e sull’abbandono momentaneo del tessuto grave per mettere invece in evidenza un
timbro più chiaro.
A partire dalla quarta sezione (03’:00”-03’:50”, vedi Figura 10.21) assistiamo ad un’operazione
di lettura reverse del file audio originale a partire dalla fine, che dà come risultato una perfetta
simmetria con la prima parte del pezzo.
A seguire quindi abbiamo la quinta e la sesta sezione che ci presentano le caratteristiche
visibili in Figura 10.22 e 10.23.
Visti i sonogrammi è necessario riproporre le osservazioni già fatte a proposito delle prece-
denti tre sezioni (1, 2 e 3) come il processo di strutturazione, la direzionalità strutturale, il moto,
la tipologia spettrale e il movimento del pitch. Quindi dalla quarta sezione in poi tutto è tempo-
ralmente rovesciato rispetto alle prime tre sezioni e l’analisi potrebbe essere condotta anch’essa
“a ritroso”.
Tuttavia nella seconda parte della composizione (secondo macro-oggetto: 03’00”-06’15”) non
c’è – come ci si potrebbe aspettare – anche un’inversione simmetrica del moto (motion) rispetto
alla prima parte (primo macro-oggetto: 00’00”-03’00”). Il moto del secondo macro-oggetto con-
serva anch’esso una certa bi-direzionalità – o multidirezionalità – data dal movimento generale
del pitch verso l’acuto, in contrapposizione alle diverse direzioni della linea sulle frequenze gravi.

148
Figura 10.20: Sonogramma della terza sezione.

Figura 10.21: Sonogramma della quarta sezione.

149
Figura 10.22: Sonogramma della quinta sezione.

Figura 10.23: Sonogramma della sesta sezione.

150
10.2.3.2 Analisi della seconda idea
Ecco invece le comparse di tutti gli altri elementi (oggetti o micro-oggetti), che vanno a
comporre la seconda idea; quest’ultima è sovrapposta alla prima.
Per quanto riguarda in particolare questi elementi, la loro generazione, i valori di action time,
di durata, di pitch, di localizzazione, come si accennava sopra, sono decisi randomicamente ad
ogni esecuzione,10 ad ogni performance, ad ogni performance in real-time o Render to file, per cui
ogni volta avremo un risultato simile, diverso, o molto diverso al precedente; questa è una ragione
per cui il brano non può essere considerato a tutti gli effetti un lavoro acusmatico definitivo e
fissato per sempre. Quindi si è ritenuto più opportuno analizzarne in maniera “catalogativa” e
diciamo pure in modo abbastanza generico, le caratteristiche Spettro Morfologiche.

Figura 10.24: Sonogramma della seconda idea.

A livello generale la seconda idea (vedi Figura 10.24) presenta queste caratteristiche alcune
delle quali è possibile ricondurre alla prima idea, come:

1. la distribuzione del materiale “verso” e “dal” centro11 del macro-oggetto: nel primo caso c’è
una crescente concentrazione e viceversa dal centro alla fine dell’idea una sempre minore
concentrazione del materiale;

2. in relazione al primo punto è direttamente proporzionale all’avvicinamento/allontanamento


verso/dal centro, anche la sovrapposizione dei micro-oggetti con la conseguente creazione di
eventi complessi o molto complessi, parliamo allora in maniera più appropriata di gestures
andando verso il centro della seconda idea;

3. il conseguente effetto dinamico che si viene a creare di crescendo/diminuendo è causato


principalmente dalla maggiore/minore densità del materiale, unitamente ad un generale
progressivo incremento/decremento dinamico;
10 Vedremo più avanti nell’illustrazione dei processi compositivi anche i dettagli del codice generativo scritto

con Csound che ha permesso di realizzare questo.


11 Il centro si trova a circa a: 03’00” ca. dall’inizio.

151
4. in virtù delle prime tre osservazioni possiamo affermare che ci troviamo di fronte ad un
moto del tipo bi-direzionale/reciproco, o ad un moto strutturale di tipo direzionale;

5. come per la prima idea si tratta comunque di materiale di tipo musicale/strumentale, ma


mi piacerebbe affermare che si tratta di suono concreto;

Osservando ancora più da vicino gli elementi di cui si diceva sopra ci sono alcune osservazioni
basilari da fare:

• a livello di tipologia spettrale le tre categorie (Rumore, Nodo e Nota) sono tutte interessate:
si va dal suono originale alla lettura reverse del file, dal parlato al rumore bianco o rosa, dalle
modificazioni di pitch al pitch reverse, dalle distorsioni e dalle saturazioni alla granulazione,
dallo stretching alla applicazione di armonizzatori di spettro, da effetti come phaser o
flanger alla rimodulazione di ampiezza, all’applicazione di filtri... il catalogo è davvero
ampio;12 ne osserviamo alcuni nella rappresentazione in sonogramma;

• gli elementi (o micro-oggetti) che compaiono hanno tutti una brevissima o breve durata
(si va da un minimo di 0.10” ad un massimo di 5.00”, si veda ad esempio quanto in Figura
10.25 e 10.26) e il modello morfologico generalmente è del tipo attacco-impulso o attacco-
decadimento ravvicinato, quasi delle micro-texture, anche se non mancano alcuni elementi
che presentano una morfologia ad attacco-decadimento aperto;

• in questa texture di micro-oggetti assistiamo all’utilizzo di varie tipologie di moto come:


bidirezionale, unidirezionale, lineare, curvilineo, misto; moti che possono essere sia direzio-
nali che multi-direzionali; per questi ultimi in cui non c’è un obiettivo finale da raggiungere,
possiamo osservare sia confrazioni (ovvero la dispersione in piccoli frammenti sonori del
materiale di partenza), sia diffrazione (ovvero la dispersione in fasce sonore).

Alle Figure 27-35 la rappresentazione di alcuni di questi micro-oggetti.

10.2.4 Alcune relazioni


Vorrei fare ora alcune osservazioni riassuntive sulle relazioni esistenti tra le varie sezioni; sia
a livello strutturale che ad un livello più raffinato.

• A livello strutturale in tutte le sezioni in genere notiamo:

– un contrasto costante tra le due idee a tutti i livelli di osservazione analitica;


– la presenza di tre macro-oggetti nella prima parte e tre macro-oggetti nella secon-
da parte del testo sonoro che per tipologia strutturale, direzione, o per contenuto
spettrale, risultano simmetricamente in opposizione tra loro (1/6, 2/5, 3/4);
– la presenza di macro-gesti del tipo onset-continuant-termination;
– un trattamento distinto del materiale dal punto di vista spazio-morfologico: lineare e
programmato per la prima idea (macro-oggetti) e localizzato e casuale per gli elementi
(micro-oggetti) che compongono invece la seconda idea;
– l’impiego della stessa tipologia di materiale (concreto-strumentale).
12 Di seguito la lista completa dei 16 effetti applicati ai 16 file originali: 01. originale; 02. reverse; 03. pitch; 04.

pitch/reverse; 05. chopper (apeSoft); 06. RM ; 07. specArp (apeSoft); 08. syncGrain (apeSoft);09. OOR [Out
of range] (apeSoft); 10. phaser ; 11. flanger ; 12. harmonizer ; 13. stretching (pvx); 14. fofilter ; 15. distort; 16.
pinkfollow.

152
Figura 10.25: Quattro micro-oggetti di breve durata.

Figura 10.26: Oggetto di lunga durata (5.00” ca.).

153
154

Figura 10.27: File originale.


Figura 10.28: Modifica del pitch.

Figura 10.29: modifica del pitch e file reverse [1].

155
Figura 10.30: Distorsione.

156
Figura 10.31: Glissando (chopper ).

Figura 10.32: Glitch [2].

157
Figura 10.33: Harmon(izer) [3].

Figura 10.34: Parlato [4].

158
Figura 10.35: Rumore bianco (white-noise).

159
• A un livello di osservazione raffinato in tutte le sezioni in genere notiamo:
– una costante contrapposizione tra i macro-oggetti della prima idea e i micro-oggetti
della seconda idea: compatti e uniformi, come un continuum, e giocati su un re-
gistro molto grave, i primi, frammentati, eterogenei nel pitch e con caratteristiche
determinate dall’aleatorietà delle scelte gli altri.

10.3 Processi e tecniche compositive


10.3.1 L’opportunità dell’auditorium e l’idea di partenza
L’idea del numero sedici suggerito anche dalla disponibilità dei sedici monitor presenti nel-
l’Auditorium “Cesare Chiti” dell’Istituto Superiore di Studi Musicali “Pietro Mascagni” di Livorno,
bene si è associata al materiale di partenza poi utilizzato, appunto le sedici opere di Pietro
Mascagni (per lo meno quelle ufficialmente riconosciute); autore al quale è anche dedicata la
selezione di lavori acusmatici, il Mascagni Remix, opere che elenco:
1. Cavalleria Rusticana - 1890 Melodramma in un atto
2. L’amico Fritz - 1891 Commedia lirica in tre atti
3. I Rantzau - 1892 Opera in quattro atti
4. Silvano - 1895 Dramma marinaresco in due atti
5. Guglielmo Ratcliff - 1895 Tragedia in quattro atti
6. Zanetto - 1897 Bozzetto in un atto
7. Iris - 1898 Melodramma in tre atti
8. Le Maschere - 1901 Commedia lirica, parabasi e tre atti
9. Amica - 1905 Dramma lirico in due atti
10. Isabeau - 1911 Leggenda drammatica in tre parti
11. Parisina - 1913 Tragedia lirica in quattro atti
12. Lodoletta - 1917 Dramma lirico in tre atti
13. Si - 1919 Operetta in tre atti
14. Il piccolo Marat - 1921 Opera in tre atti
15. Pinotta - 1932 Idillio in due atti
16. Nerone - 1935 Opera in tre atti.
Di queste opere si sono presi in considerazione solo i momenti strumentali13 omettendo vo-
lutamente le parti cantate:14 in ogni caso una mole di materiale audio davvero ampia, per cui si
imponeva da subito una regola, un criterio di utilizzo, di selezione e di distribuzione.
Si è cercato questo criterio nella scelta randomica degli eventi all’interno dei file audio stru-
mentali così ricavati, ma senza tralasciare nessuna opera individuata; il materiale audio catturato
dai file audio ha dato vita alle due idee (la prima e la seconda), già ampiamente analizzate sopra.
13 Soprattutto Interludi, Intermezzi, Ouverture e Preludi delle opere citate, facilmente reperibili anche in rete.
14 L’unicointervento con la presenza della voce che ho preso in considerazione è stata una traccia in cui Mascagni
in persona parla e poi dirige Cavalleria Rusticana.

160
10.3.2 Aleatorietà
Obbedendo al criterio della scelta randomica è facile intuire che, progettando e facendo alcuni
test preliminari, le tipologie e le soluzioni di aleatorietà alle quali si poteva andare incontro
potevano essere di tipo: completamente indeterminata, pseudo-determinata e controllata.
È chiaro che la scelta del grado di aleatorietà imponeva di accettare il fatto che ad ogni
performance dell’algoritmo finale il risultato fosse ogni volta diverso, per cui come più volte
accennato sopra, il risultato finale si sarebbe allontanato, e anche sensibilmente, dal concetto di
un’opera acusmatica fissata e definita per sempre.
Inoltre non va trascurato il fatto che trattandosi di un algoritmo con queste caratteristiche, era
quasi automatico pensare di sfruttare anche la necessità di poter effettuare delle scelte di percorso
prima di ogni nuova performance, a monte di ogni esecuzione: come un setting preliminare.

10.3.3 L’architettura generale dell’algoritmo scritto con Csound


A livello strettamente tecnico da subito si è pensato di sfruttare le opportunità offerte dai
codici operativi di Csound dedicati alla ricerca randomica, allo stretching, alle FX, al multicanale,
alla spazializzazione e all’ambisonico.
A un alto livello di osservazione ecco in Figura 10.36 come si presenta la struttura generale
dell’algoritmo concepito per Csound.
In Figura 10.37 l’elenco degli strumenti in ordine di apparizione dentro l’algoritmo scritto con
Csound.
Ma vediamo nel dettaglio alcuni passaggi cruciali dentro il codice Csound.15
Il primo che prenderemo in considerazione è il codice che ha consentito la generazione della
prima idea, il materiale di partenza, lo stretching del file.
Va subito ricordato che per motivi legati al risparmio delle risorse disponibili (CPU) questa
fase è stata realizzata in tempo differito, anche se, qualora le risorse lo potessero permettere, il
codice potrebbe essere accolto in seno al codice performativo di Csound. Come già anticipato
sopra il materiale di partenza per la generazione di questa prima idea è costituito dal file denom-
inato 07-Intermezzo_Iris_init-02.wav della durata di 61.605 secondi (vedi Figura 10.38) il
quale, dopo essere stato reso monoaurale, è stato analizzato con il Phase vocoder nel front-end
di Csound (vedi Figura 10.39).
Dopo l’esecuzione esso è divenuto il file 07-Intermezzo_Iris_init-02.pvx, pronto per essere
risintetizzato con i codici operativi di Csound.
L’operazione di re-sintesi e applicata al file .pvx si è basata su questa patch attraverso il
codice operativo pvoc.

idur

filelen "07-Intermezzo_Iris_init-02.wav"

; idur restituisce la durata del file in secondi

ktimpnt transeg .01, p3/2, 0, idur-.01, p3/2, 0, .01


; elongazione (p3=361”)

kfmod transeg .5, p3, -1, .9


; modificazione del pitch “a crescere”
15 I file .csd completi di codice possono essere scaricati dal seguente indirizzo: https://drive.google.com/open?

id=0B3MEy62wz8QDUjQtV1ZZSG01WVk

161
Figura 10.36: L’algoritmo concepito per Csound.

162
Figura 10.37: L’elenco degli strumenti in ordine di apparizione.

Figura 10.38: Forma d’onda del file.

Figura 10.39: Analisi del file in Csound.

163
aIris pvoc ktimpnt, kfmod, "Intermezzo_Iris_init-02.pvx"
; streching del file pvx

aIris butterbp aBST, 100, 200


; applicazione di un filtro passa basso

kenv linseg .8, p3/2, 3, p3/2, .1


; applicazione di un inviluppo generale

gaIris = aIris *kenv


; uscita globalizzata dopo la moltiplicazione con l’inviluppo

Qui è stato applicato un generoso riverbero al segnale audio grazie all’opcode babo, opcode
basato su un modello fisico di riverbero.16 Il risultato ha costituito il materiale principale della
prima idea.

ksrcx linseg -6, p3/4, 6, p3/4, -6, p3/4, 6, p3/4, -6


; posizione x del segnale

ksrcy = 4 ; posizione y del segnale

ksrcz = 3 ; posizione z del segnale

ixsize = 14.39 ; ampiezza della risonanza

iysize = 11.86 ; profondità della risonanza

izsize = 10 ; altezza della risonanza

al, ar babo gaIris, ksrcx, ksrcy, ksrcz, ixsize, iysize, izsize

A questo punto e come già detto sopra, è stato effettuato il Render to file, quindi il file audio
ricavato è stato importato nel file .csd dedicato alla performance del brano.17
Infine dentro il file .csd dedicato alla performance, ecco come si presenta lo strumento
instr VBAP16M che ha accolto i due file audio della prima idea ed in cui, attraverso l’opcode
vbap16move, sono stati assegnati i segnali audio ai 16 canali, applicando anche il movimento
virtuale (spazializzazione).

aIrisL soundin "Iris_left.wav" ; importazione file left

aIrisR soundin "Iris_right.wav" ; importazione file right

; angoli di azimuth
ifld1 = 11.25
16 Per l’idea che sta alla base di questo modello di riverbero si veda l’articolo Rocchesso, Davide, The Ball within

the Box: a soundprocessing metaphor, in Computer Music Journal, Vol 19, N.4, pp.45-47, Winter 1995, reso poi
codice operativo in Csound da Paolo Filippi e Nicola Bernardini.
17 Di fatto non avendo a disposizione nel mio studio (eStudio) un setting di riproduzione a 16 canali, nel

successivo file .csd dedicato alla performance è stato effettuato il Render to file per la generazione delle sedici
tracce monoaurali, tracce poi indirizzate ai rispettivi monitor dell’Auditorium “Cesare Chiti”.

164
ifld2 = 33.75
ifld3 = 56.25
ifld4 = 78.75
ifld5 = 101.25
ifld6 = 123.75
ifld7 = 146.25
ifld8 = 168.75
ifld9 = 191.25
ifld10 = 213.75
ifld11 = 236.25
ifld12 = 258.75
ifld13 = 281.25
ifld14 = 303.75
ifld15 = 326.25
ifld16 = 348.75

idur = p3 ; durata nella quale avviene il movimento

ispread = 0 ; diffusione della sorgente virtuale

ifldnum1 = 31 ; numero totale di ifld (left)


ifldnum2 = 33 ; numero totale di ifld (right)

; applicazione del movimento al file aIrisL


aa1, aa2, aa3, aa4, aa5, aa6, aa7, aa8, aa9, aa10, aa11, aa12, aa13,
aa14, aa15, aa16 vbap16move aIrisL, idur, ispread, ifldnum1, ifld1, ifld2,
ifld3, ifld4, ifld5, ifld6, ifld7, ifld8, ifld9, ifld10, ifld11, ifld12, ifld13,
ifld14, ifld15, ifld16, ifld15, ifld14, ifld13, ifld12, ifld11, ifld10, ifld9,
ifld8, ifld7, ifld6, ifld5, ifld4, ifld3, ifld2, ifld1

; applicazione del movimento al file aIrisR


ab1, ab2, ab3, ab4, ab5, ab6, ab7, ab8, ab9, ab10, ab11, ab12, ab13, ab14, ab15,
ab16 vbap16move aIrisR, idur, ispread, ifldnum2, ifld5, ifld6, ifld7, ifld8,
ifld9, ifld10, ifld11, ifld12, ifld13, ifld14, ifld15, ifld16, 0, ifld1, ifld2,
ifld3, ifld4, ifld3, ifld2, ifld1, 0, ifld16, ifld15, ifld14, ifld13, ifld12,
ifld11, ifld10, ifld9, ifld8, ifld7, ifld6, ifld5

; somma dei segnali per ciascun canale


aa sum aa1, ab1
ab sum aa2, ab2
ac sum aa3, ab3
ad sum aa4, ab4
ae sum aa5, ab5
af sum aa6, ab6
ag sum aa7, ab7
ah sum aa8, ab8
ai sum aa9, ab9
al sum aa10, ab10
am sum aa11, ab11

165
an sum aa12, ab12
ao sum aa13, ab13
ap sum aa14, ab14
aq sum aa15, ab15
ar sum aa16, ab16

; uscita
outch 1, aa, 2, ab, 3, ac, 4, ad, 5, ae, 6, af, 7, ag, 8, ah, 9, ai, 10, al, 11,
am, 12, an, 13, ao, 14, ap, 15, aq, 16, ar

La generazione della seconda idea ha comportato invece uno sforzo di progettazione ben
più grande, in particolare per quanto riguarda: il materiale di partenza, gli strumenti chia-
manti, gli strumenti chiamati con i loro relativi parametri da randomizzare e gli effetti da
applicare, l’assegnazione delle tracce ai canali e il tempo di permanenza su ciascun canale
(localizzazione/spazializzazione randomica).
Per quanto riguarda la scelta e la preparazione del materiale di partenza, che poi è stato fatto
entrare nell’algoritmo con diskin2, opcode che consente di applicare anche altre modifiche al file,
si può far riferimento a quanto già descritto sopra. Per assicurare da subito la massima casualità
nell’associazione tra i sedici strumenti chiamanti e i sedici strumenti chiamati – quest’ultimi
contenenti una delle sedici tracce audio, alle quali sono stati anche applicati determinati FX – si
è fatto uso del codice che segue che assicura ad ogni nuova istanza un ordine casuale numerico
(compreso appunto tra 1 e 16) ogni volta diverso.
Per allineare anche la seconda idea al concetto di specularità della prima idea si è ritenuto
opportuno programmare le istanze di instr joachim nello score come segue: una all’inizio (1o
secondo) ed una alla metà del pezzo (al secondo 181o ) e con una minima durata (0.1 secondi)
necessaria a produrre in uscita la sequenza numerica casuale delle sedici cifre.
Alcuni passaggi del codice di instr joachim:

icount = p4 ; quantità di permutazioni casuali


iprc = p5 ; precisione della stampa
ilast = 21 ; ultimo p-campo in questa linea punteggio
itablen = ilast – 5 ; lunghezza ftable in cui sono scritti p6, p7,... pN

iTab ftgen 0, 0, -itablen, -2, 0 ; tabella in entrata da permutare


iRes ftgen 0, 0, -itablen, -2, 0 ; tabella in uscita – diminuendo
indx init 0

loop:

TabPermRand_i iTab, iRes, 0, iprc


i_1 tab_i 0, iRes
i_2 tab_i 1, iRes
i_3 tab_i 2, iRes
i_4 tab_i 3, iRes
i_5 tab_i 4, iRes
i_6 tab_i 5, iRes
i_7 tab_i 6, iRes
i_8 tab_i 7, iRes
i_9 tab_i 8, iRes
i_10 tab_i 9, iRes

166
i_11 tab_i 10, iRes
i_12 tab_i 11, iRes
i_13 tab_i 12, iRes
i_14 tab_i 13, iRes
i_15 tab_i 14, iRes
i_16 tab_i 15, iRes

; debugging
printf_i "Random Permutation %d: [%d %d %d %d %d %d %d %d %d %d %d %d %d %d %d %d]\n",
indx+1, indx+1, i_1, i_2, i_3, i_4, i_5, i_6, i_7, i_8, i_9, i_10, i_11, i_12, i_13,
i_14, i_15, i_16

loop_lt indx, 1, icount, loop

gi_1 = i_1
gi_2 = i_2
gi_3 = i_3
gi_4 = i_4
gi_5 = i_5
gi_6 = i_6
gi_7 = i_7
gi_8 = i_8
gi_9 = i_9
gi_10 = i_10
gi_11 = i_11
gi_12 = i_12
gi_13 = i_13
gi_14 = i_14
gi_15 = i_15
gi_16 = i_16

end:

endin

Le due tabelle TabPermRand_i e PfieldsToTable richiamate da instr joachim fanno rife-


rimento a questi UDOs (user defined opcodes) che gli stanno in testa.

opcode TabPermRand_i, 0, iiii

iTabin, iTabout, iprint, iprecision xin


itablen = ftlen(iTabin)

icopy ftgentmp 0, 0, -itablen, -2, 0


tableicopy icopy, iTabin

ileng init itablen


irndlm init ileng
indxerg init 0

167
Sformat sprintf "%%.%df\t", iprecision

loop:

irand random 0, irndlm - .0001


index = int(irand)
ival tab_i index, icopy
tabw_i ival, indxerg, iTabout

korrektur:

if (index + 1 == ileng) igoto korrigiert

indxneu = index
indxalt = indxneu+1
ivalalt tab_i indxalt, icopy
tabw_i ivalalt, indxneu, icopy
index = index + 1

igoto korrektur

korrigiert:

ileng = ileng - 1
irndlm = irndlm - 1
indxerg = indxerg + 1
if iprint == 1 then
prints Sformat, ival

;print iprint, ival ; enrico

endif

if (irndlm > 0) igoto loop

prints "%n"

endop

opcode PfieldsToTable, 0, iii

; PfieldsToTable scrive campi dei parametri punteggio a una tabella di funzione


; ift: tabella di funzione in cui i valori sono scritti
; istart: primo p-campo da scrivere
; iend: ultimo p-campo da scrivere

ift, istart, iend xin


index init 0

168
loop:

ival = p(istart)
tabw_i ival, index, ift
istart = istart + 1
index = index + 1

if istart <= iend igoto loop

endop

All’interno degli strumenti chiamanti (call ) e agli strumenti chiamati (called ) avvengono le
scelte randomiche in merito ai valori da assegnare ai parametri interessati. Vediamo a titolo di
esempio il codice di uno strumento chiamante:

instr call1

if gi_1 == 0 igoto end ; gi_1 = numero dello strumento chiamato

; accensione/spegnimento casuale dello strumento chiamato (gi_1)

kmaxtr line p4, p3, p5


ktrigg random 1, kmaxtr
ktrigg = int(ktrigg)

if ktrigg == 1 then

ktrigger = 1

elseif ktrigg != 1 then

ktrigger = 0

endif

kmintim = -1
kmaxnum = 1
kwhen = 0

; durata randomica dello strumento chiamato compresa tra 1 e 5 secondi

kmaxdr line 1, p3, 5


kdur random .1, kmaxdr

schedkwhen ktrigger, kmintim, kmaxnum, gi_1, kwhen, kdur

end:

endin

169
Sempre a titolo esemplificativo, ecco invece il codice di alcuni strumenti chiamati.
Il primo è lo strumento che restituisce frammenti del file originale 01Mascagni_Parla_e_di-
rige_Cavalleria.wav di durata stabilita randomicamente dallo strumento chiamante e con un
tempo iskip anch’esso deciso in maniera casuale.

instr 1

iskip = i(gkskip1) ; importazione del valore istantaneo di gkskip1

aOR diskin2 "01-Mascagni_Parla_e_dirige_Cavalleria.wav", 1, iskip

kenv linen .9, p3/10, p3, p3/10 ; inviluppo in entrata e in uscita pari a 1/10 del p3

gasig1 = aOR*kenv

endin

Il valore di iskip è stabilito in questo caso da gkskip1 che si trova dentro instr RANDOM
strumento che, sempre acceso, genera valori randomici, nello specifico compresi tra 0.5 e 206.18

instr RANDOM

gkskip1 random .5, 206


gkskip2 random .5, 266
gkskip3 random .5, 136
gkskip4 random .5, 131
gkskip5 random .5, 286
gkskip6 random .5, 211
gkskip7 random .5, 531
gkskip8 random .5, 379
gkskip9 random .5, 691
gkskip10 random .5, 377
gkskip11 random .5, 200
gkskip12 random .5, 123
gkskip13a random .5, 285
gkskip13b random .5, 285
gkskip14 random .5, 122
gkskip15 random .5, 180
gkskip16 random .5, 327

endin

In questo strumento invece oltre ai valori randomici di iskip si applica anche una FX al
segnale, nello specifico si tratta di un SyncGrain (granulatore), ecco il codice:

instr 8

irise init 0.125


isus init p3 - (2 * irise)
18 Il valore massimo è pari alla durata in secondi del file audio 01Mascagni_Parla_e_dirige_Cavalleria.wav

170
akenv linseg 0, irise, 1, isus, 1, irise, 0
akenvinv = 1. - akenv

kgroverlap = 2
kgrdur = .5
kpitch = .7
kdrywet = .9
kamountInv = 1. - kdrywet

iskip = i(gkskip8)

asig diskin2 "08-Ouverture_Le_Maschere.wav", 1, iskip


asigL SyncGrain asig, kpitch, kgrdur, kgroverlap, giRingBuffer_1
asigL = (asigL * kdrywet) + (asig * kamountInv)
aSG = (asigL * akenv) + (akenvinv * asig)

kenv linen .75, p3/10, p3, p3/10

gasig8 = aSG*kenv

endin

Qui abbiamo un esplicito riferimento ad un UDO, appunto SyncGrain,19 che sta a monte
dell’orchestra e che presenta questa grammatica:

opcode SyncGrain, a, akkki

ain, kpitch, kgrdur, kgroverlap, iRingBuffer xin

ktimescale = 1
kpitch = 1 - rnd(kpitch)
kgr = kgrdur ; grandezza dei grani in secondi
kfr = kgroverlap / kgr ; frequenza o densità dei grani/secondo
kps = 1 / kgroverlap ; pointer rate scaling

awp phasor sr/ftlen(iRingBuffer), 0.01


awin tablei awp, giRingEnvelope, 1

tablew ain * awin, awp, iRingBuffer, 1

aout syncgrain 1, kfr, kpitch, kgr, (kps * ktimescale), iRingBuffer, giWin, 25


xout aout

endop

Un altro esempio di FX applicato al segnale, in questo caso si tratta di un harmonizer :


19 L’UDO di SyncGrain è pubblicato per gentile concessione di apeSoft di Alessandro Petrolati – http://www.

apesoft.it/.

171
instr 12

iskip = i(gkskip12)

asig diskin2 "12-Preludio_Lodoletta.wav", 1, iskip

inote = 150

kestfrq = inote
kmaxvar = .1
kgenfreq1 = inote * semitone(5)
kgenfreq2 = inote * semitone(-5)

imode = 1
iminfrq = inote - 10
iprd = .025

aHR harmon asig, kestfrq, kmaxvar, kgenfreq1, kgenfreq2, imode, iminfrq, iprd

kenv linen .75, p3/10, p3, p3/10

gasig12 = aHR*kenv

endin

Le variabili audio globalizzate vengono quindi importate da instr VBAP16.


All’interno di instr VBAP16 avviene l’assegnazione randomica dei sedici segnali ad uno dei
sedici canali, ovvero la localizzazione in base al valore di azimuth, ma evitando sovrapposizioni.
Seguendo una sintassi simile a quella impiegata per instr Joachim, in questa prima realizzazione
del file .csd la lista randomica dei sedici valori di azimuth è stata aggiornata solamente due volte:
al secondo 0 e al secondo 181o ; tuttavia è stata realizzata anche un’altra versione in cui la lista
dei valori di azimuth è aggiornata (sempre in maniera aleatoria) per ben 16 volte (numero magico
all’interno del lavoro) a distanze di tempo decise in maniera casuale all’interno del p3 (durata
pari a 362 secondi). Ecco il codice:

instr VBAP16

; assegnazione randomica al valore di azimuth

iazim1 = gi_1c
iazim2 = gi_2c
iazim3 = gi_3c
iazim4 = gi_4c
iazim5 = gi_5c
iazim6 = gi_6c
iazim7 = gi_7c
iazim8 = gi_8c
iazim9 = gi_9c
iazim10 = gi_10c
iazim11 = gi_11c

172
iazim12 = gi_12c
iazim13 = gi_13c
iazim14 = gi_14c
iazim15 = gi_15c
iazim16 = gi_16c

; distribuzione dei sedici segnali audio ai sedici canali.

aw1, ax1, ay1, az1, ar1, as1, at1, au1, av1, ak1, al1, am1, an1, ao1, ap1, aq1
vbap16 gasig1, iazim1

aw2, ax2, ay2, az2, ar2, as2, at2, au2, av2, ak2, al2, am2, an2, ao2, ap2, aq2
vbap16 gasig2, iazim2

aw3, ax3, ay3, az3, ar3, as3, at3, au3, av3, ak3, al3, am3, an3, ao3, ap3, aq3
vbap16 gasig3, iazim3

aw4, ax4, ay4, az4, ar4, as4, at4, au4, av4, ak4, al4, am4, an4, ao4, ap4, aq4
vbap16 gasig4, iazim4

aw5, ax5, ay5, az5, ar5, as5, at5, au5, av5, ak5, al5, am5, an5, ao5, ap5, aq5
vbap16 gasig5, iazim5

aw6, ax6, ay6, az6, ar6, as6, at6, au6, av6, ak6, al6, am6, an6, ao6, ap6, aq6
vbap16 gasig6, iazim6

aw7, ax7, ay7, az7, ar7, as7, at7, au7, av7, ak7, al7, am7, an7, ao7, ap7, aq7
vbap16 gasig7, iazim7

aw8, ax8, ay8, az8, ar8, as8, at8, au8, av8, ak8, al8, am8, an8, ao8, ap8, aq8
vbap16 gasig8, iazim8

aw9, ax9, ay9, az9, ar9, as9, at9, au9, av9, ak9, al9, am9, an9, ao9, ap9, aq9
vbap16 gasig9, iazim9

aw10, ax10, ay10, az10, ar10, as10, at10, au10, av10, ak10, al10, am10, an10,
ao10, ap10, aq10 vbap16 gasig10, iazim10

aw11, ax11, ay11, az11, ar11, as11, at11, au11, av11, ak11, al11, am11, an11,
ao11, ap11, aq11 vbap16 gasig11, iazim11

aw12, ax12, ay12, az12, ar12, as12, at12, au12, av12, ak12, al12, am12, an12,
ao12 , ap12, aq12 vbap16 gasig12, iazim12

aw13, ax13, ay13, az13, ar13, as13, at13, au13, av13, ak13, al13, am13, an13,
ao13, ap13, aq13 vbap16 gasig13, iazim13

aw14, ax14, ay14, az14, ar14, as14, at14, au14, av14, ak14, al14, am14, an14,
ao14, ap14, aq14 vbap16 gasig14, iazim14

173
aw15, ax15, ay15, az15, ar15, as15, at15, au15, av15, ak15, al15, am15, an15,
ao15, ap15, aq15 vbap16 gasig15, iazim15

aw16, ax16, ay16, az16, ar16, as16, at16, au16, av16, ak16, al16, am16, an16,
ao16, ap16, aq16 vbap16 gasig16, iazim16

; somma delle variabili audio

aw sum aw1,aw2,aw3,aw4,aw5,aw6,aw7,aw8,aw9,aw10,aw11,aw12,aw13,aw14,aw15,aw16
ax sum ax1,ax2,ax3,ax4,ax5,ax6,ax7,ax8,ax9,ax10,ax11,ax12,ax13,ax14,ax15,ax16
ay sum ay1,ay2,ay3,ay4,ay5,ay6,ay7,ay8,ay9,ay10,ay11,ay12,ay13,ay14,ay15,ay16
az sum az1,az2,az3,az4,az5,az6,az7,az8,az9,az10,az11,az12,az13,az14,az15,az16
ar sum ar1,ar2,ar3,ar4,ar5,ar6,ar7,ar8,ar9,ar10,ar11,ar12,ar13,ar14,ar15,ar16
as sum as1,as2,as3,as4,as5,as6,as7,as8,as9,as10,as11,as12,as13,as14,as15,as16
at sum at1,at2,at3,at4,at5,at6,at7,at8,at9,at10,at11,at12,at13,at14,at15,at16
au sum au1,au2,au3,au4,au5,au6,au7,au8,au9,au10,au11,au12,au13,au14,au15,au16
av sum av1,av2,av3,av4,av5,av6,av7,av8,av9,av10,av11,av12,av13,av14,av15,av16
ak sum ak1,ak2,ak3,ak4,ak5,ak6,ak7,ak8,ak9,ak10,ak11,ak12,ak13,ak14,ak15,ak16
al sum al1,al2,al3,al4,al5,al6,al7,al8,al9,al10,al11,al12,al13,al14,al15,al16
am sum am1,am2,am3,am4,am5,am6,am7,am8,am9,am10,am11,am12,am13,am14,am15,am16
an sum an1,an2,an3,an4,an5,an6,an7,an8,an9,an10,an11,an12,an13,an14,an15,an16
ao sum ao1,ao2,ao3,ao4,ao5,ao6,ao7,ao8,ao9,ao10,ao11,ao12,ao13,ao14,ao15,ao16
ap sum ap1,ap2,ap3,ap4,ap5,ap6,ap7,ap8,ap9,ap10,ap11,ap12,ap13,ap14,ap15,ap16
aq sum aq1,aq2,aq3,aq4,aq5,aq6,aq7,aq8,aq9,aq10,aq11,aq12,aq13,aq14,aq15,aq16

kenv line p4, p3, p5

; globalizzazione delle variabili audio (per il riverbero)

gaw = aw*kenv
gax = ax*kenv
gay = ay*kenv
gaz = az*kenv
gar = ar*kenv
gas = as*kenv
gat = at*kenv
gau = au*kenv
gav = av*kenv
gak = ak*kenv
gal = al*kenv
gam = am*kenv
gan = an*kenv
gao = ao*kenv
gap = ap*kenv
gaq = aq*kenv

; uscita

174
outch 1, gaw, 2, gax, 3, gay, 4, gaz, 5, gar, 6, gas, 7, gat, 8, gau, 9, gav, 10, gak,
11, gal, 12, gam, 13,gan,14,gao,15,gap, 16,gaq

; azzeramento dei segnali audio globalizzati

clear gasig1,gasig2,gasig3,gasig4,gasig5,gasig6,gasig7, gasig8, gasig9, gasig10, gasig11,


gasig12, gasig13, gasig14, gasig15, gasig16

endin

Come già detto, a questo punto per la generazione del file a sedici canali contenente il materiale
completo della prima e della seconda idea è stato dato il comando Render to file sull’interfaccia
di Csound. In seguito con l’editor audio dal file multifonico sono state estratte le sedici tracce,
reindirizzate a loro volta ai rispettivi canali dell’Auditorium “Cesare Chiti”.

10.4 Conclusioni
Come ampiamente illustrato nell’analisi del testo sonoro e dopo aver indicato i passaggi prin-
cipali dell’algoritmo, che ha consentito di realizzare quest’opera multicanale, possiamo osservare
che nel lavoro vengono messe in gioco sostanzialmente due idee: una più definita e fissa, che
ci offre un indirizzo di base per elaborare intorno a questa qualcosa di molto più variabile,
indeterminato e che lascia spazio alla creatività.
L’algoritmo scaturito per questo lavoro ci propone solo alcune delle possibili soluzioni; esso
non deve assolutamente essere inteso come la sola strada percorribile. Tuttavia per come è
strutturato, il codice è aperto anche ad altri modi di intendere soprattutto la randomizzazione
dei parametri della seconda idea, ma sempre tenendo conto delle risorse di sistema qualora si
voglia pensare ad una performance in tempo reale.
Per questo esercizio di fantasia è facile pensare ad una formulazione dell’algoritmo fornito
per esempio di una interfaccia grafica la quale potrà dare all’utente la possibilità di ampliare,
arricchire ed offrire svariate scelte di percorso, operando sempre all’interno del criterio della
aleatorietà a più livelli e per protendere verso un nuovo concetto di musica acusmatica svincolato
dalle regole di fissità imposte dalla tradizione elettroacustica.

10.5 Bibliografia essenziale


AA.VV., Musica Elettroacustica, dispensa per il Corso di Musica Elettronica, a cura di E.
Giordani, Pesaro, L.E.M.S. 2002.
Camilleri, Lelio, “Il peso del suono”, forme d’uso del sonoro ai fini comunicativi, Milano,
Apogeo, 2005.
Camilleri, Lelio, Metodologie e concetti analitici nello studio di musiche elettroacustiche, in
Rivista di Musicologia, 28(1), 1993.
Giordani, Eugenio, Modelli e strategie d’analisi per la Musica Elettroacustica, in TecnoArte
II - Seminari di formazione in Musica Elettronica, Lettura seminario I, Pesaro, L.E.M.S. 2002.
Pierce, John R., La scienza del suono, Bologna, Nicola Zanichelli Editore 1987.
Roads, Curtis, Composing Electronic Music: A New Aesthetic, New York, Oxford University
Press, 2015.
Rocchesso, Davide, The Ball within the Box: A Sound-Processing Metaphor, in Computer
Music Journal, Vol. 19, No. 4 (Winter, 1995), pp. 47-57.

175
10.6 Sitografia essenziale
http://www.apesoft.it/
http://booksc.org/
http://www.csounds.com/
http://www.csounds.com/journal/
http://www.eugenio-giordani.it/
http://www.jstor.org
http://www.leliocamilleri.it/

10.7 Software essenziale


Adobe-Audition v7.0
Acousmographe 3.6
Audacity v2.0.1
Csound v5.14
Finale – MakeMusic !
MicrosoftWord 2011 per Mac - v14.6.6

176
Capitolo 11

Roberto Zanata

Suono e significato.
Alcune riflessioni scaturite
prima-durante-dopo la composizione
dell’opera elettroacustica
quadrifonica Voliamo felice

robertozanata@gmail.com

11.1 Premessa
Nella prima sezione di questo articolo discuto il rapporto fra musica e linguaggio, nello speci-
fico le analogie e le differenze semantiche e sintattiche dei due sistemi. Nella seconda sezione, a
partire dalla concezione del suono di Varèse, con l’ausilio di alcune considerazioni tecniche rela-
tive alla mia composizione Voliamo felice, ritorno sulla questione della sintassi e della semantica,
non più della musica, ma del suono puro e del suono organizzato. L’argomento di questo lavoro
è complesso, vasto e problematico. Sull’analogia fra sistema linguistico e musicale, in particolare
con riferimento alla sintassi, è già stato scritto molto. Si è scelto invece di adottare una prospet-
tiva filosofica di tipo analitico e di concentrarci sul problema della semantica, dove si ritiene che
le differenze fra musica e linguaggio siano più significative. Si parte dunque da una premessa
forte, e cioè che linguaggio sia solo quello verbale con le sue peculiari funzioni e che per analogia
poi si parli di linguaggio musicale, ma che le differenze fra i due sistemi siano sostanziali. Nello
specifico la tesi generale di questo lavoro è che la sintassi della musica debba essere analizzata da
una prospettiva storica e inserita in un contesto, ma che la condivisione delle regole sintattiche
non sia necessaria come invece per le lingue naturali, e che, invece, la semantica musicale, se
pensiamo che esista, sia decisamente differente rispetto a quella linguistica.

177
11.2 Musica, suono, linguaggio, significato
In linea di principio ciascuno di noi può decidere in maniera arbitraria di riferirsi a un oggetto
con un nome inventato o con un nome già utilizzato dagli altri parlanti per denotare un altro
oggetto. Allo stesso modo sempre in linea di principio ognuno è potenzialmente libero di assegnare
in maniera arbitraria il senso che preferisce a un enunciato. Gli enunciati di identità formulati
sulla base delle proprie decisioni arbitrarie, però, non hanno valore conoscitivo, non veicolano
informazioni utili o non hanno efficacia o conseguenze intersoggettive; o meglio magari informano
chi mi ascolta del mio uso di certe parole, ma non hanno alcun valore conoscitivo in riferimento
agli oggetti nominati o ai pensieri espressi. Le nostre pratiche linguistiche non sono frutto di
decisioni arbitrarie personali ma sono immerse in una dimensione sociale. Non decido io che nome
dare a un oggetto; in una o più o meno fitta trama di convenzioni esplicite, di usi linguistici sociali,
condividiamo un linguaggio.
Senza entrare nel merito di profonde questioni di filosofia del linguaggio sembra ragionevole
affermare che esista un legame stretto fra linguaggio, comunicazione, condivisione sociale e realtà.
Forse l’elemento più rilevante all’interno di questa relazione – la sua condizione di possibilità –
è la semantica. Il filosofo Donald Davidson sostiene che
il linguaggio è uno strumento di comunicazione in virtù della sua dimensione seman-
tica, ossia della potenzialità di essere veri o falsi che caratterizza i suoi enunciati,
o meglio i suoi proferimenti e le sue iscrizioni. Indagare quali elementi siano veri è
in generale il compito delle varie scienze; ma l’esame delle condizioni di verità è il
dominio della semantica. L’aspetto del linguaggio su cui dobbiamo concentrarci, se
vogliamo mettere in rilievo certi aspetti generali del mondo, è il seguente: che cosa
voglia dire, in generale, che un enunciato del linguaggio è vero. L’idea è che se le
condizioni di verità degli enunciati sono poste nel contesto di una teoria globale, la
struttura linguistica risultante rifletterà vasti aspetti del reale.1
Stiamo dunque parlando di semantica, teorie del significato, filosofia analitica del linguaggio,
e ci troviamo all’interno di quella che è stata definita la svolta linguistica del Novecento.
Ma che valore ha quanto detto fino ad ora per la musica? Riteniamo che spesso con troppa
leggerezza vengano tracciate analogie fra linguaggio e musica, che si consideri la musica un
linguaggio perché si parli di significato (o significati) della musica. Le osservazioni che seguono
vogliono essere dei tentativi di chiarificazione della complessa questione musica/suono-linguaggio-
significato e dei possibili fraintendimenti che possono nascere al suo interno.
Ci sono analogie tra musica e linguaggio? Certo, ma forse queste sono sopravvalutate. Si-
curamente hanno un importante elemento in comune: la voce umana, che può essere usata per
parlare e per cantare. Il linguaggio parlato veicola informazioni mediante suoni (o sotto forma
di suoni). Qualsiasi tipo di linguaggio ha come funzione primaria quella di comunicare; dal
linguaggio naturale ordinario della comunicazione quotidiana al linguaggio poetico. Possiamo
capire un’immagine poetica proprio perché siamo all’interno di un sistema di comunicazione con-
diviso. Condividiamo una logica, una sintassi, una semantica e una pragmatica che, per quanto
potenzialmente ambigue e imperfette, ci permettono di comprenderci vicendevolmente. Non è
importante quale posizione filosofica si adotti, a seconda che si voglia dare preminenza nella pro-
pria filosofia del linguaggio a sintassi, semantica, pragmatica, o addirittura logica; in ogni caso
ci saranno delle regole.
Anche il canto veicola informazioni mediante suoni (o sotto forma di suoni). Ma, fino a
qui, non c’è nulla di strano: si tratta dello stesso linguaggio, cantato invece che parlato. Ma già
adesso compaiono le prime differenze: ci poniamo diversamente nei confronti di una glossolalia di
1 Davidson, Donald, Verità e interpretazione, Bologna, il Mulino 1994, p. 286.

178
Artaud inserita in un testo (anche recitato), rispetto alla medesima cantata in una composizione
di Varèse; o nei confronti di una stringa di caratteri in cui non riconosciamo regole sintattiche e
riferimenti semantici rispetto alla Sequenza III per voce femminile di Luciano Berio, a un pezzo
di Demetrio Stratos: qui non ci chiediamo neppure che genere di informazione le voci ci stiano o
non ci stiamo comunicando.
Sicuramente, da una prospettiva evolutiva la maggior parte di studiosi accetta l’ipotesi che
linguaggio e musica possano avere un antenato comune. Ed è un fatto che i primi linguaggi
fossero cantati, o forse meglio intonati.
La musica, però, non si esaurisce nel canto, la voce non è l’unico strumento sonoro e il forte
legame fra musica-canto e linguaggio-parlato si è progressivamente indebolito. Probabilmente ne
portiamo ancora le tracce genetiche – e sentiamo e giudichiamo come più naturale e più giusta
un’aria di Mozart o una canzone rispetto a una composizione di musica elettroacustica. La musi-
ca, in special modo nella cultura occidentale, ha sicuramente preso una propria strada evolutiva
e ha subito mutamenti significativi. Un elemento caratteristico è l’evoluzione tecnologica del
mezzo espressivo: nel linguaggio il mezzo che veicola la comunicazione è sempre la voce. Abbia-
mo anche un linguaggio parlato e uno scritto; in musica, invece, i media hanno subito profonde
evoluzioni e hanno fatto salti qualitativi: dalla voce agli strumenti acustici, a quelli elettronici,
alla sintesi digitale del suono.
Quali sono, invece, le analogie fra musica e linguaggio da una prospettiva cognitiva? Si
possono proporre due criteri strutturali per definire la musica: il primo criterio è costituito dal
ritmo e dai rapporti temporali che delineano un brano musicale attraverso la segmentazione
formalizzata del tempo; il secondo è che tutte le culture hanno diviso il continuum sonoro in
intervalli discreti che formano le scale musicali. Alcuni sostengono che entrambi i principi si
applicano anche al linguaggio. E questo sembra evidente. Non è però evidente che queste
regole costituiscano due tratti specifici della musica, tanto da farne due criteri definitori, né che
rappresentino un importante punto di contatto fra musica e linguaggio. Quanto al primo criterio
non è facile trovare un’attività o anche un qualsiasi evento che non segmenti il tempo. Quanto al
secondo, ritengo che se dal punto di vista del linguaggio e della comunicazione umana dividere lo
speech continuum in fonemi discreti sia una condizione necessaria fondamentale perché possa darsi
linguaggio e comunicazione e, banalmente, ci si possa comprendere, in ambito sonoro-musicale
il continuum sonoro non deve essere necessariamente discretizzato. Il fatto che esistano certi
generi di musica elettronica e sperimentale dimostra che le note, le scale, l’armonia – in generale
qualsiasi tipo di regola combinatoria (condivisa) di micro e macro elementi – non costituiscano
una condizione necessaria per la musica.
L’organizzazione dei suoni può seguire regole private come per esempio in Varèse,2 oppure
può, in casi estremi, anche non esserci per niente come in un certo Cage. Le regole linguistiche
e le regole musicali hanno natura profondamente differente.
È necessario prendere in esame un ultimo punto, forse il più complicato e probabilmente
il più rilevante in relazione al rapporto fra musica e linguaggio: la questione del significato.
Aniruddh D. Patel vi dedica un intero capitolo del suo eccellente volume Music, language, and
the brain 3 e rileva immediatamente come la relazione fra significato musicale e linguistico abbia un
carattere paradossale, poiché la musica sembra essere al tempo stesso intraducibile e universale.
Patel ritiene che il significato musicale sia molto differente rispetto al significato linguistico, ma
vuole comunque sostenere la tesi che sia possibile assegnare un qualche tipo di significato alla
2 Varèse in riferimento alla propria musica conia addirittura nuovi termini per definire gli elementi melodici

e armonici, ed elabora nuove tecniche per l’organizzazione dei suoni. Si veda Anderson, John, Varèse and the
Lyricism of the New Physics, in The Musical Quartely, Vol. 75, No. 1 (Spring, 1991), pp. 31-49, specificamente
a p. 35.
3 Patel, Aniruddh, Music, language, and the brain, Oxford University Press, New York 2008, pp. 299-351.

179
musica. Dalle assunzioni/premesse che la musica non può essere tradotta senza un mutamento di
significato del materiale originale e che una funzione caratteristica di differenti tipi di linguaggio
è la trasmissione di certi tipi basilari di significati fra individui, deriva la conclusione che è difficile
se non impossibile assegnare un insieme universale di significati alla musica. Per questo motivo lo
studioso traccia un interessante tassonomia del significato musicale concentrandosi poi sul ruolo
e sulla funzione delle emozioni per una teoria del significato musicale.

Patel è in grado di allargare l’ambito di applicazione di una teoria del significato anche alla
musica con l’accettazione di due – pesanti, a mio parere – assunzioni teoriche. Innanzitutto,
è costretto ad allontanarsi della concezione del significato prettamente semantica. Egli rileva
come la maggior parte delle discussioni comparative su linguaggio e musica si riferiscano alla
semantica ma suggerisce che possa essere più fruttuoso porre il focus sulla pragmatica. Sottolinea
comunque come non ci sia un consenso generale su una definizione di cosa sia il significato
musicale. Le varie posizioni teoriche in riferimento alla definizione del significato musicale possono
venire collocate lungo un’asse concettuale che va da un uso semantico del termine significato a
un’interpretazione più inclusiva. A un estremo troviamo la posizione del filosofo Kivy, «who
argues that “meaning” should be reserved for the linguistic sense of reference and predication.
In this view, music does not have meaning».4 All’estremo opposto c’è la posizione di Nattiez
che «considers meaning to be signification in the broadest semiotic sense: Meaning exists when
perception or fan object/event brings something to mind other than the object/event».5 Senza
entrare più in profondità nell’analisi di Patel, una sua tesi è che adottando una concezione ampia
del significato è possibile condurre indagini trasversali comparative tra diversi ambiti di ricerca
e identificare così alcuni temi rilevanti per il discorso su musica e linguaggio, fra i quali «the
expression and appraisal of emotion as a key link between spoken language and music».6

Se consideriamo prioritaria la pragmatica rispetto alla semantica e adottiamo un uso inclusivo


del termine significato (come fa Nattiez), allora musica e linguaggio sembrano effettivamente
avere molto in comune e diventa lecito parlare di significato della musica. Mi sembra però che
in questo modo, cercando di avvicinare la musica al linguaggio, allontaniamo il linguaggio dalla
musica.

Trovo invece interessante la strada verso un tentativo di identificazione del riferimento seman-
tico del suono con le emozioni. Una domanda che mi sembra stimolante per iniziare a trattare
seriamente il problema è: in che misura la musica può rientrare in una teoria dell’informazione?
Che genere di informazioni veicola la musica attraverso i suoni? E se le informazioni veicolate
dai suoni – ampiezza, frequenza, timbro, durata, e poi, salendo di livello, ritmo, organizzazione
formale ecc. – avessero davvero un riferimento emozionale reale e oggettivo? Questa mi sembra
una prospettiva interessante dalla quale iniziare ad affrontare la questione del significato della
musica, e forse soprattutto a livello neuro-scientifico. A patto però di non perdere di vista alcuni
punti: cercare di allontanarsi il meno possibile da una teoria semantica; prendere in considera-
zione esempi musicali contemporanei, della musica sperimentale ed elettronica (e non limitarsi
invece alla musica classica tonale della tradizione occidentale); non farsi sedurre dal fascino delle
neuroimmagini.

4 Kivy, Peter, Introduction to a Philosophy of Music, Oxford, Clarendon Press 2002, citato in Patel, Aniruddh,

Music, language, and the brain, Oxford University Press, New York 2008, p. 304.
5 Nattiez, Jean-Jacques, Music and Discourse, New Jersey, Princeton University Press 1990.
6 Patel, Aniruddh, Music, language, and the brain, Oxford University Press, New York 2008, p. 305 e cfr. pp.

344-351.

180
11.3 Riflessioni a partire da Voliamo felice
Il mio obiettivo è ora quello di mettere in luce e mostrare alcuni elementi chiave per una
concezione del suono e della musica svincolata dal riferimento al linguaggio o a sistemi basati
su regole largamente condivise; è un lavoro sulla liberazione del suono e della musica. Questo
non determina che poi, in un secondo momento, non si possa tornare a discutere di teoria del
significato musicale o delle analogie fra musica e linguaggio.
È un obiettivo più empirico che teorico, che scaturisce da una serie di riflessioni, e non
da un’analisi vera e propria, che sono nate durante la composizione dell’opera elettroacustica
quadrifonica dal titolo Voliamo felice realizzata in occasione della VI Rassegna Internazionale
di Musica Contemporanea Suoni Inauditi 2015 presso l’Istituto Superiore di Studi Musicali “P.
Mascagni” di Livorno.
Estetica è un termine e un concetto molto occidentale; in maniera specifica quando questa
categoria filosofica viene applicata all’ambito della musica l’espressione “estetica musicale” rischia
spesso di risultare fumosa. Il più delle volte parlare e soprattutto scrivere dell’estetica musicale
di un compositore è, a mio avviso, un’operazione “disonesta” della critica in quanto assume,
e in questo si fa bella, una terminologia alta per descrivere qualcosa di molto semplice (ma
non per questo, sia chiaro, poco rilevante). Quasi esistesse un rapporto di causa-effetto fra le
idee e la musica di quel determinato musicista. La maggior parte delle volte, invece, questo
rapporto non c’è e quello che viene descritto come estetica musicale non è altro che una serie
di elementi ricorrenti nella produzione di un compositore, elementi che ricorrono per motivi
contingenti o anche casuali, oppure delle regolarità che vogliamo vedere perché ci piacciono,
perché ci servono per fare qualcos’altro. Questo non significa sminuire le idee e i pensieri del lavoro
di un compositore, bensì prendere un poco le distanze da una certa tendenza di un meta-discorso
che talvolta rischia di essere autoreferenziale e non utile come invece dovrebbe.
In questo senso mi rifaccio a Varèse quando scrive: «L’analisi è sterile per definizione: spie-
gare con i suoi mezzi vuol dire decomporre, mutilare lo spirito di un’opera».7 E a proposito
della musica contemporanea Varèse scrive ancora: «Se vogliamo che la musica moderna venga
riconosciuta per il suo autentico valore, se vogliamo che abbia un’identità, dobbiamo parlare di
meno e suonarla di più».8 Secondo la prospettiva di Varèse, dunque, quello che è veramente
importante è suonare e ascoltare.
Ed è ciò di cui ho tenuto conto nel momento in cui ho iniziato a pensare alla realizzazione
dell’opera Voliamo felice, vale a dire che avrei avuto volere a che fare con il suono concepito
come fenomeno fisico (guardando al suono, dunque, da una prospettiva acustica). In particolare,
ciò che mi stava a cuore era come avrei dovuto gestire il movimento spaziale di questo fenomeno
fisico. Un po’ come per Varèse, anche per me liberare il suono significa permettere che questo
possa muoversi nello spazio.
Come ascoltatori (tradizionali) non siamo abituati a porre l’attenzione ai suoni in movimento,
bensì a un discorso musicale, spesso cristallizzando i fenomeni acustici in una sovra-struttura
cui cerchiamo di attribuire un senso. Liberare il suono dalla “prigione” della musica significa,
dunque, permettergli di muoversi liberamente nello spazio. Per l’organizzazione dei movimenti
del materiale sonoro mi sono poi avvalso di giustapposizioni sfruttando la compresenza di elementi
sonori, identificabili come chiaramente distinti fra loro, che si sviluppano ed evolvono in maniera
indipendente. I movimenti spaziali hanno portato spesso a una sorta di urti e repulsioni, collisioni,
penetrazioni, dando l’impressione che i differenti fenomeni sonori posseggano una propria volontà.

7 Varèse, Edgard, Il suono organizzato. Scritti sulla musica, Ricordi LIM, Milano-Lucca 1989, p. 50; cfr. anche

p. 53.
8 Varèse, Edgard, Il suono organizzato. Scritti sulla musica, Ricordi LIM, Milano-Lucca 1989, p. 93.

181
Per quanto riguarda, invece, l’utilizzo che si è fatto di SuperCollider9 per la realizzazione
della parte audio di Voliamo felice, abbiamo scelto di operare in termini di sperimentazione al
fine di ottenere uno schema sonoro che suonasse in modo random, a cicli, a partire da generatori
di rumore. I generatori di cui si è fatto uso sono stati innestati tra loro in un codice di program-
mazione. È stato necessario, quindi, inizialmente, prendere la precauzione di limitare l’ampiezza
del segnale facendo ricorso alla UGen10 Limiter. Al codice è stato successivamente applicato
un riverbero generale (UGen GVerb) con relativa dosatura di alcuni suoi parametri (roomsize,
damping, drylevel ).
La porzione di codice che si riferisce ai primi due minuti esatti del brano è sostanzialmente
divisa in due parti. La prima è costruita a partire da un filtro passa banda (BPF) che filtra
un rumore bianco (WhiteNoise) a cui è stato addizionato un oscillatore con impulso di banda
limitato (Blip) che ha la capacità di generare un numero controllabile di componenti armoniche
di una fondamentale frequenza, dotate tutte della stessa ampiezza. Ad esso è stato poi sommato
un oscillatore (SinOsc) i cui parametri sono organizzati in due array, ovvero contenitori ordinati
di oggetti, compilati secondo il metodo reshape che ha la funzione di cambiare le dimensioni
dell’array stesso a partire da dati stabiliti secondo un range casuale.
La seconda parte è stata implementata, invece, a partire da un filtro passa basso (LPF)
collegato a un banco di risonatori (DynKlank) i cui parametri sono anche essi organizzati in array
di tipo random. Il risonatore in questione ha la potenzialità di poter vedere cambiate le frequenze
anche dopo che esso sia stato inizializzato. Si è fatto poi ricorso a un altro particolare impulso di
generatore di rumore (Dust), i cui parametri sono stati controllati con un oscillatore random, e a
un impulso oscillatorio (Impulse) controllato anch’esso tramite un oscillatore random. Offrendo
entrambi in questo modo la possibilità di simulare una sorta di disseminazione di particelle di
rumore.
Si rimarca poi l’utilizzo, piuttosto diffuso in Supercollider, di Dust come trigger (ovvero
come segnale di attivazione), così come di un’altra UGen interessante quale TRand. Un utilizzo
che consente di generare valori pseudo-casuali compresi nell’escursione descritta dai suoi due
primi argomenti (0.6, 0.8). La generazione avviene ogni qualvolta che il trigger cambia stato.
Accade, in questo modo, che ad ogni nuovo impulso un TRand genera un nuovo valore in modo
cronometrico non regolare utile alla frequenza di SinOsc (si veda la figura 11.1).
Un utilizzo, quello descritto, della piattaforma di audio-sintesi SuperCollider, che risponde
in definitiva a uno dei modi di lavoro pratico (e anche teorico) che suggerisce l’approccio “strut-
turalista” di questo software-synth, in quanto mirato al controllo millimetrico e alla costruzione di
singoli parametri su base algoritmica, lasciando però allo stesso tempo spazio all’improvvisazione,
all’algoritmo che crea l’impulso che devia il percorso audio prestabilito, creando ad esempio una
particolare frase ritmica o sonorità timbrica inaspettata.
La seconda parte del brano, quella che fa utilizzo del campione audio della voce che canta le
parole “voliamo felice”, si innesta sul costrutto sonoro appena descritto sulla base di un preciso
presupposto che non ha niente di estrapolato-mimetico in senso stretto. Semmai si rifà, per
utilizzare i termini di Emmerson, a una “sintassi” di tipo prettamente auditivo-astratto.11

9 SuperCollider è un ambiente di sviluppo e un linguaggio di programmazione creato nel 1996 da James


McCartney per la sintesi audio in tempo reale e la composizione algoritmica.
10 In Supercollider gli algoritmi di elaborazione/sintesi sono implementati in UGen (Unit Generator ). Una UGen

è, cioè, un dispositivo software che elabora o sintetizza segnale audio. Le UGen costituiscono i componenti di base
di un synth. Possono avere più entrate, ma hanno sempre soltanto un’uscita. Una UGen può ricevere in entrata
un’altra UGen e questo processo si chiama patching.
11 Si veda in proposito Emmerson, Simon, La relazione tra linguaggio e materiali nella musica elettroacustica,

in Di Scipio, Agostino (a cura di), Teoria e prassi nella musica dell’era dell’informatica, Roma-Bari, Laterza
1995.

182
Figura 11.1: Codice di SuperCollider.

Un fenomeno sonoro come un oggetto fisico non ha un significato: non è un elemento lin-
guistico come un termine o un enunciato che denota una qualche cosa. Il suono è il significato.
Esattamente come Varèse che vuole trattare con il suono come con un fenomeno grezzo; non
è interessato alla musica come linguaggio sonoro. Vale a dire, di conseguenza, che un piano o
una massa sonora non possono essere arrangiati in maniera differente da come effettivamente si
danno. Il rumore stesso, da questo punto di vista, è il dato rumore, il fenomeno grezzo che non
denota nulla. In altri termini, anche il rumore, al pari degli altri suoni, ha una dimensione fisica
e non rimanda ad alcuna fabula.
Il rapporto che caratterizza, dunque, l’“oggetto audio” della composizione Voliamo felice è
un rapporto precipuamente sonoro dato dal piacere di vedere come i suoni si comportano fuori
da una logica rappresentativa. Il filo che riguarda lo svolgimento dell’opera riguarda soltanto
come i suoni vengono costruiti. La derivazione, cioè, che essi (suoni) intrattengono tra di loro
partendo anche da forme o rielaborazioni molto semplici, oppure da una configurazione più
complessa. I programmi utilizzati per la sintesi e risintesi del materiale utilizzato consentono,
del resto, modifiche dell’algoritmo in grado di produrre differenze a volte percepibili e a volte
impercettibili. Suoni, dunque, o sintagmi auditivi, senza alcuna referenzialità. Suoni che non
contengono se non se stessi, che non hanno alcun rimando intenzionale.
Un’intenzione, però, che va intesa deleuzianamente come creazione di un effetto di superficie
al reale nel suo farsi, all’evento del suono mentre si effettua, mentre avviene. In maniera tale
che i suoni non vadano tenuti fermi come soggiacenti alle loro determinazioni quantitative, ma
rappresentano un possibile punto di innesto per le operazioni virtuose dell’immaginazione. Suoni
che, in altri termini, devono essere intesi essi stessi, in ogni loro determinazione, come vettori
dell’immaginazione.

183
11.4 Conclusione
Non si dovrebbe scrivere “sulla” musica ma “con” la musica (con l’arte in generale, viene da
aggiungere) scrive Jankélévich nel corso di un’intervista. La frase è volutamente paradossale ma
va letta con massima serietà. Essa ci vuole “dire” come solo all’interno dell’arte medesima può
nascere quell’atteggiamento che fa dell’arte un “oggetto” su cui, appunto, scrivere. L’andatura di
questo scrivere non potrà che essere asistematica e poco propensa a seguire i canoni convenzionali
della saggistica classica. L’arte non è fatta per rivelare il senso; al limite, ancora una volta
paradossalmente, l’arte il senso lo mostra proprio sottraendolo e rendendolo fugace nell’atto stesso
di rivelarlo. Noi possiamo giusto intravederlo per riverberazione (dirlo e ridirlo instancabilmente
e inesauribilmente), ma non portarlo al “dire” sostanziale come spesso ci hanno provato a fare
credere nel contesto della cultura occidentale.
La mia tesi, e conclusione (problematica e non definitiva), è che la musica al livello atomico
dei suoni e dell’organizzazione dei suoni e dei suoi parametri non abbia un riferimento (o un signi-
ficato); a un livello macroscopico (non-atomico), invece, in alcuni casi può avere un riferimento
in concetti, idee o anche emozioni – e quindi si possa parlare di significato. L’analogia fra musica
e linguaggio, in riferimento al significato, ha dunque una natura particolare: nel linguaggio
parliamo di significato in relazione ai micro-elementi: nomi, termini, enunciati; nella musica, in
relazione a delle macro-strutture. In alcuni casi, non sempre, abbiamo un’analogia a chiasmo.

11.5 Bibliografia
Anderson, John, Varèse and the Lyricism of the New Physics, in The Musical Quartely, Vol.
75, No. 1 (Spring, 1991), pp. 31-49, Oxford University Press.
Davidson, Donald, Verità e interpretazione, il Mulino, Bologna 1994.
Emmerson, Simon, La relazione tra linguaggio e materiali nella musica elettroacustica, in
Agostino Di Scipio (a cura di) Teoria e prassi nella musica dell’era dell’informatica, Laterza,
Roma-Bari 1995.
Jankélévich, Vladimir, La musica e l’ineffabile, Bompiani, Milano 1998.
Nattiez, Jean-Jacques, Music and Discourse, New Jersey, Princeton University Press 1990.
Patel, Aniruddh, Music, language, and the brain, Oxford University Press, New York 2008.
Varèse, Edgard, Il suono organizzato. Scritti sulla musica, Ricordi LIM, Milano-Lucca 1989.

184
Capitolo 12

Valentino De Luca, Mariavaleria Palmisano, Antonio Scarcia

NEroMix : una composizione


collaborativa come esperienza
didattica

valentinodeluca@hotmail.it
valeriapalmisano@libero.it
ant.scarcia@gmail.com

12.1 Introduzione
L’idea di sviluppare una esperienza congiunta di composizione elettroacustica in contesti
scolastici tra loro differenti per vocazione è legata alla pubblicazione del bando di opere Mascagni
Remix per la stagione 2015 di Suoni Inauditi. I gradi di libertà permessi dal bando e l’idea di
operare su un remix, hanno incoraggiato ad accettare una sorta di scommessa sul piano didattico.
Infatti è stato squisitamente didattico l’obiettivo principale di questo lavoro – svolto con passione
e discernimento da parte di tutti gli studenti coinvolti – e cioè di considerare come sia possibile che
una attività artistica come quella della composizione musicale potesse fare riferimento a tecniche
algoritmiche e, in ultima analisi, a meccanismi di logica e di calcolo da una parte, ed essere
occasione di laboratorialità, di confronto prima tra pari e dopo con una Istituzione accademica,
dall’altra. A supporto di ciò, si riportano alcune osservazioni dirette effettuate in particolare su
due gruppi di studenti partecipanti.

12.2 Il contesto
L’esperienza si è sviluppata nella primavera 2015 tra due classi terze del Liceo Scientifico
(“Tito Livio” di Martina Franca) e studenti provenienti da classi diverse di due Licei Musicali
(“Lugi Russo” di Monopoli e “Giustino Murano” di Brindisi).1 Nell’ambito del Liceo Scientifico, il
1 Lo svolgimento dell’esperienza, allo stato di Aprile 2015, è riportato in: Abbrescia, Francesco - De Luca,

Valentino - Di Santo, Sara - Palmisano, Mariavaleria - Quercia, Francesco - Scagliola, Francesco e Scarcia, Antonio,
NEroMix: una esperienza di workflow compositivo, in Atti Didamatica 2015, Genova 2015.

185
caso non è stato trattato come progetto didattico indipendente, ma collocato – quasi in forma di
“incidente” – in un percorso formativo consistente di un breve corso (appena 10 ore di lezione) di
introduzione al pensiero algoritmico e computazionale, seguito dalla presentazione del linguaggio
di programmazione Pascal; nei Licei Musicali le attività sono state collocate nell’ambito dei
corsi della disciplina di Tecnologie Musicali. La scelta del linguaggio di programmazione è stata
determinata esclusivamente da considerazioni di opportunità didattica. Nell’ambito dei Licei
Musicali l’esperienza ha potuto integrarsi facilmente nell’ambito dei corsi di Tecnologie Musicali,
sia per gli aspetti legati alla sintesi che alla produzione e post-produzione.
Sulla questione di quali potessero essere i prerequisiti richiesti agli studenti, gli autori hanno
convenuto di concentrarsi sulla motivazione e l’interesse per una forma collettiva di sperimen-
tazione artistica, rilevando come fosse comunque condiviso, pur in una visione personale, un
genuino interesse su aspetti della Remix Culture, intesa nei termini di una cultura caratteriz-
zata dalla creatività di quanti, assumendo un ruolo creativo, non volessero più trovarsi nella
condizione di essere fruitori passivi di contenuti.2
Tutti gli studenti erano consapevoli che la realizzazione di un remix prevedesse più o meno
complesse operazioni di sampling, cut/paste, e jamming, sebbene sul piano della padronanza tec-
nica sussistessero fortissime differenze, primariamente in dipendenza della specificità dei diversi
percorsi didattici. Parimenti, era altresì evidente che la maggior parte degli studenti coinvolti
riconoscesse nelle produzioni musicali caratterizzate da tecniche di remix un ruolo creativo e di
riformulazione innovativa di conoscenze e cultura, preferendola in alcuni casi a forme proprie
della musica notata, ma associandole quasi inevitabilmente a specifici contesti, propri dell’in-
trattenimento e della aggregazione sociale. Nel dibattito, tuttavia, relazioni con le esperienze
della musica contemporanea ed in particolare del repertorio elettroacustico sono emerse solo in
forma episodica; ciò ha reso opportuno, presso il Liceo Scientifico, l’organizzazione di un incontro
seminariale con l’intervento di compositori3 in forma di seduta di ascolto, favorendo la parteci-
pazione attiva degli studenti in qualità di ascoltatori per favorire una dimensione esperienziale,4
suggerendo altresì un possibile approccio – attraverso la presentazione di opportuni estratti –
ad una preliminare analisi, esemplificando in forma laboratoriale le distinzioni tra discorso udi-
tivo/discorso mimetico e tra sintassi astratta/estrapolata5 e favorendo un dibattito aperto tra
compositori e studenti. Un secondo incontro specifico è stato successivamente tenuto nel Liceo
Scientifico,6 attraverso la presentazione e discussione di semplici casi, ma questa volta apparte-
nenti a repertori differenti, finalizzata ad una discussione sugli elementi di base che consentano
in via preliminare di caratterizzare la forma musicale, il genere e la composizione.

12.3 NEroMix : Concept, materiali e metodi


Alla base di NEroMix si colloca una idea di composizione collaborativa nella quale sono
stati individuati macroscopicamente due gruppi di lavoro: gli studenti del Liceo Scientifico e gli
studenti dei Licei Musicali.
2 O’Brien, Damien e Fitzgerald, Brian, Mashups, remixes and copyright law, in Internet Law Bulletin, 9(2),

2006, pp. 17-19; accesso da: http://eprints.qut.edu.au/4239/1/4239.pdf, consultato il 18 luglio 2016.


3 Presso la sede del Liceo Statale “Tito Livio” Francesco Abbrescia, Sara di Santo e Francesco Quercia hanno

tenuto interventi specifici con presentazione di materiali di “invito” alla fruizione del repertorio elettroacustico,
promuovendo ed animando un dibattito con gli studenti partecipanti.
4 Si veda Paynter, John, Sound and Structure, Cambridge University Press, Cambridge 1992.
5 Si rimanda a Emmerson, Simon, The relation of language to materials, in Emmerson, Simon (a cura di), The

language of electroacoustic music, MacMillan, London 1986.


6 Si è fatto esplicito riferimento in tale occasione all’impostazione presente in Scagliola, Francesco, Towards a

Rational Practice of Arithmetic. A Model for Musical (and Multimedia) Composition, in Emmer, Michelle (a
cura di), Imagine Math, Springer, Milano 2012.

186
L’intervento dei docenti in fase iniziale è consistito nella elaborazione di un processo di lavoro
e nella indicazione degli strumenti, sulla base di attente considerazioni sui peculiari complessi di
conoscenze e di competenze che caratterizzano i due diversi percorsi formativi degli studenti.
I due gruppi hanno operato in un processo a catena aperta articolato in due fasi principali
in successione come illustrato in Figura 12.1. I livelli di discrezionalità presenti nelle fasi di
realizzazione si configurano come occasioni di scelte compositive autonome, la loro collocazione
temporale in sequenza e senza possibilità di feedback consentirebbe di riguardare l’intero processo
come un esempio di workflow compositivo.

Figura 12.1: Fasi di realizzazione di NEroMix.

Gli strumenti adottati sono stati i seguenti: il compilatore Dev-Pascal per la generazione
della partitura, Csound per il trattamento del materiale audio, unitamente all’editor Audacity.
La scelta è stata orientata evidentemente su applicazioni di libero uso e coerenti con i percorsi
formativi degli studenti coinvolti.
Nel rispetto delle indicazioni riportate nella call for works, per il remix si è deciso di operare su
materiali d’audio degli anni Trenta7 pertinenti all’opera Nerone in cui Pietro Mascagni compare
7 Specificamente per l’opera Nerone di Pietro Mascagni, i frammenti utilizzati sono relativi a riprese del Com-

187
ripreso nella sua casa, al pianoforte, ed alla direzione della prima; i due estratti – monofonici –
effettivamente utilizzati hanno durate rispettivamente di 2’23” e 1’43”.

Figura 12.2: Una sequenza ottenuta per ricombinazione di segmenti prelevati da due estratti
sonori.

Un programma Pascal,8 realizzato nell’ambito delle esercitazioni presso il Liceo Scientifico


codifica una catena di Markov del I ordine9 con una matrice di transizione di dimensioni 8x8 con
stati A,B,C,D,E,F,G,H. Nel programma Pascal la specificazione delle matrici avviene nella parte
dichiarativa, esemplificata di seguito:

program partitura;
const
numStati=8;
matTrans: array[0..(numStati-1),0..(numStati-1)]of real=
((0.1,0.5,0,0.15,0.05,0.1,0,0.1),
(0.2,0.05,0,0.3,0.1,0.25,0,0.1),
positore al pianoforte, tratto dal Cinegiornale dell’Istituto Luce Roma: s.e. Mascagni inizia il settantesimo anno
di vita lavorando per una sua nuova opera lirica (1932) e da scene della prima dell’opera (Milano, 1935) incluse
originariamente nel film Regina della Scala (Cines, 1937) diretto da Guido Salmini e Camillo Mastrocinque e
poi inserite in LA SCALA: A Documentary of Performances (View Video, 1994); per i riferimenti dei materiali
audiovisivi citati: archivio storico dell’Istituto Luce (su www.archivioluce.com) e Flury, Roger, Pietro Mascagni:
A Bio-Bibliography, Greenwood Press, 2001.
8 Il codice è il risultato di un adattamento di esempi tratti da: Meini, Giorgio, Una proposta per il Laboratorio di

Matematica e Informatica nell’insegnamento del Calcolo delle Probabilità e della Statistica, consultato all’URL:
http://www.giorgiomeini.it e Kemp, Ray e Hahn, Brian. Pascal for Students, Oxford, Newnes 1996; i materiali
di base del corso di programmazione Pascal, sono stati sviluppati da Mariavaleria Palmisano.
9 L’uso delle Catene di Markov trova numerosi riscontri nelle sviluppo storico delle prassi compositive nella

composizione musicale assistita da elaboratore (si veda Assayag, Gérard, Computer Assisted Composition today,
in Proceedings of 1st Symposium Music and Computers, Corfu 1998, reperibile su http://recherche.ircam.
fr/equipes/repmus/RMPapers/Corfou98/) sia per la musica notata che non notata; la condizione di operare nel
contesto del remix, con segmenti audio da materiali preesistenti è stata considerata una condizione sufficiente per
operare solo con catene del primo ordine.

188
(0.35,0,0.1,0.15,0.2,0.05,0,0.15),
(0,0.1,0.1,0.25,0.1,0.1,0.3,0.05),
(0,0.1,0.3,0.1,0.05,0.15,0,0.3),
(0,0.1,0,0.2,0.3,0.4,0,0),
(0.05,0.2,0.3,0,0.2,0,0.2,0.05),
(0,0.1,0.3,0.1,0.1,0.1,0.3,0.1));
matSimboli: array[0..(numStati-1)] of char=(’A’,’B’,’C’,’D’,’E’,’F’,’G’,’H’);
statoIniziale=0;
var
score:text;
transizione, numTrans,n:integer;
aset,bset,cset,lambdaset,adur,bdur,cdur,lambdatur:integer;
stato,prossimoStato:0..(numStati-1);
numeroCasuale,probCumulativa,scale,stretch,onset,duration:real;
...

La scansione temporale degli istanti di start e la durata degli eventi è stata gestita mediante la
funzione random().10 Gli studenti del Liceo Scientifico sono stati invitati ad elaborare matrici di
transizione sulla scorta dei criteri essenziali richiesti dal modello utilizzato, valutandone l’efficacia
attraverso l’analisi dell’output.
La definizione delle matrici è stata arbitraria, invitando gli studenti a individuare – per
tentativi – matrici di transizione che producessero, a loro giudizio, sequenze interessanti ai fini
del loro successivo utilizzo. Tra le diverse proposte, al termine, è rimarchevole rilevare a posteriori
come la totalità delle scelte abbia prodotto sequenze associate a matrici di transizione primitive e
irriducibili,11 tali da consentire il passaggio tra tutti gli stati senza periodicità e con l’assenza di
stati assorbenti e quindi senza soluzione di continuità nelle generazioni. Un esempio è visibile in
Figura 12.3, con relativa rappresentazione come diagramma degli stati riportata in Figura 12.4.
Il programma produce in uscita un file di testo da finalizzare ad una score Csound organizzata
secondo i seguenti p-field :

; instrument | start | dur | Markov_state

i1 0.09 3.75 A
i1 0.12 0.63 E
i1 0.26 1.25 F
...

La prima fase (a Martina Franca) si conclude con l’input per il lavoro degli studenti dei Licei
Musicali di Monopoli e Brindisi. Nella fase successiva vengono scelti una serie di breakpoint (dalle
due tracce audio) da associare alle etichette A,B,C,D,E,F,G,H per la risintesi Csound con una
elementare orchestra basata sull’opcode diskin2, rielaborata con un text-editor per ottenere una
score Csound del tipo:
10 Il compilatore Dev-Pascal implementa per la generazione di numeri pseudo-casuali una funzione basata sull’al-

goritmo Mersenne Twister (si veda www.math.sci.hiroshima-u.ac.jp/~m-mat/MT/emt.html); la scelta dell’uso


della funzione di sistema disponibile è apparsa ragionevole per la determinazione degli istanti di on-set e per la
durata di ogni evento della score sulla scorta di ragioni di opportunità didattica: la scrittura di codice per l’uso
di altre distribuzioni avrebbe richiesto un ulteriore appesantimento teorico.
11 Queste considerazioni sono state effettuate a valle dell’intero processo, in sede di redazione del presente

contributo, validate con l’ausilio di Mathematica; gli elementi di conoscenza sulle catene di Markov sono stati
introdotti specificamente a supporto di questa esperienza.

189
Figura 12.3: Una delle matrici di transizione utilizzate durante le esercitazioni.

Figura 12.4: Il diagramma degli stati associato alla matrice di transizione 8x8 di cui alla Figura
12.3.

190
; instrument | start | dur | iskiptim | ifilcod

i1 0.09 3.75 33.112 “Nerone_voce_denoise.wav”


i1 0.12 0.63 73.547 “Nerone_voce_denoise.wav”
i1 0.26 1.25 95.198 “Nerone_voce_denoise.wav”
...

Una rappresentazione grafica di un estratto della successione degli stati A,B,..H in relazione
alla progressione degli eventi è riportata in Figura 12.5.

Figura 12.5: Rappresentazione grafica di una successione degli stati (in ordinata) in relazione alla
progressione degli eventi (in ascissa), relativo al caso rappresentato nelle immagini precedenti.

Nella fase successiva, si lascia piena libertà agli studenti per la segmentazione delle tracce
audio dei filmati ai fini del campionamento e da associare alle sequenze ottenute programmando
in Pascal. Dalle sequenze audio di base, stereofoniche, ottenute mediante Csound, ne va selezio-
nata una: su tale sequenza saranno consentiti ulteriori interventi di elaborazione, attraverso gli
strumenti di editing e il repertorio di plug-in disponibili per Audacity e la sovrapposizione libera
di materiali sonori ai fini del lavoro nella forma definitiva.

12.4 NEroMix per Suoni Inauditi 2015


Nella versione presentata per la rassegna, NEroMix è un brano elettroacustico con durata di
5’20”, con sample rate di 44100 Hz (16 bit per parola), quadrifonico;12 risulta articolato in tre
sezioni con inizio ai tempi 0’0”, 0’22”, 2’15” (vedi Figura 12.6).
Nella terza sezione l’introduzione di materiali sonori tende a completare lo spettro udibile:
il materiale audio di partenza è fortemente limitato in banda trattandosi di registrazioni degli
12 La scelta iniziale del formato stereofonico ha consentito fino alla post-produzione una “dispensa” da una

implementazione della spazializzazione a livello dell’algoritmo utilizzato (e un conseguente formidabile lavoro


di editing audio su numerose tracce); le versioni stereofoniche presentano maggiore flessibilità sotto l’aspetto
performativo se finalizzate a un sistema multi-diffusore basato su splitting dei due canali. La versione a quattro
canali è stata derivata dalla sorgente stereo attraverso elaborazioni a livello di editing audio, al fine di soddisfare
il requisito richiesto di composizione acusmatica con almeno 4 canali di riproduzione.

191
Figura 12.6: Oscillogramma e spettrogramma di NEroMix nella versione presentata nella
Rassegna Suoni inauditi.

anni Trenta. Non si è operata alcuna discriminazione qualitativa tra il materiale strettamente
pertinente ai documenti sonori e quello dovuto a rumori impulsivi e variamente distribuiti in
banda media.

12.5 L’eredità di una esperienza compositiva: Liceo Scien-


tifico
Con il compilatore Pascal, gli studenti del liceo Scientifico di Martina Franca si sono cimentati
sin da subito con la scrittura ed esecuzione di semplici programmi di tipo matematico: in una
scuola in cui il laboratorio di programmazione potrebbe risultare un’attività del tutto estranea,
non lo è affatto la logica che la sottende e ci è sembrato interessante osservare inizialmente il
tipo di impatto che gli argomenti presentati potevano avere sugli studenti. Alcuni di loro hanno
a loro tempo espresso l’idea che “i concetti appresi sono stati interessanti, ma troppo poco il
tempo che ad essi abbiamo dedicato” (Arianna) mentre per altri è stata una scoperta “capire che
l’informatica non è solo ECDL e pacchetti applicativi, ma logica algoritmica” (Rossella). Secondo
un’altra studentessa (Marica) “l’approccio alla programmazione è sembrato più semplice perché
mediato dalla musica”.
Particolarmente significativo si è rivelato il momento di condivisione del percorso tra gli
studenti presso il Liceo Musicale di Brindisi (tenutosi nella prima decade di maggio 2015); peraltro
un evento non isolato: molti degli studenti coinvolti in questa esperienza hanno potuto reiterare
positivamente una sperimentazione didattica, per certi versi, analoga13 l’anno successivo con
un incontro presso il Conservatorio di Lecce. Queste sono state occasioni per un approccio
13 Una delle classi del Liceo Scientifico partecipanti a questa esperienza ha realizzato nel 2016 una performance

in aula di un’opera di Alvin Lucer, attraverso l’uso di una applicazione desktop in ambiente Processing e regia
con i mezzi tecnici ordinariamente disponibili negli ambienti scolastici. Ha fatto seguito un momento di confronto
con gli studenti del corso di Musica Elettronica del Conservatorio di Lecce; l’esperienza è descritta in dettaglio
in: Abbrescia, Francesco - De Luca, Valentino - Pastore, Anna Maria - Scagliola, Francesco e Antonio Scarcia, “I
am sitting in a (class)room”: per un percorso didattico interdisciplinare a partire da un’opera di Alvin Lucier,
in Atti Didamatica 2016, Udine 2016, consultabile all’indirizzo http://didamatica2016.uniud.it/proceedings/
dati/articoli/paper_103.pdf.

192
mediato e più consapevole alla musica elettroacustica e al suo specifico metodo di ricerca. Gli
studenti del Liceo Scientifico si sono rapportati con studenti che si dedicano agli studi musicali,
hanno ascoltato vari brani, hanno parlato con i loro autori, si sono con essi confrontati e hanno
sviluppato delle loro visioni in merito a questo specifico ambito musicale che di seguito riportiamo
sinteticamente.
A valle dell’esperienza con NEroMix e della successiva, le prime impressioni registrate sono
state del tipo: “. . . l’approccio a questa musica è da pazzi. . . è musica alternativa, dal suono am-
biguo. . . è musica per pochi. . . non suscita le stesse emozioni della musica che conosciamo. . . ”.
Poi, dal gruppo, qualche studente ha cominciato a porre alcune domande importanti: “Da dove
nasce per te l’attività del comporre questa musica? Da quali elementi parti? ” e davanti alle
risposte “Nasce un po’ per gioco. . . poi lavoro su una prima intuizione. . . ” oppure “Io ho com-
inciato a studiare musica classica, poi ho provato a cimentarmi con la musica elettroacustica, a
sperimentare qualcosa e. . . mi sono appassionato”; ha cominciato a farsi spazio l’idea che questo
mondo ha un suo linguaggio che va interpretato e compreso prima che giudicato a priori: “Quan-
do si ascolta questa musica, non ci si può dedicare ad un’altra attività, c’è bisogno di essere
concentrati per poterla comprendere” (Marica) . . . “È difficile distinguere un buon brano da uno
che non lo è perché sono entrambi rumorosi. . . è un microcosmo, un mondo a sé stante” (Pietro).
Rivelatore è stato nel secondo incontro l’ascolto di una rivisitazione di C’era una volta il West
di Ennio Morricone, ad opera di un allievo del corso di Musica Elettronica del conservatorio di
Lecce: “Ci è sembrato più bello, più armonioso, con meno rumori (fischi, scoppiettii. . . ); anche
le visualizzazioni ci hanno aiutato ad entrare in sintonia col pezzo musicale. . . seppure queste a
volte si interrompevano perché, come ci hanno spiegato gli stessi autori, l’attenzione deve essere
focalizzata sulla musica” (Luciana).
Uno studente, dal dialogo, ha formulato una propria riflessione alla classe, sulla nuova con-
sapevolezza che “noi siamo attratti da musiche e generi che rispecchiano le frequenze del nostro
corpo, pertanto non esiste un ritmo unico e non tutti siamo attratti dagli stessi generi musicali ”
(Pietro).

12.6 L’eredità di una esperienza compositiva: Licei Musicali


A valle della finalizzazione della versione condivisa del brano elettroacustico, ha avuto origine
un fenomeno spontaneo e per certi versi sorprendente: alcuni degli allievi del Liceo musicale
(Brindisi), già coinvolti nel progetto, hanno messo in campo le proprie competenze – per alcuni
scoperte e/o “maturate” proprio in occasione del progetto in questione, per altri già consolidate
e pregresse – in fatto di elaborazione e trattamento del suono, audio editing e composizione, per
produrre ulteriori rifacimenti del brano; spesso allargando la scelta del materiale a sequenze che
erano state precedentemente scartate in fase di lavoro condiviso ed a tecniche di elaborazione e
strumenti software/hardware allora non presi in considerazione. Questo ha portato alla luce in
maniera evidente il bagaglio musicale e culturale di ognuno dei giovani compositori.
Difatti, prendendo in esame una delle ulteriori cinque versioni venute alla luce – delle quali una
è frutto di lavoro a quattro mani – potremmo rilevare, per esempio, nel suono di campionamento
che ricorda l’impulso elettrico del cavo jack collegato alla catena elettroacustica solo da un capo
(si veda relativo spettrogramma in Figura 12.7), le radici rock di chi calca i palcoscenici con la
sua band ed il cui interesse – suo e del suo gruppo – risiede forse nella sua strumentazione.14
In un altro re-remix, si propone invece la costruzione di schemi ritmici tipici del genere Hip-
Hop, con ripetizioni differentemente intonate e/o tagliate della cellula “Pietro” come si evince
14 Si veda Galante, Francesco e Sani, Nicola, Musica espansa. Percorsi elettroacustici di fine millennio, Milano:

Ricordi; Lucca: LIM 2000.

193
Figura 12.7: Oscillogramma e Spettrogramma di un estratto di NEroMix –Remix n. 2.

dallo spettrogramma in Figura 12.8 – parola che il cronista pronuncia nel filmato d’epoca –
proprio da chi “dà il beat” ai freestyle contest.

Figura 12.8: Oscillogramma e Spettrogramma di un estratto di NEroMix – Remix n. 3.

12.7 Conclusioni
La pratica del remix può essere riguardata come una possibile estensione del concetto di
opera aperta?15 La questione si pone di fronte ai componenti del gruppo di lavoro, mostrando e
portando ad ognuno i propri aspetti più aleatori ed imprevedibili. Appare in maniera evidente
interessante ed efficace, sul piano didattico, il ruolo della finalizzazione di un percorso formativo
15 Eco, Umberto, Opera aperta Forma e indeterminazione nelle poetiche contemporanee, Milano, Bompiani

1962.

194
e laboratoriale ad un prodotto finale eventualmente contestualizzato in ambiti nuovi per gli
allievi.16
In conclusione, possiamo affermare – senza riserve - che l’esperienza è stata positiva, in primo
luogo perché occasione di apertura e di crescita umana e culturale, in secondo luogo perché
laboratorio in cui si sono conosciuti e sperimentati aspetti del mondo musicale sconosciuti e
inesplorati alla maggior parte degli allievi.

Ringraziamenti
Gli autori desiderano ringraziare Francesco Abbrescia, Sara di Santo, Francesco Quercia e
Francesco Scagliola per i loro preziosi contributi nella realizzazione di questa esperienza.

Bibliografia
Abbrescia, Francesco - De Luca, Valentino - Di Santo, Sara - Palmisano, Mariavaleria - Quer-
cia, Francesco - Scagliola, Francesco e Scarcia, Antonio, NEroMix: una esperienza di workflow
compositivo, in Atti Didamatica 2015, Genova 2015.
Abbrescia, Francesco - De Luca, Valentino - Pastore, Anna Maria - Scagliola, Francesco e
Scarcia, Antonio, “I am sitting in a (class)room”: per un percorso didattico interdisciplinare a
partire da un’opera di Alvin Lucier, in Atti Didamatica 2016, Udine 2016.
Assayag, Gérard, Computer Assisted Composition today, in Proceedings of 1st Symposium
Music and Computers, Corfu 1998.
Eco, Umberto, Opera aperta Forma e indeterminazione nelle poetiche contemporanee, Milano,
Bompiani 1962. Emmerson, Simon, The relation of language to materials, in Emmerson, Simon
(a cura di), The language of electroacoustic music, MacMillan, London 1986.
Flury, Roger, Pietro Mascagni: A Bio-Bibliography, Greenwood Press, 2001.
Galante, Francesco e Sani, Nicola, Musica espansa. Percorsi elettroacustici di fine millennio,
Milano: Ricordi; Lucca: LIM 2000.
Kemp, Ray e Hahn, Brian, Pascal for Students, Oxford, Newnes 1996.
O’Brien, Damien e Fitzgerald, Brian, Mashups, remixes and copyright law, in Internet Law
Bulletin, 9(2), 2006, pp. 17-19.
Paynter, John, Sound and Structure, Cambridge University Press, Cambridge 1992.
Scagliola, Francesco, Towards a Rational Practice of Arithmetic. A Model for Musical (and
Multimedia) Composition, in Emmer, Michelle (a cura di), Imagine Math, Springer, Milano 2012.

16 La scelta del titolo del lavoro deriva da una proposta spontanea degli studenti del Liceo Musicale “Durano”

di Brindisi: NEroMix conterrebbe – l’acronimo di “Nuova Educazione Musicale”. La genesi del lavoro ha fatto
ipotizzare in caso di diffusione l’adozione di una Licenza Creative Commons CC BY-SA, con attribuzione al
progetto didattico.

195
196
Capitolo 13

Alejandro Casales Navarrete

L’incanto lirico della Nona Sinfonia


Concertante di Giuseppe Maria
Cambini

happyday@alejandrocasales.com

Il compositore e violinista di origine italiana Giuseppe Maria Cambini (13 febbraio 1746 –
29 dicembre 1825) è stato sicuramente uno dei compositori più prolifici della fine del secolo
XVIII, con più di 700 composizioni tra cui 600 opere puramente strumentali, 149 Quartetti, 114
Quintetti, 9 Sinfonie e più di 100 Trii per vari strumenti.
Dopo aver esaminato alcune delle sue opere, principalmente le Sinfonie Concertanti, è pos-
sibile identificarlo come un compositore rivolto al pubblico, così come è possibile osservare che
sperimentò molto poco con gli sviluppi musicali dell’epoca. Tuttavia egli mantiene l’essenza dello
stile galante francese, evidenziato da una brillantezza semplice e da un fascino che richiede poca
profondità di comprensione per essere apprezzato.
Anche Mozart a suo tempo, pur avendo sviluppato una forte avversione per Cambini, al
quale imputava ingiustamente la cancellazione di un concerto a Parigi nel 1770, era noto per
aver elogiato la musica del compositore livornese per il suo fascino lirico.
Per rileggerlo nel secolo XXI sarà necessario considerarlo secondo le caratteristiche di un’opera
musicale super-strutturata, dal punto di vista della scienza e della tecnologia attuali, affinché lo
si possa udire di nuovo e in ordine perfetto, dalla parte più semplice ad una percezione nuova e
infinita, con la sorpresa di un suono atonale, spirituale e col gusto del rumore.
Inoltre è necessario considerare tutte le epoche posteriori alla sua, l’orchestrazione sinfonica
con i timpani, il periodo romantico con il suono sostenuto del pianoforte, sino all’allargamen-
to della gamma armonica dell’epoca moderna, in cui possiamo utilizzare tra le altre cose la
luce, l’elettricità, le onde Martenot, gli strumenti elettronici, la tecnologia della sintesi sonora, i
campioni audio, l’elettroacustica.
Perciò il mio contributo attraverso un remix, per tornare a parlare di Cambini, nasce da una
delle sue opere attualmente poco conosciute e poco interpretate nell’America Latina: mi riferisco
alla Nona Sinfonia Concertante.

197
Nell’iniziare la creazione del remix dell’opera di Cambini ci si è imbattuti in un lavoro dalla
struttura perfetta. Nelle sue varietà e parti abbiamo uno scheletro chiaramente definito che si
ottiene dall’espansione della sua struttura e funzione all’interno di un tutto.
Il suo tema si ripete graziosamente, e per questo si può paragonare l’opera al taglio di un
buon cuoco, vale a dire, come un buon dialettico e facendo riferimento a Platone, che è un buon
cuoco chi sa tagliare la carne dell’animale per le sue articolazioni naturali. L’opera di Cambini
è ugualmente dialettica, ha pause naturali nelle sue articolazioni come motivi, temi, ripetizioni,
incisi, pause, e come abbiamo detto un carattere grazioso ed elegante.
Ognuno dei movimenti, Allegro e Rondeau Allegretto, è ben tagliato, a sua volta, dall’universo
definito con centinaia di nuove possibilità, aperto all’indefinito; il transfinito di una esplosione
sonora, come una esplosione di reattori di conseguenze sonore la cui forma ha per materiale
un campione elettronico del suo Preludio; cioè: il basilare per ricreare l’universo che supera la
finitezza dell’opera perfetta, convertita in un somatico sonoro transfinito.
La trans-finitezza come opera ideale, come fu nel suo tempo, ugualmente prima del suo tempo,
prima della prima Fuga e Sonata, prima della prima danza e della scoperta del fuoco. Vale a dire
una sovrastruttura, e la possiamo chiamare sovrastruttura – senza scale temperate, tonalità, né
forme finite – per l’origine energetica massiva determinista-statistica, probabilistica dell’universo,
che ha un vantaggio rispetto alle forme musicali classiche, ristrette e sentimentalmente neutre.
D’accordo con la frase di Heidegger: «Lasciar che si renda visibile per se stessa come si
mostra» (Sein und Zeit, p. 34).
Pertanto, si cerca di determinare un piano ontologico della Sinfonia Concertante, che sarebbe
esattamente la reinterpretazione del remix di Cambini:

«Lasciar che si renda udibile di per se stessa, ciò che è in se stessa»

Ciò che è visibile, come il colore, come ciò che non può essere visibile, come la sua tonalità,
nascosta. Dobbiamo illuminarla, affinché la visibilità propria e intrinseca la renda visibile, e sia
percepita in atto.
Allo stesso modo l’udibile, nella nuova sovrastruttura, può non essere tale, ma tacere nel suo
stato naturale immediato, fuso con tutte le classi di suono provenienti da legno, metallo, uccelli,
fiumi, i quali non riescono ad appropriarsi di tutto quello che nascondono, di ciò che è loro.
Ugualmente possiamo recuperare quella innocenza paradisiaca, di quando le cose ancora
non avevano nome, come la creazione atomica della Sinfonia, e mi riferisco alla rivisitazione
elettronica, a partire dal materiale più elementare e affettivo in uno stato di fenomenologia
paradisiaca.
Tuttavia questo stato fenomenologico nella Sinfonia Concertante non può essere mantenuto
nella pura innocenza, ma è necessario disporre di un luogo privilegiato per le note, la mente e le
nuove sensazioni.
Per formare una nuova materia sonora, trasformata nella sovrastruttura, indotta dal suo
materiale e dalla sua materia al soma neuronale: per ottenere un corpo nuovo con strumenti
nuovi.
Tale informazione immediata ha caratteristiche distinte come: l’interezza, l’udibilità, la trans-
finitezza, l’innocenza trascendentale e affettiva, che sono chiamate Cyhos (si veda il video http:
//bit.ly/1TdguSd).
Nella Nona Sinfonia Concertante, e dal suo Preludio Allegro, battuta per battuta, per potenza
del suo primo movimento, e per il potenziale, in principio è sovrastruttura e soma neuronale,
da cui la sua forma musicale cambia in corpo elettronico, unito in forma alle nuove proprietà
e caratteristiche da cui gli atti, in modo immediato nel suo corpo sonoro, dove si acquista un
nuovo senso ontologico.

198
Figura 13.1: Cambini Cyhos Mix (estratto di 55 secondi del Preludio della Nona Sinfonia
Concertante e missaggio dell’opera Cyhos.

199
Rintracciando il predominio crescente di progressioni, atonalità e sonorità – a scapito delle
loro relazioni naturali con le scale.
Allo stesso modo ogni movenza di danza tra fagotto e oboe è ricondotta alla categoria di
materiale: di sostanza indifferente alla sua origine in chimica, struttura e natura.
Entrambi i movimenti, Allegro e Rondeau Allegretto, acquistano un senso nuovo, un solo
nucleo che intrinsecamente emerge dalla materia pronta.
Dovunque predomina la struttura positiva, sonante, sopra la consonanza delle note, ridotta
a consonanza materiale. Ovvero, predomina il suono indiviso del materiale dello strumento, il
legno dei violini, del fagotto e dell’oboe. È sufficiente ascoltare l’opera in tutte le sue note rispetto
al numero dei silenzi, e compararla all’universo atomico della sovrastruttura.
Predominio crescente dell’identità tentata in variazioni nuove, per riscoprire quello che ha di
identico nel suo ente, il soggettivismo trascendentale di Cambini.
Pertanto la consonanza naturale, iniziando con la fusione naturale della musica, è una se-
quenza di 24 voci indipendenti e simultanee, senza il minimo sospetto o dubbio di una totalità
sonora (vedi Figura 13.2), arte sonora, musicale e ontologica.

Figura 13.2: Cyhos Mix (24 canali).

13.1 Bibliografia
Heidegger, Martin, Sein und Zeit, Gutmann & Co., Heilbronn. Einband von Heinr. Koch,
Tübingen, 1967. Traduzione dal tedesco di Alejandro Casales, disponibile all’indirizzo http:
//alejandrocasales.com/teoria/teoria/Heidegger_Martin_Sein_und_Zeit.pdf

200
Capitolo 14

Francesco Bossi

Nardini Remiz#1

francescobossi@fastwebnet.it

14.1 Il bando
Nardini Remiz#1 nasce da un bando emanato dall’Istituto Superiore di Studi Musicali “P.
Mascagni” di Livorno nell’autunno del 2016 con lo scopo di selezionare composizioni per la
stagione di concerti di musica contemporanea Suoni Inauditi, da tenersi presso l’Auditorium
“Cesare Chiti” nella primavera del 2017.
«Sono richieste composizioni elettroacustiche da 4 a 16 canali, secondo la distribuzione dei
diffusori posti in Auditorium, come da schema allegato (due livelli di 8 diffusori, numerati in
senso orario dal diffusore sinistro frontale del primo livello)», così diceva testualmente il bando.
Tra le caratteristiche essenziali richieste figurava inoltre «l’obbligo di utilizzare, in qualsiasi
forma e con qualsiasi tecnica, uno o più frammenti relativi a registrazioni di opere di Nardini».
A questo punto, prima di continuare, vale la pena di accennare brevemente alla figura di
Pietro Nardini (Livorno, 1722 - Firenze 1793). Nardini fu un affermatissimo violinista, tra i
maggiori del suo tempo. Operò a Vienna, Dresda, Stoccarda, Firenze e, come compositore, «si
attenne ai caratteri formali del primo Settecento», aderendo «alla poetica dell’illuminismo, che
vedeva nella melodia e nella bellezza del suono, vocale e strumentale, gli elementi primari della
musica».1
Il bando Nardini Remix, questa era l’esatta denominazione, seguiva rispettivamente a distanza
di uno e due anni altri due bandi di impostazione analoga: Mascagni Remix e Cambini Remix,
chiudendo il ciclo dedicato alla rilettura (ma in questo caso sarebbe meglio dire al “rimixaggio”),
dei compositori livornesi.
Si è pensato di cogliere la sfida utilizzando la musica di un compositore del passato, come
quella del settecentesco Pietro Nardini, come un pre-testo. E ciò in una duplice accezione. Da
un lato l’opera di Nardini poteva rappresentare effettivamente un testo che viene prima (pre), e
sul quale è possibile costruire qualcosa di nuovo, conformemente al bando Nardini Remix nonché
allo spirito della rassegna Suoni Inauditi, appunto. Dall’altro poteva diventare l’opportunità per
realizzare una sorta di calembour musicale, o di scherzo, nel quale il lavoro originale di Nardini (e
1 Nardini Pietro, in La Nuova Enciclopedia della Musica Garzanti, Milano, Garzanti 1985.

201
segnatamente il Concerto per violino in Sol maggiore) scompare e riappare e finalmente riemerge,
nel mare magnum del marasma elettroacustico.

14.2 Lo strumento
Occorre dire ora che il punto di partenza da cui solitamente muovo per ogni nuova com-
posizione elettroacustica, è rappresentato dallo “strumento”. Cioè a dire che, almeno nel mio
caso, il brano nasce di più dallo scandagliare le possibilità e le modalità di produrre suono da
uno strumento elettroacustico autoprodotto e autocostruito, piuttosto che da un’idea teorica e
astratta che precede e prescinde la materia.
Lo strumento, che potremmo definire come un lettore “creativo” di file audio o tabelle, come
vedremo tra breve, è stato progettato e realizzato con Max/MSP, la diffusissima applicazione per
la musica elettroacustica.
Il fulcro del signal processing è l’oggetto wave˜ di Max/MSP, e la sua capacità di leggere
dinamicamente i file audio.
In verità l’oggetto wave˜ è propriamente «un lettore di tabelle (wavetables) che per funzionare
deve essere connesso ad un phasor˜»,2 un altro oggetto di Max/MSP, che come lascia intendere
il nome gli indica la fase, ovvero «il punto della tabella da leggere istante per istante»,3 tramite
un segnale che va da 0, inizio della fase, a 1, fine della fase (si veda la Figura 14.1).

Figura 14.1: L’oggetto wave˜ governato dall’oggetto phasor˜.

Il nome della tabella da usare deve essere indicato come argomento dell’oggetto wave˜, cioè a
dire che wave˜ deve sapere come si chiama la tabella da leggere, per distinguerla eventualmente
da altre presenti nel sistema.4
Soffermiamoci per un minuto sul concetto di tabella in Max/MSP: l’esemplificazione più
semplice che si può fare è una sinusoide di 512 campioni.5 Ora, consideriamo il primo slot di
entrata (inlet) dell’oggetto wave˜. Da quella entrata wave˜ riceve un segnale che va da 0 a 1, che
gli dice esattamente quale punto della tabella leggere. Ad esempio se il segnale ha un valore di
0.5, la tabella sarà esattamente a metà del suo ciclo, se invece ha valore 1 la tabella avrà appena
completato il suo ciclo, e così via. Ora, considerando l’ipotesi di una sinusoide, se il segnale
in ingresso compie il ciclo da 0 a 1 per un considerevole numero di volte al secondo, allora noi
2 Cipriani, Alessandro e Giri, Maurizio, Musica Elettronica e Sound Desing: Teoria e Pratica con Max/MSP,

Vol. 1, Roma, ConTemponet 2009, p. 241.


3 Ibidem.
4 Il nome si riferisce al contenuto di un buffer˜, altro oggetto di Max/MSP, che designa uno spazio di memoria

temporanea.
5 Negli esempi si presume una sampling rate di 44.110 Hz.

202
inizieremo a udire un suono; se il ciclo da 0 a 1 si compie per 440 volte in un secondo, allora noi
udiremo una frequenza pari a quella del La sopra il Do centrale.
Ci siamo dilungati in questo esempio per aver ben chiaro il meccanismo. Ora proviamo a
sostituire la nostra sinusoide con il Concerto in Sol di Pietro Nardini (detta così può sembrare
una bestialità. . . ). Cioè a dire: consideriamo il Concerto come una tabella. Per fare questo è
sufficiente caricare nel sistema i dati dell’intero Concerto anziché quelli della sinusoide. Vediamo
allora che cosa cambia a iniziare dalla parte numerica, perché il cambio delle proporzioni è
significativo: nella circostanza si caricano ben 43.842.817 campioni e non più 512 come nella
sinusoide dell’esempio. In termini di tempo 43.842.817 campioni occupano 994.168 millisecondi
(in pratica 16 minuti e 34 secondi) e non più 11,61 millisecondi.6
Già da questi numeri si percepisce il cambio di prospettiva. In sintesi: «questo oggetto
(l’oggetto wave˜) è destinato generalmente alla lettura periodica di un singolo ciclo di forma
d’onda, ma nulla ci impedisce di utilizzarlo con un suono più lungo»,7 nel nostro caso molto più
lungo.
Detto questo, andiamo a considerare altre due caratteristiche dell’oggetto wave˜. Se osser-
viamo gli altri due slot di ingresso (inlet), quello centrale e quello più a destra, noteremo che essi
sono dedicati a ricevere i dati, in millisecondi, di inizio e fine di lettura della tabella.

Figura 14.2: Connessioni in entrata e in uscita dell’oggetto wave˜.

Questo fa sì che la tabella può anche essere letta in modo diverso che da capo a fine come
siamo abituati a pensare. Le si possono dare infatti letture alternative, arbitrarie, scegliendo ad
esempio un punto di arrivo e destinazione qualsiasi, o comunque predeterminati da noi. Non è
una caratteristica da poco.
Facciamo un esempio per approfondire. Poniamo di voler ascoltare il brano da capo a fine in
tutta la sua lunghezza di 16’ e 34”. In questo caso dovremmo dare come valore di partenza per
la lettura della tabella il primo millisecondo (o il primo campione se vogliamo dire così) e come
termine di fine lettura il 994.168mo millisecondo, pari al 43.842.817mo campione. Ovviamente
i punti di start e end di lettura che determinano la porzione di tabella da leggere si possono
variare8 e non importa, almeno per il funzionamento dell’oggetto, quanto lunghi siano: la rampa
numerica da 0 a 1 sarà il segnale che “segnerà” il passo per la lettura di qualunque frammento
di tabella selezionato. Non dimentichiamoci infine che la rampa da 0 a 1 può essere eseguita
contrario motu (da 1 a 0) e alla velocità che vogliamo.
Infatti, che succede se si legge l’intera forma d’onda del Concerto in Sol maggiore di Pietro
Nardini 440 volte per secondo come normalmente si fa con una sinusoide? E se si legge a velocità
normale ma un poco meno e in senso inverso? Si tratta di sperimentare e trovare nuovi suoni.
Ecco allora che il concerto di Nardini diventa qualcosa di inaudito.
Inoltre, per conferire una maggiore dinamicità alle rampa numerica da 0 a 1 prodotta dal-
l’oggetto phasor˜, abbiamo utilizzato un altro oggetto molto popolare nell’ambiente Max/MSP,
l’oggetto line, che produce rampe “temporizzate”, cioè sequenze di valori che passano da un
6 In questo esempio si presuppone una velocità di lettura normale (1:1).
7 Cipriani, Alessandro e Giri, Maurizio, Musica Elettronica e Sound Desing: Teoria e Pratica con Max e MSP,
Vol. 2, Roma, ConTempoNet 2013, p. 73.
8 In questo può essere utile l’oggetto waveform˜ di Max/MSP.

203
minimo e un massimo di volta in volta prestabiliti in un tempo anch’esso determinato.9 La
sintassi del comando è del tipo: -50, 50 10000, che sta a indicare, per esempio, la produzione
di una serie di valori progressivi da -50 a 50 in 10 secondi. Nel nostro caso sentiremmo la lettura
passare da -50 (e quindi retrograda) a +50 volte (e quindi in senso normale) al secondo nel giro
di 10 secondi. Dinamicità, cambio di velocità, senso e prospettiva, nel volgere di poco: questa è
la chiave di lettura dell’operazione.
Per organizzare la gestione di questi dati si è utilizzato l’oggetto coll di Max/MSP che
permette di memorizzarli e indicizzarli, creando delle liste di numeri o stringhe. In questo modo
le combinazioni ritenute interessanti possono essere salvate e richiamate al momento opportuno.
Nella Figura 14.3 vediamo i dati caricati nell’oggetto coll. Il primo numero (l’unico seguito
da una virgola) indica la lista di dati da richiamare. Il secondo rappresenta la velocità di lettura
di partenza, il terzo quella di arrivo, il quarto numero il tempo che deve essere impiegato per
passare dalla velocità iniziale a quella finale. Il quinto numero rappresenta in millisecondi il
punto iniziale della porzione di tabella in lettura e l’ultimo numero rappresenta il punto finale
di lettura.

Figura 14.3: I dati dell’oggetto coll.

9 «Generate ramps and line segments from one value to another within a specified amount of time», spiega il

file “Help” di Max/MSP per quanto concerne l’oggetto line.

204
Per fare un esempio prendiamo in considerazione la riga 8:

• 50 (Hz.): rate di lettura iniziale

• - 100 (Hz.): rate di lettura finale (cioè 100 letture contrario motu al secondo);

• 400 (millisecondi): tempo di transizione tra la prima e la seconda velocità di lettura;

• 1000 (millisecondi): inizio della porzione di tabella da leggere;

• 200.000 (millisecondi): fine della porzione di tabella da leggere.

Si notino due cose:

1. nel passaggio tra una velocità di lettura e l’altra si passa, in un continuum lineare, per
tutte quelle intermedie;

2. la velocità di lettura di finale è quella che rimane definitivamente finché non si caricano
altri dati.

14.3 La spazializzazione
Come si diceva sopra circa i contenuti del bando, il brano da proporre poteva avere da 4 a 16
canali audio, facendo riferimento al sistema di 16 diffusori distribuiti su due livelli di 8 diffusori
ciascuno presente in Auditorium.
Abbiamo optato quindi per un sistema di 8 canali audio, pensando di utilizzare gli otto
diffusori del livello inferiore, cioè a dire quelli posti a 1,5 metri di altezza dal suolo.
La soluzione, considerato il materiale audio processato che già ai primi ascolti si contraddi-
stingueva per la sua ampia dinamicità nelle ampiezze e nello spettro, sembrava quella che poteva
dare gli esiti migliori, rendendo il messaggio elettroacustico più intellegibile per il pubblico.
E’ appena il caso di accennare (vedi Figura 14.4) al windowing per il passaggio del suono
tra gli otto canali e al sistema di LFO che governa il passaggio tra i canali audio. Si guardi in
particolare la forma d’onda (anche essa una “tabella”, quindi) con cui viene moltiplicato il segnale
in uscita.

Figura 14.4: la forma d’onda per il windowing.

In questo contesto si deve sottolineare che una spazializzazione di questo tipo è la conseguenza
di una mia particolare concezione “cameristica” della musica elettroacustica, che evita in linea
di massima il multitracking, per lo meno nella fase di esecuzione. In questo senso l’unica “carne”
con cui è fatto Nardini Remiz#1 è la registrazione del Concerto: non ci sono suoni estranei e
neppure sovrapposizioni.

205
14.4 Il Concerto in Sol maggiore
Non c’è dubbio che il Concerto in Sol maggiore per violino e orchestra, che data circa 1750,
così come lo si trova in Internet sia una delle registrazioni più di qualità che si possono trovare,
di Nardini, in rete. Non solo, il brano è pure convincente per alcuni tratti caratteristici che
offrono un “hook ” (per dirla alla moderna) di riconoscibilità e che favoriscono l’ascoltatore nel
percepire il contrasto tra la tradizione della musica strumentale degli inizi del Settecento e la sua
trasfigurazione. Molto caratteristico e orecchiabile è il ritornello, che ricompare più volte.

14.5 L’aspetto formale


Segue un breve schema dell’aspetto formale del lavoro. Come si può agevolmente vedere do-
mina l’alternarsi delle variazioni elettroacustiche più radicali con altre in cui il brano è richiamato
nella sua riconoscibilità:

• 0’00”: la parte inaudita di Nardini;


• 1’13”: appare Nardini: brevi frammenti in glissando discendente si alternano all’esposizione
del tema con la velocità normale;

• 2’24”: il ritornello (hook );


• 2’46”: la parte inaudita di Nardini;
• 3’29”: ripresa di tema e ritornello;

• 3’51”: la parte più inaudita di Nardini;


• 4’15”: sezione “di grana grossa” (la parte più sperimentalistica);
• 5’03”: “l’elicottero”;
• 5’22”: riemerge definitivamente Nardini ripetendo ad libitum il frammento del tema/ritor-
nello.

14.6 Bibliografia
AA.VV., La Nuova Enciclopedia della Musica Garzanti, Milano, Garzanti 1985.
Cipriani, Alessandro e Giri, Maurizio, Musica Elettronica e Sound Desing: Teoria e Pratica
con Max/MSP, Vol. 1, Roma, ConTemponet 2009.
Cipriani, Alessandro e Giri, Maurizio, Musica Elettronica e Sound Desing: Teoria e Pratica
con Max e MSP, Vol. 2, Roma, ConTempoNet 2013.

206
Capitolo 15

Massimo Varchione

Capriccio e Fuga – Ancora musica


al quadrato?

massimovarchione@gmail.com

15.1 Introduzione
Lavorare su materiali musicali preesistenti implica riflettere su di essi e sull’approccio che
applichiamo nel manipolarli: cosa toccare e come.
In occasione di questo lavoro su Nardini la scelta è ricaduta su due opere della sua produzione
dalle caratteristiche diverse, da una parte i 30 Capricci per violino solo e dall’altra il Concerto
in Mi minore (di cui abbiamo utilizzato solo il terzo movimento).1 Da un lato quindi il violino
come strumento autosufficiente, in grado di sostenere un pensiero musicale complesso, dall’altro
in veste di solista, accompagnato quindi da una compagine strumentale più ampia.

15.2 La scelta dei materiali


Per quanto riguarda i Capricci ne sono stati selezionati due in particolare, il primo ed il
decimo. Grazie alla collaborazione di Vincenzo Iovino, giovane e valente violinista, ne abbiamo
registrato le prime battute. Le riprese sono state effettuate con uno Zoom Hn4.2
Per quanto riguarda il primo Capriccio abbiamo separato le figure che compongono la prima
frase (vedi Figura 15.1) in modo da poterle utilizzare ed elaborare singolarmente.
Il secondo Capriccio scelto, il numero 10, è una Fuga (vedi Figura 15.2) ed in questo caso
abbiamo optato per un diverso approccio. Sono state infatti registrate le singole componenti del
discorso contrappuntistico, derivando dalla prima frase dell’Esposizione sia frasi melodiche che
piccoli frammenti.
1 Il Concerto in Mi minore è a sua volta la rielaborazione di materiali di Nardini ad opera di Emilio

Pente (1860-1929). Si veda quanto riportato sul sito della Schott: https://de.schott-music.com/shop/
concerto-en-mi-mineur.html.
2 Formato Stereo 16 bit - 44100 Hz.

207
Figura 15.1: Inizio del Capriccio n. 1.

Figura 15.2: Inizio della Fuga (Capriccio n. 10).

Frammenti estratti: Soggetto (vedi Figura 15.3), Risposta (vedi Figura 15.4), Controsoggetto
della Risposta (vedi Figura 15.5), cellula derivata dalla testa del Controsoggetto (vedi Figura
15.6).

Figura 15.3: Soggetto.

Per quanto riguarda il terzo movimento del Concerto in Mi minore per violino e orchestra
il file originale è stato reperito sulla rete. La ovvia differenza qualitativa dei due file, dovu-
ta alla compressione utilizzata dal servizio di hosting video, è stata preventivata e tenuta in
considerazione sino a diventare elemento centrale nell’ideazione formale della composizione.

15.3 Elaborazione
I materiali raccolti e catalogati hanno subito a seconda della loro natura diversi tipi di ela-
borazione. Se da un lato si è preservata la natura acustica e, seguendo la definizione di Denis
Smalley,3 armonica del materiale conservandone quindi intatta la riconoscibilità e la decodifica,
3 Smalley, Denis, La spettromorfologia: una spiegazione delle forme del suono (I e II), in Musica/Realtà, n.

50 e n. 51, LIM – Quaderni di Musica/Realtà 1996

208
Figura 15.4: Risposta.

Figura 15.5: Controsoggetto della Risposta.

Figura 15.6: Cellula derivata dalla testa del Controsoggetto.

209
dall’altra si è intervenuti per creare gestualità e texture non immediatamente riconducibili al
materiale originale.
Per quanto riguarda il secondo movimento del Concerto in Mi minore, vista la scarsa qualità
del file originale si è optato per un filtraggio selettivo dello spettro realizzato con Adobe Audition.
Questa operazione ha messo in evidenza la ciclicità del basso continuo che accompagna il Concerto
ed allo stesso tempo ha creato l’ossatura della parte centrale del brano (Sezione B).
Gli elementi sonori desunti dai Capricci invece sono stati sottoposti a più operazioni di
manipolazione (filtraggio, montaggio, riverberazione) al fine di moltiplicarne i significati. Oltre
ai più diffusi programmi di editing (Sound Forge e Adobe Audition), di grande utilità per la
creazione di texture e di suoni a carattere impulsivo o rumoroso si è rivelato il software Granular
di Evan Merz.4 Disponibile gratuitamente per dispositivi con sistema operativo Android, come
il nome suggerisce utilizza la sintesi granulare e mette a disposizione dell’utente la possibilità di
variarne i parametri della stessa in tempo reale. Il materiale sonoro elaborato quindi conserverà
l’aspetto “gestuale” che gli slider dell’interfaccia grafica consentono.
Sempre su piattaforma Android, il software Reactable5 è stato utilizzato per creare dei filtri
passabanda, controllati da valori random, che hanno processato masse sonore create sovrappo-
nendo le registrazioni dei due capricci.

15.4 Montaggio e spazializzazione


Il montaggio dei materiali è stato l’ultimo dei processi che hanno portato alla creazione del
brano. La forma finale prevedeva la creazione di 16 tracce mono assegnate ad ognuno degli
altoparlanti dell’Auditorium. Per semplificare il processo compositivo è stata realizzata una
prima versione del brano in formato stereo e solo successivamente, in virtù del percorso musicale
del materiale, si è proceduto al disegnare l’andamento del brano nello spazio.
La prima sezione, sezione A (00’00”- 02’03”), è stata concepita come un continuo scambio
tra materiale acustico riconoscibile ed elaborazione digitale, e anche il percorso nello spazio ha
evidenziato questa dualità utilizzando coppie di speaker. Lo sviluppo di questa sezione inoltre
ha visto il segnale muoversi dal fondo della sala verso la parete absidale con un andamento
chiaramente delineato.
Nella Figura 15.7 sono indicati in rosso gli altoparlanti utilizzati per il materiale originale (in
questa sezione desunti dalle registrazione dei Capricci ) ed in blu quelli che presentano materiale
derivato. La prima presentazione dei materiali avviene negli altoparlanti 2 (materiali originali) e
3 (materiali manipolati). Lo spazio acustico viene ampliato utilizzando la coppia 6 e 7 (situata
alle spalle del pubblico) insieme all’altoparlante 1 (a cui successivamente si unirà il 4).
All’esposizione fa dunque seguito una risposta musicale che si muove nello spazio dal fondo
dell’auditorium verso il luogo dove per la prima volta il suono si è manifestato.
La seconda sezione, sezione B (02’03”-05’04”), fortemente caratterizzata dal materiale desunto
dal Concerto, ha visto una progressiva saturazione di tutto lo spazio acustico, evitando localiz-
zazioni eccessive e immergendo gli ascoltatori nell’ascolto di una “nebbia sonora” dove affiorano
brandelli della linea del basso continuo. A questa si oppongono per caratteristiche timbriche e
per collocazione nello spazio dei gesti che dichiarano senza ambiguità la loro natura sintetica.
Come si intuisce dalla pianta la distribuzione del materiale originale (il Concerto) è chiara-
mente disposta alla destra dell’ascoltatore. I materiali desunti appaiono e scompaiono nella
parte sinistra dell’Auditorium. Oltre ad una differenza nel panorama “stereo” c’è da sottolineare
la natura diversa dei materiali. I materiali del concerto sono presenti per tutta la durata della
4 http://evanxmerz.com
5 http://reactable.com/

210
Figura 15.7: Pianta della sezione A.

211
Figura 15.8: Pianta della sezione B.

212
sezione e ne costituiscono lo scheletro. Più episodici, sono i materiali desunti, che grazie anche
alla distribuzione nello spazio, si configurano come schegge sonore che appaiono e scompaiono
dal piano musicale.
La terza ed ultima sezione, sezione C (05’04”-06’21”), rimette in discussione la percezione
spaziale che la seconda sezione aveva consolidato, tornando a creare diagonali attraverso lo spazio
e rielaborando i comportamenti ed i materiali della prima sezione.

Figura 15.9: Pianta della sezione C.

In questa parte tutti i materiali sono esclusivamente derivati e la loro disposizione nello spazio
rimanda ad una frontalità (diffusori 2 e 3) già vista nella prima sezione. Il discorso musicale, che
riduce i materiali presentati, si liquefa per invadere tutto lo spazio acustico. Prima della fine del
brano i diffusori 4, 10, 11 e 12 richiamano per un momento la disposizione predominante nella
seconda parte dell’opera, che si chiude realizzando un movimento che da destra va verso sinistra
ad imitare la chiusura di una partitura.
Alle figure 10-13 seguenti gli spettrogrammi della versione stereo.

213
Figura 15.10: Spettrogramma totale (dettaglio 0 – 2000 Hz).

Figura 15.11: Spettrogramma della Sezione A.

Figura 15.12: Spettrogramma della Sezione B.

214
Figura 15.13: Spettrogramma della Sezione C.

15.5 Conclusioni
La possibilità di creare una drammaturgia nello spazio è un aspetto incredibilmente fecondo
dell’auditorium “Cesare Chiti”. Sovvertire le aspettative percettive che un materiale musicale
storicizzato produce, anche se forse non molto conosciuto in realtà, è un modo assai efficace di
rimettere in discussione il pensiero compositivo dell’autore e di farlo scontrare con le problema-
tiche della musica di oggi. Una riflessione sulla musica di un ordine superiore, non più solo al
quadrato.

15.6 Bibliografia e sitografia


Smalley, Dennis, La spettromorfologia: una spiegazione delle forme del suono (I e II), in
Musica/Realtà, n. 50 e n. 51, LIM – Quaderni di Musica/Realtà 1996.
http://evanxmerz.com
http://reactable.com/

215
216
Capitolo 16

Serena Tamburini

Arco Arcano (2016)

s-tamburini@libero.it

16.1 Progetto con vincoli e stimoli


Il bando del Nardini Remix diceva: «Sono richieste composizioni elettroacustiche da 4 a 16
canali, secondo la distribuzione dei diffusori posti in Auditorium [. . . ] Le uniche caratteristiche
richieste sono la durata approssimativa compresa tra 5 e 7 minuti, e l’obbligo di utilizzare, in
qualsiasi forma e con qualsiasi tecnica, uno o più frammenti relativi a registrazioni di opere di
Nardini.»
Quando si è deciso di partecipare, ci siamo trovati davanti a due interrogativi: anzitutto “Chi
è Nardini?”. E poi: “Come utilizzare l’impianto di diffusione sonora a 16 canali?”. Anche se il
bando permetteva di usarne da 4 a 16, non si voleva rinunciare ad usufruire di una situazione
spazialmente così articolata.
La musica di Pietro Nardini è stata una bella scoperta; compositore e violinista della seconda
metà del ’700 molto apprezzato dai suoi contemporanei, scrive magistralmente per il suo stru-
mento di cui è stato brillante esecutore. Dopo numerosi e piacevoli ascolti, la scelta è ricaduta
sulla registrazione del Concerto in Re Maggiore per violino, archi e basso continuo, eseguito dal
violinista Mauro Rossi, come materiale di base dal quale ricavare i campioni su cui lavorare.1
A questo punto le possibilità individuate per affrontare la composizione vera e propria sono
state due. Nella prima il Concerto di Nardini, intero o in parte, poteva essere elaborato in
modi diversi e molteplici: questo avrebbe dato evidenza al meccanismo che lo modificava. In
alternativa, individuando una struttura che avesse come soggetto privilegiato il “suono”, si poteva
usare il materiale conservando il suo significato semantico. Si è scelta questa seconda possibilità.
Nella fase iniziale, dove le idee erano molte e molto diverse, si è tenuta ben presente la durata
richiesta di 5-7 minuti. Sarebbe dovuto essere un pezzo breve, quindi, dove non c’era spazio per
lente evoluzioni dinamiche o elaborative né per l’uso di un eccesso di materiali diversi.

1 CD Dynamic numero CDS 392 (DDD).

217
16.1.1 Forma
Si è ritenuto di conservare la forma del Concerto in Re Maggiore di Pietro Nardini: Allegro,
Andante, Allegro. È stato quindi definito un progetto in tre parti preceduto da un’introduzione,
breve elemento iniziale che parla di sonorità primordiali, precedenti al timbro musicale, dalle
quali la musica scaturisce.
Infine si può dire che si è cercato di rispettare, in modo traslato, il carattere delle parti del
Concerto originale.

16.1.2 Struttura
Il progetto strutturale è semplice: attraverso le tre parti summenzionate si procede dal suono
“grezzo” verso una presentazione chiara ed esplicita del suono strumentale e delle frasi musicali.
Nel tempo, con evoluzioni che sono caratteristiche delle singole parti, il suono degli archi e la
loro melodiosità emergono in modo riconoscibile.
Da articolazioni di frequenze esasperate – collocate anche in zone estreme, sia nel grave
sia nell’acuto – e aspre, con sonorità vicino al rumore, giocando intenzionalmente con il suono
strumentale che è, forse, appena riconoscibile, si procede verso l’apertura di un campo frequen-
ziale più ampio e armonico che porta alla maggiore riconoscibilità del suono strumentale e,
progressivamente, a quella di frammenti di frasi musicali.
Importantissimo elemento strutturale è la spazializzazione: da una distribuzione del suono su
tutti i canali si procede gradualmente a una caratterizzazione delle fonti sonore in relazione alla
tipologia del materiale.

16.1.3 Materiali
Il suono “protagonista” è ovviamente quello del violino sia solo sia accompagnato dagli archi
e dal basso. Dalle singole parti del Concerto sono stati ricavati frammenti sonori, diversi per
durata e per carattere, che sono stati assegnati sempre alla propria parte: quindi i campioni del
primo Allegro sono usati nella prima parte, quelli dell’Andante nella seconda e quelli del secondo
Allegro nella terza.
Modificato con diverse tecniche di elaborazione o usato al naturale il timbro strumentale è
presente sempre.
Materiale semanticamente importante è, inoltre, la fascia realizzata in sintesi additiva, con il
programma CSound, che appare in modo preponderante nella seconda parte.
Altra sonorità creata sinteticamente, sempre con CSound, è il campione chiamato “Cristalli”:
acuto, di durata breve e attacco ripido, è usato solo nella prima parte sostenendo e dialogando
con i suoni degli archi.
Infine un suono che appartiene alla natura: è il campione chiamato “Uccellini”. Appare appena
nella prima parte, aumenta la sua presenza e il suo significato nella seconda, forma una fascia
che occupa tutta la terza parte, rimanendo da solo a concludere il pezzo.

16.2 Introduzione – Durata 22”


Seppur brevissima, questa introduzione è una parafrasi di tutto il pezzo: inizia con un suono
aspro appena riconoscibile come suono strumentale e termina con l’accordo conclusivo del primo
allegro: da un “rumore” strumentale a un vero accordo. I materiali di questa parte non sono più
utilizzati nelle altre.

218
16.2.1 Materiale
Arcata: campione grave e forte di durata brevissima, 1,5”. È una velocissima strisciata d’arco
sulle corde. Può essere naturale, trasposto e riverberato.
Percussione: campione grave e forte, di 5”. Appare per tre volte, solo elaborato, cioè
convoluto con un elemento ritmico.
Nota: campione ritagliato dal Concerto di Nardini, è un Si di 2”, con lunghissimi transitori
d’attacco e di estinzione. Può essere naturale e filtrato.
Accordo: accordo finale del primo Allegro, piano, intellegibile e non elaborato.

16.2.2 Sviluppo
In questa parte l’elemento principale è Arcata, campione che si presenta subito forte e aggres-
sivo trasposto in un registro grave, sui canali 2 e 3. Subito i campioni si moltiplicano, uguali a se
stessi nella forma, ma trasposti sia ad una frequenza ancora più grave rispetto a quella iniziale,
sia in una zona frequenziale media che in una medio-acuta.
Quando appare il primo campione Percussione, grave e convoluto con un elemento ritmico,
i campioni Arcata cominciano a essere riverberati e a crescere nella dinamica: il suono grave di
Percussione si unisce e rinforza quello di Arcata.
Intensità e riverbero aumentano velocemente e altrettanto rapidamente si attenuano. Le
ultime apparizioni di Arcata si sovrappongono ai campioni Nota, che hanno inizialmente una
sonorità poco significativa, e poi, filtrati, acquistano ricchezza timbrica sulla quale si appoggia
l’Accordo finale.

16.2.3 Spazializzazione
Nell’Introduzione lo spazio è invaso dal suono in modo progressivo (vedi Figura 16.1). Iniziano
i canali 2 e 3, i più lontani dagli ascoltatori, che sono utilizzati solo in questa parte.2 Si aggiungono
progressivamente le altre fonti che circondano il pubblico (con esclusione dei canali al centro: 11,
12, 15, 16). Il suono corre attraverso lo spazio di ascolto, da capo a fondo, e poi di nuovo dal
fronte iniziale. Attaccano prima le fonti definite A, poi quelle B poi le C, e infine, tutte insieme.
L’accordo che conclude la parte appare, solo, sui canali laterali 5 e 8.

16.3 Prima parte – Durata 1’38”, da 22” a 2’05”


In questa parte, che è il vero inizio del lavoro, il suono musicale non deve apparire chiaramente,
ma essere solo “sospettato”: questo è stato ottenuto frantumando la prima frase dell’Allegro in
campioni brevi, sovrapponendoli a se stessi sia naturali sia elaborati, e circondandoli di suoni
brevi, quasi cristalli appunto. Una debole apparizione, subito spenta, è nell’ultimo minuto della
parte dove un campione di violino, trasposto, crea una fascia gravissima.

16.3.1 Materiale
Inizio: questo campione è la frase d’apertura del primo Allegro, della durata di 55”. È
stato frammentato in 8 parti che sono state utilizzate naturali o elaborate (trasposte, dilatate
temporalmente, filtrate). L’intensità è tra piano e pianissimo.
2 I diffusori sono numerati in senso orario, su ogni livello, partendo da quello anteriore sinistro. Quindi i numeri

1-8 corrispondono ai diffusori del primo livello, i numeri 9-16 a quelli del secondo livello [n.d.c.].

219
Figura 16.1: La spazializzazione dell’introduzione.

220
Cristalli: campione realizzato con il programma Csound. Il campione sintetizzato può
essere successivamente modificato con modulazione e trasposizione.
Violino solo: campione di 20”, ricavato nel primo tempo del Concerto, può essere riverbe-
rato e trasposto in frequenze gravi e gravissime.
Uccellini: un solo campione reale di 18”, riverberato e a intensità debole. In questa parte
ha solo il ruolo di anticipazione.

16.3.2 Sviluppo
Ad Accordo che conclude l’Introduzione di Arco Arcano succede una fascia di suoni percussivi
chiari che circondano il pubblico, realizzata con il campione Cristalli trasposto, e di frammenti
del campione Inizio, che invece girano sugli altoparlanti al centro della sala. Queste due tipologie
di sonorità sono state scelte perché simili da un punto di vista acustico e quindi adatte a fondersi.
Da 1’ a 1’10” il suono “musicale” sembra apparire più chiaro, ma prevale una fascia grave diversa,
realizzata con differenti campioni di Violino solo trasposti in una zona di frequenza grave e
riverberati. Questo timbro, quasi una fascia gravissima, fa da passaggio verso la seconda parte.

16.3.3 Spazializzazione
La spazializzazione della Prima parte (vedi Figura 16.2) inizia con l’uso delle fonti poste in
cima e in fondo alla sala, contrapponendosi a quanto avvenuto nell’Introduzione, quando il suono
era ovunque. Successivamente ci si sposta sui 4 altoparlanti centrali che fanno girare prima i
campioni frammentati della prima frase dell’Allegro (campione Introduzione) poi la fascia grave
ottenuta con il campione Violino solo.

16.3.4 CSound: campione Cristalli della prima e terza parte


Di seguito il codice dell’orchestra:

instr 1
ia1 = p4
ia2 = ia1*p8
ia3 = ia2*p8
ia4 = ia3*p8
ia5 = ia4*p8
ia6 = ia5*p8
ia7 = ia6*p8
ia8 = ia7*p8
ia9 = ia8*p8
ia10 = ia9*p8
ia11 = ia10*p8
ia12 = ia11*p8
ia13 = ia12*p8
ia14 = ia13*p8
ia15 = ia14*p8
ia16 = ia15*p8

ifact = p7
ival2 = 2^ifact
ival3 = 3^ifact

221
Figura 16.2: La spazializzazione della prima parte.

222
ival4 = 4^ifact
ival5 = 5^ifact
ival6 = 6^ifact
ival7 = 7^ifact
ival8 = 8^ifact
ival9 = 9^ifact
ival10 = 10^ifact
ival11 = 11^ifact
ival12 = 12^ifact
ival13 = 13^ifact
ival14 = 14^ifact
ival15 = 15^ifact
ival16 = 16^ifact

ip5 = p5/5
if1 = ip5
if2 = ival2 * ip5
if3 = ival3 * ip5
if4 = ival4 * ip5
if5 = ival5 * ip5
if6 = ival6 * ip5
if7 = ival7 * ip5
if8 = ival8 * ip5
if9 = ival9 * ip5
if10 = ival10 * ip5
if11 = ival11 * ip5
if12 = ival12 * ip5
if13 = ival13 * ip5
if14 = ival14 * ip5
if15 = ival15 * ip5
if16 = ival16 * ip5

lab1:
if if1 < p9 igoto lab2
ia1 = 0

lab2:
if if2 < p9 igoto lab3
ia2 = 0

lab3:
if if3 < p9 igoto lab4
ia3 = 0

lab4:
if if4 < p9 igoto lab5
ia4 = 0

lab5:

223
if if5 < p9 igoto lab6
ia5 = 0

lab6:
if if6 < p9 igoto lab7
ia6 = 0

lab7:
if if7 < p9 igoto lab8
ia7 = 0

lab8:
if if8 < p9 igoto lab9
ia8 = 0

lab9:
if if9 < p9 igoto lab10
ia9 = 0

lab10:
if if10 < p9 igoto lab11
ia10 = 0

lab11:
if if11 < p9 igoto lab12
ika11 = 0

lab12:
if if12 < p9 igoto lab13
ia12 = 0

lab13:
if if13 < p9 igoto lab14
ia13 = 0

lab14:
if if14 < p9 igoto lab15
ia14 = 0

lab15:
if if1 < p9 igoto lab16
ia15 = 0

lab16:
if if16 < p9 igoto lab17
ia16 = 0

lab17:

224
k1 oscili ia1, 1/p3, p6
k2 oscili ia2, 2/p3, p6
k3 oscili ia3, 3/p3, p6
k4 oscili ia4, 4/p3, p6
k5 oscili ia5, 5/p3, p6
k6 oscili ia6, 6/p3, p6
k7 oscili ia7, 7/p3, p6
k8 oscili ia8, 8/p3, p6
k9 oscili ia9, 9/p3, p6
k10 oscili ia10, 10/p3, p6
k11 oscili ia11, 11/p3, p6
k12 oscili ia12, 12/p3, p6
k13 oscili ia13, 13/p3, p6
k14 oscili ia14, 14/p3, p6
k15 oscili ia15, 15/p3, p6
k16 oscili ia16, 16/p3, p6

a1 oscili k1, if1, 1


a2 oscili k2, if2, 1
a3 oscili k3, if3, 1
a4 oscili k4, if4, 1
a5 oscili k5, if5, 1
a6 oscili k6, if6, 1
a7 oscili k7, if7, 1
a8 oscili k8, if8, 1
a9 oscili k9, if9, 1
a10 oscili k10, if10, 1
a11 oscili k11, if11, 1
a12 oscili k12, if12, 1
a13 oscili k13, if13, 1
a14 oscili k14, if14, 1
a15 oscili k15, if15, 1
a16 oscili k16, if16, 1
astereo oscil 1,1/p3,6,p10
aout = (a1+a2+a3+a4+a5+a6+a7+a8+a9+a10+a11+a12+a13+a14+a15+a16)/16

outs aout*(1-astereo),aout*astereo
endin

Il codice della partitura:

;p6=funzione di inviluppo
;p7=fattore di compressione o espansione
;p8=parametro di decadimento delle ampiezze delle parziali nello spettro
;1/p3 nell’opcode oscili rappresenta la frequenza all’interno della variabile
di controllo k
;s=0.1=p7
;p9 = freq di taglio
;p10 = punto iniziale della traiettoria stereo

225
;p1 p2 p3 p4 p5 p6 p7 p8 p9 p10
; att dur amp freq inv com/esp dec/parz taglio stereo
i1 1 30 20000 500 9 1.8 .9 5000 .5
i. 2.01 . . 1741.101 9 . . 5000 .2
i. 0 35 20000 502 9 1.8 .9 2000 .9
i. 0.2 . . 1744.101 9 . . 2000 .3
i. 4 . . 3616.337 9 . . 20000 .2
i1 9 30 14000 250 9 1.8 .9 5000 .8
i. 9.5 . . 241.101 9 . . 5000 .2
i. 10 15 16000 152 9 1.8 .9 2000 .5
i. 10.2 . . 174.101 9 . . 2000 .4
i. 13 . . 236.337 9 . . 20000 .1
i1 8 40 2000 250 9 1.8 .9 5000 .1
i. 7.5 . . 240.101 9 . . 5000 .6
i. 10 25 2000 150 9 1.8 .9 2000 .7
i. 9 . . 1700.101 9 . . 2000 .9
i. 5 . . 2300.337 9 . . 20000 .7

16.4 Seconda parte – Durata 2’45”, da 2’05” a 4’50”


L’inizio di questa parte potrebbe far pensare a un’evoluzione rapida verso il raggiungimento
di sonorità strumentali esplicite. Invece in questa zona centrale del pezzo, che corrisponde al-
l’Andante del Concerto, appare un elemento nuovo: una fascia di suono sintetico sulla quale si
“innestano” piccoli elementi armonici.

16.4.1 Materiale
Additiva base: campione di sintesi additiva realizzato con Csound in 4 varianti, con durate
tra 1’ e 2’: la prima ha un ricco timbro armonico, le successive sono via via sempre più rumorose
e acute con movimenti di glissandi interni.
I campioni strumentali di questa parte sono tratti dall’Andante del Concerto e sono tre: uno
dell’inizio, uno preso dalla parte centrale e l’ultimo dalla frase conclusiva.
Violino solo inizio: piccola parte della prima frase dell’Andante. Riverberati, trasposti,
dilatati temporalmente, sono stati realizzati campioni con piccole variazioni di velocità.
Violino solo centrale: frammento ritagliato nella zona centrale dell’Andante. Si presenta
una prima volta dilatato temporalmente, con durata di 26”. Una seconda apparizione è di 16”,
più forte, e si appoggia sulla prima, le dà risonanza ed è chiaramente percepibile come melodia.
Violino solo conclusione: preso dal finale dell’Andante, è un campione di circa 10”
fortemente elaborato (convoluto, filtrato, riverberato, trasposto in una zona gravissima).
Uccellini: due campioni uno di 24”, l’altro di 18”. Fortemente elaborati (filtrati e convoluti),
hanno ancora scarso rilievo.

16.4.2 Sviluppo
Il campione Additiva base è una fascia cangiante presente in tutta la parte. Inizialmente è
solo uno sfondo, ma diventa presto il personaggio di primo piano. È diffusa dalle fonti frontali e
posteriori dell’impianto.
La parte inizia con il campione Violino solo inizio che si sovrappone a se stesso, elaborato
con tecniche diverse, per una durata totale di 25”. Dopo i primi 15 secondi circa, però, il suono

226
sintetico di Additiva base diventa lentamente percepibile, sovrasta il campione strumentale e
rimane solo.
A 3’12”, e fino a 3’47”, appare, emergendo dalla fascia, il campione Violino solo centrale,
prima trasposto nel grave tanto da renderlo poco riconoscibile, poi naturale: finalmente si ascolta
una frase musicale intellegibile. Ma la fascia sintetica torna in evidenza fino a 4’06”, quando
appaiono le diverse modificazioni del campione Violino solo conclusione.

16.4.3 Spazializzazione
La spazializzazione della seconda parte (vedi Figura 16.3) prevede che sonorità diverse uti-
lizzino fonti diverse. Il suono sintetico è una fascia che si ascolta dagli altoparlanti in cima e in
fondo alla sala. I suoni strumentali invece si succedono sul quadrato centrale. Un solo suono
gravissimo di violino appare dall’altoparlante numero 1 agganciando la parte successiva.

16.4.4 CSound: esempio per la sintesi additiva della seconda parte


Di seguito il codice dell’orchestra:

sr = 44100
kr = 4410
ksmps = 10
nchnls = 1

garivsig init 0

instr 1

ivibdec = .5
ivibatt = p3 - (p10 * p3)
ivibten = p3 - (ivibatt - ivibdec)

ifunz1 = p11
ifreq = p5
irisriv = p10

k3 linseg 0, ivibatt, p9, ivibten, p9, ivibdec, 0

k4 linseg p5, p3/3, p5-3, p3/3, p5+5, p3/3,p5


k5 linseg p5, p3/3, p5+5, p3/3, p5-3, p3/3,p5
k2 oscil k3, p8, ifunz1
k1 linen p4, p6, p3, p7

a1 oscili k1, ifreq+ k4+k2, ifunz1


a2 oscili k1, ifreq+k5+k2*1.498, ifunz1; 5
a3 oscili k1, ifreq+k4+k2*1.587, ifunz1; 6m
a4 oscili k1, ifreq+k5+k2*1.781, ifunz1; 7M

asuono= a1+a2+a3+a4
out asuono
garivsig = garivsig + asuono * irisriv

227
Figura 16.3: La spazializzazione della seconda parte.

228
endin

instr 2

ivibdec = .1
ivibatt = p3 - (p10 * p3)
ivibten = p3 - (ivibatt - ivibdec)

ifunz1 = p11
ifreq = p5
irisriv = p10

k3 linseg 0, ivibatt, p9, ivibten, p9, ivibdec, 0

k4 linseg p5, p3/3, p5+2, p3/3, p5+5, p3/3,p5


k5 linseg p5, p3/3, p5+5, p3/3, p5+2, p3/3,p5
k2 oscil k3, p8, ifunz1
k1 linen p4, p6, p3, p7

a1 oscili k1, ifreq+k4+k2, ifunz1


a2 oscili k1, ifreq+k5+k2*1.12, ifunz1; 2M
a3 oscili k1, ifreq+k5+k2*1.26, ifunz1; 3M
a4 oscili k1, ifreq+k4+k2*1.335, ifunz1; 4

asuono= a1+a2+a3+a4
out asuono
garivsig = garivsig + asuono * irisriv
endin

instr 3

ivibdec = .03
ivibatt = p3 - (p10 * p3)
ivibten = p3 - (ivibatt - ivibdec)

ifunz1 = p11
ifreq = p5
irisriv = p10

k3 linseg 0, ivibatt, p9, ivibten, p9, ivibdec, 0

k4 linseg p5, p3/3, p5+4, p3/3, p5-4, p3/3,p5


k5 linseg p5, p3/3, p5+2, p3/3, p5-2, p3/3,p5
k2 oscil k3, p8, ifunz1
k1 linen p4, p6, p3, p7

a1 oscili k1, ifreq+k4+k2, ifunz1


a2 oscili k1, ifreq+k5+k2*1.335, ifunz1; 4

229
a3 oscili k1, ifreq+k5+k2*2.06, ifunz1; 9
a4 oscili k1, ifreq+k4+k2*2.415, ifunz1; 13

asuono= a1+a2+a3+a4
out asuono
garivsig = garivsig + asuono * irisriv
endin

instr 4

ivibdec = .5
ivibatt = p3 - (p10 * p3)
ivibten = p3 - (ivibatt - ivibdec)

ifunz1 = p11
ifreq = p5
irisriv = p10

k3 linseg 0, ivibatt, p9, ivibten, p9, ivibdec, 0

k4 linseg p5,p3/3, p5-5, p3/3, p5+5, p3/3,p5


k5 linseg p5,p3/3, p5-5, p3/3, p5+5, p3/3,p5
k2 oscil k3, p8, ifunz1
k1 linen p4, p6, p3, p7

a1 oscil k1, ifreq+k4+k2, ifunz1


a2 oscil k1, ifreq+k5+k2*1.781, ifunz1; 7m
a3 oscil k1, ifreq+k4+k2*2.498, ifunz1; 14
a4 oscil k1, ifreq+k5+k2*2.587, ifunz1; 20

asuono= a1+a2+a3+a4
out asuono
garivsig = garivsig + asuono * irisriv
endin

instr 99

itriv = p4
asig reverb garivsig, itriv
out asig
garivsig = 0
endin

Il codice della partitura:

f1 0 4096 10 1 0 1 ; quinto
f2 0 4096 10 0 0 1 1 ; quarto
f3 0 4096 10 1 0 0 0 1 ; terzo
f4 0 4096 10 0 0 1 0 1 ; sesto

230
;riverbero

;p1 p2 p3 p4
i99 0 120 10

t 0 100

; P1 P2 P3 P4 P5 P6 P7 p8 p9 p10 p11
; st att dur amp freq. sal. disc. V Fr v Amp vibRit funz

i1 0 1 700 49 .04 .4 80 40 .1 4
i1 2 3 800 62 .01 1 90 30 .1 4
i1 8 5 800 77 .01 3 70 50 .4 4
i1 18 7 600 98 .02 3 40 70 .3 4
i1 32 11 500 123 .01 5 35 30 .2 4
i1 54 13 400 155 .02 7 80 30 .2 4
i1 80 17 300 195 .02 11 50 30 .1 4

i2 0 17 500 31 .01 13 90 100 .1 2


i2 34 13 800 39 .01 11 100 80 .1 2
i2 60 11 700 46 .01 7 150 150 .2 2
i2 82 7 800 58 .01 6 200 150 .2 2
i2 96 5 400 73 .01 3 300 100 .1 2
i2 106 3 700 92 .01 1 350 180 .2 2
i2 112 1 600 116 .01 .2 380 170 .2 2

i3 76 1 550 98 .01 .5 60 40 .2 3
i3 77 3 300 87 .01 1 170 100 .1 3
i3 77 5 500 185 .1 4 100 10 .1 3
i3 82 7 500 392 .2 4 120 20 .2 3
i3 86 11 700 185 .3 8 100 20 .1 3
i3 93 13 500 87 .3 9 100 20 .1 3
i3 97 17 300 41 .4 12 100 80 .5 3

i4 17 1 500 46 .01 .5 40 100 .1 4


i4 19 3 500 82 .01 .5 520 140 .1 4
i4 25 5 500 247 .03 2.5 150 100 .1 4
i4 35 7 700 784 .02 5.5 120 50 .2 4
i4 42 11 700 247 .03 8.5 100 50 .1 4
i4 46 13 600 82 .05 9 150 100 .2 4
i4 53 17 500 46 .06 14 190 80 .1 4

16.5 Terza parte – Durata 1’30”, da 4’50” a 6’20”


Parte conclusiva caratterizzata da poche elaborazioni dei campioni che raggiungono quindi
la agognata riconoscibilità. Il suono musicale (violino) inizialmente sovrasta e dialoga con il

231
suono reale (cinguettii), che rapidamente diventa una fascia e, dopo l’esposizione dell’ultima
frase strumentale, rimane da solo a concludere il pezzo.

16.5.1 Materiale
Inizio corto: brillante, breve campione di violino solo, di durata 3”. Ricavato dalla pri-
ma frase del violino solo nella terza parte del Concerto, ha come unica elaborazione una lieve
trasposizione sia verso l’acuto che verso il grave.
Uccellini: il campione naturale già ascoltato qui emerge. Dal suono originale sono stati rica-
vati campioni di durata diversa sui quali sono state applicate opportunamente varie elaborazioni
(eco, trasposizione, convoluzione, modulazione, riverbero).
Violino solo inizio: è il proseguimento della frase musicale del frammento utilizzato per
il campione Inizio corto.

16.5.2 Sviluppo
Parte corrispondente all’Allegro finale del Concerto, inizia con il campione Inizio corto,
a debole intensità, che si ripete rimbalzando su tutti i canali esterni in crescendo. Quasi con-
temporaneamente comincia a formarsi la fascia composta da campioni diversi di Uccellini,
che pur lievemente modificati dalle elaborazioni, mantengono le loro caratteristiche timbriche e
strutturali.
A 5’36” appare il campione Violino solo inizio, di 35”, non elaborato, chiaramente ri-
conoscibile: si sovrappone a se stesso con un ritardo minimo ed è molto riverberato.
La fascia composta dai campioni naturali Uccellini sostiene e dialoga con il campione
Violino solo inizio. Conclusa la frase musicale, i campioni naturali continueranno soli,
sempre più piano, concludendo il pezzo.

16.5.3 Spazializzazione
Nell’inizio della Terza parte i campioni di violino, brevi e ritmici, appaiono rimbalzando sui
quattro altoparlanti che formano il quadrato esterno (vedi Figura 16.4). I quattro altoparlanti
che formano il quadrato centrale sono utilizzati invece per il campione Uccellini: suono naturale
che solo in questa parte ha maggiore rilevanza, sia di durata sia di dinamica. La frase finale,
finalmente chiara, appare alle spalle del pubblico.

16.6 Bibliografia
Begault, Durand R., 3-D Sound for virtual reality and multimedia, Academic Press, San Diego
1994
Blauert, Jens, Spatial Hearing, MIT Press, Cambridge MA 1997
Boulanger, Richard (a cura di), The Csound Book. Perspectives in Software Synthesis, Sound
Design, Signal Processing and Programming, MIT Press, Cambridge MA 2000
Sound Localization and Spatialization, in Computer Music Journal, Vol. 19, No. 4, Winter,
1995.
Dodge, Charles e Jerse, Thomas A., Computer Music: synthesis, composition and perfor-
mance, Schirmer Books 1997
Eco, Umberto, La definizione dell’arte, Garzanti, Milano 1983
Emmerson, Simon (a cura di), Timbre composition in electroacoustic music, in Contemporary
Music Review, 10(2), 1994

232
Kandinsky, Vasilij, V., Punto Linea Superficie, Adelphi Edizioni, Milano 1991
Moore, Richard F., Elements of Computer Music, Prentice Hall, New Jersey 1990
Olson, Harry F., Music, Phisics and Engineering, Dover Publications Inc., New York 1966
Pareyson, Luigi, Estetica – teoria della formatività, Bompiani, Milano 1988
Roads, Curtis, Computer Music Tutorial, MIT Press, Cambridge MA 1996
Ruwet, Nicolas, Linguaggio, musica, poesia, Einaudi, Torino 1983
Salvatore Sciarrino, Le Figure della Musica, Ricordi, Milano 1998
Murray Schafer, Raymond, Il paesaggio sonoro, Ricordi-LIM, 1988
Tamburini, Serena e Bagella, Mauro (a cura di), I profili del suono, Galzerano editore, Salerno
1987
Wishart, Trevor, Audible Design, York, Orpheus the Pantomime, York, England 1994

233
Figura 16.4: La spazializzazione della terza parte.

234
Appendice.

I programmi delle edizioni 2009-2017

235
Suoni Inauditi. Rassegna di musiche
del ’900 e contemporanee per una
nuova consapevolezza dell’ascolto

5 maggio – 16 giugno 2009 Auditorium dell’Istituto Mascagni


Anteprima – 13 febbraio – ore 17,30

• Hanno detto. Opera da camera in un unico atto per attore, gruppo vocale, flauto, violino,
violoncello, pianoforte e percussioni. Testo di Marco Vichi, Musica di Massimo Buffetti.

5 maggio – ore 18.00

A Guido Torrigiani in occasione dell’intitolazione dell’aula multimediale dell’Istituto a lui


dedicata.

• Sofia Gubaidulina, In Croce (1991), Filippo Burchietti violoncello, Massimo Signorini


fisarmonica.

• Salvatore di Gesualdo, Improvvisazione No. 1 (1973), Massimo Signorini fisarmonica.

• Fabrizio Bartalucci, Ali sulla terra (1989), Quattro piccoli poemi alati per quattro clarinetti,
D. Capocchi, E. Gaggini, S. Lazzeri, A. Rossi clarinetti.

• Claudio Valenti, Per uno spazio scenico vuoto (2008), Frammenti per due viole, Tatiana
Caselli, Claudio Valenti viole.

7 maggio – ore 18.00

• Boris Porena, Etnosuite (2001) per quattro flautisti, S. Colio, L. Del Grande, G. Neri, G.
Parasole flauti.

• Boris Porena, Musica da torre, Giacomo Fattorini, Tommaso Iacoviello trombe, Cosimo
Iacovello trombone.

• Salvatore Sciarrino, Come vengono prodotti gli incantesimi? (1985), Lorenzo Del Grande
flauto.

• Toru Takemitsu, Air (1995), Giorgio Parasole flauto.

237
• Toru Takemitsu, Masque (1960), Sabrina Colio, Giovanna Nieri. flauti, Classe di flauto del
Mo Mauro Rossi.
• Giancarlo Cardini, Fiore perduto (1998), Paolo Carlini fagotto, Giancarlo Cardini pia-
noforte.
• Karlheinz Stockhausen, In Freundschaft (1977), Paolo Carlini fagotto.
• Ludovico Einaudi, Due tramonti (1999), Paolo Carlini fagotto, Giancarlo Cardini pia-
noforte.

12 maggio – ore 18.00

• Proiezione del cortometraggio Costanza (2004), regia di Daniele Riccioni, musiche di Marco
Baraldi.
• Alexander Nikolaevič Skrjabin, 24 Preludi op. II (1888-1896), classe di pianoforte del Mo
Marco Baraldi.

14 maggio – ore 18.00

• Luigi Agostini, Senti Livorno. Un paesaggio sonoro – Liberamente tratto da Numerologia


3. Realizzato in 3D EST con un sistema AGG Soluzioni Digitali X-spat boX2 .
• Serge Arcuri, Chronaxie (1989), per percussioni e tape, Gionata Faralli percussioni.
• Karlheinz Stockhausen, da Tierkreis (1975). Quattro segni dello zodiaco, elaborazione
Gionata Faralli per 7 percussioni e tape, Gabriele Pozzolini direttore.
• Luciano Berio, Sequenza IX (1980), Daniela Nocentini clarinetto.
• Arduino Gottardo, Klang und resonance (2009), per percussione e nastro magnetico (prima
esecuzione assoluta), Francesco Migliarini direttore, R. Collazzo, T. Ferrieri Caputi, S.
Baldi, M. Lai, M. Lenzi, E. Lunardi, G. Putrino percussioni.

16 maggio – ore 18.00, Bibbona, La Palestra

• Tom Johnson, L’opera da quattro note (1972). Versione ritmica italiana di Riccardo Mascia,
Regia di Massimo Masini.

Nell’ambito della Stagione “Primavera e Musica” del Laboratorio Artistico Musicale di Bib-
bona.

19 maggio – ore 18.00

Presentazione del libro L’estetica musicale di Morton Feldman di Marco Lenzi, ed. Ricordi-
Lim 2009. Partecipano Federico Marri e Tiziano rosselli. In collaborazione con la libreria Gaia
Scienza.

21 maggio – ore 18.00

• Olivier Messiaen, da Vingt Regards sur l’Enfant-Jésus (1944), XIII Noel, XII La parole
toute puissante, XVI Regard des prophètes, des bergers et des Mages, Susanna Pagano
pianoforte.

238
• Bela Bartòk, Suite Im Freien (1926), Susanna Pagano pianoforte.

• György Ligeti, L’escalier du diable (1992), Susanna Pagano pianoforte.

• Igor Stravinskij, Sagra della primavera (1913), Versione per pianoforte solo di S. Raphling/D.
Rivera, Daniel Rivera pianoforte.

26 maggio – ore 18.00

Luci arcane e proiezioni timbriche, a cura della Scuola di Composizione del Mo Claudio Vaira,
musiche di G. Martinico, M. Ferrini, C. Valentini, L. Giannelli, Ensemble strumentale dell’Isti-
tuto Musicale Mascagni.

28 maggio – ore 18.00

Luci arcane e orizzonti d’oggi, a cura della Scuola di Composizione del Mo Claudio Vaira,
musiche di G. Brunini, G. Martinico, L. Tessieri, G.P. Fontana, M. Niotta, Ensemble strumentale
dell’Istituto Musicale Mascagni.

3 giugno – ore 18.00

• Maria Francesca Romana Terreni, opere su testo di Mario Luzi: Perpetuamente, 2 liriche
op. 76 (2001), Elisa Prosperi voce, Stefano Galli pianoforte, La notte viene col canto, op.
85 (2002), Elisa Prosperi soprano, Elisa Azzarà flauto, Fabrizio Bartalucci organo.

• Vivian Fine, Emily’s Images (1987), Laura Manescalchi flauto, Marco Rimicci pianoforte.

• Daniele Garella, Canto nel Vento (1996), Un ange passe (1999), Mystic Light (2002),
Images of Isles (1999), Waves (1996), Maria Billeri voce, Gregorio Nardi pianoforte.

• Francesco Cirpiano, Quattro liriche per basso e pianoforte (2008): O crux ave (anoni-
mo), Ombra e luce (testo di Mirella Maccari Armani), La mente (testo di Mirella Maccari
Armani), Felicità (testo di Dino Risi), Graziano Polidori basso.

4 giugno – ore 18.00

• Nuccio D’Angelo, Mirrors (2008), Flavio Cucchi, Nuccio D’Angelo chitarre.

• Goffredo Petrassi, Suoni Notturni (0959), Giacomo Brunini chitarra.

• Alvaro Company, Oneiron (1984), Dario Atzori chitarra.

• Toru Takemitsu, Toward the sea, Elisa Azzarà flauto, Rosamaria Robinson Bour Carrillo
chitarra.

• Leo Brouwer, Paesaggio cubano con pioggia (1996), per ensemble di chitarre, Nuccio
D’Angelo direttore.

• Nuccio D’Angelo, Sidney (2008), per due chitarre, basso elettrico ed ensemble di chitarre.
Flavio Cucchi, Nuccio D’Angelo chitarre, Fabrizio Balest basso elettrico, Stefano Agostini
direttore.

239
Ensemble di chitarre: D. Atzori, C. Argenti, I. Bontà, G. Brunini, L. Carriero, S. Creatini,
A. De Luigi, L. Guidi, A. Fazzi, N. Fenzi, R. Manfredi, R. Robinson Bour Carrillo, G. Russo, A.
Vizzi.

10 giugno – ore 18.00

Oh, Sacra Natura. . . Spettacolo per flauto, percussione, voce recitante, danzatrice, live elec-
tronics. Musiche di Claudio Vaira, Tommaso Dini e Fabio De Sanctis De Benedictis. Filippo
Rogai flauto, Alessandro Carrieri percussione, Massimo Ferrini voce recitante, Daniela Maccari
danzatrice, Tommaso Dini live electronics.

12 giugno – ore 18.00

Fourth Stream/Quarta corrente da Bjork alle avanguardie storiche. Ensemble Jazz dell’Isti-
tuto Mascagni, Mauro Grossi direttore.

16 giugno – ore 18.00

• La canzone di autore. Carneìgrasatinsaldo, Emiliano Nigi, Matteo Pastorelli, Mirco Capec-


chi, Daniele Paoletti, Alessandro Ricucci, Antonio Ghezzani.

• La luna aggira il mondo e voi dormite, Antonio Castiello, Mirco Capecchi, Marco Fontana,
Daniele Paoletti, Simone Padovani.

240
Suoni Inauditi 2010. I rassegna
internazionale del paesaggio sonoro
YOURSOUNDSCAPE

10 aprile – 21 maggio 2010 Auditorium dell’Istituto Mascagni

Venerdì 30 aprile – ore 15.00

Presentazione del progetto YOURSOUNDSCAPE. Ascolto di un paesaggio sonoro realizzato


da ogni artista partecipante. Incontro con gli autori. Con la partecipazione dei compositori ospiti
Massimo Biasioni, Fabio de Sanctis De Benedictis e Stefano Giannotti. Coordina Luigi Agostini.

Mercoledì 5 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Midori Hirano, Associazione MuESLi, Peoplelike-


sound.

Mercoledì 5 maggio ore 18.00

• Hans Werner Henze (1926), Sonatina (1947 per flauto e pianfoorte, Liva Schweizer flauto,
Susanna Pagano pianoforte.
• Marco Lenzi (1967), Cinque (2005) per piano solo, Solus Ipse (per Giancarlo Cardini)
(1999) per piano solo, Susanna Pagano pianoforte.
• Luciano Berio (1925-2003), 6 encores (1965-1990) per piano solo, Susanna Pagano piano-
forte.
• Maria Francesca Romana Terreni (1956), Alle prime ore del giorno (2009), Falce di luna
(2009), Stefano Agostini flauto, Massimo Signorini fisarmonica.
• Gaetano Giani Luporini (1936), Capriccio (1978) per fisarmonica sola, Massimo Signorini
fisarmonica.
• Massimo Buffetti (1960), La canzone della Crusca (2006) per tre voci femminili ed elet-
tronica. Con citazioni tratte da D. Alighieri, F. Petrarca, B. De Morley. Classe di canto
dell’Istituto Mascagni, Mayuko Iwasaki, Roberta Popolani, Gloria Pozella, Roberto Nigro
suono.

241
Venerdì 7 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Darwin chamber, Stefano e Luigi Agostini, Marco


Cioffi.

Venerdì 7 maggio ore 18.00

• Eric Satie (1866-1925), Trois morceaux en forme de poire (1903), Cristina Donnini, Scilla
Lenzi, pianoforte a 4 mani.
• György Ligeti (1923-2006), Five pieces, Cristina Donnini, Scilla Lenzi, pianoforte a 4 mani.
• Di scena parole e note. Musiche di Marco Baraldi (1946) per il teatro. Da: Io e un
altro (testi di A. Rimbaud), Una (testi di B. Nativi), Beeing at home with Claude (testi
di M. Dubois), Dracula (testi di B . Nativi), Sandra Garuglieri voce recitante, Ensemble
strumentale dell’Istituto Mascagni.

Mercoledì 12 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Eneahead, Marco Lenzi, Mop Cortex.

Mercoledì 12 maggio ore 18.00

• Andrea Nicoli (1960), Modulanti (1991) per pianoforte a 4 mani, Ensemble del Conserva-
torio Puccini di La Spezia.
• Piero L. Zangelmi (1927), Retour (1985), per violino e pianoforte, Ensemble del Conserva-
torio Puccini di La Spezia.
• Olivier Messiaen (1908-1992), Thème et variations (1932), per violino e pianoforte, Ensem-
ble del Conservatorio Puccini di La Spezia.
• Philip Glass (1937), Quartetto per sassofoni (1995), Ensemble del Conservatorio Puccini di
La Spezia.
• Franco Donatoni (1927-2000), Clair (1980), 2 pezzi per clarinetto solo, Carlo Failli cla-
rinetto.
• Bach (1685-1750), Fantasia cromatica e fuga, per clarinetto e live electronics, elaborazione
Failli-Rosati, Carlo Failli clarinetto, Tommaso Rosati live electronics
• Peter Schickele (1935), Mochrome III (1976), per 9 clarinetti, Pithecanthropus Ensemble.

Venerdì 14 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Mario D’Andreata, Italo Lombardo, Plaster Clus-


ter.

Venerdì 14 maggio ore 18.00

Musica poesia

• Claudio Vaira (1953), Cigni, per chitarra, viole, percussione ed elettronica, Manuela Pisani
voce recitante, Ensemble strumentale dell’Istituto Mascagni. Prima esecuzione assoluta.

242
• G. Martinico (1982), 4 meditazioni sui Padri del Deserto, per viola, chitarra, pianoforte e
voce recitante, Manuela Pisani voce recitante, Ensemble strumentale dell’Istituto Mascagni.
Prima esecuzione assoluta.
• Wil Offermans (1960), Honami (1994), per flauto solo, Elisa Azzarà flauto.
• Tommaso Dini (1974), Del silenzio verde, per flauto, chitarra, vibrafono ed elettroni-
ca, Manuela Pisani voce recitante, Ensemble strumentale dell’Istituto Mascagni. Prima
esecuzione assoluta.
• Massimo Ferrini (1964), Sofferta solitudine, per chitarra, digital tape, elettronica, voce
recitante, Manuela Pisani voce recitante, Ensemble strumentale dell’Istituto Mascagni.
Prima esecuzione assoluta.
• Massimiliano Viel (1964), 3 haiku per violoncello, elettronica, voce recitante, Manuela
Pisani voce recitante, Ensemble strumentale dell’Istituto Mascagni.

Mercoledì 19 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Massimo Biasioni, Sandro Sainati, Agnieszka Stul-


ginska, Angelo Talocci.

Mercoledì 19 maggio ore 18.00

• Benjamin Britten (1913-1976), Nocturnal (after John Dowland) op. 70 (1963), per chitarra
sola, Giacomo Brunini chitarra.
• Francesco Cipriano (1947), Il Serchio racconta (2010) per pianoforte solo, Francesco Cipria-
no pianoforte.
• Anton Webern (1883-1945), Langsamer Satz in Mib Magg. (1905) per quartetto d’archi,
Tullio Tagliaferri, Carlo Andrea Berti violini, Alice Clara viola, Giulia Dini violoncello.
• Benjamin Britten (1913-1976), Simple Symphony op. 4 (1934) per orchestra d’archi,
Orchestra d’archi dell’Istituto Mascagni, Annamaria Fornasier direttrice.

Venerdì 21 maggio ore 17.00

Rassegna YOURSOUNDSCAPE. Opere di Fabio Iaci, Panos Couros, Francesco Landucci.

Venerdì 21 maggio ore 18.00

Musicaspazio

• Claudio Vaira (1953), Quella volta del cielo a me sconosciuta per 21 flauti ed elettronica,
classi di flauto dell’Istituto Mascagni. Prima esecuzione assoluta.
• Tommaso Dini (1974), De infinitorum spiralium. . . per violoncello, pianoforte, tape ed
elettronica. Prima esecuzione assoluta.
• Classe di armonia del Conservatorio di Bolzano, K_komposition I/Spatium per 3 strumenti
ed elettronica. Prima esecuzione assoluta.
• Mareike Haid (1982), Flöten-Baseball per 4 flauti ed elettronica. Prima esecuzione assoluta.

243
• Massimiliano Viel (1964), Crossing per violino, violoncello, pianoforte ed elettronica. Prima
esecuzione assoluta.
• Claudio Vaira (1953), Cloc per flauto, violino violoncello e pianoforte. Prima esecuzione
assoluta.

Ensemble strumentale dell’Istituto Mascagni con la partecipazione degli studenti del Conser-
vatorio Monteverdi di Bolzano.

Data e luogo da definire ore 21.00

• Marco Lenzi (1967), Quod libet sine nominem. Igor Stravinskij in memoriam (2004) per
quartetto di fiati. Prima esecuzione assoluta.
• Igor Stravinskij (1882-1971), Messa per coro e doppio quintetto di fiati (1947). Cori:
Domenico Savio e Recreazione Armonica. Ensemble strumentale dell’Istituto Mascagni.

244
Suoni Inauditi 2011. II rassegna
internazionale del paesaggio sonoro
Yoursoundscape

14 novembre – 12 dicembre 2011 Auditorium Cesare Chiti

Lunedì 14 novembre ore 18.00

Auditorium “Cesare Chiti”

• Bruno Maderna (1920-1973), Serenata per un satellite (1969), Ensemble di clarinetti della
classe del Mo Carlo Failli.

• Claude Debussy (1862-1918), Petite Suite (1889), Ilio Barontini, Daniel Rivera pianoforte
a 4 mani.

• L’Auditorium che canta: Fabio de Sanctis De Benedictis, Tota Pulchra (2011). Prima
esecuzione assoluta.

• Omaggio a Kurt Weill (1900-1950), Ensemble degli allievi dell’Istituto Musicale “P. Mascagni”.

Mercoledì 16 novembre ore 18.00

Auditorium “Cesare Chiti”

• Presentazione del libro Fisarmonica e interpretazione. Un’introduzione e cinquanta inter-


viste di Massimo Signorini – Felici editore. Partecipano: Stefano Agostini, Mauro Grossi,
Ivano Battiston, Marco Grondona, Francesco Chelini.

• Ivano Battiston (1959), Totem (2006), Ivano Battiston fisarmonica, Marina Popadic pia-
noforte.

• Andrei Roumiantsev (1952), Pantheon des Gedachtnisses, Massimo Signorini fisarmonica.

• Jukka Ruohomoki (1947), Flow per fisarmonica e tape, Massimo Signorini fisarmonica.

Venerdì 18 novembre ore 18.00

245
Auditorium “Cesare Chiti”

Dedicato a Marco Salvini a 20 anni dalla scomparsa.

• Sergei Prokofiev (1881-1953), Scherzo umoristico per 4 fagotti.


• Pëtr Il’c Tchaikovsky (1840-1893), Jazz Tchaikovsky per trio di fagotti (Sugar plum swing
out, Dance of the knock kneed fairy, Tango for double reed pipes).
• Astor Piazzolla (1921-1992), Libertango (1974), per 4 fagotti.

Fagotti: Paolo Carlini, Davide Maia, Alessandro Papucci, Leonardo Mauro.

• L’Auditorium che canta: Marco Liuni (1980), Ensuite (2011). Prima esecuzione assoluta.
• Malcom Arnold (1921-2006), Fantasia per fagotto solo (1966), Paolo carlini fagotto.
• Giorgio Gaslini (1929), Koralfandango (2010). Prima esecuzione assoluta, dedicato a Paolo
Carlini, Paolo carlini fagotto, Mauro Grossi pianoforte.
• Maurizio Fabrizio (1952), Sad city (2011), anteprima, dedicato a Paolo Carlini, Paolo carlini
fagotto, Mauro Grossi pianoforte.
• Nino Rota (1911-1979), Valzer del commiato, La dolce vita, Amarcord, canzone arrabbiata,
La leggenda del pianista sull’oceano.
• The Beatles (1960-1970), Michelle (1965), Yesterday (1965).

Fagottorchestra, direttore Paolo Carlini. Allievi delle classi di fagotto dell’Istituto Mascagni
di Livorno e del Conservatorio Puccini di La Spezia, Mo Davide Maia.

Mercoledì 23 novembre ore 21.00

Teatro C

Paolo Luti presenta Playing for change-Peace Through Music. Proiezione del film-documentario.
Partecipano Luigi Agostini e Marco Lenzi.

Venerdì 25 novembre ore 18.00

Auditorium “Cesare Chiti”

• NO WRITTEN DISCOVERY_improvvisazioni. imprevisto incontra Klaus Truheit, Klaus


Treuheit intensified piano, Nildo Sanvido organo, Simone Francia trombe, Emanuele Gag-
gini clarinetti, Lorenzo Del Grande flauti.
• L’Auditorium che canta: Arduino Gottardo (1950), Oh La, Oh Si, Oh Do!!! (2011). Prima
esecuzione assoluta.

Sabato 26 novembre ore 15.00

Auditorium “Cesare Chiti”

246
A World of Soundscapes. Presentazione ufficiale della doppia compilation su blu-ray audio
3D-EST. Soundscapes compositions selezionate dall’Artistic Commitgtee del 5o Forum Klang-
landschaft Symposium “Keep An Ear On”, Firenze 2011. In collaborazione con FKL Italia e
Tempo Reale. Spazializzazione 3D realizzata da Luigi Agostini con X-spat boX2.

• Marinos Koutsomichalis, Paesaggio Sonoro.

• Daniel Blinkhorn, Seascape Triptych.

• Martha Riva Palacio Obòn, Antàrtica 50.

• Hein Schoer, The Sounding Museum: Two Weeks in Alert Bay.

• Luigi Mastandrea, Enaction.

• Fabio Iaci, Arrige Aures.

• Bernard Fort, Image Nocturne.

• Simone D’Ambrosio, Villusions – ètude I.

• Hildegard Westerkamp, For Dich – For you.

Mercoledì 23 novembre ore 21.00

Teatro C

“After Long Silence” – Omaggio a Neil Ardley. Testi di James Joyce, Lewis Carrol, William
Butler Yeats. Sara Montagni voce, flauto, arrangiamenti, Eleonora Donnini flauto, Mark La
Regina clarinetto, Marco Pomponio sax tenore, Leonardo Dianori tromba, Martino rappelli chi-
tarra, Francesco Menici pianoforte, Fabrizio Balest contrabbasso, Gabriele Pozzolini batteria,
Alessandro Carrieri vibrafono.

Venerdì 3 dicembre ore 21.00

Teatro C

• Bradley D. Decker (1975), Out of the ground, into the sky (2011), Davide Ancillotti corno
inglese. Prima esecuzione italiana.

Cartoons & C. Musiche originali ed arrangiamenti ispirati ai cartoni animati con proiezioni
video.

• Claudio Vaira (1953), Re_Car 5. Prima esecuzione assoluta.

• Arduino Gottardo (1950), Alleluja, siamo tutti jazzisti. Prima esecuzione assoluta.

• Claudio Vaira (1953), Re_Car 1. Prima esecuzione assoluta.

• Jacopo Aliboni (1974), Dal paese delle meraviglie. Prima esecuzione assoluta.

• Claudio Vaira (1953), Re_Car 2. Prima esecuzione assoluta.

• Massimo Ferrini (1964), The lions. Prima esecuzione assoluta.

247
• Claudio Vaira (1953), Re_Car 3. Prima esecuzione assoluta.
• Gabriele Martinico (1982), Di mago Merlino. Prima esecuzione assoluta.
• Claudio Vaira (1953), Re_Car 4. Prima esecuzione assoluta.
Quintetto di fiati dell’Istituto Mascagni: Eleonora Donnini flauto, Davide Ancillotti oboe,
Mark La Regina clarinetto, Chiara Baicchi fagotto, Francesco Marotti corno.

Mercoledì 7 dicembre ore 18.00

Auditorium “Cesare Chiti”


• George Crumb, Makrokosmos – volume I (1972), Francesco del Nero pianoforte.
• L’Auditorium che canta: Andrea Nicoli (1960), Erotos Epos (2011). Prima esecuzione
assoluta.
• Carlo Failli (1967), CLARInetWORK (2011), Carlo Failli clarinetto e clarinetto basso, Rob
Nigro live electronics. Prima esecuzione assoluta.
Venerdì 9 dicembre ore 18.00

Auditorium “Cesare Chiti”


• Teresa Procaccini (1934), Il bambino di plastica (2000), per voce recitante e pianoforte a 4
mani.
• Ennio Cominetti (1957), Preludio e danza (1986).
Cristina Marziali voce recitante, Cristina Donnini e Scilla Lenzi pianoforte a 4 mani.
• L’Auditorium che canta: Massimo Biasioni (1963), dalla silente acqua (2011). Prima
esecuzione assoluta.
• Maria Francesca Romana Terreni (1956), Le Ghiaie (2010), Fatima Sancjez Pasu Castano
flauto. Prima esecuzione assoluta.
• Maria Francesca Romana Terreni (1956), Il suo tempo (2010), Rosella Ciolli flauto. Prima
esecuzione assoluta.
• Fabrizio Bartalucci (1961), Luminosità del soffio (2011), per 7 flauti, Mauro rossi direttore.
Prima esecuzione assoluta.
• Nuccio D’Angelo (1955), Dove sempre (2011), per 8 flauti e clarinetto basso, Nuccio
D’Angelo direttore. Prima esecuzione assoluta.
• Fabio De Sanctis De Benedictis (1963), Brain storming (2011), per 9 flauti, Mauro rossi
direttore. Prima esecuzione assoluta.
Classi di flauto dell’Istituto Musicale Mascagni.

Lunedì 12 dicembre ore 21.00

Auditorium “Cesare Chiti”

Progetto musicale haiku

248
• Claudio Vaira (1953), 18 piccoli haiku, per soprano, percussione, luci ed elettronica. Rita
Giannotti performer. Prima esecuzione assoluta.
• Massimo Ferrini (1964), E la luna in cielo sussurra dolcemente, per soprano e pianoforte.
Prima esecuzione assoluta.

• Jacopo Aliboni (1974), Haiku 1 – Haiku 2, per flauto, clarinetto, voce femminile, violoncello.
Prima esecuzione assoluta.
• Fabrizio Bartalucci (1961), Dove il SI suona, tre haiku in uno, per voce femminile e
percussione risonante. Prima esecuzione assoluta.
• Fabio De Sanctis De Benedictis (1963), Haikai, per soprano e 2 percussionisti. Prima
esecuzione assoluta.

Ensemble strumentale dell’Istituto Musicale “P. Mascagni”.

Seconda rassegna Internazionale del Paesaggio Sonoro Yoursoundscape

• 14/11 – Steve Heimbecker, Circle Mobile, Signe.


• 18/11 – Luigi Agostini, Soundscape Composition n. 4 e 5.
• 25/11 – Midori Hirano, Calls in a cave, Kokin.
• 7/12 – Luigi di Guida, Ice Cave’s Secrets.

• 9/12 – Massimo Liverani, Rilassamento 3D.

L’Auditorium che canta, progetto di composizioni originali per il sistema di spazializzazione


del suono X-spat boX2 coordinato da Fabio De Sanctis De Benedictis.

249
250
Suoni inauditi 2012-2013 – prima
parte – Omaggio a Giorgio caproni

5 dicembre – 19 dicembre 2012 Auditorium Cesare Chiti

5 dicembre ore 17,30

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Pietro Michi, Distorsioni emotive. Prima esecuzione assoluta.
• Claudio Vaira, È sera ormai. Tra i fiori si spengono rintocchi di campana, Omaggio a
Claude Debussy nel 150o anniversario della nascita, Duo Nuages, Scilla Lenzi – Cristina
Donnini, pianoforte a 4 mani. Prima esecuzione assoluta.
• L’Auditorium che canta: Tommaso Rosati, Rosetrip. Prima esecuzione assoluta.

7 dicembre ore 17,30

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Andrea Sarto, Marco Liuni, Francesco Catalucci, Studio 0. Prima
esecuzione assoluta.
• Marco Liuni, La nuova terra: il tempo e i cinque sensi. Testi di Paolo Tommasi, Manuela
Evangelista, Violoncello, Ivan Mach di Palmstein, Contrabbasso.

12 dicembre ore 17,30

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Francesco Giomi, Scabro. Prima esecuzione assoluta.


• L’Auditorium che canta: Roberto Doati, Ricercare su 24 punti di fuga (2012), per sola
elettronica su 24 canali, Francesco Marotti, corno. Prima esecuzione assoluta.
• Roberto Brambilla, Singer’s Murder, Giacomo Putrino, Percussioni.
• L’Auditorium che canta: Riccardo Dapelo, Atque in perpetuum, Giorgio (a Giorgio Caproni,
in memoriam). Piccola suite elettroacustica a più cori in 24 tracce, da “Il Conte di
Kevenhüller”. Prima esecuzione assoluta.

251
• André Jolivet, Sonata per flauto e pianoforte, Livia Schweizer, flauto - Susanna Pagano,
pianoforte.

14 dicembre ore 17,30

Auditorium “Cesare Chiti”

Tenera oscilla, cullata fra le mani, nel tè la Luna, serata monografica dedicata agli haikai di
Alessandro Petri. Maria Salvini, voce recitante.

• Roberto Becheri, Intime stagioni. Cornici musicali a 12 haikai di Alessandro Petri per
pianoforte e voce recitante, Amos Lucidi, pianoforte. Prima esecuzione assoluta.
• Paola Lenzi, Iridescenze, 5 Bozzetti musicali, per flauto, clarinetto,percussione, pianoforte
e voce recitante, Erica Benedetti, flauto –Mark La Regina, clarinetto basso - Francesco
Bertoli, percussioni - Caterina Barontini, pianoforte. Prima esecuzione assoluta.
• Tommaso Dini, Cuce un veliero, per pianoforte, ring modulator e voce recitante, Caterina
Barontini, pianoforte. Prima esecuzione assoluta.
• Giorgio Taurasi, Le memorie del mare, per chitarra e voce recitante, Giorgio Taurasi,
chitarra. Prima esecuzione assoluta.
• Aldo Gentileschi, Solo un istante dici e poi taci, per pianoforte e voce recitante, Aldo
Gentileschi, pianoforte. Prima esecuzione assoluta.
• Giovanna Dongu, Tra cielo e terra, 8 miniature per pianoforte e voce recitante, Damiano
Afrifa, pianoforte. Prima esecuzione assoluta.
• Claudio Vaira, Tremula si avventura una farfalla, per pianoforte, percussione e voce recitante,
Stefano Cimbaro, pianoforte, Samuel Baldi, percussioni. Prima esecuzione assoluta.

17 dicembre ore 17,30

Auditorium “Cesare Chiti”

L’Auditorium che canta... Visioni sonore dal Portogallo

Incontro col Mo Rui Dias, Conservatorio di Castelo Branco, progetto Erasmus.

• Rui Dias, Schizophonics. Prima esecuzione italiana.


• Carlos Guedes, Happy Miso 25!. Prima esecuzione italiana.
• Filipe Lopes, Um Conto sobre o Porto. Prima esecuzione italiana.
• José Alberto Gomes, L’arbre des songes. Prima esecuzione italiana.
• Gustavo Costa, Fontinha e outras històrias populares. Prima esecuzione italiana.
• Luciano Berio, Sequenza IX, per clarinetto, (1980), Chiara Carretti, clarinetto.
• Rui Penha, Auditorium. Prima esecuzione italiana.
• Bruce Pennycook, Sketches. Prima esecuzione italiana.

252
• Rui Dias, Feedback, per clarinetto e live electronics. Chiara Carretti, clarinetto. Prima
esecuzione italiana.

19 dicembre ore 21,00

Teatro La Goldonetta, Celebrazioni dell’anno Caproniano.

Concerto realizzato in collaborazione con il Comune di Livorno – “Caproni Festival”. Let-


tura di poesie di Giorgio Caproni con musiche originali create dal laboratorio di improvvisazione
dell’Istituto Mascagni coordinato dal Mo Marco Lenzi. Voci recitanti del Laboratorio teatrale
della Fondazione Teatro Goldoni – Livorno. Carlo Andrea Berti, violino, Livia Schweizer e Elena
Verdi, flauti, Irene Marraccini, clarinetto, Tommaso Ferrieri Caputi, percussioni, Lavinia Sardelli
e Francesca Del Seppia, violoncelli, Amos Lucidi, pianoforte, Marco Lenzi, direttore.

L’Auditorium che canta, progetto di composizioni originali per il sistema di spazializzazione


del suono X-spat boX2, coordinato dal Mo Fabio De Sanctis De Benedictis – Spazializzazione a
cura di Luigi Agostini.

253
254
Suoni inauditi 2012-2013. IV
Rassegna Internazionale di Musica
Contemporanea – seconda parte

15 marzo – 29 aprile 2013

15 marzo ore 17,30

Auditorium “Cesare Chiti”

• Mel Bonis (1858-1937), Suite pour flûte, violon et piano op. 59.

• André caplet (1878-1925), Rêverie, per flauto e pianoforte.

• Lili Boulanger (1893-1925), D’un matin de printemps, per flauto e pianoforte.

• Jacques Ibert (1890-1968), Aria.

• Marco Gammanossi, Sonatina, per violino e pianoforte (2000). Prima esecuzione assoluta.

• Mel Bonis, Trio.

Lucia Neri flauto, Renata Sfriso violino, Alessandra Dezzi pianoforte.

10 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Tommaso Dini, Eiskaléo (2013). Prima esecuzione assoluta.

• Alessandra Bellino, Gran salto, per fagotto solo, Paolo Carlini fagotto.

• Bruno Bettinelli, Studio da concerto (1977), per fagotto solo, Paolo Carlini fagotto.

• Fabrizio Bartalucci, O voi che siete (2003-2012), quasi-recitativo per voce sola e coro, da
Dante (Paradiso, II, 1-9), Annarita Dallamarca voce solista.

• Fabrizio Bartalucci, Considera il vetro (2013), pensieri di Pavel Florenskij (su tempo,
eternità e visione), per 8 voci. Prima esecuzione assoluta.

255
• Fabrizio Bartalucci, Páter hemôn (2005), oratorio dominica per coro a 5-9 voci dispari (Mt.
6, 9-13).

Maria Salvini, Arianna Rondina, Giulia Dini, Cora Mariani, Annarita Dallamarca, Elena
Pratelli, Alfio Vacanti e Giorgio Marcello voci, Fabrizio Bartalucci direttore.

13 aprile ore 19,00

Terminal Crociere

• Salvatore Sciarrino, Il cerchio tagliato dei suoni (1997), per 4 flauti solisti e 100 flauti
migranti, Lorenzo Del Grande, Sara Capanna, Livia Schweizer, Angelo camerini flauti
solisti. Classi di flauto dell’Istituto Musicale Mascagni e Rete Regionale Flauti Toscana,
flauti migranti.

14 aprile ore 11,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Francesco Giomi, Scabro (2011), per nastro magnetico.

• Luciano Berio, Linea (1973), per 2 pianoforti e percussioni, Stefano Cimbaro e Dami-
ano Afrifa pianoforti, Alessandro Carrieri e Tommaso Ferrieri Caputi percussioni. In col-
laborazione con TEMPOREALE Centro di ricerca, produzione e didattica musicale di
Firenze.

17 aprile ore 18,00

Auditorium “Cesare Chiti”

1. L’Auditorium che canta: Claudio Vaira, Melodywind (2012), per flauti e suoni concreti.
Prima esecuzione assoluta.

2. Sofia Gubaidulina, Sonatina (1978), per flauto solo, Livia Schweizer flauto.

3. Sofia Gubaidulina, Allegro rustico (1963), Livia Schweizer flauto, Susanna Pagano pia-
noforte.

4. L’Auditorium che canta: Paolo De Felice, JH Modulation (2013). Prima esecuzione asso-
luta.

5. Paolo De Felice, Dies Irae 212 (2012), per voce recitante e strumenti.

6. Paolo De Felice, Carosello armonico (1996), per ensemble da 5 a 500 strumenti.

Paolo Giommarelli voce recitante, Cora Mariani, Giacomo Bonucci clarinetti, Stefano Bonarel-
li, Erica Benedetti, Michele Caporusso flauti, Maria del Mar Jimenez Fenellos pianoforte, Labo-
ratorio di Improvvisazione allo strumento del Mo Stefano Agostini.

22 aprile ore 21,00

Auditorium “Cesare Chiti”

256
• L’Auditorium che canta: Fabio De Sanctis De Benedictis, Publica Res (2012). Prima
esecuzione assoluta.
• Rock Classic Konzert, serata di premiazione dei partecipanti alla Borsa di Studio “Nico-
la Paoli” offerta dall’associazione La Playa di Viareggio. Mauro Grossi direttore, Sara
Montagni, Cesare Lazzini, Lorenzo Bertelloni arrangiatori in concorso. Musiche di King
Crimson, Creedence, Pink Floid.

24 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Roberto Doati, Ricercare su 24 punti di fuga (2012), per sola
elettronica su 24 canali. Francesco Marotti corno. Prima esecuzione assoluta.
• Alfred Schnittke, A Paganini (1982), per violino solo, Roberto Cecchetti violino.
• Fabio De Sanctis De Benedictis, Pensier tempestoso e inquieto (2012), per violino solo,
Roberto Cecchetti violino. Prima esecuzione assoluta.

• L’Auditorium che canta: Riccardo Dapelo, Atque in perpetuum, Giorgio (a Giorgio Caproni,
in memoriam). Piccola suite elettroacustica a più cori in 24 tracce, da “Il Conte di
Kevenhüller”. Prima esecuzione assoluta.
• Maurice Ravel, Ma mére l’oye (1910), per pianoforte a 4 mani, Duo Nuages, Scilla Lenzi e
Cristina Donnini pianoforte a 4 mani.
• Fabio De Sanctis De Benedictis, Mon piano l’oye (2012), per pianoforte a 4 mani, Duo
Nuages, Scilla Lenzi e Cristina Donnini pianoforte a 4 mani. Prima esecuzione assoluta.

29 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Arduino Gottardo, Fluxus 2012 (2012), Federica Masoni voce
recitante, Studio Argot, Pisa – Studio Bignotto, Verona, elaborazione elettronica. Prima
esecuzione assoluta.

• Karlheinz Stockhausen, Harlequin (1975), Chiara Carretti clarinetto.


• L’Auditorium che canta: Andrea Nicoli, Parlami ancora (2013), Felicita Brusoni voce su
nastro. Prima esecuzione assoluta.
• Arduino Gottardo, Stravaghinskij, Divertimento neoclassico per quintetto di fiati.

L’Auditorium che canta, progetto di composizioni originali per il sistema di spazializzazione


del suono X-spat boX2, coordinato dal Mo Fabio De Sanctis De Benedictis – Spazializzazione a
cura di Luigi Agostini.

257
258
Suoni inauditi 2104. V Rassegna
Internazionale di Musica
Contemporanea

30 aprile – 5 giugno

30 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Marco Giommoni, Spazio IV, per flauto ed elettronica spazializ-
zata (2013), Giovanna Pescetti flauto. Prima esecuzione assoluta.

• Mauro Grossi, Fabio De Sanctis De Benedictis, Partenogenesi, improvvisazione per pia-


noforte ed elaborazionoi digitali interattive, Mauro Grossi pianoforte, Fabio De Sanctis De
Benedictis computer. Prima esecuzione assoluta.

• Manny Albam, Sounds from the Sax Section (1959), Mascagni Sax Machine, Renzo Testoli
sax alto, Federico Avella sax alto e soprano, Marco Pomponio sax tenore, Fabrizio Cortopas-
si sax tenore, Leonardo Victorion sax baritono, Fabrizio Balest contrabbasso, Alessandro
Criscino batteria, Mauro Grossi pianoforte e direttore.

7 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Riccardo Vaglini, Un nonnulla (2013), per lettore con due dia-
pason, uno strumento e una voce ad lib., elettronica. Testo e musica di Riccardo Vaglini,
Marco Lenzi lettore con diapason, Riccardo Vaglini voce, Andrea Nicoli elettronica.

• Paul Méfano, Périple (1978), per sassofono tenore solo.

• Jean-Claude Risset, Saxatile (1992) per sassofono soprano e dispositivo elettroacustico.

• James Erber, RaraAvis (c) (1996-98) per sassofono tenore solo.

• L’Auditorium che canta: Cristian Gentilini, Raving (2014), per sassofono ed elettronica.
Prima esecuzione assoluta.

259
• Fabio De Sanctis De Benedictis, Non destate il sax che dorme (2014), per sassofono tenore
solo. Prima esecuzione assoluta.

• Roberto Doati, Il domestico di Edgar (1996), imrpvvisazione guidata per sassofono con-
tralto ed elettronica.

• Terry Riley, Dorian Reeds (1964), per sassofono soprano ed elettronica.

Michele Selva sassofoni, Fabio De Sanctis De Benedictis computer.

10 maggio ore 21,15

Galleria Peccolo. Concerto in occasione della mostra Ralph Rumney, un protagonista del
situazionismo.

Musiche di Krzystof Penderecki, Paul Hindemith, Igor Stravinskij, Ernst Toch, Steve Reich
– Solisti dell’Istituto Superiore di Studi Musicali “P. Mascagni”.

14 maggio ore 16,00

Auditorium “Cesare Chiti”

Seminario – Scolpire il suono digitale. L’espressione del gesto nella performance multimediale
interattiva, a cura di Leonello Tarabella.

14 maggio ore 18,00

Auditorium “Cesare Chiti”

• Leonello Tarabella, Scolpire il suono digitale, performance.

• L’Auditorium che canta: Nicoletta Andreuccetti, Living Voices, brano acusmatico a 8 trac-
ce spazializzate su 16 canali. Spazializzazione a cura di Nicoletta Andreuccetti e Tommaso
Rosati. Prima esecuzione assoluta.

• Tiziano rosselli, Colores (2010), per pianoforte, Alessandro Riccardi pianoforte.

• Andrea Portera, Abwun (2014), per fagotto solo, dedicato a Paolo Carlini, Paolo Carlini
fagotto. Prima esecuzione assoluta.

21 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Jaime Reis, Fluxus, Lift (2013), brano acusmatico quadrifonico.
Prima esecuzione italiana.

• Maurice Ravel, Nicolette (1914), Chanson a 4 voci miste.

• Olivier Messiaen, O sacrum convivium (1937), mottetto a 4 voci miste.

• Antonio Veretti, Dulcissime Jesu (1939), mottetto a 4 voci miste.

260
• Fabrizio Bartalucci, Duo Seraphim (2014), mottetto per 6 voci femminili. Prima esecuzione
assoluta.
• Fabrizio Bartalucci, In un batter d’occhio (2014), su uno sguardo nuovo e sull’istante,
ambasciatore di eternità, per 8 voci. Prima esecuzione assoluta.

Gruppo vocale Prismatico InCanto dell’ISSM “P. Mascagni”, Fabrizio Bartalucci direttore.

Progetto Poeti e musicisti livornesi tra XVIII e XIX secolo


Musiche tratte dal fondo A. Lotti, donato dalla famiglia del compositore alla Biblioteca
dell’Istituto – Introduzione all’ascolto di Cora Mariani.

• Alessandro Lotti (1898/1950), Meditazione, per violoncello e pianoforte, Corinne Pascucci


violoncello, Alessandro Riccardi pianoforte.
• Alessandro Lotti (1898/1950), Andante mesto, Serenataccia, Compleanno di Ermellina, per
pianoforte, Alessandro Riccardi pianoforte.
• Alessandro Lotti (1898/1950), Serenata – Largo, per trio d’archi, Lorenzo Morelli e Laura
Picchi violini, Francesca Cannito pianoforte.
• Alessandro Lotti (1898/1950), Novelletta – La Sera, per quartetto d’archi, Renata Sfriso e
Irene Moncini violini, Matteo Tripodi viola, Corinne Pascucci violoncello.

24 maggio ore 22,00

Centro Polifunzionale Percorsi Musicali

• Luigi Agostini, In Natural Sounds, presentazione della libreria di campionamenti in formato


REX2 realizzata in collaborazione con i docenti del centro Polifunzionale Percorsi Musicali.
• KukU – Jazz/electronic project, musiche di Sara Mnontagni e Martino Rappelli, Sara Mon-
tagni voce, flauto, loop station, effetti, Martino Rappelli chitarra, loop station, effetti,
Special Guest: Tommaso Rosati Live Electronics & Device.

28 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Rui Dias, Schizophonics, brano acusmatico quadrifonico. Prima
esecuzione italiana.

Rete Regionale Flauti Toscana – Nuove Musiche 2012-14 – Progetto Mauricio Kagel. Pro-
getto riconosciuto dalla fondazione svizzera “Kagel-Burghardt”.

AFAM “R. Franci” di Siena:

• Enea Chisci, Qhari, per ottavino, 3 flauti traversi, flauto contralto, flauto basso, tim-
pani, grancassa, tamburo, gong, tam-tam, 3 tom-tom, glockenspiel, xilofono, marimba e
vibrafono.
• Maria Socci, Oro Preto, per ottavino, 3 flauti, triangolo, timpano, vibrafono, glockenspiel,
tamburello basco, tamburi.

261
Flauti: Silvia Chiarelli, Lorenzo Morrocchi, Chiara Petrini, Margherita Sbaragli, Giulia Se-
rio, Sara Kel Ambrosino. Percussioni: Camilla Centara, Antonio Cini, Niccolò Chisci, Marco
Ferruggi.
Direttore: Mo Federico Poli.

AFAM “L. Boccherini” di Lucca:

• Silvia Marchetti, Rag-Tango, per ottavino, 3 flauti, flauto in sol, flauto basso, marimba,
percussioni, piatto Ride, wood block, tamburello basco, vibrafono.

Flauti: Lara Berti, Lisa Bini, Chiara Formichi, Stefano Casini, Chiara fiorentini, Agnese
Manfredini. Percussioni: Chiara De Sena, Luca Casciotti, Victoria Martinez.

AFAM “P. Mascagni” di Livorno:

• Jacopo Aliboni, Toujours present en nous [Re]sonare fibris (2014), per flauto solo, Livia
Schweizer flauto. Prima esecuzione assoluta.

• Marco Lenzi, Pigiaplay (2010), per flauto, clarinetto, chitarra ed elettronica, Rosella Ciolli
flauto, Federico Micheloni clarinetto, Francesco D’Angelo chitarra.

• Gilberto Bosco, Essercizio per due flauti (2014), Rosella Ciolli, Giovanni Cavicchia flauti.
Prima esecuzione assoluta.

• Hendrik Hofmeyr, Il Giardino delle Esperidi (2009), per flauto solista e sestetto di flauti,
Flutes Colorées e i flauti della Rete Regionale Flauti Toscana. Prima esecuzione europea.

• Sebastiano Bon, Chicago Blues (2012).

5 giugno ore 21,15

Auditorium “Cesare Chiti”

• Jordan Nobles, Lagrange Points (2012), Noos ensemble e Snacks Ensemble.

• José Miguel Areliano, Secret Gardens of the Mind (2013), per flauto, clarinetto, percussioni,
2 violini, viola, violoncello, arpa, pianoforte, Noos Ensemble. Prima esecuzione assoluta.

• Andrea Cavallari, Studies for Imrovisation I (2013), Noos Ensemble.

• Toru Takemitsu, Three Film Scores (1995), trascrizione per ensemble di Massimo Lauri-
cella, Noos Ensemble.

• Frederich Rzweski, Snacks (1981), per voce sola con o senza accompagnamento strumentale
improvvisato, Snacks Ensemble.

• Frederich Rzweski, coming together (1971), per voce recitante e ensemble variabile, Snacks
Ensemble.

Noos Ensemble, Conservatorio “N. Paganini” di Genova: Giorgia Rotolo soprano, Bira-
ga Camilla contralto, Marta Caccialanza flauto, Ilaria Laruccia clarinetto, Nicola Cappellini
chitarra, Naudi Carbone percussioni, Caterina Benvegni arpa, Matteo Provendola pianoforte,
Francesco Bagnasco e Pietro Genova violini, Ruben Franceschi viola, Delfina Parodi violoncello,

262
Direttore Massimo Lauricella.

Snacks Ensemble, ISSM “P. Mascagni” di Livorno: Paolo Ruggiero voce, Rosella Ciolli flau-
to, Elia Bianucci e Federico Micheloni clarinetti, Chesare Martinez sassofono, Edoardo Filippi
fagotto, Francesco D’Angelo chitarra, Lorenzo Morelli e Alessia Anastassopulos violini, Lorenzo
Saini e Chiara Riccetti contrabbassi, Altea Silvestri vibrafono, Caterina Barontini, Maria Luz
Poirier e Stefano Cimbaro pianoforte e tastiere, coordinatore Stefano Agostini.

L’Auditorium che canta, progetto di composizioni originali per il sistema di spazializzazione


del suono X-spat boX2, coordinato dal Mo Fabio De Sanctis De Benedictis – Spazializzazione a
cura di Luigi Agostini.

263
264
Suoni inauditi 2105. VI Rassegna
Internazionale di Musica
Contemporanea

23 aprile – 26 maggio

23 aprile ore 18,00

Concerto inaugurale. “Dedicato al pianoforte”.

Auditorium “Cesare Chiti”

• Beatlemania (Vol. 1), di Ilio Barontini, Casa Editrice SILLABE. Parafrasi da concerto
per 2 pianoforti (dedicata al Duo Pianistico di Firenze). Ilio e Caterina Barontini, Duo
Pianistico.

23 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Mascagni Remix : NeroMix, Licei Musicali di Brindisi e Monopoli
(BA), Liceo Scientifico di Martina Franca (TA), brano elettroacustico a 16 canali. Prima
esecuzione assoluta.

• Paola Lenzi, Tre liriche, per flauto, clarinetto, pianoforte e voce recitante con testi di P.
Lenzi, I.R. Jimenéz e N. Hikmet.

• Musiche di S. Wallace – F. Landesman, H. Harlen – I. Gershwin, R. Rogers – L. Hart, B.


Holiday – A. Herzog JR, L. Allen – Cy Coleman, con arrangiamenti di Paola Lenzi.

Chiara De Palo voce, Ilaria Barontini flauto, Paola Lenzi pianoforte, Silvano Fioretto cla-
rinetto.

• L’Auditorium che canta, Mascagni Remix : Paolo Besagno, Largo IV, brano elettroacustico
a 16 canali. Prima esecuzione assoluta.

• Romano Pezzati, Tre fasi in bianco e nero, per flauto solo.

265
• Johann Sebastian Bach, Sarabanda dalla I Partita per flauto solo, versione per flauto e
computer.
• Bruno Maderna, Serenata per un satellite, versione per flauto e computer.
Filippo Rogai flauto, Fabio De Sanctis De Benedictis computer e live electronics.

30 aprile ore 18,00

Auditorium “Cesare Chiti”

Concerto a conclusione del Laboratorio di tecnica, funzionamento e riparazione degli strumenti


a fiato tenuto dal Prof. Marco Collazzoni.
Suonano gli studenti della classe di sassofono del Prof. Valerio Barbieri e delle classi parteci-
panti al laboratorio.
Musiche di George Gershwin, Herbie Hancock, Miles Davis.

5 maggio ore 18,00

Auditorium “Cesare Chiti”


• L’Auditorium che canta, Mascagni Remix : Alessio Pangallo, Attimi, brano elettroacustico
a 16 canali. Prima esecuzione assoluta.
• L’Auditorium che canta: Giorgio Zucco, Particles, brano elettroacustico a 16 canali. Prima
esecuzione assoluta.
• Carlo Napoli, Introduzione, per flauto e pianoforte, Stefano Agostini flauto, Daniel rivera
pianoforte.
• L’Auditorium che canta, Mascagni Remix : Roberto Zanata, Voliamo felice, brano elettroa-
custico a 16 canali. Prima esecuzione assoluta.
• Giorgio Colombo Taccani, Ocra rossa, per flauto, fagotto e pianoforte, Stefano Agostini
flauto, Paolo Carlini fagotto, Daniel rivera pianoforte. Dedicato a Stefano Agostini, Paolo
Carlini, Daniel Rivera. Prima esecuzione assoluta.
• Giorgio Colombo Taccani, Eyless dark, per flauto basso, Stefano Agostini flauto.
• Giorgio colombo Taccani, Dura Roccia, per fagotto e orchestra d’archi, ascolto dal CD
Bassoon Works edito da Tactus.
8 maggio ore 18,00

“Dedicato al pianoforte”.

Auditorium “Cesare Chiti”

Daniel Rivera – Gabriele Baldocci, Duo Pianistico.


Musiche di Dmitri Shostakovich, Franz Liszt, Sergei Rachmaninov, William Bolcom.

15 maggio ore 18,00

Auditorium “Cesare Chiti”

266
• L’Auditorium che canta: João Neves, Improvvisazione n. 2, brano elettroacustico a 16
canali, spazializzazione di Luigi Agostini. Prima esecuzione assoluta.
• Fabrizio Bartalucci, Come una goccia, piccola liturgia per voci, in sette parti, Gruppo
vocale Prismatico InCanto, diretto da Fabrizio Bartalucci.

• L’Auditorium che canta: Chris williams, Manifesto, brano elettroacustico multicanale, spazia-
lizzazione di Luigi Agostini. Prima esecuzione italiana.

“Dedicato al pianoforte”.

Mattia Mistrangelo pianoforte.


Musiche di Dmitri Shostakovich, Salvatore Sciarrino, Astor Piazzolla, Domenico Modugno,
Mattia Mistrangelo, Nikolai Kapustin.

26 maggio ore 18,00

Auditorium “Cesare Chiti”

• Carlo Failli, Quintetto per clarinetto e archi, Carlo Failli clarinetto, Gloria Merani e Luca
Paoloni violini, Edoardo Rosadini viola, Giovanni Lippi violoncello.
• Antonio Galanti, Variazioni su un tema di Sibelius per violino solo, Annamaria Fornasier
violino.

• Krzystof Penderecki, Ciaccona in memoria di Giovanni Paolo II, per violino e viola,
Annamaria Fornasier violino, Fabrizio Merlini viola.
• L’Auditorium che canta, Mascagni Remix : Sergio Longhitano, Intermezzo-Mas, brano elet-
troacustico a 16 canali. Prima esecuzione assoluta.
• L’Auditorium che canta, Mascagni Remix : Enrico Francioni, Sixteen for Sixteen, brano
elettroacustico a 16 canali. Prima esecuzione assoluta.
• L’Auditorium che canta: Fabio De Sanctis De Benedictis, Balaenoptera, per clarinetto
basso , suoni elettronici e live electronics in quadrifonia, Carlo Failli clarinetto basso, Fabio
De Sanctis De Benedictis computer e live electronics. Prima esecuzione assoluta.

L’Auditorium che canta è una rassegna del ciclo di concerti Suoni Inauditi dedicata a com-
posizioni elettroniche multicanale scritte appositamente per l’impianto di 24 diffusori presente
nell’Auditorium.

Mascagni Remix è il risultato di un bando online relativo a composizioni per la rassegna


L’Auditorium che canta. Le uniche caratteristiche richieste sono la durata compresa tra 5 e 7
minuti, e l’obbligo di utilizzare, in qualsiasi forma e con qualsiasi tecnica, uno o più frammenti
relativi a registrazioni di opere di Mascagni.

267
268
Incontro con il Maestro Jorge
Antunes

Auditorium dell’Istituto Superiore di Studi Musicali “P. Mascagni”


30 settembre - 1 ottobre, ore 18

30 settembre (Conferenza/Concerto)

MUSICA FIGURAL E MUSICA CROMOFONICA

Illustrazioni musicali:

• Anaforia para Juan Ramón, musica elettroacustica.


• Anadiplosia para Tirso, musica elettroacustica.
• Quiasmia para Jiménez, musica elettroacustica.
• Miró Escuchó Miró, pianoforte e suoni elettronici.

Pianoforte: Mariuga Lisbôa Antunes

1 ottobre (Concerto)

• Valsa Sideral (1962), musica elettroacustica, primo lavoro di musica elettroacustica com-
posta in Brasile.
• Violinia Sideral (2006), per violino e computer. Marcus Antunes violino, Jorge Antunes
computer.
• Dramatic Polimaniquexixe (1984), per clarinetto, violino e pianoforte. Giuseppe Cataldi
clarinetto, Francesca Del Seppia violoncello, Mariuga Lisbôa Antunes pianoforte.
• Big Bang (2000), musica elettroacustica.
• Chalumia Sideral (2005), per clarinetto e computer. Giuseppe Cataldi clarinetto, Jorge
Antunes computer.
• Carta Athenagórica (2013), (musica elettroacustica a otto canali.

269
270
Suoni inauditi 2106. VII Rassegna
Internazionale di Musica
Contemporanea

28 aprile – 20 maggio

26 maggio ore 18,00

ISSM “P. Mascagni” - aula 17.

Presentazione del libro Dalle onde ai byte di Francesco Maria Paradiso, ed. Rugginenti.
Partecipano: Francesco Maria Paradiso, Fabio De Sanctis De Benedictis.

4 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Javier Torres Maldonado, Enim adscitios accidentalesque a Stel-
lis fulgores adimit (versione 2016), brano elettroacustico a 16 canali. Prima esecuzione
assoluta.

• Jorge Antunes, Rituel Vert (2015) per flauto ed elettronica, Filippo Rogai flauto, Fabio De
Sanctis De Benedictis computer. Prima esecuzione europea.

• André Jolivet, da Asceses per flauto solo: n. 1 Pour que demeure le secret Nous tairons
jusqu’ausilence, n. 5 O femme qui ne sais que tu portais en toi le monde (Fouchet), Filippo
Rogai flauto.

• György Ligeti, Musica ricercata per pianoforte, Ilaria Guarnaccia pianoforte.

6 maggio ore 18,00

Auditorium “Cesare Chiti”

L’Auditorium che canta: Musica elettroacustica spagnola di oggi

• Alberto Carretero, Spherical Sights (2012). Prima esecuzione italiana.

271
• Alejandro Gómez, Kinetic Resolution (in the musical reaction) (2016). Prima esecuzione
assoluta.
• Javier Campaña, Planeta propio (2013). Prima esecuzione italiana.
• Andrea Faraco, Panoramas mundanos (2016). Prima esecuzione assoluta.
• Antonio Flores, Ligne ondulée (2013). Prima esecuzione italiana.
• Juan Antonio Godoy, Nostalgie (2016). Prima esecuzione assoluta.
• José López Montes, Microcontrapunctus (2016). Prima esecuzione assoluta.
• Julio Cañizares, Discurso (2016). Prima esecuzione assoluta.
• Lara López, Intenta dormir (2016). Prima esecuzione assoluta.
• Juan de Dios García Aguilera, De la luz y el color de las cosas: rojo (2013). Prima
esecuzione italiana.
• Daniel Muñoz, Homenaje (2016). Prima esecuzione assoluta.
• Alberto Carretero, Indlandsis (2013). Prima esecuzione italiana.

Opere elettroacustiche multicanale. Proiezione sonora: Alberto Carretero.

11 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Cambini Remix : Davide Wang, Unfolding (2015), brano elettroa-
custico a 16 canali. Prima esecuzione assoluta.
• Karlheinz Stockhausen, da Tierkreis (1974/1975): Aquarius, Cancer, Scorpio.
• Bruno Maderna, Serenata per un satellite (1969).

Allegro Ensemble: Chiara novello flauto, Francesco Micheloni tromba, Dario Atzori chitarra.

• Claude A. Debussy, Dieu! Qu’il la fait bon regarder!, Chanson a 4 voci miste
• Fabrizio Bartalucci, In volo (2016), da scritti di Antoine de Saint’Euxpéry (Un ciel pur,
Planètes Habitées, Il me semble). Prima esecuzione assoluta.
• Fabrizio Bartalucci, Luce fisica e luce metafisica (2015), per 6 voci femminili, in tre cori.
• Fabrizio Bartalucci, . . . E sono ancora con te, per 9 voci miste.
• Fabrizio Bartalucci, Cherubikón, per 5-6 voci miste.

Voci del Laboratorio di musica corale moderna e contemporanea e del Gruppo vocale Pri-
smatico InCanto, direttore Fabrizio Bartalucci.

12 maggio ore 21,00

Galleria Peccolo.

272
• Duetto: Henri Chopin e Arrigo Lora-Totino (opere di poesia concreta e sonora a confronto).

• Goffredo Petrassi, Dialogo angelico (1948), per due flauti, Desirèe Del santo e Giovanni
Cavicchia flauti.

• Mario Castelnuovo Tedesco, Divertimento (1943), per due flauti, Desirèe Del santo e
Giovanni Cavicchia flauti.

• Malcom Arnold, Fantasia, per fagotto solo, Monica Zepeda fagotto.

• Elliott Carter, Retracing (2002), per fagotto solo, Monica Zepeda fagotto.

• Bela Bartok, dai 44 Duetti (1931), per due violini, nn. 35, 36, 41, 43, Laura Picchi e
Stefania Paolicelli violini.

• Luciano Berio, dai Duetti (1979-1983), per due violini: Bruno, Marcello, Leonardo, Piero.

• Kaija Saariaho, Dolce tormento (2004), per ottavino solo, Alice Creatini ottavino.

• Astor Piazzolla, dai Tango etudes (1987), per flauto solo, No 4 lento meditativo, No 3 molto
marcato e energico, Chiara Novello flauto.

• Astor Piazzolla, cinco piezas (1981), per chitarra, Campero, Romántico, Acentuado, Tri-
ston, Compadre, Francesco D’Angelo chitarra.

18 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Cambini Remix : Alejandro Casales Navarrete, Cyhos (2015-2016),
brano elettroacustico a 16 canali. Prima esecuzione assoluta.

• Umberto Bombardelli, Broken Leaves (2014), per due chitarre, Dario Atzori e Giacomo
Brunini chitarre.

• Alvaro Company, Preludio (pensando a Gabriel Fauré) op. 19 n. 1/a (1972), per chitarra
sola, Giacomo Brunini chitarra.

• Alvaro Company, Piccolo Jazz (pensando a Duke Ellington) op. 16 (1972), per chitarra
sola, Giacomo Brunini chitarra.

• Alvaro Company, Ninna nanna (pensando a Maurice Ravel) op. 19 n. 2 (1972), per chitarra
sola, Giacomo Brunini chitarra.

• Alvaro Company, Las Seis Cuerdas (1963), per chitarra sola: Linee irradianti ; Danzando;
Improvvisando; Microjazz ; Capricci e vaghezze; Serenata burlesca Bianco – nero/ostinato,
Dario Atzori chitarra.

• Fabrizio Festa, Ritratti a memoria (2015), per due chitarre: L’amico che non ho dimen-
ticato, L’amico che se n’è andato troppo presto, L’amico dei giorni nuovi, Dario Atzori e
Giacomo Brunini chitarre.

• Girolamo Deraco, Nell’ombra del ritardo – mutazioni fugate (2014), per due chitarre,
dedicato al Duo Atzori-Brunini, Dario Atzori e Giacomo Brunini chitarre.

273
• Georges Aperghis, Triple (2010), per flauto, clarinetto e tromba, Chiara Novello flauto,
Giacomo Bonucci clarineto, Francesco Micheloni tromba.

20 maggio ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Cambini Remix : Alexander Martinz, t145_II (2016), brano elet-
troacustico a 16 canali. Prima esecuzione assoluta.
• Mario Castelnuovo Tedesco, Sonatina (1965), per flauto e chitarra, Alice Creatini flauto,
Francesco D’Angelo chitarra. Progetto Musicisti toscani del ‘900.

• Steve Reich, Nagoya Marimbas (1994), per due marimbe, Samuel Baldi e Fabio Machiavelli
marimbe.
• Salvatore Sciarrino, Anamorfosi (1980), per pianoforte, Francesco Manfucci pianoforte.
• Bruno Maderna, Honeyreves (1961), per flauto e pianoforte, Giovanni Cavicchi flauto,
Leonardo Pittella pianoforte.
• Nebojša Jovan Živcović, In Erinnerung schwebend op. 10, per tre flauto e percussioni,
Desirèe Del Santo, Giovanni Cavicchia, Chiara Novello flauto, Samuel Baldi percussioni.
• Pierre Boulez, Douze notations (1984), per pianoforte, Edoardo Mancini pianoforte.

• Galina Ustwolskaja, Komposition 3 Benedictus Qui Venit (1974/75), per quattro flauti,
quattro fagotti e pianoforte, Desirèe Del Santo, Giovanni Cavicchia, Martina Gremignai,
Alice Creatini flauti, Monica Zepeda, Daniele Tambellini, Federica Lessi, Anna Draghi
fagotti, Ilaria Guarnaccia pianoforte.

274
Suoni inauditi 2107. VIII Rassegna
Internazionale di Musica
Contemporanea

28 marzo – 19 maggio

28 marzo ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Nardini Remix : Serena Tamburini, Arco Arcano (2017), opera
elettroacustica a 16 canali. Prima esecuzione assoluta.

• L’Auditorium che canta, Nardini Remix : Francesco Bossi, nardini remiz #1 (2017), opera
elettroacustica a 8 canali. Prima esecuzione assoluta.

• Giacinto Scelsi, Pwill per flauto solo, Giovanni Cavicchia flauto.

• André Jolivet, Asceses IV per flauto solo, Martina Gremignai flauto.

• Fabio Machiavelli, Blu (2017), per bottiglia, percussioni e live electronics. Fabio Machiavelli
vibrafono, bottiglia e live electronics, Mattia Gabbriellini live electronics. Prima esecuzione
assoluta.

• Luigi Ceccarelli, Il contatore di nuvole (2002), per pianoforte ed elettronica, Calogero Di


Liberto pianoforte.

• Dimitris Maronidis, Orbits, per pianoforte ed elettronica, Calogero Di Liberto pianoforte.


Prima esecuzione italiana.

4 aprile ore 18,00

Auditorium “Cesare Chiti”

• Salvatore Sciarrino, All’aure in lontananza (1977), per flauto solo, chiara Novello flauto.

• Salvador Torre, Promenade (D’après A. Bouchourechliev) (1988), per flauto solo, Vania
Franchi flauto.

275
• Salvador Torre, Puzzle (Hommage a O. Messiaen) (1988), per flauto solo, Vania Franchi
flauto.
• Salvador Torre, Le Sablier (Hommage a S. Reich) (1988), per flauto solo, Vania Franchi
flauto.
• Kazuo Fukushima, Mei (1962), per flauto solo, Vania Franchi flauto.
• Arduino Gottardo, Stakhys (1991), per flauto solo, Elisa Azzarà flauto.
• Salvatore Sciarrino, Addio case del vento (1993), per flauto solo, Elisa Azzarà flauto.
• Giovanni Berdondini, Mercurio, danza astrofisica per ensemble di flauti (2017), Silvia
Casalini, Radames Ceccarelli, Dario Cei, Vania Franchi, Eleonora Lucci, Caterina Marconi,
Chiara Novello, Natalie Picone, Benedetta Sandri, Giulia Scalsini fauti.

7 aprile ore 18,00

Auditorium “Cesare Chiti”

• Luciano Berio, dai 6 Encores: Wasserklavier (1965), per pianoforte.


• Steve Reich, Clapping Music, per due performer (1972).
• Luciano Berio, lied (1983), per clarinetto solo.
• Bruno Bettinelli, Studio da concerto (1977), per fagotto solo.
• Ganesh Del Vescovo, Reminescenze (2002), per chitarra.
• Steve Reich, Music for Pieces of Wood (1995).
• Eugene Ysaÿe, dalla Sonata n. 2, Obsession Prelude (1923), per violino solo.
• Eberle Brown, Folio December (1952).
• Luciano Berio, dai 6 Encores: Brin (1965), per pianoforte.
• Ernst Toch, Fuga geografica (1930), per coro parlato.

I brani di Reich, Brown e Toch sono eseguiti da Viola Lenzi e Lucrezia Liberati pianoforte,
Federico Micheloni clarinetto, Laura Picchi violino, Federico Piccioli chitarra, Danilo Squillace
fagotto.

10 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta, Nardini Remix : Massimo Varchione, Capriccio e Fuga, opera
elettroacustica a 16 canali. Prima esecuzione assoluta.

Ensemble Session ‘900 :

• Sofia Gubaidulina, Serenade (1960), per chitarra.


• Andor Kovach, Trio n. 1 . . . musique d’automne. . . (1942), per flauto, clarinetto e chitarra.

276
• Luciano Berio, Sequenza IX (1980), per clarinetto solo.

• Edgar Varèse, Density 21,5 (1936), per flauto solo.

• Robert Muczynski, Duos for Flute and Clarinet Op. 24 (1991).

• Charles Koechlen, Sonata per due flauti Op. 75 (1918-1920).

• Silvia Marchetti, Endiadi (2016), dedicato all’Ensemble Session ‘900.

Tiziana Gallo e Giorgio Parasole flauti, Elia Bianucci e Daniela Nocentini clarinetti, Antonel-
la Vizzi chitarra.

28 aprile ore 18,00

Auditorium “Cesare Chiti”

• L’Auditorium che canta: Deovides A. Reyes III, The Dockyard, opera elettroacustica a 16
canali. Prima esecuzione italiana.

EstrOrchestra Junior, direttore Chiara Morandi:

• Arvo Pårt, Cantus in memory Benjamin Britten (1980), per archi e una campana.

• Benjamin Britten, Sarabanda dalla Simple Symphony (1943), per archi.

• Fabio De Sanctis De Benedictis, Visibilmente mi trasformo (2016), per due violini solisti
e archi, dedicato agli archi di Chiara Morandi, Laura Picchi e Stefania Paolicelli violini
solisti. Prima esecuzione assoluta.

• Arvo Pårt, Tabula rasa, concerto doppio per due violini, archi e pianoforte preparato (1977),
Eleonora Zamboni e Elena Gori violini solisti.

8 e 9 maggio

Traiettorie. . . deviate, Master Class di Composizione del Mo Marco Stroppa.

10 maggio ore 18,00

Auditorium “Cesare Chiti”

Traiettorie. . . deviate. Incontro con Marco Stroppa:

• Marco Stroppa, Trois Études (2016), per pianoforte: Pour le «cinq sons», d’après Monsieur
Claudie, Davide De Luca pianoforte; Pour le tierces engourdies, Mattia Senesi pianoforte
Pour le huit sons guillerets, Edoardo Mancini pianoforte. Prima esecuzione italiana.

Commissione del Festival Messiaen au pays de la Meije, con il sostegno della Fondazione
Francis e Mica Salabert e della SACEM.

• Marco Stroppa, Hidenefte, soit l’autre face de Traiettoria, (1989), estratto. Faccia A:
recto/verso, Marco Stroppa computer, elaborazione sonora e spazializzazione del suono.

277
Sintesi del suono: Centro di Sonologia Computazionale, Università di Padova.
Missaggio: Ircam, Parigi.

• Marco Stroppa, in cielo in terra in mare (1992), opera radiofonica per 8 attori, gruppo vo-
cale a 8 voci ed elettronica, testo di Adolfo Moriconi, Marco Stroppa computer, elaborazione
sonora e spazializzazione del suono.

– Ouverture
– Primo intermezzo per coro [4’30]
– Scena 1: la presentazione del contesto, l’imprigionamento di NOI [7’36]
– Scena 2: il sogno [12’30]
– Scena 3: scena buffa, il cambiamento di età e di sesso [16’38]
– Scena 4: il processo [23’03]
– Secondo intermezzo per elaboratore elettronico [24’43]
– Scena 5: finale, l’altare, il sacrificio [29’33]

Commissione della RAI Radio 3. Coproduzione RAI Radio 3 – Ircam.


Registrazione degli attori: studi della RAI di Torino.
Registrazione del coro: studio del gruppo Electric Phoenix, Londra.
Produzione elettronica: Ircam, Parigi.

15 maggio ore 18,00

Auditorium “Cesare Chiti”

• Arvo Pårt, Da pacem, Domine (2004), per coro a 4 voci miste.

• Paul Hindemith, Un Cygne (1939), Chanson a 4 voci miste.

• Francis Poulenc, O Magnum Mysterium (1951-52), mottetto per coro a 4 voci miste.

• Fabrizio Bartalucci, Ave maris stella (2016), per 6 voci femminili.

• Fabrizio Bartalucci, Dic nobis (2017), per 9 voci miste.

Omaggio a Claudio Monteverdi nel 450o della nascita

• Claudio Monteverdi, Ecco mormorar l’onde, madrigale a 5 voci dal II libro (1590).

• Fabrizio Bartalucci, O bella e vagh’aurora (2017), per 5-7 voci miste. Prima esecuzione
assoluta.

Voci del corso Repertorio corale moderno e contemporaneo e del Gruppo vocale “Prismatico
InCanto”, Fabrizio Bartalucci direttore.

• Fabrizio Bartalucci, Le metamorfosi del fuoco, cinque brani per viola sola, Chiara Morandi
viola. Prima esecuzione assoluta.

• Niccolò Castiglioni, Gymel (1960), per flauto e pianoforte. Giovanni Cavicchia flauto,
Mattia Senesi pianoforte.

278
• Giacinto Scelsi, Kho-lo-I-II (1966), per flauto e clarinetto, Giovanni Cavicchia flauto, Elia
Bianucci clarinetto.
• Giacinto Scelsi, Hyxos (1955), per flauto e percussioni, Alice Creatini flauto, Samuel Baldi
percussioni.

• Arvo Pårt, Pari intervallo (1976-80), per 4 flauti, Giovanni Cavicchia, Desirèe Del Santo,
Alice Creatini, Martina Gremignai flauti.

18 e 19 maggio

Master Class di Sassofono del Mo Gianpaolo Antongirolami, Il sassofono nella musica con-
teporanea.

19 maggio ore 18,00

Auditorium “Cesare Chiti”

• Jean-Claude Risset, Saxatile (1992), per sax soprano ed elettronica.


• Riccardo Dapelo, Adaptive_study#2, Symbolic structures (2016), per sax contralto e live
electronics.
• Roberto Doati, Antidinamica, per sax soprano e live electronics.

• Nicoletta Andreuccetti, c p d (in two minds) (2015), per sax soprano, elettronica e live
electronics.
• Carmine Emanuele Cella, Improvviso statico I (2012), per sax contralto e live electronics
(8 canali).

• Andrea Agostini, Gli atomi che s’accendevano e radiavano (2009), per sax baritono e live
electronics (8 canali).

Gianpaolo Antongirolami sassofoni.


Nicola Casetta live electronics e regia del suono.

279