Sei sulla pagina 1di 50

Musica e digitale

tesina a cura di

Federico Marcone

professore

Alessandro Alfieri

corso di

Teoria e storia della


cultura digitale

anno accademico

2021-2022

00
01
INDICE

Definizione ed etimoligia 04

Storia ed evoluzione 05

Il rapporto musica-elettronica 10

Il rapporto musica-informatica 15

Classificazione dei formati musicali 21

L’evoluzione delle modalità d’ascolto 26

La figura del musicista/cantante nella storia 33

I diritti d’autore 35

L’evoluzione della musica elettronica 38

Musica elettronica: nascita di nuovi generi 42

02
03
Definizione ed Etimologia

La musica è uno degli aspetti culturali universali di tutte


le società umane.

Il significato del termine musica non è univoco ed è


molto dibattuto tra gli studiosi per via delle diverse
accezioni utilizzate nei vari periodi storici.
Etimologicamente il termine musica deriva dall’aggettivo
greco musikòs, relativo alle Muse, figure della mitologia
greca e romana, riferito in modo sottinteso a tecnica,
anch’esso derivante dal greco techne.
In origine il termine non indicava una particolare arte,
bensì tutte le arti delle Muse, e si riferiva a qualcosa di
“perfetto”.

La musica è l’arte di ideare e produrre, mediante l’uso di


strumenti musicali o della voce, successioni strutturate di
suoni semplici omcomplessi, che possono variare per

- altezza, quindi per la frequenza delle vibrazioni del


corpo sonoro,

- intensità , per l’ampiezza delle vibrazioni,

- timbro, che dipende dal materiale del corpo sonoro

nel corso del tempo e nello spazio.

Da un punto di vista storico e antropologico, pur in


maniera diversa da popolo a popolo, la musica si
manifesta come forma di espressione culturale
normalmente integrata con le varie attività sociali come
lavoro, culto, riti, danza, feste, concorrendo al
collegamento fra conoscenza ed espressione, alla
coesione sociale ed etnica, nonché alla trasmissione
culturale.

Fonti
Wikipedia, Treccani 04
Storia ed evoluzione

La nascita delle prime forme di espressione musicale è


difficile da determinare in quanto ha due considerazioni:

- teorica: riguarda il sistema teorico di organizzazione dei


suoni, collegato a precisi riferimenti estetici, che viene
strutturato nell’antica Grecia;

- pratica: si tratta della comparsa di specifici elementi,


come la produzione volontaria tramite strumenti o suoni
da parte dell’uomo che risale al paleolitico.

Musica preistorica

In mancanza di testimonianze dirette o mediate, alcune


ipotesi sulla forma assunta dalla musica primitiva
possono essere dedotte anche dall’osservazione di popoli
il cui sviluppo è simile a quello delle attuali culture
preistoriche come indios brasiliani, australiani aborigeni o
alcune popolazioni africane.
Si presume che le primissime forme di musica siano nate
dal ritmo: per esempio, per imitare il cuore che batte, si
battono le mani o i piedi, o alterare, per gioco e per noia,
le fonazioni spontanee durante un lavoro faticoso e
monotono, come pestare il grano raccolto per farne
farina. Per questi motivi e per la relativa facilità di
costruzione, è molto probabile che i primi strumenti
musicali siano stati strumenti a percussione e qualche
variante del tamburo.

ricostruzione ipotetica di un liuto


o lira rinvenuto in Italia

05
Musica dell’antichità

Nella civiltà egizia la musica aveva un ruolo importante


per le funzioni religiose; infatti, fungeva prettamente da
accompagnamento durante le cerimonie sacre, i riti di
fecondazione, le celebrazioni di funzioni funebri e,
raramente, in occasioni di divertimento e svago. Gli
strumenti più comuni erano i crotali, il sistro, la tromba, i
tamburi, il liuto, il flauto e l’arpa dotata di un’ampia cassa
armonica.
In quel periodo, oltre all’antico Egitto, anche le civiltà
rappresentazione di un greche e mesopotamiche conoscevano già i principali
aedo greco intervalli tra i suoni (quinte, quarte e ottave) usati come
base per alcuni sistemi di scale.

Nell’antica Grecia, la musica occupava un ruolo di


grande rilievo a livello sociale e religioso, in quanto
veniva considerata un’arte che comprendeva anche
poesia, danza, medicina e pratiche magiche. Nel periodo
arcaico, la musica era praticata solo da aedi e da
rapsodi, mentre nel periodo classico venne divulgata
tramite il sistema educativo e venne incorporata nel
teatro. I greci usavano diversi strumenti, quelli più
comuni erano la lira e l’aulos. Oltre al teatro, la musica
veniva considerata anche in contesti scientifici, come
matematica e astronomia. A livello teorico, il sistema
musicale ellenico era il tetracordo, concetto basato su
quattro suoni.

Nella Roma antica, la prima fase della musica si era


sviluppata sotto l’influenza etrusca ed italica, in cui gli
strumenti erano in metallo in quanto erano di impiego
militare. Con la conquista della Grecia, Roma fu travolta
da musicisti, intellettuali, artisti e filosofi che
influenzarono l’intero sistema culturale. La musica
romana ereditò dal mondo greco il sistema musicale, gli
usi, le forme e la teoria. Rispetto alla musica greca, quella
romana era più vivace in quanto mescolata con
elementi di origine italica. I romani consideravano la
musica un elemento d’accompagnamento durante feste
ed eventi sportivi.

06
Musica clericale nel Medioevo

Con la diffusione del Cristianesimo venne introdotta la


musica corale. La funzione della musica era prettamente
didascalica e decorativa durante le funzioni religiose.
Lo strumento per eccellenza era l’organo, in quanto la sua
sonorità profonda induceva nell’ascoltatore una
sensazione di presagio.
La trasmissione della musica avveniva per tradizione
orale, e attraverso scuole di canto, la cui presenza presso i
maggiori centri di culto è attestata fino al IV secolo. Oltre
alla scuola di provenienza, è probabile che anche
l’improvvisazione e l’abilità del singolo cantore
determinassero in larga parte la musica d’uso liturgico.
Con il papato di Gregorio I, tutti i riti religiosi vennero
unificati e venne istituito il canto gregoriano, un canto
liturgico di vario stile, eseguito all’unisono.
Con tale riforma, vennero introdotte scuole di canto delle
origini e venne introdotta la scrittura neumatica, la
prima forma di notazione da cui ebbe origine la nota
musicale moderna.
In questo periodo la composizione avveniva tramite il
contrappunto, ovvero da una melodia già nota quasi
mai prodotta dal compositore. Il lavoro di quest’ultimo
era quindi frutto più di elaborazione che di invenzione.
Le composizioni erano principalmente di musica sacra,
come messe e mottetti.

07 libro liturgico musicale


Musica dal Cinquecento all’Ottocento

Nel Cinquecento, con il progresso nella lavorazione dei


metalli e l’importazione di materie prime e di legnami
provenienti da terre lontane, permise lo studio sulla
natura del suono, comportando la sperimentazione di
sostituire le voci con strumenti in canti polifonici.
Nonostante ciò, la musica vocale continuò a
predominare su quella strumentale fino al XVI secolo,
modificando l’approccio alla costruzione degli strumenti:
grazie alla definizione dei registri vocali vennero
dipinto di Chopin sviluppate famiglie di strumenti che si accordassero a
al pianoforte quelle particolari estensioni. In questo periodo nacquero
il clavicembalo, il virginale ed il clavicordo.

Durante il periodo Barocco, la musica era


prevalentemente strumentale ed ebbe il passaggio
definitivo dallo stile polifonico a quello monodico. Lo
stile monodico era più moderno e vicino alle nuove realtà
musicali che si stavano consolidando e consisteva nella
presenza di una sola melodia.

Nell’Ottocento le melodie si fanno più ampie ed estese;


l’armonia è più fitta, con più frequenti cambi di accordo.
I ritmi sono molto vari e, come si è detto, spesso sono di
origine popolare come valzer, mazurka, polacca, polka,
galop, bolero).
Il pianoforte è lo strumento più in vista; esso viene
perfezionato nella struttura e nella meccanica, se ne
approfondiscono la tecnica e la didattica.
Con Beethoven si assiste alla nascita della figura del
compositore/artista, contrapposta a quella, in
precedenza prevalente, del musicista/artigiano.

08
Musica del Novecento

Nel Novecento, i generi musicali popolari assunsero


grande importanza tramite i mezzi di comunicazione di
massa. Si possono dividere in tre correnti compositive:

- tonale: uso di scale e accordi maggiori e minori della


tonalità

- atonale: nuovi sistemi compositivi

- politonale: uso contemporaneo di accordi in tonalità


diverse

A loro volta si possono sviluppare in:

- musica seriale: si ricollega alla dodecafonia, in cui non


si devono ripetere i suoni, ma deve essere presente una
variazione continua della dinamica, intensità, timbro e
ritmo

- musica aleatoria: il compositore usa una notazione


generica o imprecisa

- musica elettronica o concreta: uso degli strumenti


elettronici, in cui i musicisti utilizzano suoni di varia
natura, tratti dalla realtà ambientale e da oggetti vari,
incidendoli su un supporto magnetico e li elaborano
tramite tecniche varie (cambiamento di velocita,
inversione del senso di rotazione, ecc…); successivamente
i suoni vengono montati

Con l’avvento del disco si crea una nuova situazione d’uso:


quella che pone di fatto l’ascoltatore in una dimensione
di isolamento. Inoltre, avviene l’esplosione della
musica leggera, pop e rock, che sono divenuti il
sottofondo costante quotidiano della maggior parte delle
persone. Con l’avvento del cinema, della radio e della
televisione, si determinano nuovi usi del linguaggio
sonoro, in fusioni di immagini-parlato-suoni che
promuovono vari modi di percepire e ascoltare la musica.

Fonti
Wikipedia, Storia della musica
(Scuola di Cantù), Storia della
09 musica di Vincenzo Rubini
Il rapporto musica-elettronica

A partire dalla fine dell’Ottocento fino alla Seconda


Guerra Mondiale, grazie alla diffusione dell’elettricità e
dell’elettronica, fanno comparsa nuovi strumenti musicali
elettroacustici che producono note con un timbro fisso
caratteristico dello strumento, non diversamente dagli
strumenti tradizionali.

Nel 1899, nel Regno Unito, William Duddell inventa il


Singing arc, strumento basato sul ronzio delle lampade
ad arco per illuminazione stradale; nel 1900, negli Stati
Uniti, Thaddeus Cahill crea il Thelarmonium, dispositivo
che diffonde via telefono una musica prodotta da
generatori elettrici di tensioni alternate a differenti
frequenze; nel 1917, in Russia, Lev Sergeevič Termen
realizza il Theremin, ancora oggi in uso, è uno
strumento basato su circuiti eterodina a radiofrequenza
a valvole termoioniche, le cui frequenze e ampiezze di
oscillazione sono modulabili dall’esecutore avvicinando e
allontanando le mani da due antenne dello strumento.

Thelarmonium

Theremin
10
La celebre macchina Onde Martenot progettata da
Maurice Martenot, Francia, 1928, utilizza il cuore del
Theremin, organizzandolo però attorno a una tastiera
munita di controlli per intensità, vibrato e glissando.

L’organo Hammond di Laurens Hammond, Stati Uniti,


1929, il cui successo si prolunga fino al secondo
dopoguerra, utilizza un’evoluzione della tecnologia del
Thelarmonium.
Vocoder
Il Trautonium di Friedrich Trautwein, Germania, 1930, è
commercializzato dalla Telefunken dopo il 1932 e consiste
di oscillatori a tubi al neon controllati da una tastiera.

A questa fase storica appartiene anche il Vocoder


(Voice operated recorder) di Homer Dudley, Stati Uniti,
1939. Pur essendo uno strumento per l’analisi e la
resintesi del parlato per ricerche sulla compressione delle
conversazioni telefoniche, si è guadagnato fin dall’inizio
l’interesse di musicisti e compositori, in primis tedeschi.
Una versione solo sintetizzante, il Voder, fu mostrata alla
Fiera mondiale di New York del 1939: azionata da una
tastiera, produceva parole intelligibili per la meraviglia del
pubblico.

Onde Martenot Trautonium

11
A partire dalla fine degli anni Cinquanta la diffusione
dell’elettronica numerica segna il passaggio dalla
musica elettronica alla computer music. Inizialmente si
usa un calcolatore elettronico per generare partiture
tradizionali secondo schemi formali ed estetici definiti dal
compositore-programmatore. In seguito − con il
progredire delle potenze di calcolo − i sistemi numerici
soppiantano i dispositivi analogici per la sintesi e
l’elaborazione del suono. I calcolatori elettronici numerici
disponibili hanno una potenza di calcolo poco sufficien-
te a sintetizzare o elaborare il suono in tempo reale, che
loro uso si è nizialmente limitato alla produzione di suoni
in elaborazione differita, alla supervisione di strumenti
elettronici analogici o ancora alla generazione di partiture
tradizionali, di note, su base algoritmica.

Negli anni Sessanta il rinnovato interesse per le


esecuzioni dal vivo pone la ‘questione del tempo reale’
come problema estetico dai notevoli risvolti tecnologici.
Un interesse che porterà allo studio di algoritmi specifici
per l’audio e la musica, e alla ricerca di diversi modi per
superare i limiti di velocità dei primi calcolatori elettronici
numerici.

Negli anni Settanta le potenze di calcolo dei dispositivi


programmabili per uso generale sono ancora
insufficienti per la generazione del suono in tempo
reale. E’ dunque necessario realizzare dispositivi numerici
specializzati che superassero i limiti di quanto il mercato
offriva in quel momento.

12
Nel 1975 al neonato IRCAM, Institut de Recherche et
Coordination Acoustique/Musique di Parigi, Pierre
Boulez e Luciano Berio chiamano Giuseppe Di Giugno,
un fisico italiano che aveva creato all’Università di Napoli
un Centro di ricerca per l’elettroacustica e l’audio
digitale. Di Giugno realizza all’IRCAM diversi prototipi di
sistemi numerici cablati che sfociano nel 1979 nella 4X, la
prima stazione di lavoro musicale interamente digitale DSP
per la sintesi e l’analisi del suono in tempo reale, dotata di
una velocità di calcolo corrispondente a circa 200
personal computer dell’epoca.

Dopo gli anni Ottanta per l’elaborazione numerica del


segnale si afferma l’uso del DSP, Digital signal processor:
un processore programmabile specificamente
ottimizzato per il calcolo di filtri. Dalla fine degli anni
Ottanta in poi molti DSP verranno dotati anche di
dispositivi di comunicazione veloci. Tali caratteristiche
permettono un uso effettivo dei DSP per la musica in
tempo reale, con minori tempi, costi di sviluppo e notevoli
vantaggi di flessibilità rispetto ai dispositivi puramente
hardware.

L’IRCAM abbandona la filosofia della 4X ed introduce il


Next, una macchina con sistema operativo derivato da
Unix di potenza di calcolo insufficiente ma che montava
al suo interno il DSP MOTOROLA 56000 ad aritmetica
in virgola fissa per l’elaborazione del suono. In seguito, a
causa del flop commerciale del Next, l’IRCAM si rivolge a
piattaforme commerciali come Apple e Microsoft,
abbandonando l’uso di hardware specializzati e
convertendosi alla software music.

13
Gli strumenti musicali elettronici odierni, ovvero le
tastiere, perseguono intenti solo imitativi nel tentativo di
fornire a un unico esecutore, attraverso un unico
strumento e un’unica interfaccia, la possibilità di simulare
un gran numero di diversi strumenti solisti o ensemble
strumentali. Automatismi esecutivi quali
accompagnamenti ritmici e armonizzazioni secondo
predefiniti stilemi di genere o anche dispositivi in grado
di rettificare l’imperfetta intonazione di un cantante
forniscono ulteriori supporti a questa ‘one man orchestra’.

Il meccanismo di sintesi utilizzato è quello a wavetables


o a campionamento, che consiste nell’inviare all’uscita
audio, a comando del tasto, una registrazione numerica
della nota di uno strumento previamente memorizzata.
Un campionatore permette di memorizzare suoni, ovvero
i campioni, e successivamente di eseguirli a comando di
tastiere o sotto il controllo di un programma.

Giuseppe Di Giugno all’IRCAM

Fonti
Treccani 14
Il rapporto musica-informatica

Con lo sviluppo delle tecnologie multimediali la


musica è diventata una delle fonti d’informazione trattate
dall’informatica, al pari dei numeri, dei testi, della grafica
e della visione. Ciò ha favorito lo sviluppo di
importanti applicazioni in campo musicale e ha portato i
sistemi informatici a diventare uno ‘strumento’
musicale di riferimento. Il termine strumento non ha qui
l’accezione musicale corrente, in quanto il complesso
delle funzioni svolte dai sistemi informatici è molto più
ampio di quello di uno strumento tradizionale.
L’elaboratore non genera soltanto suoni, ma elabora tutta
l’informazione musicale, dal microlivello (il suono) al
macrolivello (la forma). Ciò ha comportato una
sostanziale trasformazione dei metodi del fare musica,
con il coinvolgimento di tutti i settori,
dalla creazione alla produzione musicale, favorendo la
nascita di nuove figure professionali.
Un sistema informatico completo di opportuni
programmi e periferiche svolge molte funzioni musicali.
È strumento musicale polifonico e politimbrico; simula
i suoni degli strumenti acustici o diventa il mezzo per
comporre nuove sonorità elettroniche; svolge le funzioni
di uno studio di registrazione audio per editing,
elaborazione, montaggio di suoni e di brani musicali,
stampa di CD audio; viene utilizzato nell’editoria
musicale, nella ricerca musicologica, nell’archiviazione e
nell’esecuzione automatica di partiture.
Il compositore dispone di una grande varietà di strumenti
di aiuto alla composizione che lo assistono nelle varie fasi
del processo creativo e di realizzazione dell’opera.
Inoltre, con l’evoluzione dei sistemi informatici
multimediali, molte di queste funzioni possono essere
messe in stretta relazione con il mondo della grafica, del
video, dello spettacolo, della realtà virtuale e delle
telecomunicazioni per ottenere prodotti artistici e
culturali multimediali.

15
La musica informatica è nata nella seconda metà degli
anni Cinquanta seguendo all’inizio due differenti linee di
ricerca:

- la prima, orientata al trattamento simbolico


dell’informazione musicale, studia la codifica dei testi
musicali, la generazione automatica di partiture per la
composizione, le tecniche informatiche di analisi
musicologica;

- la seconda, il computer music, più attenta all’aspetto


acustico e percettivo della musica, affronta la codifica
numerica dei suoni, la progettazione dei convertitori per
dotare l’elaboratore di un’interfaccia audio con l’esterno
e, quindi, le tecniche di analisi, sintesi ed elaborazione dei
suoni.

Fino agli ultimi anni Settanta le principali ricerche


venivano svolte in centri di ricerca scientifica utilizzando
elaboratori collettivi (mainframe) e programmi che
imponevano lunghi tempi di attesa tra la
formalizzazione dell’idea musicale e il suo ascolto. Nei
concerti si presentavano musiche registrate su nastro che
talvolta accompagnavano solisti o piccoli ensembles di
esecutori tradizionali o cantanti. La mancanza di un
rapporto diretto e immediato con il suono ha
ostacolato la produzione musicale, ma ha favorito lo
sviluppo di solide basi teoriche e di alcuni programmi per
la sintesi dei suoni. Con l’avvento degli elaboratori a
monoutenza, i minicomputer, i tempi di attesa sono
diminuiti e si sono sviluppati i primi prototipi di sintesi e
trattamento dei suoni in tempo reale, utilizzando
periferiche particolari. Tramite tali sistemi la musica può
rientrare nella tradizione dell’esecuzione dal vivo, anche
se al mezzo informatico viene assegnato un ruolo più
ampio e diverso da quello del singolo strumento.
Si sono sviluppati i concerti di live electronics, in cui i
sistemi in tempo reale generano eventi sonori complessi
o trasformano dal vivo i suoni di voci o strumenti
tradizionali.

16
Negli anni Ottanta due innovazioni hanno contribuito
alla diffusione dell’informatica nel mondo musicale:

-l’avvento dell’elaboratore personale, il personal


computer

-la definizione del codice di comunicazione MIDI, Musical


Instrument Digital Interface.

Quest’ultimo ha segnato l’ingresso dell’industria degli


strumenti musicali elettronici nel mondo della musica
informatica: nell’arco di pochi anni i sintetizzatori
analogici della musica elettronica sono diventati obsoleti,
sono nati i campionatori, i sintetizzatori digitali e
un’ampia gamma di dispositivi accessori di ausilio al
musicista come sequencer e multiprocessori di effetti.
Grazie al MIDI tali strumenti possono essere collegati fra
loro creando una rete di apparecchiature digitali in cui
l’elaboratore personale è spesso il cuore del sistema. I
risultati della ricerca scientifica degli anni Settanta sono
stati rapidamente trasferiti dall’industria su strumenti a
basso costo e offerti a un’ampia utenza musicale.

Nel corso degli anni Novanta è aumentato il predominio


della tecnologia digitale nella musica, sia a livello
professionale che amatoriale. L’elaboratore personale
sempre più potente, ‘amichevole’ ed economico viene
dotato di periferiche e programmi specifici e diventa il
nuovo ‘strumento musicale’ in grado di assistere il
musicista nello svolgimento delle svariate attività: dalla
ricerca astratta alla produzione commerciale. La
locuzione musica informatica, che sino alla fine degli anni
Settanta identificava un settore della musica
contemporanea con precisi ambiti linguistici ed estetici,
a partire dagli anni Ottanta ha perduto progressivamente
questa identità per assumere un significato di pura con-
notazione tecnica, data la diffusione del mezzo
informatico in tutti i generi musicali.

17
L’informatica tratta la musica con due principali forme di
rappresentazione:

- audio, che codifica il suono in sequenze discrete di


numeri,

- simbolica, che codifica l’informazione percettiva,


esecutiva e astratta, prendendo come riferimento il
sistema tradizionale di notazione musicale.

La codifica del suono si realizza convertendo il segnale


analogico in segnale digitale, quindi campionando la
forma d’onda del suono. Tale operazione si basa su due
fattori caratteristici:

- la frequenza di campionamento, incide sulla frequenza


massima rappresentabile dal segnale digitale;

- il numero di bit con cui si rappresentano i campioni che


fissa il rapporto segnale/disturbo e quindi il tasso di
rumore aggiunto nella fase di conversione.

I valori di riferimento sono quelli del CD audio (44.100 c/s,


16 bit), anche se si usano valori ridotti per la codifica della
voce e per i segnali di allarme, o valori superiori per
l’audio professionale di qualità.
Entrambi i fattori incidono sulla quantità di informazione
necessaria a rappresentare il flusso sonoro della musica.
Per ridurre il volume dei dati musicali si sono sviluppate
efficaci forme di compressione che si basano sulle
caratteristiche della percezione uditiva umana.
La codifica simbolica trova nel codice MIDI il sistema più
diffuso per rappresentare i gesti elementari
dell’esecuzione musicale.

18
La sintesi dei suoni consiste nel generare mediante un
procedimento di calcolo un segnale acustico e trova due
campi di applicazione musicale: la simulazione dei suoni
prodotti dagli strumenti musicali tradizionali e la
generazione di suoni, quest’ultima soggetta, in quanto
atto compositivo, alle scelte estetiche del musicista.
Anche se gli obiettivi sono diversi, in entrambi i campi si
utilizzano le stesse tecniche di sintesi poiché queste si
fondano su basi teoriche generali. I modelli di sintesi del
suono si distinguono in modelli di sorgente e modelli di
segnale. I primi simulano con il mezzo informatico il
modello fisico della sorgente sonora, mentre i secondi
simulano la forma d’onda che raggiunge l’ascoltatore.
I modelli di segnale hanno avuto la maggiore diffusione a
causa della loro semplicità ed efficienza computazionale.
Il modello di segnale più semplice è quello basato sulla
tecnica di campionamento, che viene ampiamente usata
nei sistemi di riproduzione. Tale tecnica sta alla base degli
strumenti digitali chiamati campionatori, e offre buoni
risultati nella simulazione di strumenti tradizionali di tipo
percussivo. I suoni di uno strumento vengono
campionati nei vari registri e con le principali tecniche
esecutive (dinamica e gesto), in modo da creare un
repertorio di campioni il più completo possibile per un
dato strumento. Durante l’esecuzione viene riprodotto il
suono campionato più vicino alla nota suonata,
effettuando eventuali trasformazioni quali trasposizione
di altezza, variazioni di durata (looping), inviluppo di
ampiezza, filtraggio statico o dinamico, interpolazione fra
più campioni. Alla semplicità computazionale della
sintesi per campionamento corrisponde un’elevata
richiesta di memoria che aumenta in funzione della
qualità richiesta.

19
Elaborazione dei suoni

L’elaborazione numerica dei suoni (Digital Signal


Processing) si ottiene mediante programmi che adottano
un procedimento di trasformazione del segnale.
Esistono delle tecniche utilizzate in relazione agli effetti
che si ottengono nei parametri musicali di tempo, altezza,
dinamica, timbro e spazio.
La traslazione di un suono nel tempo si ottiene mediante
una linea di ritardo che produce un’eco semplice. L’eco
può essere iterata se il ritardo è chiuso in un anello di
retroazione. Inserendo in tale anello altri elementi di
trasformazione si possono ottenere ripetizioni ogni volta
diverse. Se i tempi di ritardo sono dell’ordine di qualche
decina di secondi, tale schema di ripetizione simula la
struttura musicale a canone con variazione.
La durata del suono può essere variata in diversi modi e
con tecniche analoghe alla variazione di altezza.
Rallentando e accelerando un suono, tramite una
variazione della frequenza di campionamento, si
ottengono rispettivamente un’altezza più grave e una più
acuta. Le tecniche di analisi/sintesi quali Phase Vocoder
(PV), Wavelet e Linear Prediction Coding (LPC)
consentono di modificare la durata in maniera
indipendente dall’altezza e viceversa.
La dinamica del suono si viene a modificare non soltanto
variando l’ampiezza del segnale, ma anche
trasformandone alcuni tratti timbrici in modo da rendere
il suono più morbido per dinamiche piano e viceversa più
aggressivo per dinamiche forti.
Le tecniche più comuni per l’elaborazione del timbro
sono: il filtraggio; la modulazione; la granulazione e la
convoluzione.
I programmi di aiuto alla composizione (CAC,
Computer Aided Composition) trasformano l’elaboratore
in una sorta di assistente musicale che aiuta il
compositore nelle varie fasi di creazione dell’opera.
Essendo il processo creativo estremamente libero, tali
programmi soddisfano solo alcune fra le varie tendenze
estetiche o prassi compositive: in alcuni casi, infatti, si è
rivelato più efficace ricorrere a un linguaggio di
programmazione di uso generale.

Fonti
Treccani 20
Classificazione dei formati musicali

La differenza tra i vari formati audio sta tutta nella


compressione dei file. La compressione rende un file più
piccolo per risparmiare spazio su disco e tempo di
caricamento per lo streaming e il download.
Esistono 3 tipi di file audio:

- non compresso sono una copia esatta dell’originale,


quindi non c’è nessuna perdita di dati.

- lossless vengono compressi al solo scopo di avere


formati di file leggermente più piccoli, ma mantengono
intatti i dati originali. Un file senza perdita di dati è quindi
lo stesso del file originale.

- lossy sono invece i più compressi. Alcuni dati originali


vengono eliminati durante la compressione. I file Lossy
sono versioni più piccole dell’originale e quindi alcuni
dettagli vengono eliminati in modo definitivo.

I file non compressi e lossless mantengono intatti i dati


originali, quindi, non hanno perdita di informazioni. La
compressione lossy rimuove alcuni dati dal file originale
per ridurne la dimensione. Quindi più un file è
compresso, più avrà perdita di informazioni. Ciò non
significa che verranno eliminati dal file alcuni strumenti
o parte di essi. Molte volte basta togliere quella parte di
audio che l’orecchio umano non è in grado di sentire.

21
La qualità di un file audio è determinata dal suo Bitrate.
Il Bitrate rappresenta il numero di dati che vengono
elaborati in un secondo. Questo è il significato dei
formati MP3 a 320 e 192. Un MP3 con un valore di
Bitrate di 320 ha 320 kilobit di dati audio al secondo o
kbps. I file WAV e AIFF non compressi hanno
normalmente 1411 kbps. Un Bitrate più grande significa
più dati al secondo. Più dati al secondo significa un
suono migliore.
Il master registrato in studio viene inciso alla
risoluzione che decide l’artista, ma poi l’album che il
pubblico ascolta può essere convertito in una grande
quantità di formati più o meno compressi che si
dividono principalmente in 2 grandi famiglie:

COMPRESSIONE COMPRESSIONE
LOSSY LOSSLESS
AAC FLAC

MP3 ALAC

Ogg Vorbis AIFF

WMA WAV

DSD

22
AAC

Advanced Audio Coding o MPEG-4, è lo standard di


default utilizzato da Apple per iTunes. I nostalgici che
hanno posseduto un iPod si ricorderanno che
importando i CD nel proprio MAC i file venivano
convertiti in questo formato. A parità di bitrate occupa lo
stesso spazio di un MP3 ma la conversione può essere di
qualità superiore.

MP3

Acronimo di Moving Picture Expert Group-1/2 Audio


Layer 3 è il formato audio compresso più utilizzato al
mondo e introdotto per la prima volta nel 1998. Il suo
algoritmo di compressione va a rimuovere alcuni
dettagli della traccia audio che possono essere
difficilmente ascoltati dall’orecchio umano.
Comprimendo un file WAV si può ottenere un MP3 fino
a 90 volte più leggero rispetto all’originale, ciò che varia
sono i bitrate ovvero la quantità di informazioni digitali
(bit) che è trasferita o registrata in una unità di tempo,
che possono oscillare dai 32 (scarsa qualità) ai 320 KB
(ottima qualità) al secondo.

OGG Vorbis

È un formato Open Source di qualità paragonabile


all’MP3, sconosciuto fino a poco tempo fa ma utilizzato
ora da servizi come Spotify. OGG è l’estensione del file,
mentre Vorbis è l’algoritmo di compressione.

23
WMA

Windows Media Player è il formato inventato da


Microsoft in risposta allo standard MP3, la qualità è la
medesima ma ha lo svantaggio di essere supportato
solamente dai dispositivi di questo marchio.

FLAC

Free Lossless Audio Codec è il formato open source più


utilizzato per il music download senza perdite di qualità
rispetto alla sorgente originale. iTunes non supporta la
riproduzione di questo formato poiché utilizza il proprio.

ALAC

Apple Lossless Audio Codec, ovvero il FLAC per il mondo


Apple, anche se in termini di peso non equipara il FLAC,
è ideale solo se si usano i dispositivi con il marchio della
mela.

AIFF

Apple è proprietaria anche di questo formato Audio


Interchange File Format, che, è stato sviluppato
basandosi sull’Interchange File Format della Electronic
Arts ed è particolarmente adatto agli audiofili e a chi
produce musica. Presenta essenzialmente le medesime
caratteristiche del formato WAV ma senza compressione
ed è utilizzato dagli artisti perché consente di embeddare
all’interno del file anche dei metadati come testi, note o
altre informazioni.

24
WAV

WAVE form audio file format, è stato introdotto nel 1991


da Microsoft e IBM, è ancora in uso e rappresenta ciò che
si ottiene quando si importa un CD musicale nel proprio
computer Microsoft. Riproducendo un file di questo
formato, che può essere letto anche da un MAC, si ricorre
a una funzione speciale presente nella CPU di Intel. Sono
file molto pesanti che arrivano al massimo a 2 GB e
riproducono i suoni in maniera molto fedele.

DSD

Direct Stream Digital è un marchio registrato di Philips e


Sony sviluppato per il Super Audio CD. Utilizza un
metodo di codifica che anziché prevedere profondità in
bit maggiori, utilizza un solo bit ma a una frequenza di
campionamento molto più elevata per registrare,
archiviare e riprodurre una qualità del suono
estremamente alta. La frequenza di campionamento
originaria era di 2,822 MHz, e il relativo formato è noto
come DSD64 (64 volte il campionamento usato dal CD),
ma di recente sono state introdotte frequenze di
campionamento più sofisticate, a DSD128 e DSD265. In
alcuni studi di registrazione particolarmente evoluti viene
utilizzato anche il formato DSD512.

Fonti
25 Home Vision, Kina Records
L’evoluzione delle modalità d’ascolto

Vinile

Nel lontano 1877 iniziano le sperimentazioni per la


registrazione della musica su supporti come rulli, cilindri
e dischi. Nel 1901 venne stabilito dalla Victor uno standard
per la rotazione dei dischi: 78 giri al minuto. Questo
permise l’inizio della diffusione di tali sistemi. La prima
star del 78 giri fu Caruso. A poco a poco ci furono delle
evoluzioni: nel 1904 iniziarono le incisioni da entrambi i
lati. Poco dopo nacquero anche le prime etichette
discografiche indipendenti. Un 78 giri da 10” durava poco
più di 3 minuti. Successivamente per alcune ragioni,
come la necessità di avere determinate durate,
usciranno formati diversi, per quanto riguarda le
dimensioni: 20” (circa 53 cm), 16”, 12” (la misura classica
di 30 cm). Il grammofono aveva grosse dimensioni, infatti
spesso era incorporato in un mobile. Inoltre, si
aggiungono ulteriori incertezze e variabilità anche per la
rotazione del disco: 78 giri, 33 giri e 1/3 (diversa però da
quella successiva), alla fine per l’uso domestico
prese piede il 78 giri. Dopo le due guerre mondiali, nel
1948 nasce il giradischi, definito anche LP (Long Playing)
ha un diametro di 12 pollici (30 cm) e una velocità di 33
e 1/3 giri al minuto. Poco dopo, nel 1949, la RCA presenta
l’EP (Extended play), un vinile da 7 pollici (18 cm.) a 45 giri.
Da qui in poi, i dischi venivano prodotti in 3 formati
differenti, 78, 45 e 33 1/3. Dal 1955 iniziano a diffondersi i
giradischi anche nel mercato di massa. Fino a questo
momento sia gli apparecchi che i dischi erano
monofonici, ed è solo nel 1957 che venne presentata una
tecnica per la registrazione stereo. Dopo un paio d’anni, la
stereofonia si diffonde. Il 78 giri morì e proseguono il loro
percorso solo il 33 giri e 1/3 e il 45 giri. I dischi dominarono
il mercato musicale ad alta qualità fino all’avvento del CD.
In questo periodo il mercato del disco è sopravvissuto per
due fattori principali: il collezionismo e il mercato
dell’usato con prezzi molto bassi. Dal 2008 in poi, il vinile
ritorna nel mercato di massa.

26
MC - MusiCassette

Il primo registratore della storia è accreditato a Valdemar


Poulsen, che a fine ‘800 realizzò un registratore
funzionante con un filo d’acciaio fatto scorrere di fronte
ad un magnete. ma solo nel 1963 la Philips presentò la
musicassetta. È costituita da un nastro che viene fatto
scorrere a 4,75 cm/s ed è utilizzabile dai due lati,
sfruttabili girando fisicamente la cassetta dall’altra parte.
Le musicassette esistevano in svariate lunghezze, a
partire dalle classiche che erano 60, 90, 120, per andare
su lunghezze particolari, come quelle molto corte
dedicate agli home computer del periodo, come
Commodore Vic 20 e Sinclair ZX81. In seguito
all’apparizione dei cd sono uscite durate dedicate alla
lunghezza del supporto digitale, come quelle da 64 e da
100 minuti. Molti sono i fattori che miglioravano o
compromettevano l’ascolto: il tipo di nastro, il materiale
degli involucri e il perfetto funzionamento dei perni di
scorrimento. Uno dei problemi principali della cassetta,
come di tutti i supporti di registrazione analogici, era il
fruscio. Per questo motivo sono nati dei sistemi dedicati
ad attenuare il fruscio, inseribili e disinseribili
manualmente sia in fase di registrazione che in quella di
ascolto. Tali sistemi hanno subito un’evoluzione
sostanziale e dopo il Dolby B che, oltre ad abbassare il
fruscio diminuiva in modo considerevole anche i
suoni acuti, si sono succeduti il Dolby C, il Dolby HX Pro e
il Dolby S. I migliori registratori avevano un sistema
“computerizzato” che settava tutti i parametri in base al
tipo di nastro/cassetta presenti al momento della
registrazione. Con il passare degli anni vennero
aggiunte una serie infinita di caratteristiche per
aumentarne la comodità come la testina rotante per
l’autorevense che permetteva di proseguire l’ascolto
dell’altro lato senza doversi alzare e andare a girare la
cassetta.

27
Stereo8

Lo Stereo8 è un sistema a nastro magnetico nato nel


1966, per la riproduzione musicale in auto. Il nastro, alto
1/4 di pollice, scorre ad una velocità di 9,5 cm/sec, ed è
chiuso dentro ad un contenitore di plastica detto
cartuccia. La particolarità del sistema consiste nel fatto
che il nastro ha uno scorrimento “infinito” in quanto
l’inizio e la fine del nastro sono giuntati. Tra la fine degli
anni sessanta e settanta, i dischi degli artisti principali
venivano pubblicati in vinile, musicassetta e stereo8.
pubblicità Stereo8

CD - Compact Disc

Il CD viene presentato per la prima volta nel 1979 dalla


Philips e viene commercializzato in Europa nel 1983. Le
stime sono grandiose, viene presentato come la novità
tecnologica a più rapido sviluppo degli ultimi 20 anni.
Dopo appena 5 anni dalla commercializzazione, i lettori di
CD superano nelle vendite quelli dei giradischi. I cd
costano di più, nonostante costino di meno nella
produzione rispetto ai vinili. Gli utenti li acquistano
perché nei CD non è presente il fruscio, sono più pratici e
meno fragili del disco.

DAT - Digital Audio Tape

Il DAT è stato introdotto dalla Sony nel 1987, e permette di


riprodurre e registrare audio in formato digitale. Sono
usciti registratori da casa e portatili ed alcuni DAT
originali. Il formato ebbe un successo molto limitato, in
pratica venne acquistato solo da alcuni audiofili. I fattori
principali che hanno affossato il DAT furono due:
l’elevato costo dei registratori e l’osteggiamento da
parte delle case discografiche, timorose delle perfette
copie che si potevano fare dei cd originali.

28
DCC - Digital Compact Cassette

La DCC viene presentata per la prima volta nel 1990 dalla


Philips. È un sistema di registrazione digitale su cassetta,
a testine fisse e nasce probabilmente per il flop del DAT.
La DCC ha due grossi vantaggi rispetto al DAT: la
semplificazione della meccanica che portavano vantaggi
sul costo finale dell’apparecchio e la compatibilità con
le musicassette. La DCC aveva le dimensioni e la forma
di una musicassetta con la differenza che la parte dove
si doveva vedere il nastro era coperta e protetta da uno
sportellino metallico sullo stile dei floppy disk. In tutto la
cassetta DCC ha 18 tracce (9 per lato) e la velocità di
scorrimento è la stessa della musicassetta. Naturalmente
su un sistema del genere non sarebbe stato possibile
registrare un suono digitale a 16 bit con una delle
classiche tre frequenze (32, 44.1, 48 khz), perciò si era
ricorsi alla compressione, che compare per la prima volta
su un supporto digitale.

MD - Mini Disc

Il mini disc di Sony esce come rivale della DCC. Il mini disc
è un cd riscrivibile completamente protetto da una
custodia, a parte una piccola finestra dove con lo
scorrimento di uno sportellino del tutto simile ad un
floppy, compare il disco. Essendo in pratica un compact
disc ha tutti i pregi del compact disc, come l’accesso
istantaneo ai brani, con in più il fatto di essere
riregistrabile numerose volte e protetto contro polvere e
graffi. Nonostante ciò, aveva lo stesso problema
della DCC, ovvero una qualità del suono inferiore al cd.

29
CD-R, CD+R, CD-RW Compact Disc registrabili e
ri-registrabili tramite masterizzatori

Iniziano ad uscire i primi masterizzatori per computer di


compact disc. Inizialmente i cd registrabili costano
intorno alle 50.000 lire l’uno e un masterizzatore veniva
intorno al milione, ma come per tutti gli apparecchi
informatici, i prezzi si abbasseranno ben presto,
cambiando il futuro dei nuovi formati presentati pochi
anni prima.

DVD-Audio

Il DVD-audio, malgrado il nome, non ha niente a che


vedere con il DVD, essendo che non può contenere
video, ed è quindi da considerarsi una possibile
evoluzione del CD. Evoluzione proposta non dalle case
costruttrici di apparecchiature hi-fi, ma dalla lobby dei
produttori discografici, preoccupati dalla copia
dilagante dei cd tramite i masterizzatori dei computer.
Il primo lettore a supportare questo standard apparì nel
2000. A differenza del SACD non è compatibile verso il
basso, quindi, non è possibile leggerlo con un normale
lettore di cd. Il DVD-audio supporta un numero di
canali variabile che va da 1 ai 5.1, l’audio è registrato in
Linear PCM con algoritmo di compressione lossless.

Super audio CD (SACD)

Il super audio cd è un’evoluzione del formato cd, che


necessita di lettori compatibili con questo formato,
introdotto da Philips e Sony nel 1999. È compatibile an-
che con i vecchi lettori CD, nonostante la qualità è pari di
un normale cd. Supporta l’audio a definizione superiore
rispetto al CD (frequenza di campionamento 64 volte più
alta, risposta in frequenza fino a 100 kHz). La tecnologia
con cui sono registrati i dati non è il classico PCM del CD
e del DAT, ma il DSD (Direct Stream Digital) tecnologia
che si basa sul concetto della Delta Modulation.
30
Blu-ray / Blu-ray pure audio

Il formato video blu-ray è il primo che supporta un audio


di qualità, ed è stato presentato dalla Sony nel 2002.
Mentre il formato dvd andava a peggiorare l’audio
rispetto al cd, utilizzando algoritmi con perdita di
informazioni, il blu-ray supporta i formati lossless anche
ad alta risoluzione. È possibile godersi concerti con la
massima qualità, sia in stereo che in multicanale. Tutte le
recensioni di blu-ray indicano che l’ascolto della versione
in multicanale è superiore a quella stereo.

Ultra HD Blu-ray

L’ultra HD blu-ray è l’evoluzione del blu-ray. I primi lettori


che supportano il formato sono usciti nel 2016. Ci sono 2
tipi di dischi, uno da 66 Gb (2 strati), con bitrate in lettura
di 108 Mbit/s e l’altro da 100 Gb (3 strati), con bitrate di 128
Mbit/s.

31
Musica digitale “liquida”

Con musica digitale “liquida” si intende la musica


digitale che è indipendente dal supporto, ma che si
diversifica solo dal sistema di codifica dei dati. Quindi un
brano in mp3 può essere memorizzato in una penna usb,
in una memoria SD, masterizzato su un CD o DVD,
salvato nell’HD del computer e quindi il supporto diventa
ininfluente, rispetto al suo contenuto. Dunque, la musica
diventa più impalpabile, proprio perché non più
direttamente correlata con un supporto fisico.

Streaming

E’ la modalità di ascolto più recente. Consiste l’ascolto di


un flusso di dati, non memorizzato su un supporto
locale, ma scaricato tramite rete telematica. Il primo
servizio di streaming a diventare davvero famoso è stato
Spotify, lanciato nell’ottobre 2008 da una startup
svedese. Altre piattaforme famose sono Google Play
music, Rdio, Deezer e Groove (Microsoft). Con lo
streaming non si acquistano singoli album musicali, ma
si può ascoltare quello che si vuole tra l’archivio che è
disponibile per la piattaforma. La musica è in affitto, si
può ascoltare tutto fino a che si paga. La qualità
dipende dalla piattaforma, ma attualmente la maggior
parte utilizza algoritmi di compressione in perdita, quindi
qualità soddisfacente ma inferiore al formato CD.

Fonti
Estatica.it 32
La figura del musicista/cantante nella
storia

Nel corso della storia della musica occidentale, la figura


del musicista ha un’evoluzione che parte dalla Chiesa
cattolica. Durante il Medioevo, la Chiesa offriva
protezione e alloggio ai musicisti richiedendo in cambio
composizioni e canti per le cerimonie religiose.
Nel tempo, i testi religiosi rimanevano invariati, mentre le
composizioni venivano innovate periodicamente. I
musicisti venivano facilmente dimenticati, in quanto le
composizioni venivano sostituite periodicamente, e ciò
non permetteva di far esaltare un elaborato rispetto ad
un altro. Dal Quattrocento, con il Rinascimento, la
musica esce dal dominio clericale e approda nelle corti,
dove i magnati richiedevano intrattenimento durante le
feste e gli eventi. È l’epoca del Mecenatismo. Si sviluppa
la musica popolare, che naturalmente, era riservata agli
ambienti aristocratici. I musicisti erano divisi in due
categorie: i maestri di cappella, che scrivevano le
composizioni, e gli esecutori.
Nel Seicento, viene introdotto il virtuosismo, un
fenomeno che indusse molti magnati a richiedere i
talenti (i castrati, gli orchestrali e gli strumentisti). Il
primo concerto pubblico pagante avvenne a Londra nel
1627 da un impresario.
Tra il Settecento e l’Ottocento la condizione sociale del
musicista cambia drasticamente: non si è più al
servizio di famiglie nobili, ma con l’introduzione della
nuova classe sociale, la borghesia, si sviluppa la figura
del libero professionista: si guadagna da vivere tramite
i concerti, i contratti con gli editori e l’insegnamento. Per
questo motivo un compositore ha maggiore libertà
rispetto al passato, perché non è più sottoposto ad
imposizioni, ma può contrattare le proprie prestazioni e
può decidere cosa scrivere e con quali caratteristiche.

33
In questo periodo, la stampa è diventato un media
fondamentale per far risaltare determinati musicisti nel
panorama musicale, comportando la consolidazione
della figura della “star”.
Nel Novecento si ha un grande scisma nella musica
dovuto all’industrializzazione della cultura. Da una parte
la musica colta e, dall’altra, la musica leggera. La prima
riguarda la musica classica; mentre, la seconda
corrisponde alla musica popolare. Si instaura un
pregiudizio generale nei confronti della figura del
musicista in cui se avesse prodotto musica considerata
commerciale, non sarebbe stata considerata di grande
valore culturale. Walter Benjamin, nel 1937, pubblica il
libro “L’opera d’arte nell’epoca della sua riproducibilità
tecnica”, in cui argomenta la perdita dell’aura nelle opere
d’arte, ovvero l’unicità dell’opera stessa. Ciò accade anche
nel panorama musicale, negli anni ’40 e ’50, con la
massificazione musicale, i grandi media come radio e
televisione venivano polemizzati in quanto svalorizzavano
la musica in sé. Oggi, la figura del musicista è inglobata
in una figura più ampia: l’artista. I cantanti odierni, oltre
ad essere dei musicisti e performer, con l’evoluzione degli
strumenti digitali, sono “costretti” ad essere anche
influencer, attori o interpreti, per quanto riguarda la
realizzazione dei video musicali e divulgatori. La
fruizione della musica è prettamente concentrata nei
servizi streaming come Spotify, Amazon Music, Deezer
e Apple Music, che, spesso e volentieri, sono collegati ai
social network. Ciò comporta un uso massiccio dei
media digitali da parte dei musicisti per comunicare i
propri elaborati per garantire una maggior interazione e
fidelizzazione con il pubblico.

Fonti
episodio 66 del podcast “Chitarra da Bar” del canale YouTube “Chitarra Facile” 34
I diritti d’autore

Il Copyright è il bene più importante di cui un musicista


possa disporre, in quanto è una forma di proprietà
intellettuale. L’autore diventa proprietario del copyright.
In caso di più autori, tale diritto viene suddiviso
automaticamente in parti uguali. A meno che, di comune
accordo, le parti non decidano di dividerli diversamente.
La durata della protezione di questo specifico diritto si
protrae generalmente fino al termine del settantesimo
anno dopo la morte dell’ultimo autore sopravvissuto ma
questa regola differisce di paese in paese. La proprietà del
diritto d’autore consente di controllare chi può riprodurre,
distribuire, eseguire pubblicamente, visualizzare e
creare derivati di un brano musicale. Tali diritti di
proprietà possono essere completamente trasferiti e
assegnati ad altri, che possono autorizzare l’utilizzo di
musica altrui, in genere in cambio di un compenso.
Questi pagamenti vengono chiamati royalty. Esistono
due tipi di diritti d’autore musicale: i diritti di
composizione musicale e quelli di registrazione del
suono.

35
Una composizione musicale è un brano musicale,
parziale o per intero. Gli autori sono in genere il
compositore (autore della musica) e il paroliere (lo
scrittore dei testi, qualora vi siano). Entrambi sono i
proprietari dei diritti di composizione, di solito in parti
uguali. Sia al compositore che al paroliere di un brano
sono assegnati il 50% dei diritti di composizione, a meno
che non venga deciso di concordare una diversa
spartizione. Ciò avviene nel caso in cui una parte abbia
dato un maggiore contribuito alla stesura dell’opera
rispetto all’altra. Gli autori hanno il diritto esclusivo di
stabilire chi può produrre copie del proprio brano, ad
esempio per la realizzazione di dischi. Tale diritto può
essere accordato ad altri, attraverso la cessione di una
‘licenza meccanica’, rilasciata in cambio di un contributo
in denaro (royalty meccaniche). Ogni volta che una casa
discografica o un esecutore vorranno registrare una
canzone che non è di loro proprietà, dovranno acquistare
una licenza meccanica dai legittimi titolari.

La registrazione del suono è la registrazione finale


effettiva di una canzone, il fissaggio del suono. Spesso
rientra sotto la definizione di ‘master’, espressione
derivata dal vecchio ‘nastro master’. Gli autori sono
l’interprete e il produttore discografico, che in
sostanza sono i proprietari. I produttori di solito
prendono una piccola quota dei diritti di master (fino al
12,5%). Tuttavia le registrazioni sono affidate solitamente
alle etichette discografiche. Queste negoziano un
accordo sia con l’artista che con il produttore, i quali
cedono la proprietà dei loro diritti in luogo del
pagamento di royalty. Per giunta, è sempre più comune
e facile per gli artisti registrare in modo indipendente. In
questi casi, la proprietà del master appartiene
esclusivamente a loro, oppure a loro e al producer.
I compensi degli esecutori sono chiamati artist
royalty (royalty dell’artista), mentre le altre producer
royalty (royalty dei produttori).
La composizione fatta dagli autori generalmente è
rappresentata da un editore. Mentre la registrazione del
suono, realizzata dall’artista e dal produttore musicale, da
un’etichetta.

36
I compensi derivati dal Publishing sono la pietra angolare
delle entrate di un musicista. In sostanza, il Publishing è
l’atto di sfruttare commercialmente la musica di
compositori ed autori, retribuiti per il loro lavoro. Questa
può essere curata dagli stessi compositori o da un
rappresentante designato: un editore.

Le royalty sono i compensi ricavati delle licenze concesse


a terzi per l’utilizzo della proprietà intellettuale. I titolari
del diritto d’autore possono rilasciare tali licenze ad altri
per l’uso della propria musica, in cambio del pagamento
dei diritti d’autore. Alcune licenze devono essere
esplicitamente concesse. Altre sono ‘obbligatorie’ e vanno
date per scontate, secondo quanto stabilito dalla legge.
Tali regolamenti di norma hanno fissato tariffe specifiche.

Il campionamento è l’uso di una parte di una


composizione esistente e di una registrazione
fonografica in un’altra opera musicale.
Per poter impiegare legalmente un campione protetto
da copyright, è necessario ricevere il permesso da parte
dei titolari del copyright. In gergo, viene chiamato
clearing (autorizzazione).

· Se si sta campionando una composizione, allora è


necessario solo il permesso del titolare del copyright della
composizione (probabilmente di un editore per conto
degli autori).

· Se si sta campionando un master, è necessaria


l’autorizzazione sia del titolare del copyright della
composizione (editore per conto dello scrittore) che della
registrazione del suono (etichetta o interprete).

Fonti
37 SoundReef
L’evoluzione della musica elettronica

Nella complessa contemporaneità, il concetto di musica


si è ampliato a limiti indefinibili: l’evoluzione meccanica
e tecnologica ha rivoluzionato il concetto di armonia e
melodia, ponendo le basi di un importante e profondo
passaggio storico per la storia musicale. All’inizio del XX
secolo, quando si diffuse la disponibilità di elettricità,
vennero inventati i primi strumenti musicali elettronici,
come il Telharmonium o il Trautonium. Ma a determinare
una svolta decisiva nel percorso di assistenza tecnologica
al suono fu l’introduzione del sintetizzatore, passaggio
che segnò all’incirca la metà del secolo scorso.
Il sintetizzatore è stato inventato con lo scopo di riunire in
un’unica macchina tutti i dispositivi di produzione
musicale elettronica. In generale, l’architettura di un
sintetizzatore consiste nella connessione di diversi
moduli, ognuno dei quali è specializzato nel produrre,
elaborare o amplificare il suono. Nel corso degli anni, esso
si è evoluto, ma il concetto di fondo è rimasto sempre lo
stesso: generare e manipolare il suono. Questo
strumento si è evoluto in tre fasi:

- s. analogico, chiamato anche Vintage o Retrò


venne realizzato a metà degli anni Sessanta e diffuso
negli anni Settanta

- s. digitale, presente nella produzione di suoni dai primi


anni Ottanta fino ai giorni nostri

- s. virtuale, software per computer volto alla simulazione


in tempo reale o differito del funzionamento di un
sintetizzatore.

38
I sintetizzatori analogici generano un segnale sonoro
tempo continuo. Il suono prodotto da questi
strumenti risulta ancora affascinante tuttora, sebbene
esistano macchine molto più sofisticate e potenti.
Il principio generale di funzionamento dei sintetizzatori
analogici consiste nell’utilizzo di moduli musicali
elettronici controllati in tensione (che è una grandezza
continua). Un sistema modulare è un sistema aperto
costituito da più canoni strutturali, ognuno dei quali ha
un compito ben preciso – generare, elaborare,
amplificare, filtrare il suono. Nel caso dei sintetizzatori
analogici modulari i moduli utilizzati potevano esser scelti
dal musicista stesso, che quindi creava il percorso che il
segnale doveva effettuare all’interno della macchina. Il
collegamento tra i vari moduli viene detto patch.
Il passaggio dei sintetizzatori da analogici a digitali è
stato graduale. Si è delineata una classe di sintetizzatori
che ha saputo fondere assieme i vantaggi della
tecnologia analogica e quelli della tecnologia digitale.
Si tratta di macchine in cui la generazione sonora è
analogica ma il controllo delle varie sezioni di sintesi è
digitale. In pratica, le caratteristiche del suono (frequenza,
ampiezza, timbro – parametri che rientrano nel campo
dell’analogico) sono controllate digitalmente.

sintetizzatore analogico

39
Successivamente vennero progettati i campionatori,
dispositivi in grado di registrare, trasporre musicalmente,
processare e riprodurre segmenti di audio digitalizzati; in
pratica è un registratore digitale di suoni reali, chiamati i
campioni, che vengono eseguiti in maniera
musicalmente utile (associazione dei campioni ai dati
MIDI, quindi alle note di una tastiera). Il suono emesso da
una qualsiasi sorgente viene catturato da un microfono e
tradotto tramite un convertitore in una serie di byte. Una
volta trasformato in dati, il suono diventa oggetto dei più
fantasiosi calcoli matematici decisi dall’utente e messi in
atto dal computer: si possono eseguire dei tagli, si può
mutare la frequenza, l’intonazione, la velocità. Lo scopo
fondamentale di quest’apparecchio è quindi quello di
acquisire i suoni e associarli ad esempio ad una tastiera
MIDI e ad eventuali controlli esterni (modulazione,
volume, ecc.).

Una forma primitiva di strumento musicale basato su


campioni fu il Mellotron, successivamente chiamato
Novatron, ideato nel 1963 (Regno Unito). Il Mellotron è
uno strumento musicale a tastiera divenuto popolare
tra gli anni Sessanta e Settanta del 1900. Fu pensato per
riprodurre strumenti musicali tipici dell’orchestra
sinfonica, o voci umane: reca sotto ogni tasto un pezzo
di nastro sul quale è stata preregistrata la nota di uno
strumento. Un esempio di Mellotron si può ascoltare nei
primi secondi del celebre brano Strawberry Fields
Forever dei Beatles, suonato da Paul McCartney. Negli
anni Ottanta, venne utilizzato più nello specifico per il
genere progressive rock. Però, il Mellotron non può
essere considerato un campionatore perché si limita a
riprodurre suoni già salvati nella fase di fabbricazione
dello strumento, quindi registrati a parte. Il primo vero
campionatore risale agli anni Ottanta ed è il Computer
Musical Instrument (CMI).

40
L’uso del campionatore è diventato ormai una tecnica
usuale nella produzione musicale odierna che investe
trasversalmente diversi generi musicali. I campioni usati
variano da singole note registrate da uno strumento
tradizionale (un buon pianoforte per esempio) a
intere frasi musicali generate dagli strumenti più
disparati (esemplari a riguardo sono i famosissimi loop di
batteria), fino a intere porzioni di musica riprese da
brani esistenti. Proprio quest’ultimo caso ha fatto nascere,
negli ultimi anni, questioni sulla legittimità di considerare
originale un brano composto da spezzoni di altri brani.
In molte composizioni odierne, gravitanti soprattutto
nell’orbita della musica commerciale, vengono
campionati frammenti di musica appartenenti a brani
rock, funk, soul degli anni Sessanta e Settanta. Questa
pratica musicale racchiude importanti funzioni
comunicative: oltre a una questione di citazioni e di
richiami – attraverso i campioni – a brani che già godono
di prestigio, l’uso del campionatore influenza i
meccanismi relazionali della produzione musicale. Una
nuova interconnessione si instaura tra i musicisti grazie
alla possibilità di digitalizzare qualunque brano, con il
conseguente flusso continuo di materiale sonoro
circolante tra differenti artisti.

Fonti
41 fucinemute.it
Musica elettronica: nascita di nuovi
generi

La musica elettronica riguarda determinate produzioni


orientate ad esaltare il suono prodotto da strumentazioni
elettroniche, analogiche o digitali.

Anni ‘70
A
In questi anni, soprattutto nella seconda metà del
decennio, diversi artisti europei iniziano a sperimentare
nuove sonorità sfruttando le possibilità sonore rese
disponibili dai sintetizzatori, alcuni usandoli come
elemento di contorno al proprio stile, come i Pink Floyd
e i Genesis, quindi progressive rock, altri dando vita a
un nuovo modo di intendere la produzione musicale che
evidenziasse a piene nuove sonorità. Con tale intenzione,
B
ovvero produrre musica dai tratti più futuristici, si
sviluppa la musica elettronica.
I pionieri del genere sono i Kraftwerk, gruppo tedesco
appartenente al krautrock, un’avanguardia del rock
psichedelico, ma, intorno al 1974, inizia ad orientare la
propria produzione musicale nella costruzione di un
immaginario sonoro composto dall’utilizzo massiccio di
componenti elettroniche. Autobahn fu il primo album
della loro fase elettronica, il primo di una serie di dischi di C

culto per gli amanti di questa musica: oltre ad Autobahn,


Radio-Activity, Trans-Europe Express e The Man-Machine.
Quest’ultimo, anno 1978, ufficializzò l’immagine
dell’uomo-macchina, del robot, esaltandone i tratti
artificiali di quella musica. Da questo progetto si posero le
basi del pop elettronico col brano “The Robots”.
Successivamente, si svilupparono tantissimi sottogeneri,
ad esempio electronica con Jean-Michel Jarre e
Vangelis, la kosmische musik con i Tangerine Dream, la
disco music con Giorgio Morode e l’ambient con Brian
Eno. Gli anni ‘70 sono stati una fase di sperimentazione
d’avanguardia.

A - Pink Floyd - The dark side of the moon, 1973


B - Kraftwerk - The man machine, 1978
C - Brian Eno - Taking tiger mountain (by strategy), 1974
42
Anni ‘80

Col decennio successivo, la musica elettronica esplode,


influenzando la musica pop. Il pop elettronico si sviluppa
in Europa con artisti come Depeche Mode, Soft Cell,
Orchestral Manoeuvres In The Dark, Visage, Tears For
Fears, Alphaville, Pet Shop Boys ed Erasure.
Inoltre, c’è stata un’altra rivoluzione legata alla musica
elettronica: la nascita della musica house e techno. Due
generi completamente americani che invasero con
prepotenza i club. All’inizio i due generi si differenziavano
per pochi elementi, ma nel tempo assunsero delle
identità più nette. La house sviluppa un sound più
regolare e facile da seguire nel ballo, mentre la techno si
focalizza più sul versante alienante e sui ritmi accelerati.
Alcuni artisti noti di queste correnti: per la house, Frankie
Knuckles, Marshall Jefferson e Mr. Fingers; per la techno,
Juan Atkins, Derrick May e Kevin Saunderson.

A - Depeche Mode - Speak and spell, 1981


B - Frankie Knuckles - Beyond the mix, 1991
C - Kevin Saunderson - Big fun [Inner city], 1989
43
Anni ‘90

Con l’approdo dei generi house e techno in Europa,


iniziano a definirsi diverse nuove evoluzioni, più
cattive e veloci. L’acid house influenzò l’ambiente
inglese dando forma alla jungle, musica dance
caratterizzata da breakbeat veloci. Successivamente, con
l’arrivo della drum’n’bass, evoluzione logica della jungle,
si sviluppa un fenomeno sociale e musicale, definito
hardcore, che domina tale decennio: l’era dei rave.
A
Oltre alla musica dei rave, in questo periodo nasce la
trance, altro genere musicale dance particolarmente
energico, e l’eurodance, musica dai tratti più commerciali
che prese piede rapidamente nelle radio.
Dalla nascita di tutti questi sottogeneri colmi di eccessi
sonori, emerge il bisogno di produrre della musica
elettronica più elegante e nobile: intelligent dance
music (IDM).
B
Nella seconda metà del decennio, ci fu un altro genere
vistoso che spiccò tra i figli delle intuizioni della musica
elettronica: trip hop. Altra invenzione britannica, ha
conquistato le heavy rotation delle televisioni musicali e
ha influenzato lo stile di decine di artisti. Era la colonna
sonora dei pomeriggi piovosi, il sound dell’introspezione
e il capostipite delle mille espressioni di musica
elettronica emotiva. I nomi più importanti sono: Massive
Attack, Portishead e Tricky.
Ultima onda rilevante è l’electro rock di The Chemical
Brothers, The Prodigy, Fatboy Slim, ecc...

A - Gigi D’Agostino - L’Amour Toujours, 1999


B - The Chemical Brothers - Dig your own hole, 1997
44
Anni 2000

Nel momento in cui la musica elettronica arriva al nuovo


millennio, si ritrova di fronte l’enorme eredità di tutte le
grandi espressioni lasciate dal decennio precedente, più
una grande consapevolezza: inventarsi qualcosa di nuovo A
diventa sempre più difficile, e nel frattempo ci sono
sempre più esempi in cui la musica del passato risulti
tanto interessante da spingere alla riscoperta.
Tra tutti i prodotti dell’elettronica anni 2000, il dubstep fu
la più rilevante e forse quella che vuole sfuggire
maggiormente al luogo comune che vuole ogni
espressione musicale di questo millennio come ripresa di
qualcosa di precedente. Si sviluppò nella prima metà del B
decennio come mix intelligente di broken beat, bassi e
alterazione delle metriche classiche e incluse momenti
più oscuri ad altri più introspettivi. Riuscì ad attraversare
anche il decennio successivo, cambiando intanto
atmosfere, tra espressioni più solari e derive più giovani.
Il genitore diretto fu la 2-step garage, altro sottogenere
emerso nel passaggio al nuovo millennio, che
fondamentalmente ne inventò la ritmica, raggiungendo
C
l’apice di popolarità con Artful Dodger e Craig David.
Artisti chiave: Burial, Skream, Benga, Sepalcure e Skrillex.
Il resto, per quanto riguarda gli anni ’00, fu una miriade
di micro-intuizioni singole, che ne fece il decennio più
multisfaccettato della musica elettronica. In fondo passò
rapidamente e per molti quasi non successe nulla,
eppure si rese protagonista di molte esplosioni
localizzate, magari di durata contenuta, ma che tutte
insieme rappresentarono un bell’esempio di fantasia e
eclettismo: nelle fasi iniziali ci fu l’electroclash, rapida
evoluzione “fashion” della house fatta di suoni
ipereccitati; più avanti arrivò il wonky, visione avanzata
dell’hip hop astratto, lateralmente ci fu il grime,
sottogenere rap con influenze dubstep, la french house,
scena francese con il noto gruppo Daft Punk, il nu rave, il
dance punk e la fidget house.

A - Burial - Untrue, 2007


B - Craig David - Born to do it, 2000
C - Daft Punk - Discovery, 2001
45
Anni 2010

Non sono molte di fatto le nuove tendenze emerse nel


decennio in corso, ma sono tantissime le piccole
esplosioni inventate da una manciata di artisti, che in
modo più o meno evidente han fatto trend.
A
La più grossa, finora, è probabilmente proprio l’EDM di
cui si è parlato così tanto a metà decennio: una nuova
ripresa della dance commerciale alla luce dei nuovi
software per la produzione musicale, che hanno aperto
nuove possibilità a una generazione di artisti più larga.
Derivano nomi come Avicii, Zedd e Martin Garrix.
Oltre all’EDM, la tendenza più evidente emersa negli anni
’10 è probabilmente la moderna definizione di musica
B
trap: qualcosa che in realtà proviene dal rap degli anni
2000 ma che, a partire dal 2012, ha creato una seconda
ondata di modelli intelligenti e visioni futuristiche.
Accanto ad essa, negli ultimi anni son venuti fuori una
nuova miriade di piccoli frammenti che in un modo o
nell’altro hanno mostrato la propria influenza: il glo-fi,
rivisitazione in chiave nostalgica e narcolettica del pop
classico, il footwork, un’accelerazione del breakbeat dai
C tempi strettissimi, la witch house, con una sfumatura
dark col gusto dell’occulto, e l’elettronica emotiva, dalla
componente cantautoriale forte, frutto soprattutto del
contributo di James Blake. Nel frattempo, la musica pop
si lascia contaminare dalle tante intuizioni underground e
finisce pure per sdoganare la future bass, uno strano mix
di parti vocali e ritmiche vivaci.

A - 2 Chainz - Pretty girls like trap music, 2017


B - James Blake - James Blake, 2011
C - Avicii - Broken Arrows [remixes], 2015
Fonti
auralcrave.com 46
47
48
49

Potrebbero piacerti anche