Sei sulla pagina 1di 275

Come nasce uno standard:

il mercato delle regole


Francesco Virili
A Elena
Indice

Prefazione IX
Ringraziamenti XI
Introduzione XIII
Capitolo 1 Che cosa è uno standard 1
1.1 Esempi e storie di standard 1
1.1.1 Il linguaggio: uno "standard" antico e misterioso 1
1.1.2 Le filettature di Sellers: anche il caso ha la sua importanza 5
1.1.3 Lo scartamento dei binari ferroviari: i vinti si adeguano 7
1.1.4 Guida a destra: siamo ancora lontani dall'uniformità 11
1.1.5 Calendario e misura del tempo: cambiare standard è difficile 14
1.1.6 L'adozione del sistema metrico in USA: un processo in atto 19
1.1.7 Standardizzare spine e prese: la ricerca della compatibilità 20
1.1.8 La regola dei 24 secondi: la leadership statunitense 21
1.2 Che cosa è uno standard 23
1.2.1 Il significato corrente: modello, base, norma 25
1.2.2 Le definizioni in letteratura 26
1.2.3 Discussione 31
Capitolo 2 A che cosa serve uno standard 39
2.1 Standard per il coordinamento 39
2.1.1 Coordinamento e interdipendenze 40
2.1.2 Meccanismi di coordinamento 42
2.1.3 La funzione degli standard secondo l'approccio contingente 44
2.2 Standard per le relazioni 49
2.2.1 La specificità degli investimenti 51
2.2.2 Contrapposizione tra standardizzazione e specificità 54
2.2.3 Standardizzazione, specificità e lock-in 57
2.3 Standard per l'improvvisazione 62
2.3.1 Le premesse: i processi di interpretazione 63
2.3.2 Spunti di analisi postmoderna 63
VIII Indice

2.3.3 Improvvisazione musicale e organizzativa 65


2.3.4 Apertura dell'opera d'arte e interpretazione emergente 68
2.3.5 So what? 70
2.4 Interpretazione complessiva 72
2.4.1 Perché nasce uno standard? standard volontari e regole coercitive 73
Capitolo 3 Analisi della letteratura 77
3.1 Una rassegna introduttiva: IT standard making 78
3.1.1 Gli aspetti affrontati nei contributi 78
3.1.2 Le basi teoriche dei contributi 80
3.1.3 Basi teoriche comuni: analisi dei riferimenti bibliografici 92
3.2 Il contributo di teorie e modelli economici 97
3.2.1 Le origini e i contributi seminali della network economics 97
3.2.2 Gli altri classici della network economics 101
3.2.3 I temi base della network economics 110
3.2.4 Lock-in e dipendenza dal percorso 121
3.2.5 Le rassegne sulla network economics 135
3.2.6 Considerazioni di sintesi 139
3.3 Il contributo delle scienze sociali 140
3.3.1 Tecnologie dominanti e modularità 141
3.3.2 Teorie istituzionali e isomorfismo 156
3.3.3 Ecologia organizzativa e polimorfismo 173
3.3.4 Dall'organizzazione allo standard 179
3.3.5 Verso l'uniformità o la varietà? 180
3.3.6 Flessibilità e interpretazione 185
3.3.7 Potere 192
3.4 Il quadro complessivo 193
Capitolo 4 Elementi per una teoria 195
4.1 Che cosa è una teoria 195
4.2 Elementi teorici di base 201
4.2.1 Analisi e definizione: che cosa è uno standard 201
4.2.2 La nascita di uno standard 203
4.3 Il processo di standardizzazione 204
4.3.1 Gli attori 204
4.3.2 Le fasi: negoziazione e pubblicazione 205
4.3.3 Le attività e le forze in gioco 205
Capitolo 5 Analisi empirica: i Web services 213
5.1 Aspetti metodologici: grounded theory analysis 213
5.2 Gli standard “Web services” e il consorzio W3C 214
5.3 Campione documentale 216
5.4 Grounded theory analysis del contenuto dei verbali 221
5.5 Analisi delle attività 222
5.6 Conclusioni 227
Conclusioni 229
Prefazione

Questa pubblicazione affronta il tema degli standard e della standardizzazione, inten-


dendo i processi di creazione, di diffusione e d’impiego. Si mette in luce la comples-
sità sia del contenuto degli standard sia dei sistemi di standardizzazione in una pro-
spettiva organizzativa, guardando agli standard come meccanismi di regolazione eco-
nomica. La prima osservazione nasce dal tema stesso, negli studi di scienze sociali
pochi sono i concetti che sopravvivono attraversando l’evoluzione e
l’avvicendamento delle teorie, degli approcci e dei modelli. Ancor meno restano at-
tuali per essere in tempi diversi ripresi ed elaborati, mantenendo una centralità nel di-
battito. E pochissimi hanno la qualità evocativa e metaforica degli standard. Già
l’origine, l’etimo della parola, deve mettere in guardia. Un termine ricco di significa-
ti, non intuitivo. Dal francese estendart (da estendre) arriva nella forma abbreviata in
inglese standard. Dalla sua nascita si poteva comprenderne il destino: una sorte ricca
di contributi ma anche di ambiguità; un concetto evocativo e per questo spesso im-
propriamente assimilato ad altri ben radicati nelle scienze sociali come le norme, le
consuetudini, le regole e le convenzioni fino ad arrivare al tanto organizzativo termi-
ne di procedura. Standard è usato anche per sottolineare la qualità, "alto standard" per
esempio; oppure distrattamente lo usiamo per indicare una misura per la comparazio-
ne, e potremmo continuare a indicarne i molteplici significati. Il primo passo
dell’autore è stato quindi quello di definire puntualmente il contenuto e il significato,
enfatizzando fin dalle prime mosse la centralità rispetto alla letteratura organizzativa.
Passo successivo è quello di circoscrivere il perimetro di applicazione dello standard
per evitare facili divagazioni. Infatti gli standard hanno applicazione non solo dentro
alle organizzazioni, ma viviamo letteralmente circondati da standard. Gli standard
svolgono, in alcuni casi, una funzione diretta, altre volte mediata, di regolazione della
vita e delle relazioni economiche, ne condizionano i sistemi economici, ne influenza-
no l’innovazione e la competitività. Osservando gli standard, nelle loro differenti
forme, emerge lo straordinario (e inatteso) risultato dell’interazione tra soggetti diver-
si. E qui si torna all’organizzazione che porta alla creazione, diffusione e accettazio-
ne. Se consideriamo il processo di creazione non si può rimanere indifferenti alla sua
pervasività e alle molteplici forme organizzative coinvolte. Da organismi internazio-
nali dedicati a singole persone troviamo una pluralità di soggetti coinvolti nella pro-
duzione di standard. Le "guerre" tra standard hanno visto contrapposte nazioni, istitu-
X Prefazione

zioni, organismi internazionali, aziende fino a interessare i singoli utenti e clienti di


un prodotto o servizio. Appare del tutto evidente che per comprendere il funziona-
mento dei sistemi organizzativi nel loro ruolo di standardizzazione dobbiamo coglier-
ne l’essenza: un processo che, in molti casi, coinvolge più soggetti, portatori di inte-
ressi non sempre coincidenti, chiamati con ruoli diversi e variabili a collaborare al
fine di elaborare e approvare uno standard. Se consideriamo l’elaborazione organiz-
zativa rileviamo che lo stesso gruppo di persone può essere composto da membri di
differenti organizzazioni, con competenze e conoscenze che possono essere altrettan-
to differenziate. Ma ancora, lo stesso gruppo di coloro che partecipano alla fase di e-
laborazione può non necessariamente corrispondere al gruppo dei fruitori. Natural-
mente in una situazione che potremmo chiamare trasparente, molti standard nascono,
come ci ricorda questo lavoro, ed emergono in modo molto più sommerso, dove le
convenzioni e i processi emulativi sono particolarmente intensi, dove la volontà e
l’intenzione di standardizzare potrebbe non essere eppure palese o legata ad obiettivi
evidenti agli stessi "creatori" dello standard. Così anche la comunità dei “produttori-
fruitori” potrebbe non essere riconoscibile a priori e costituirsi in modo emergente
attraverso una rete anche complessa di relazioni. Il fenomeno della spontaneità si in-
treccia con la presenza di fattori di “disegno” organizzativo e di razionalità progettua-
le. Allo stesso modo la trasmissione e l’evoluzione di uno standard nel tempo non
possono lasciare indifferente il ricercatore sociale. L’autore sottolinea le dinamiche di
sviluppo e di consolidamento degli standard e le forme di accettazione e impiego. Il
governo e il controllo degli standard è una leva competitiva di forte intensità con con-
seguenze dirette sul potenziale di sviluppo e di innovazione. Il tema della produzione
degli standard inevitabilmente si intreccia con la proprietà degli standard, con il ruolo
che soggetti differenti possono giocare nella fase di creazione e di diffusione, fino a
influenzare l’accettazione nella popolazione di potenziali utenti. Standard, standar-
dizzazione e proprietà si incrociano sempre più strettamente nello spiegare
l’evoluzione dei sistemi economici, sulle potenzialità di crescita e sulle modalità con
cui si esprime la divisione internazionale della conoscenza. Gli standard non di rado
appaiono come il risultato di conoscenze codificate e condivise, e rappresentano un
tangibile contributo delle economie della conoscenza. Nelle fasi di produzione e di
diffusione si presentano evidenti i temi della protezione dei diritti intellettuali. Lo
sforzo compiuto con questo lavoro è almeno duplice: definire il contenuto e il valore
organizzativo e insieme tratteggiare le qualità e le modalità del processo di standar-
dizzazione. L’intento perseguito rientra in un più ampio progetto di ricerca promosso
dal laboratorio di ricerche organizzative OrgLab della Facoltà di Economia
dell’Università degli Studi di Cassino. Il programma pluriannuale esplora le implica-
zioni organizzative e strategiche della gestione degli standard nelle sue differenti
componenti come risultato di un sforzo “organizzato” e come processo che coinvolge
soggetti diversi. Un’arena per molti aspetti unica e preziosa dove mettere alla prova le
teorie, i modelli e gli approcci dell’organizzazione aziendale.

Andrea Pontiggia
Università Ca’ Foscari Venezia
Ringraziamenti

Vorrei esprimere la mia gratitudine ad Andrea Pontiggia per la sua guida a tutto
tondo, che ha contribuito in questi anni a tracciare per me un fondamentale e impe-
gnativo percorso di maturazione non solo scientifica, ma anche umana. Molte delle
idee iniziali sono nate discutendone con lui, inclusa la struttura base delle prime ver-
sioni del lavoro, l'enfasi sull'analisi empirica, l'uso del concetto di specificità degli
investimenti e molti altri. Ricordo le molteplici discussioni avute insieme nella fase di
progettazione iniziale, e la spinta a "volare alto" e autonomamente che mi ha fornito
in mille modi diversi. Mi è capitato più volte di scoprire solo più tardi la portata e i
benefici di alcune sue indicazioni che inizialmente non capivo. Grazie! La sua revi-
sione finale mi ha aiutato molto a identificare e cercare di affrontare alcuni dei punti
più critici, anche se da parte mia in modo certo parziale e imperfetto.
In questi anni di lavoro sono stato supportato (e sopportato!) dagli amici e colle-
ghi che collaborano in OrgLab a Cassino. Grazie quindi a Francesco Bolici, con le
tante accese discussioni e i suggerimenti e contributi in corso d’opera, inclusa la sua
storia in riquadro; a Francesca Colarullo che ha scritto alcune delle storie in riquadro;
a Roberta Di Mascio che ha partecipato alla prima fase di analisi dei dati.
Sono molto riconoscente a Marco De Marco, che mi ha aiutato più volte nel corso
del lavoro, in tanti modi diversi, molto graditi ed efficaci. Grazie di cuore anche a
Maddalena Sorrentino con cui ho collaborato a lungo e con piacere in questo periodo,
inclusa la fase iniziale dell'indagine sui Web services, insieme anche a Marco Caval-
lari e Mauro Bello.
Ringrazio gli editor, i reviewer e i partecipanti del workshop della special issue di
MISQ “Standard making”, Seattle dicembre 2003. Un ringraziamento anche ai track
chair Arnaldo Camuffo, Roberto D'Anna e Anna Comacchio, e ai partecipanti alla
quarta, alla settima e alla nona edizione del Workshop Nazionale di Organizzazione
Aziendale, per i suggerimenti forniti in queste occasioni nella discussione di versioni
preliminari dello studio empirico e di parti dell'analisi teorica. Tra essi, ringrazio in
particolare Anna Grandori per i suggerimenti bibliografici sulla teoria della dipen-
denza dal percorso. L'inclusione della parte sulle teorie del dominant design nasce da
una indicazione di Enzo Perrone, che ringrazio per avermela fornita durante una pro-
va di valutazione comparativa. Grazie a Theodor Barth per i suggerimenti forniti in
occasione del workshop “ALP-IS 2005”. Ringrazio anche Vladislav Fomin, Edoardo
XII Ringraziamenti

Jacucci e Ole Hanseth per i commenti e i suggerimenti forniti nel corso della ricerca,
in occasione dei nostri incontri alla Copenhagen Business School e all’Università di
Oslo. Un grazie infine ai partecipanti al “Terracina Research Week-end” 2005.
Sono molto grato a Richard Baskerville a Jan Pries-Heje per avermi introdotto al-
l'uso della Grounded Theory Analysis, che ho impiegato per il caso del capitolo 5,
fornendomi non solo riferimenti teorici ma anche una fondamentale guida pratica,
con suggerimenti ed esempi di analisi dei dati; uno dei software che ho impiegato mi
è stato suggerito da loro, insieme ad una demo e a indicazioni di utilizzo. Grazie an-
che a Riccardo Camuffo per aver suggerito l'impiego di metodi di riscontro sull'atten-
dibilità dell'analisi empirica.
Tra quelli che hanno avuto parte attiva in questa storia ci sono anche i parenti e gli
amici che hanno condiviso con me il periodo della ricerca, che si sono inevitabilmen-
te ritrovati a parlare (anche loro malgrado) di argomenti più o meno esotici come la
flessibilità interpretativa, la pleiotropia o la path dependence durante il jogging a
Monte Stella o piuttosto che a cena o nei week-end. Grazie dunque a Giacomo Di
Gennaro, Gabriele Chiarillo, Salvatore Sollima e Roberto Pierantoni, non solo per la
pazienza che hanno dimostrato con me ma anche per il loro contributo attivo e critico
che spero ritroveranno in questo testo. In particolare, la scelta di esempi e storie di
standardizzazione usati del primo capitolo ha tratto a piene mani dai graditi e utili
suggerimenti di parenti, amici e colleghi: Maddalena Sorrentino per la filettatura Sel-
lers, Francesca Colarullo per la cravatta e il sistema metrico decimale, Francesco Bo-
lici per la regola dei 24 secondi. Ringrazio particolarmente mio fratello Andrea, da
cui è nata l'idea di impiegare il linguaggio manzoniano e l'introduzione dei Promessi
Sposi in apertura. Andrea mi ha anche suggerito l'impiego dell'analisi di "Opera Aper-
ta" di Umberto Eco nel capitolo 2.
Nel corso di questa ricerca Elena è diventata mia moglie: oltre agli altri aspetti
della vita, ha quindi preso a condividere con me anche le vicende di questo mio lavo-
ro, vitalizzandolo e plasmandolo in modo determinante. Motivo in più per dedicarlo a
lei. Grazie.
Introduzione

La parola "standard" fece la sua prima apparizione documentata nel medioevo, ma si


riferisce ad un fenomeno che ha origini molto più remote e che appare oggi onnipre-
sente, profondamente radicato ed in continua espansione nella società contemporane-
a, con significati e implicazioni squisitamente organizzativi. Eppure le scienze sociali
hanno finora relegato lo studio della standardizzazione ai margini del campo di atten-
zione, lasciandolo alle pubblicazioni applicative degli ingegneri o ai modelli degli
economisti sull'efficienza delle tecnologie; l'argomento viene in effetti soltanto sfiora-
to nelle ben note tassonomie dei meccanismi di coordinamento organizzativo e negli
studi sulle tecnologie dominanti.
Di conseguenza non abbiamo ancora oggi in organizzazione una risposta a queste
domande solo apparentemente semplici: che cosa è uno standard? a che cosa serve?
come nasce?
Per contribuire a colmare questa lacuna, sono stati qui selezionati alcuni dei più
significativi contributi del pensiero organizzativo e delle sue discipline di riferimento,
interrogandoli in modo mirato e specifico sui tre punti in questione.
La risposta che qui si offre è che lo standard può essere essenzialmente considera-
to come una regola scritta ad adesione volontaria. Grazie alla volontarietà dell'ade-
sione lo standard si configura pertanto come un bene collettivo liberamente disponibi-
le sul mercato in competizione con potenziali sostituti.
Questa particolare forma di regola ad adesione volontaria contribuisce a produrre
utilità sia all'interno dei confini organizzativi che al loro esterno: nel primo caso trova
impiego come meccanismo di coordinamento o come piattaforma di improvvisazione;
nel secondo caso come catalizzatore di relazioni interorganizzative.
Su queste basi, l'idea fondamentale che emerge in questo contributo è tanto sem-
plice quanto nuova nella teoria delle regole: il "mercato delle regole" funziona so-
stanzialmente come gli altri mercati: esso tende a convergere verso un punto di ottimo
paretiano, cioè verso lo standard (o la pluralità di standard) che nel complesso mas-
simizza l'utilità degli attori sul mercato.
Il mercato delle regole che emerge da questa analisi va però oltre la nozione di
mercato dell'economia classica, ed anche oltre quella che è possibile derivare dall'in-
clusione dei fenomeni successivamente osservati e dibattuti dagli economisti, come i
benefici derivanti dall'espansione della rete degli utenti (esternalità di rete) o l'in-
XIV Introduzione

fluenza della storia passata (dipendenza dal percorso). Esso risulta caratterizzato da
modalità di selezione ecologica che stimolano il continuo proliferare di nuove regole,
promosse da gruppi spesso in competizione tra loro per l'affermazione delle proprie
identità collettive, favorendo così la varietà e il polimorfismo. Nello stesso tempo, il
mercato delle regole presenta aspetti che sono ben spiegati dai contributi neoistitu-
zionali con la presenza di forze che spingono all'isomorfismo e alla convergenza ver-
so standard comuni, originate dalla necessità di acquisire maggiore legittimazione so-
ciale da parte dei gruppi di adozione. Le tensioni e gli equilibri che caratterizzano la
nascita e la diffusione di uno standard sono spesso condizionati dalla distribuzione
del potere, che trova anche esso una sua spiegazione negli studi organizzativi. L'ac-
cento sui meccanismi di selezione ecologica, legittimazione, identità e potere non to-
glie però spazio al ruolo di primo piano che gli aspetti di razionalità tecnica ed eco-
nomica tendono a ricoprire, dando a volte luogo a fenomeni particolarmente articolati
e difficili da analizzare compiutamente. In alcuni casi il mercato delle regole si strut-
tura infatti secondo le logiche dei sistemi complessi e modulari, che trovano in parte
spiegazione con i più recenti sviluppi delle teorie del dominant design. L'infrastruttu-
ra informativa Internet rappresenta l'esempio più evidente e paradigmatico del suc-
cesso delle architetture standard complesse e modulari, che hanno oggi impiego in
diversi settori industriali come quello automobilistico, quello aerospaziale, quello in-
formatico e molti altri. Il perché di questa crescente diffusione delle architetture com-
plesse e modulari può essere almeno in parte spiegato ricorrendo agli studi sulla co-
struzione sociale della tecnologia, i quali mostrano come i sistemi complessi possano
conseguire un equilibrio ottimale tra varietà e flessibilità interpretativa, tra stabilità ed
innovazione, e con esso dunque un'altra particolare forma di espressione di quella uti-
lità complessiva che il mercato delle regole tende ad ottimizzare.
E' dunque sulle diverse nozioni di utilità, sui diversi meccanismi atti a produrla e
sui diversi tipi di attori in gioco e che si realizza il passaggio da una spiegazione pu-
ramente economica di come nasce uno standard ad una più articolata e complessa che
tiene conto dei fattori organizzativi. E' in questo senso che le dieci proposizioni offer-
te nel capitolo 4 possono essere lette: non certo una vera e propria "teoria dello stan-
dard", che questo studio non vuole e non può certo aspirare a produrre in senso com-
piuto, quanto un esercizio di immaginazione disciplinata. Esso è orientato ad offrire
elementi di riflessione teorica alla comunità scientifica che possano spiegare in modo
generalizzato le osservazioni sul campo. Per questo si prende avvio proprio da esempi
e storie di standard scelti per la loro varietà e diversità, che vengono continuamente
ripresi ed integrati con nuovi apporti in tutto il corso dell'analisi. Il capitolo finale del
libro, con l'indagine empirica del caso "Web services", ha lo scopo non tanto di dimo-
strare compiutamente quanto ipotizzato in precedenza, quanto di porre in campo un
esempio di indagine empirica, basato sull'analisi delle tracce documentali di un pro-
cesso di standardizzazione, che sembra potenzialmente adatto a questo campo di ri-
cerca.
Il libro è strutturato secondo il percorso qui delineato: la domanda "che cosa è uno
standard" è affrontata nel primo capitolo, ove alla raccolta iniziale di esempi e storie
si fa seguito con una discussione della radice etimologica del termine e con un'analisi
delle definizioni in letteratura: sulla base di tutti questi elementi viene infine svilup-
Introduzione XV

pata l'idea dello standard come regola ad adesione volontaria in forma scritta e pub-
blica.
Il secondo capitolo mostra "a che cosa serve" uno standard, partendo dai contribu-
ti organizzativi più noti che classificano lo standard come strumento di coordinamen-
to, per poi prospettare un ruolo dello standard per le relazioni interorganizzative in
base alla teoria dei costi di transazione, proponendo infine alcuni spunti di analisi di
stampo postmoderno che vede lo standard come piattaforma di improvvisazione e in-
novazione organizzativa. Sul finale di capitolo la prospettiva si estende ai vantaggi
degli standard rispetto alle regole coercitive specificamente legati alla volontarietà
dell'adozione, che costituisce uno degli elementi caratterizzanti del "mercato delle re-
gole" che emergerà in seguito.
Il terzo capitolo è dedicato ai numerosi lavori in letteratura che contribuiscono a
spiegare "come nasce uno standard". Il percorso critico è introdotto dalla discussione
di un recente numero speciale di MIS Quarterly dedicato ai processi di standardizza-
zione in ambito Information Technology, da cui emerge la varietà degli approcci teo-
rici e la complessità del tema. Su questa base si individuano due filoni di indagine te-
orica: da un lato i lavori della cosiddetta network economics; dall'altro i contributi
delle scienze sociali. Entrambi contribuiscono, per aspetti diversi, a formare il quadro
di riferimento complessivo che viene costruito in seguito.
Il quarto capitolo si apre con una breve discussione di metodo atta a porre in luce i
requisiti essenziali di un contributo teorico nelle scienze sociali, per poi specificare,
in dieci proposizioni, che cosa è, a che cosa serve e come nasce uno standard, deline-
ando una serie di ipotesi teoriche sulle caratteristiche principali del "mercato delle re-
gole": attori, fasi, attività e forze in gioco. Le proposizioni sono presentate per livelli
di complessità crescente, a partire da assunzioni iniziali molto restrittive per poi
giungere gradualmente a situazioni sempre più complesse.
Il quinto capitolo offre l'analisi empirica del processo di standardizzazione dei
"Web services", che evidenzia la presenza nel processo di standardizzazione in esame
di alcuni degli elementi rilevanti già prospettati in teoria, che includono la tendenza
alla massimizzazione della flessibilità interpretativa, i giochi delle alleanze, le attività
di negoziazione progettuale tipiche degli standard anticipatory.
Il capitolo conclusivo riassume gli apporti essenziali del lavoro, dedicando qual-
che spazio alla discussione dei limiti, delle implicazioni e dei possibili sviluppi della
ricerca.
1
Che cosa è uno standard

1.1 Esempi e storie di standard


In questa sezione verranno proposti alcuni particolari esempi e storie di standard, che
non costituiscono certo una raccolta completa o un campione rappresentativo: essi
1
sono stati scelti piuttosto ricercando una sana e stimolante varietà , per dare un’idea
della eterogeneità, della complessità e persino della bizzarria dei significati e delle
esperienze che spesso si celano dietro a ciò che genericamente chiamiamo "standard".
Essi verranno ripresi e commentati in seguito alla luce degli elementi teorici che ver-
ranno gradualmente introdotti.

1.1.1 Il linguaggio: uno "standard" antico e misterioso

L'Historia si può veramente deffinire una guerra illustre contro il tempo, perché togliendoli
di mano gli anni suoi prigionieri, anzi già fatti cadaueri, li richiama in vita, li passa in ras-
segna, e li schiera di nuovo in battaglia. Ma gli illustri Campioni che in tal Arringo fanno
messe di Palme e d'Allori, rapiscono solo che le sole spoglie più sfarzose e brillanti, imbal-
samando co' loro inchiostri le imprese de Prencipi e Potentati, e qualificati Personaggi, e

1
Le storie e gli esempi di standard si devono in buona parte alle idee ed ai suggerimenti di
coloro che ho menzionato nei ringraziamenti. Inoltre ho fatto riferimento ad alcuni dei brillanti
esempi illustrati in (Kindleberger, 1983), tra cui la guida a destra, lo scartamento dei binari, il
calendario e la misura del tempo. Per una raccolta più ampia e sistematica di casi, cfr.
(Grindley, 1995), che analizza la storia degli standard nei mercati dei videoregistratori, in
quelli dei supporti audio (CD vs DAT), dei personal computers e dei sistemi aperti, della TV
ad alta definizione e dei telefoni cordless. Si veda anche (Rohlfs, 2001) che prende in esame,
attraverso otto casi di studio, la nascita e l'evoluzione degli standard tecnologici nei mercati di
fax, telefono, del "picturephone", del CD, del videoregistratore, del PC, della televisione e di
Internet. Un simpatico racconto sull'evoluzione storica degli standard è apparso in (Nesmith,
1985). Per una vivace e documentata analisi divulgativa di tecnologie e standard "che non ce
l'hanno fatta", come la posta pneumatica, il fonografo e le macchine elettriche, si consiglia
infine la lettura di (Nosengo, 2003).
2 Capitolo 1

trapontando coll'ago finissimo dell'ingegno i fili d'oro e di seta, [...] Imperciocché, essendo
cosa evidente e da verun negata non essere i nomi se non puri purissimi accidenti…
«Ma quando io avrò durata l'eroica fatica di trascriver questa storia da questo dilavato e
graffiato autografo e l'avrò data, come si suol dire, alla luce, si troverà poi chi duri la fatica
di leggerla?» Questa riflessione dubitativa, nata nel travaglio di decifrare uno scarabocchio
che veniva dopo accidenti, mi fece sospender la copia, e pensar più seriamente a quello che
convenisse di fare. [...] «Meno male, che il buon pensiero m'è venuto sul principio di questo
sciagurato lavoro: e me ne lavo le mani». Nell'atto però di richiudere lo scartafaccio, per ri-
porlo, mi sapeva male che una storia così bella dovesse rimanersi tuttavia sconosciuta; per-
ché, in quanto storia, può essere che al lettore ne paia altrimenti, ma a me era parsa bella,
come dico; molto bella. «Perché non si potrebbe, pensai, prender la serie de' fatti da questo
manoscritto, e rifarne la dicitura?» Non essendosi presentato alcuna obiezion ragionevole, il
partito fu subito abbracciato. Ed ecco l'origine del presente libro, esposta con un'ingenuità
pari all'importanza del libro medesimo.

Il pezzo che precede è tratto dall’introduzione de I Promessi Sposi. Subito dopo c’è il
famosissimo incipit del primo capitolo: «Quel ramo del lago di Como, che volge a
mezzogiorno, tra due catene non interrotte di monti…».
I Promessi Sposi, riconosciuto come opera fondativa del romanzo italiano moderno,
2
segna anche la nascita di una sorta di nuovo standard di linguaggio narrativo . La fin-
zione usata dal Manzoni di "rifare la dicitura" della "bella storia" trovata nell'antico
"scartafaccio", originariamente scritta nell'ampolloso, retorico, spagnoleggiante lin-
guaggio di matrice secentesca allora in uso nelle opere letterarie, gli permette di pro-
3
porre l'adozione generalizzata di un nuovo linguaggio letterario . Questa decisione
potrebbe essere vista come una scelta determinante nella nascita di uno standard.
Dai Promessi Sposi in poi, la "dicitura" proposta dal Manzoni si è infatti affermata
come il linguaggio d'elezione per la narrativa e come la base fondante della lingua
italiana moderna. Atti negoziali come questo costituiscono fasi fondamentali dei pro-
cessi di allineamento degli interessi e possono generare conseguenze apparentemente
2
Scrive il Caretti: «Poco più di quattro anni [1821-1825], ma un periodo intensissimo e quasi
frenetico di lavoro durante il quale il Manzoni fu preliminarmente tratto a credere di doversi
addirittura creare, ai fini del romanzo vagheggiato, una lingua artificiale, di laboratorio,
quasi si trattasse di partire da un degré zéro de l'écriture e spettasse esclusivamente allo
scrittore di costituire per via analogica (tenendo come punto di riferimento il francese) la
nuova lingua del romanzo italiano, e quindi si indusse a quella provvisoria e laboriosa
conversione del dialetto milanese nel toscano, tramite fondamentale il Cherubini, che costituì
il primo riconoscimento consapevole della lingua toscana come insostituibile istituto, e che
precluse alla successiva esperienza diretta del fiorentino parlato come ultimo grado di una
ricerca coerente di un mezzo linguistico duttile e vivo, di base nazionale, e tuttavia
moderatamente aperto, sul pieno dell'espressività, anche a forme e innesti non toscani. Il
Manzoni creava così in Italia, si può dire dal nulla, il romanzo moderno, e impostava
pragmaticamente la questione della lingua come problema stilistico dell'adeguamento della
forma espressiva alla natura intima dell'opera d'arte, facendo confluire nei Promessi Sposi
tutte le sue esperienze di storico, di moralista, e di scrittore». Dalla Presentazione a I Promessi
Sposi nell'edizione a cura di Lanfranco Caretti, Mursia 1966 -Classici gum, pag. 10. La stessa
edizione riporta un'accurata bibliografia critica (pagg. 16-17).
3
Nella parte finale dell'introduzione de I Promessi Sposi, il Manzoni si erge esplicitamente a
difensore della nuova "dicitura", pronto a rispondere in maniera così convincente ed esaustiva a
tutte le possibili obiezioni, tanto da poterci scrivere un libro intero, però «abbiam messo da
parte il pensiero, per due ragioni che il lettore troverà certamente buone: la prima, che un libro
impiegato a giustificarne un altro, anzi lo stile d'un altro, potrebbe parer cosa ridicola: la
seconda, che di libri basta uno per volta, quando non è d'avanzo»
Che cosa è uno standard 3

irreversibili per l'evoluzione successiva della lingua, un fenomeno che gli economisti
chiamano "dipendenza dal percorso" e che sarà oggetto di analisi nei prossimi capito-
li.
Il linguaggio potrebbe dunque essere considerato come un esempio straordinario
(pur se piuttosto peculiare) di standard, uno dei più antichi, pervasivi e importanti
nella storia dell'umanità. In Italia, in particolare, la cosiddetta "questione della lingua
italiana" ha una storia nobile e antica, che ha visto nascere e svilupparsi, molto prima
del romanzo moderno ottocentesco, la letteratura in volgare del XIII secolo di scuola
siciliana e quella toscana del dolce stil novo. Già ai tempi di Dante l'affermazione in
letteratura del volgare sull'antico standard del latino aulico avvenne non senza diffi-
coltà e contese: Dante stesso sentì infatti il bisogno di pubblicare un'opera come il De
Vulgari Eloquentia a sostegno della nobiltà e dell’espressività letteraria del volgare,
scrivendolo in latino perché rivolto ad un pubblico dotto. Verso la fine del 1500, la
fondazione dell'Accademia della Crusca acquisì rapidamente un ruolo di primo piano
per la diffusione e la difesa dell’italiano, attraverso il contributo decisivo di Lionardo
Salviati, "l'infarinato", che fissò l’uso della simbologia relativa alla farina, conferendo
all’Accademia lo scopo di separare il fior di farina (la buona lingua) dalla crusca, se-
condo il modello di lingua già promulgato dal Bembo (1525), che prevedeva il prima-
to del volgare fiorentino, modellato sugli autori del Trecento. Per una bibliografia es-
senziale sulla storia e sulla questione della lingua italiana cfr. (Accademia Della Cru-
sca, 2007).
Anche altri linguaggi, come l'inglese, hanno avuto una storia di progressiva affer-
mazione e trasformazione simile a quella dell'italiano: basti pensare al ruolo e all'in-
fluenza dell'opera di autori come Geoffrey Chaucer e di William Shakespeare sulla la
nascita dell'inglese moderno (cfr.(AAVV, 2000b)). In ambo le situazioni, pur con im-
portanti differenze contestuali e culturali, opere importanti come la Divina Commedia
di Dante o i Canterbury Tales di Chaucer hanno contribuito in modo determinante,
con il loro successo e la loro diffusione, all'affermazione di uno "standard" nazionale.
Come vedremo in seguito, il successo di uno standard sembra essere collegato non
solo alla sua effettiva validità tecnica, ma anche ad altri fattori più difficilmente valu-
tabili, come la creazione di un senso di identità nella comunità di riferimento, o come
il raggiungimento di una certa "massa critica" di utenti attivi. Questi ed altri fattori
potrebbero aver giocato a sfavore, ad esempio, dei i tentativi di affermare linguaggi
universali come l'esperanto e lo stesso latino, che è ancora oggi la lingua ufficiale del-
la Chiesa Cattolica. L'esperanto, in particolare, fu ideato artificialmente proprio per
avere una superiorità "tecnica" sulle lingue native, risultando molto più facile da ap-
prendere come seconda lingua, (Federazione Esperantista Italiana, 2007). Cionono-
stante, pur avendo riscontrato un certo successo, l'esperanto resta ancora oggi uno tra
i moltissimi tentativi non riusciti nella storia dell'umanità di raggiungere la chimera di
uno standard linguistico universale e perfetto, le cui origini si perdono nel mito della
Torre di Babele. Per un'analisi magistrale della ricerca di una lingua perfetta nella
cultura europea, cfr. (Eco, 1993).
Ai fini della scelta di uno standard il senso di identità può avere rilievo non solo a
livello collettivo, come senso di appartenenza a una comunità, ma anche a livello in-
dividuale, come espressione del proprio io. Il riquadro che segue si riferisce ad uno
4 Capitolo 1

"standard" che rappresenta un po’ il simbolo del senso di identità maschile: la cravat-
ta.

LA CRAVATTA
di Francesca Colarullo

La cravatta è in un certo senso uno standard piuttosto particolare e emblematico.


Questo oggetto sostanzialmente inutile e che anzi a volte arreca fastidio a chi lo
indossa, è venuto nei secoli ad assurgere, forse più di qualunque altro accessorio,
a simbolo dell’intero emisfero maschile. Lo stesso Lord Brummer, massimo espo-
nente del dandismo, arriverà ad affermare "La cravatta è l’uomo!"(Mignoli, 2001).
Come nasce questa piccola striscia di stoffa che molti di voi indossano ogni matti-
na?
All’inizio c’era il focale, un misto tra una sciarpa e l’attuale cravatta. Serviva a pro-
teggere la gola del "civis romanus" dal gelo, ma a differenza di quella attuale, que-
sta cravatta ante litteram non poteva essere ostentata in pubblico e solo anziani e
oratori potevano indossarla (Mignoli, 2001).
In realtà alcuni studiosi hanno riscontrato la presenza di "cravatte" già in culture
precedenti a quella romana. Molte mummie egiziane sono state ritrovate con una
corda, d’oro o di terracotta, chiusa attorno al collo, che fungeva da amuleto per
proteggere il defunto dai pericoli presenti nell’aldilà (ilnodo.it, 2007). Anche i sol-
dati di terracotta dell’imperatore Shih Huang Ti ritrovati in Cina presentavano un
accessorio che ricorda molto la nostra la cravatta, il cui uso doveva essere proba-
bilmente simile a quello del focale romano (happyjack.it, 2007). Ma a quale data
possiamo far risalire la nascita della cravatta così come la conosciamo oggi?
La maggior parte degli scritti fanno risalire tale data al lontano 1635, anno in cui
un reggimento di cavalleria leggera, composto da truppe mercenarie croate, giun-
se in Francia al servizio di re Luigi XIV per combattere al suo fianco nella Guerra
dei Trent’anni. Durante una parata tenuta a Parigi in occasione di una vittoria i
croati indossarono, come elemento distintivo del corpo di appartenenza, una stri-
scia di stoffa intorno al collo, il cui tessuto era diverso a seconda dei gradi. Le due
estremità, chiuse a forma di fiocco o di una rosetta, ricadevano poi a lambire il
petto. I francesi furono così conquistati da questo nuovo accessorio da introdurlo
subito nel loro abbigliamento, attribuendogli il nome di "cravates", dal croato
hrvat, "croato" (Mignoli, 2001).
Siamo però solo ai primi passi della storia della cravatta nel mondo maschile che,
per divenire ciò che è adesso, ha dovuto compiere ancora una lunga strada. L’uso
di questo particolare accessorio si diffuse dapprima in campo militare, sostituen-
do il classico colletto rigido degli ufficiali francesi, dando così loro un tocco di
maggiore eleganza unita ad una maggiore praticità, per poi essere adottato anche
dalla vezzosa corte di Versailles, laddove si arricchisce di pizzi, merletti e nastri co-
lorati. Da lì a tutta l’Europa il passo fu breve (Puhiera, 2007). La forma di tale cra-
vatta era però ancora alquanto diversa da quella odierna. A rivendicare l’onore di
aver inventato l’attuale cravatta sono i cittadini di Steenkerke, una cittadina del
Belgio. Il giornale tedesco Frankfurter Allgemeine Sonntagszeitung riporta un a-
neddoto interessante legato a tale vicenda. In esso si narra come nel 1692, duran-
te un attacco a sorpresa degli inglesi contro le truppe francesi di stanza lì "gli uffi-
ciali francesi non ebbero il tempo di vestirsi per bene e in fretta e furia si legarono
al collo la sciarpa dell’uniforme con un nodo lento e infilarono le estremità della
sciarpa nelle asole della giacca. Voilà era nata la cravatta nella sua forma origina-
le" (vetrineaperte.it, 2007).
Che cosa è uno standard 5

Durante la rivoluzione francese la cravatta inizia ad assumere la funzione di sim-


bolo: nera quella dei rivoluzionari, bianca quella dei controrivoluzionari. Ma è solo
attorno al XIX secolo che la cravatta inizia ad affermarsi come accessorio inelimi-
nabile, nascono trattati come quello di Le Blanc "L’arte di annodare la cravatta"
(1828), si introducono nuovi tessuti come la battista, il cashmere e la mussolina e
il nodo diviene l’elemento chiave del gusto (Mignoli, 2001). Il nodo così come lo
conosciamo oggi, come le origini della cravatta, non ha una data ben definita, si sa
solo che comparve attorno al 1860 senza alcun motivo apparente. Sono stati cal-
colati 188 modi di annodarsi la cravatta, di cui 85 quelli ancora in uso e 9 i princi-
pali, tra cui possiamo ricordare lo stile Windsor attribuito a Edoardo VIII o lo stile
Principe Albert.
La cravatta è considerata oggi un come un vero e proprio oggetto di culto, indos-
sata ogni giorno da circa 600 milioni di persone nel mondo (vetrineaperte.it,
2007). In Italia ogni uomo ne possiede in media 38, di cui almeno 1 su 4 stile Re-
gimental (a righe oblique), lo stile generalmente scelto quando si vuole far perce-
pire un senso di rigore e di conseguenza il più in auge in momenti difficili.
La cravatta è, oramai, considerata indispensabile, nonché obbligatoria in molte
occasioni. Era nera (e naturalmente made in Italy) quella indossata da Kofi Annan
in udienza dal Papa; scura, ma con piccoli motivi rettangolari chiari quella di Sad-
dam Hussein nell’ultima intervista all’emittente britannica Channel 4; giallo carico
quella che Gianni Agnelli indossava nell’ultima foto pubblica accanto al presidente
Ciampi.
Secondo alcuni è l’unico elemento di distinzione per un uomo e attraverso essa
chi la indossa esprime la propria personalità, trasmettendo messaggi psicologici e
sociali.
In un articolo di Repubblica del 23 febbraio 2003 veniva così descritta: "moda,
manifesto, obbligo sociale, passione, ossessione, emblema di virilità e dunque,
banalmente, simbolo fallico. Unico capo di abbigliamento maschile che consente
di declinare fantasia e ed eleganza, unica zona franca dove è possibile quanto
meno tentare di osare". Per Elsa Morante la cravatta "è l’ultimo ponte fra l’uomo
e la fantasia, l’ultimo fossato fra l’uomo e la barbarie"

Se nella scelta di indossare una cravatta gli elementi identitari hanno la prevalenza
su quelli strettamente tecnici, ciò non è altrettanto vero per quanto riguarda le filetta-
ture di dadi e bulloni. La validità tecnica dello standard gioca in questo caso un ruolo
altrettanto importante di quello della sponsorizzazione dell'individuo o della comunità
che si identifica nello standard. I due elementi spesso si intrecciano tra loro, come ap-
pare evidente nella storia che segue.

1.1.2 Le filettature di Sellers: anche il caso ha la sua importanza

Un articolo di James Surowiecki apparso su Wired (Surowiecki, 2002) traccia la sto-


ria del primo standard industriale statunitense, presentato ufficialmente da William
Sellers il 21 aprile 1864 in un meeting dell'Istituto Franklin, l'associazione degli im-
prenditori statunitensi del settore ferramenta. William Sellers era considerato il più
abile produttore di componenti meccanici del tempo: aveva cominciato come appren-
dista meccanico a 14 anni, a 21 aveva già un suo business e a 31 era a capo dell'im-
presa più importante di Filadelfia, il principale centro d'America per l'industria mec-
6 Capitolo 1

canica di precisione. La relazione di Sellers, intitolata Su un sistema uniforme di filet-


tature per viti, poneva l'accento sul fatto che fino ad allora non era stato fatto in Ame-
rica nessun tentativo organizzato di stabilire un sistema uniforme: ciascun produttore
aveva adottato quello che aveva giudicato il migliore o il più conveniente. Il risultato
era che viti, dadi e bulloni di produttori diversi erano incompatibili tra loro, per cui
non c'era modo di essere certi che la componentistica acquistata da un fornitore, an-
che situato poco distante da quello originale, sarebbe stata utilizzabile, con gravi di-
sagi nell'impiantistica, nelle costruzioni, nella meccanica, nelle opere infrastrutturali,
nei trasporti. Nel proporre lo standard da adottare, Sellers riconobbe nel suo discorso
che il cosiddetto standard Withworth si stava affermando in Inghilterra e cominciava
a venire adottato anche da alcune imprese americane. Tuttavia si dichiarò convinto
che gli USA avessero bisogno di un sistema autonomo e più innovativo di quello bri-
tannico, presentando, nella parte centrale della sua relazione, una filettatura di sua in-
venzione di forma particolare, più facile da produrre, più adattabile e più economica.
Realizzare una vite con la filettatura Withworth richiedeva tre lavorazioni con la fresa
e due con il tornio; il metodo Sellers invece aveva bisogno soltanto di una passata alla
fresa e una al tornio. Tutti si dichiararono entusiasti; venne comunque costituito un
comitato di esperti per la valutazione comparativa dei due standard. Dopo un mese il
comitato si pronunciò all'unanimità in favore dello standard Sellers.
Eppure la presentazione di Sellers era solo una delle fasi di un processo di nego-
ziazione il cui esito non era affatto scontato e per il quale Sellers si adoperò con gran-
de impegno ed energia. Egli sapeva fin dall'inizio che l'idea vincente da sola non era
sufficiente ad assicurare il successo del nuovo standard. La preparazione del meeting
all'Istituto Franklin fu lunga e ben architettata: Sellers aveva già convinto quattro del-
le più grandi officine meccaniche della costa orientale ad adottare il suo metodo. Egli
veniva da un'agiata famiglia di Filadelfia, era amico dei maggiori imprenditori della
città e aveva buoni contatti e referenze anche nell'importante centro manifatturiero di
Providence, dove aveva gestito un'officina meccanica. La sua impresa aveva rapporti
commerciali con alcune delle maggiori aziende del paese ed egli, dal 1864 in poi, usò
tutta la sua influenza per esercitare continue pressioni in favore dell'adozione genera-
lizzata dello standard nascente. Quattro anni più tardi, nella primavera del 1868, il
segretario della Marina statunitense, Gideon Welles, commissionò uno studio sugli
standard di filettature, che indicasse quale di quelli disponibili fosse da preferire. I
risultati dello studio riscontrarono l'effettiva superiorità tecnica del metodo Sellers su
quello Withworth, indicando per altro che la vite Sellers, che aveva soltanto tre anni,
era già di gran lunga più diffusa negli USA della Withworth, nata in Inghilterra 23
anni prima della concorrente. In base a questo studio, la Marina si espresse alla fine a
favore del metodo Sellers, dando così credito alla rapida diffusione di mercato che il
nuovo sistema aveva incontrato. E' importante notare come sia stata determinante la
rete di relazioni di Sellers per questo risultato: secondo la storia riportata da Surowie-
cki, molte, se non tutte, le aziende visitate dagli ufficiali della Marina avevano stretti
rapporti con Sellers. Un anno dopo, la ferrovia della Pennsylvania fu la prima negli
Stati Uniti ad adottare lo standard Sellers. In quel periodo si stava realizzando una
rete nazionale di trasporti ferroviari e i binari della Central e della Union Pacific era-
no stati collegati in modo da realizzare un unico percorso transcontinentale. Ovvia-
Che cosa è uno standard 7

mente, la reperibilità di dadi e bulloni compatibili in ogni parte degli USA era un re-
quisito importante, ma il fatto che il primo passo verso lo standard Sellers sia stato
fatto proprio dalle ferrovie della Pennsylvania, dove Sellers faceva parte del comitato
direttivo, non è probabilmente casuale. Tre anni dopo anche l'associazione dei mastri
carrozzieri e quella dei mastri meccanici furono coinvolte, finché nel 1883 le filetta-
ture Sellers erano ormai impiegate in tutte le ferrovie del paese, che costringevano
anche tutti i loro fornitori ad adeguarsi. Lo standard Sellers non soltanto conquistò
completamente l'America nel giro di una trentina d'anni: nel 1901, con la Conferenza
Generale di Pesi e Misure, esso venne ufficialmente adottato anche in Europa. E' inte-
ressante notare come invece la Gran Bretagna resistesse ancora ancorata al vecchio
standard Withworth, e come soltanto una serie di eventi molto gravi la convinsero ad
abbandonarlo. Fu la seconda guerra mondiale a determinare la crisi: nell'inverno
1941-42 durante il conflitto nordafricano, le forze dell'Ottava Armata britannica af-
frontavano i carri armati dell'Afrika Korps tedesco. Ovviamente i mezzi pesanti bri-
tannici in guerra nel deserto erano sottoposti a danneggiamenti, usure e avarie di ogni
genere. Con le prime forniture di veicoli e pezzi di ricambio statunitensi gli addetti
britannici alla manutenzione si resero conto che i dadi americani non si avvitavano
sui bulloni inglesi! La soluzione adottata dall'industria bellica statunitense fu quella
di creare due distinte linee di produzione a standard diversi, con conseguenti difficol-
tà e inefficienze generalizzate. In seguito gli Inglesi si resero conto che era stato piut-
tosto idiota rischiare di compromettere una battaglia per colpa delle filettature incom-
patibili, e decisero, nel 1948, di abbandonare lo standard Withworth abbracciando
quello americano, che da quel momento in poi venne chiamato standard USA. Lo
standard USA dilagò anche in Inghilterra nel giro di pochi anni, rendendo finalmente
completa l'affermazione nel mondo occidentale dell'idea di William Sellers, che era
morto nel 1905.
Che cosa ha determinato l'affermazione dello standard Sellers nel mondo e che co-
sa ha invece costituito un ostacolo? Perché, nonostante la superiorità tecnica e l'abili-
tà politica e negoziale di Sellers ci è voluto tanto tempo? Come vedremo nel seguito
di questo lavoro, a volte anche gli eventi casuali e imponderabili, come un episodio di
guerra in Africa del Nord, possono giocare un ruolo molto importante.

1.1.3 Lo scartamento dei binari ferroviari: i vinti si adeguano

George W. Hilton, professore di storia alla University of California Los Angeles


(UCLA), ha dedicato approfondite ricerche ai processi di standardizzazione dello
scartamento dei binari ferroviari negli USA (Hilton, 1994). In un articolo recentemen-
te apparso sulla rivista "Trains Magazine" (Hilton, 2006), da cui è tratta questa storia,
Hilton ne svela le antiche origini.

Le origini dello standard in Inghilterra


Lo scartamento dei binari di una ferrovia, secondo le convenzioni statunitensi, è la
distanza tra le parti interne della superficie verticale delle rotaie. Lo scartamento stan-
dard USA è di 4 piedi e 8 pollici e mezzo, pari a 1435 mm. Esso è stato inizialmente
adottato con la nascita dei primi treni a vapore, per diffondersi ben presto in Gran
8 Capitolo 1

Bretagna, nel Nord America e in gran parte dell'Europa occidentale (Italia inclusa),
con l'eccezione di Spagna, Portogallo e Irlanda. Come mai questa misura apparente-
mente eccentrica è divenuta uno standard? Quando George Stephenson progettò la
ferrovia Stockon & Darlington nell'Inghilterra del nord nel 1825, adottò uno scarta-
mento di 4 piedi e 8 pollici semplicemente perché era quello della linea ferrata di una
miniera chiamata Willington Way, nei pressi di Newcastle, con cui Stephenson aveva
già familiarità. A sua volta, la Willington Way era stata costruita con questo scarta-
mento perché esso era comune nelle strade in quell'area. Dopo la Stockon & Darlin-
gton, Stephenson usò la stessa misura per la Liverpool & Manchester, la prima ferro-
via del mondo tra due grandi città. In quell'occasione ampliò di mezzo pollice lo scar-
tamento, probabilmente per dare maggiore possibilità di aggiustamento laterale alle
ruote. In effetti la scelta di 4 piedi e 8,5 pollici sembrerebbe del tutto arbitraria. Le vie
tramviarie nell'area di Newcastle presentavano una varietà di scartamenti, sia maggio-
ri che minori, ciascuno dei quali avrebbe potuto essere preso in considerazione da
Stephenson. Intorno al 1870 gli scavi archeologici presso Pompei e in altre aree co-
minciarono a rivelare che lo scartamento adottato da Stephenson avrebbe potuto cor-
rispondere approssimativamente a quello degli antichi carri di epoca romana. In un
famoso episodio, Walton W. Evans, un ingegnere americano, cercò di verificare que-
sta ipotesi misurando con il sistema metrico, in modo da evitare distorsioni, le tracce
lasciate da carri e carrozze a Pompei. Egli convertì le sue misurazioni in pollici e sco-
prì che le tracce, da centro a centro, distavano all'incirca 4 piedi e 9 pollici, e dunque
lo scartamento effettivo doveva essere di poco inferiore. Rilevazioni archeologiche
successive confermarono che questa era la misura dello scartamento comune al tempo
dei Romani. La sopravvivenza di questo scartamento tra i veicoli da strada nell'Euro-
pa Occidentale, Gran Bretagna compresa, finì per determinare il suo trasferimento
anche alle prime ferrovie. Secondo una tradizione non scritta, sembrerebbe che lo
stesso Giulio Cesare abbia fissato lo scartamento dei carri romani nella misura di due
passi di un soldato, ma in assenza di documentazione questa versione non viene gene-
ralmente accreditata. Come attestato da uno studioso inglese di storia delle ferrovie,
Charles E. Lee, tale misura rappresenta probabilmente l'ampiezza ottimale di un carro
relativa alla misura di un cavallo. Un valore inferiore avrebbe sottoutilizzato il caval-
lo, uno superiore lo avrebbe probabilmente sottoposto a sforzo eccessivo. Lo scarta-
mento si è poi trasferito anche nel trasporto autostradale. Nelle ferrovie, l'ampiezza
ottimale con riferimento ad un cavallo è irrilevante. Piuttosto, la misura che conta è
quella di un essere umano. Ogni processo tecnologico deve tenere conto del fatto che
gli esseri umani sono "prodotti" in una sola misura con un ambito di variazione limi-
tato: ad esempio l'altezza va da circa 5 piedi (1 metro e 52) a circa 6 piedi e 6 pollici
(circa 1 metro e 98). Certamente, lo scartamento di 4 piedi e 8,5 pollici non era pale-
semente fuori misura. Permetteva di costruire vetture in grado di ospitare conforte-
volmente due persone una accanto all'altra lasciando spazio sufficiente per il passag-
gio. Per il trasporto di merci, c'era spazio per le tipiche dimensioni dei pacchi che le
persone potevano caricare e impilare. Con questo scartamento standard, il grado di
sporgenza della carrozzeria rispetto alle ruote sembrava appropriato: scartamenti più
elevati furono sperimentati senza successo in Inghilterra.
Che cosa è uno standard 9

Lo scartamento largo e la Great Western Railway inglese


Osservatori che sostenevano che lo scartamento di 4 piedi e 8 pollici e mezzo non era
ottimale non sono mai mancati, e tra essi vi sono stati i personaggi più diversi, inclusi
James J. Hill (il CEO della Great Northern Railroad americana), David P. Morgan (u-
no dei fondatori della rivista Trains), e Adolf Hitler, per nominarne alcuni. In sostan-
za, questa interpretazione è basata sul fatto che il rapporto area/volume dei cilindri
diviene più favorevole con l'aumento della dimensione. In conseguenza, ad esempio,
caldaie più grandi producono un output ad un costo medio più basso di caldaie più
piccole. In una locomotiva a vapore con uno scartamento largo rispetto a quello stan-
dard, la caldaia potrebbe essere più grande e più bassa, con benefici anche per la sta-
bilità. L'uomo che seguì con maggiore convinzione l'ideologia dello scartamento lar-
go fu Isambard Kingdom Brunel, ingegnere capo della Great Western Railway ingle-
se, che era fortemente convinto che 4 piedi e 8,5 pollici fossero troppo pochi per i
mezzi veloci, da 50 a 60 miglia orarie, della sua ferrovia. Brunel scelse per la Great
Western uno scartamento di sette piedi, e parlò entusiasticamente della sua superiorità
di fronte al parlamento britannico. Il parlamento però non si lasciò convincere, e con
il Gauge Act stabilì nel 1846 l'impiego dei 4 piedi e 8,5 pollici per tutte le future linee
ferroviarie, ad eccezione di quelle irlandesi, per le quali invece optò per 5 piedi e 3
pollici. Questo potrebbe essere interpretato come un'indicazione che il parlamento
considerava davvero preferibile uno scartamento più ampio, ma richiedeva quello
standard semplicemente perché era ormai diffuso quasi ovunque tranne che nell'In-
ghilterra occidentale. La linea Great Western resistette strenuamente al nuovo stan-
dard ed anzi con l'acquisizione di alcune nuove linee convertì inizialmente tutte le lo-
comotive preesistenti allo scartamento largo. Per anni, le merci che viaggiavano dalle
Midlands al sud ovest dell'Inghilterra dovevano essere fermate a Gloucester per tra-
sbordarle su treni a scartamento largo, e viceversa in senso opposto (Kindleberger,
1983). Con il passare del tempo, comunque, anche la Great Western fu gradualmente
convertita a 4 piedi e 8,5 pollici, fino a concludere del tutto i trasporti a scartamento
largo nel 1892.

L'esperienza americana
L'esperienza americana fu simile. La guerra civile evidenziò tutti gli svantaggi delle
4
numerose differenze di scartamento che si erano inizialmente determinate . Sia gli sta-

4
Lo scartamento standard di 4 piedi e 8,5 pollici si affermò anche qui principalmente perché gli
ingegneri americani si aspettavano, erroneamente, che avrebbero fatto un grande uso di
locomotive di fabbricazione britannica. Dato che le prime ferrovie americane avevano la
funzione principale di connettere specchi d'acqua che non potevano essere collegati attraverso
dei canali, non c'era ragione inizialmente per aspettarsi una grande uniformità di scartamenti.
Le singole linee ferroviarie non erano state progettate pensando ad una loro possibile futura
interconnessione. Ma dato che Baltimora-Ohio e Boston-Albany usavano il 4 piedi e 8,5
pollici, lo standard cominciò a diffondersi. La Pennsylvania impiegava un 4 piedi e 9 pollici
che era compatibile. Il 6 piedi della Erie-Lackawanna era il più importante scartamento largo al
nord. Le ferrovie canadesi usavano un 5 piedi e 6 pollici, almeno in parte, per motivi militari.
Al sud, gli scartamenti aumentati erano dominanti. Se c'era uno standard in quella zona, era
quello dei 5 piedi. Intorno al 1861, binari con questo scartamento si estendevano da Norfolk e
Richmond fino a Memphis e New Orleans, anche se la mancanza di connessioni e scambi fisici
ostacolava la creazione di una rete vera e propria.
10 Capitolo 1

ti dell'Unione che i governi confederati cominciarono ad incoraggiare l'interscambio


ferroviario. Dopo la guerra, la rapida crescita del commercio del grano dal Midwest
verso l'Est rappresentò un importante fattore propulsivo della standardizzazione.
L'amministrazione Lincoln, dopo aver pianificato una linea transcontinentale a 5 pie-
di per compatibilità con quella esistente in California, decise infine per il 4 piedi e 8,5
pollici, che era allineato a quello delle più importanti ferrovie orientali. Ciò fece sì
che il 4 piedi e 8,5 pollici divenne lo scartamento standard nordamericano.
5
Come mettono bene in evidenza Shapiro e Varian , la scelta degli stati del Sud seces-
sionisti di adeguarsi allo standard dominante al Nord fu sostanzialmente una capitola-
zione:

Nel 1862, quando il Congresso adottò ufficialmente lo scartamento standard per le ferrovie
a lunga percorrenza, era già avvenuta la secessione degli stati meridionali, per cui non c'era
nessuno al Congresso a spingere per lo scartamento da 5 piedi. Dopo la guerra, le ferrovie
meridionali si trovarono sempre più in minoranza. Per i successivi vent'anni si fece affida-
mento su vari tipi di interconnessioni tra il Nord e il West: carrelli con una base estensibile,
sistemi per spostare il carico su una diversa base, e, più comunemente, la costruzione di una
terza rotaia. Alla fine, gli interessi delle ferrovie meridionali dovettero capitolare e adottare
lo scartamento standard nel 1886. (Shapiro & Varian, 1999:9).

Le linee canadesi si erano già conformate nel 1872-73; le ferrovie meridionali avvia-
rono un processo che finì con un blitz di conversione massiccia nel week-end del
memorial day del 1886. I vinti si adeguano.

L'alternativa dello scartamento ridotto


Stranamente, mentre l'omogeneità si diffondeva in tutto il continente, prese anche
6
piede un movimento per le ferrovie a scartamento ridotto . Il curatore della principale
rivista di commercio ferroviario del diciannovesimo secolo, Matthias Nace Forney
della Railroad Gazette, nel corso della sua opera di opposizione al movimento per lo
scartamento ridotto negli anni '70 del 1800, riportò che gli ingegneri ferroviari con i
quali aveva discusso la questione avevano rilevato, in generale, che 4 piedi e 8,5 pol-
lici era di poco sub-ottimale, e che qualcosa intorno ai 5 piedi sarebbe stato preferibi-
le. Forney concordava, ma pensava che per la libera circolazione dei mezzi e delle
merci in tutta la nazione l'omogeneità a 4 piedi e 8,5 pollici era più importante di ogni
5
Il riferimento originale è in lingua inglese. Da qui in avanti, tutte le citazioni di brani originali
in lingua inglese verranno fornite in italiano.
6
Sempre secondo il resoconto di Hilton, un ingegnere scozzese, Robert Fairle, nel 1870 espose
l'idea che notevoli economie di peso potevano essere ottenute utilizzando locomotori più
piccoli come quelli che erano divenuti comuni per i trasporti privati nelle miniere, nelle
segherie e nelle fabbriche. L'errore di valutazione fu quello di invertire l'effettiva relazione
menzionata in precedenza, secondo cui i rapporti area/volume divengono più favorevoli con
l'aumento delle dimensioni. Eppure, in modo rimarchevole, date le circostanze, il movimento a
favore dello scartamento ridotto durò per ben 13 anni, dal 1872 and 1885, prima di estinguersi.
La maggior parte delle linee a scartamento ridotto furono riconvertite entro il nuovo secolo,
anche se una rete con scartamento 3 piedi nel Colorado sud-orientale sopravvisse per quasi un
secolo. Il danno che questo movimento provocò fu molto superiore altrove. Esso ebbe seguito
in gran parte dell'Africa sub-Sahariana, ove si adottò uno scartamento (3 piedi e 6 pollici)
scarsamente adeguato al traffico di minerali pesanti che doveva gestire, e inoltre causò seri
problemi di incompatibilità in India, Australia, e Argentina.
Che cosa è uno standard 11

guadagno che avrebbe potuto essere conseguito con il cambiamento. Senza dubbio
oggi le tecniche ingegneristiche moderne potrebbero servire ad identificare uno scar-
tamento ottimale, ma in assenza di una convincente dimostrazione del contrario, il
punto di vista di Forney del 1870 resta il giudizio più valido. La storia degli scarta-
menti ha molto da dire sul ruolo della superiorità tecnica in uno standard, sui rapporti
di potere tra i gruppi sociali coinvolti, sulle dinamiche dei processi di adeguamento
allo standard dominante, aspetti che verranno analizzati, tra gli altri, nel resto di que-
sto lavoro.

1.1.4 Guida a destra: siamo ancora lontani dall'uniformità


7
Come illustrato in Figura 1.1, la guida a destra (in nero) è oggi lo standard in Europa
continentale (ad eccezione della Gran Bretagna) e in America del Nord.

Figura 1.1 Mappa dello standard di guida nel mondo. In nero i Paesi con guida a destra;
in grigio quelli con guida a sinistra. Fonte: (Wikipedia, 2007b).

La guida a sinistra (grigio chiaro) è invece lo standard in Oceania. Gli altri continenti
vedono una prevalenza della guida a destra, con significative eccezioni tra cui l'India,
il Giappone una vasta zona dell'Africa centro-meridionale. Circa 2/3 della popolazio-
ne mondiale oggi vive in Paesi con guida a destra (Lucas, 2005).
La situazione odierna è il risultato di numerosi cambiamenti nel tempo: negli ultimi
150 anni molti Paesi si sono convertiti alla guida a destra, mentre sembrerebbe che un
solo Paese (la Namibia, in Africa sud-occidentale) sia invece passato alla guida a si-

7
Per "a destra" si intende qui sul lato destro della strada.
12 Capitolo 1

8
nistra . La storia e l'evoluzione dello standard di guida nei paesi del mondo sono det-
tagliatamente documentate in (Kincaid, 1986), un libro oggi difficilmente reperibile,
su cui è ampiamente basato l'aggiornato e approfondito resoconto in (Lucas, 2005).
Oggi sappiamo con ragionevole certezza che in epoca romana si viaggiava sul lato
sinistro della strada. Nel 1999 si è infatti scoperta una strada usata per l'accesso ad
una cava di pietre da costruzione di epoca romana, a Blunsdon Ridge, nel Wiltshire.
Le tracce ivi lasciate dai carri sono molto più profonde sul lato sinistro, nel verso di
ritorno, piuttosto che sul lato destro. Dato che i carri dovevano arrivare scarichi per
tornare carichi di pietre, questo proverebbe che i Romani viaggiavano a sinistra
(Dyer, 1999).

Da sinistra a destra
Come si è passati da una predominanza della guida a sinistra alla situazione opposta?
In assenza di documentazione certa e comprovata, molte spiegazioni sono state forni-
te sui fattori che avrebbero influito sulla scelta del lato della strada. Una delle storie
più comuni è quella basata sull'uso della spada nel periodo feudale:

Nel passato, quasi tutti viaggiavano sul lato sinistro della strada perché questa era l'opzione
più sensata nella violenta società feudale. Dal momento che la maggior parte delle persone
sono destre, preferivano tenere la sinistra in modo di avere la mano destra dal lato del po-
tenziale avversario e il fodero (indossato a sinistra) al lato opposto. In tal modo si evitava
anche di colpire i passanti con il fodero (dalla sezione "History and origin" di (McGregor,
2007)).

Invero, come riporta Lucas, il ruolo della spada potrebbe essere stato esagerato da
una certa moderna concezione romanzesca del passato.

E' invece ragionevole pensare, sulla base delle evidenze disponibili, che il traffico nelle
strade medioevali fosse in predominanza formato da persone comuni a piedi, senza titoli
nobiliari e senza spada, e dal trasporto di merci su carri. Erano soltanto gli aristocratici e i
loro uomini che giravano sistematicamente armati di spada, e quando questi passavano, il
loro diritto di precedenza era determinato dal rango, per cui probabilmente tutti gli altri do-
vevano liberare la strada scostandosi ai lati. I cavalieri medioevali erano relativamente pochi
e non si incontravano spesso lungo le strade, e anche se preferivano passare uno accanto al-
l'altro in un certo modo (probabilmente più per cerimonia e per mostrare rispetto che per
una effettiva percezione di pericolo), i loro protocolli non necessariamente dovevano venire
estesi all'intera popolazione. (dalla sezione "Historical questions" in (Lucas, 2005)).

Considerazioni romanzesche a parte, il fattore tecnico potrebbe comunque aver gioca-


to un ruolo di rilievo: con i mezzi guidati cavalcando su uno dei cavalli di tiro oppure
9
camminandogli a fianco sarebbe infatti preferibile tenere la destra , mentre con le car-
8
L'evoluzione a partire dal 1858 è stata desunta dalla rappresentazione grafica a colori
pubblicata su (Wikipedia, 2007c). La situazione dei 1858, a confronto con quella attuale, rende
bene l'idea di una certa convergenza in atto verso il sistema di guida a destra.
9
Una persona non mancina, camminando a fianco ai cavalli, preferisce infatti tenere le briglie
con la destra e posizionarsi tra il mezzo e il centro della strada, per avere migliore visibilità e
poter parlare più facilmente con chi proviene in senso opposto; di conseguenza conviene che i
mezzi tengano la parte destra della strada. D'altra parte, anche coloro che guidano un mezzo
trainato da più cavalli cavalcandone uno preferiscono, se non sono mancini, salire sul cavallo
da sinistra, per cui cavalcheranno uno dei cavalli posizionati a sinistra, tenendo le briglie con la
Che cosa è uno standard 13

10
rozze e i mezzi guidati stando sul veicolo o al suo interno sarebbe preferibile la sini-
stra (Lucas, 2005). La situazione attuale di predominanza della guida a destra potreb-
be essere stata dunque influenzata dal periodo di introduzione dei diversi mezzi di
trasporto e dalla loro proporzione relativa lungo le strade, oltre che da fattori di in-
fluenza politica, sociale e militare, come l'abitudine degli invasori di imporre le pro-
prie usanze alle popolazioni conquistate. Le invasioni napoleoniche, che estesero la
guida a destra a tutto l'impero francese, ne sono l'esempio più evidente (Dyer, 1999).

Svezia 1967: una conversione recente


L'episodio svedese ci fornisce un esempio di cambiamento recente, raccontato da Lu-
cas sulla base delle indagini di Kincaid (Kincaid, 1986); (Lucas, 2005). L'usanza del-
la guida a sinistra risaliva in Svezia al diciottesimo secolo, anche se i Paesi confinanti
- Norvegia, Danimarca e Finlandia- si erano omologati al sistema europeo di guida a
destra fin dalle origini. Intorno agli anni '50, il governo svedese cominciava a subire
pressioni crescenti ad uniformarsi con il resto d'Europa. Nel 1955 un referendum po-
polare bocciò nettamente la proposta, con una schiacciante maggioranza dell'82,9%.
Ciononostante, nel 1963 il parlamento svedese promulgò la legge di conversione al
sistema di guida europeo. Esso entrò in vigore domenica 3 settembre 1967 alle cinque
del mattino. Lucas riporta alcune testimonianze dirette delle ragioni e della dinamica
del cambiamento. Secondo Anders Hanquist,
«In Svezia Il problema principale della guida a sinistra era ovviamente quello che
i nostri vicini guidavano già tutti a destra. In particolare, tra Svezia e Norvegia ci so-
no molte strade secondarie senza un posto di guardia al confine, per cui per evitare
incidenti bisognava continuamente rammentarsi in quale Paese ci si trovava in quel
momento. Un altro aspetto da considerare è che la maggior parte delle macchine in
circolazione in Svezia erano costruite per la guida a destra, con il volante a sinistra.
Persino le macchine di importazione inglese erano fatte così. Gli unici mezzi con il
volante a destra erano gli autobus», come testimoniano le foto di quel periodo. «La
conversione» - racconta Hanquist - «fu molto ben preparata. Un libretto di oltre 30
pagine fu distribuito a ogni famiglia svedese. Per gestire il processo fu creato un or-
ganismo specifico, la "commissione nazionale per la guida a destra". Tutto il traffico
privato dell'intera nazione fu bloccato da un'ora prima a quattro ore dopo l'entrata in
vigore del nuovo sistema. In alcune città il blocco durò da 24 a 29 ore. Si fece impie-
go anche dell'esercito per la risistemazione di tutta la segnaletica stradale». Malcolm
Roe ricorda che «molte strade furono completamente chiuse, salvo che per i veicoli di
emergenza, per uno o due giorni, mentre venivano spostati e modificati i cartelli stra-

destra. Da quella posizione si ha una visibilità migliore se il mezzo tiene la destra (Lucas,
2005).
10
I cocchieri avrebbero un certo vantaggio, se non mancini, a sedersi sul lato destro della
carrozza, per tenere la frusta, maneggiata con la destra, lontana dagli altri passeggeri. Sedendo
sul lato destro, si ha pertanto una migliore visibilità quando il mezzo tiene la parte sinistra della
strada (Lucas, 2005). Secondo alcuni, a causa della cosiddetta "dominanza oculare" destra della
maggior parte degli individui, la guida a sinistra sarebbe oggi preferibile anche in automobile.
Si congettura, senza però fornire chiare evidenze empiriche, che questo potrebbe spiegare un
supposto aumento di incidenti occorsi nelle nazioni (tra cui la Svezia) passate di recente alla
guida a destra (Wikipedia, 2007c).
14 Capitolo 1

dali, i semafori, ecc. Quindi furono imposte velocità massime molto moderate, che
furono poi gradualmente riportate alla normalità. L'intero processo, se ricordo bene,
durò circa un mese» (dalla sezione "Changing from one side to the other - Sweden
1967" in (Lucas, 2005)). Oggi i costi di passaggio da un sistema all'altro vengono
chiamati dagli economisti "switching costs" e sono considerati uno dei fattori deter-
minanti per la diffusione degli standard nel tempo. Affronteremo questo aspetto
nell’analisi che seguirà nei prossimi capitoli.

1.1.5 Calendario e misura del tempo: cambiare standard è difficile

Non è facile cambiare le abitudini della gente, soprattutto quelle in relazione al tem-
po. Le storie che seguono illustrano le difficoltà di introduzione delle riforme di ca-
lendario e i tentativi falliti di ottimizzare i metodi di misurazione del tempo.

Il calendario gregoriano: una riforma digerita a fatica


Il calendario giuliano, introdotto da Giulio Cesare nel 46 a.C., approssimava la durata
media dell'anno a 365 giorni e 1/4, introducendo un anno bisestile di 366 giorni ogni
11
4 anni. Questa approssimazione non era perfetta . Le date dei solstizi e degli equino-
zi, che scandiscono il procedere delle stagioni, si discostavano in effetti da quelle pre-
viste dal calendario; questo scostamento verso la fine del 1500 era di 10 giorni: esso
inoltre aumentava tre giorni ogni 400 anni. Per questo motivo fu proposto dagli a-
stronomi del tempo di riallineare il calendario, portandolo avanti di 10 giorni, e co-
12
minciare ad eliminare in futuro tre anni bisestili ogni 400 anni .

Il calendario giuliano fu sostituito da quello gregoriano nel 1582, quando la differenza di 10


giorni tra l'anno astronomico e quello convenzionale era divenuta intollerabile. Quando pa-
pa Gregorio XIII decretò che il giorno dopo il 4 ottobre 1852 sarebbe stato il 15 ottobre
1582, il cambiamento fu aspramente ostacolato da gran parte della popolazione: le rivolte
erano alimentate, oltre che dalle difficoltà pratiche, anche da paure e voci incontrollate co-
me quella che i proprietari terrieri pretendessero una settimana e mezza di affitto non dovu-
ta. In ogni modo, le nazioni cattoliche più vicine allo Stato della Chiesa, come la Francia, la
Spagna, il Portogallo e l'Italia si conformarono immediatamente. Nel Nord Europa, varie
nazioni cattoliche di area tedesca, insieme a Belgio, Olanda, Svizzera e Ungheria seguirono
comunque nel giro qualche anno (tradotto liberamente da (Weisstein & Mercado, 2007)).

Se le nazioni cattoliche si erano conformate con difficoltà allo spostamento di data,


quelle protestanti tedesche si ribellarono invece apertamente.

Con la pubblicazione della bolla Inter Gravissimas il nuovo calendario [...] fu rifiutato nei
paesi di confessione protestante, malgrado le voci di eminenti astronomi a favore, come per
esempio Keplero. Il rifiuto era causato più per opposizione politico-religiosa che non per le
critiche alle piccole riforme introdotte. Sarebbe stato una ammissione dell’autorità del Papa.
Si può capire la confusione che ne derivò nei Paesi germanici, dove la popolazione era in

11
Oggi sappiamo che il cosiddetto "anno tropico" (cioè la distanza media tra due equinozi
d'inverno, che dovrebbero cadere il 21 di marzo) è di circa 365,2422 giorni.
12
Con il calendario gregoriano, adottato ancora oggi, gli anni divisibili per 100 non sono
bisestili, ad eccezione di quelli divisibili per 400. Ad esempio il 1900 non è bisestile, il 2000 si,
il 2100, il 2200 e il 2300 no.
Che cosa è uno standard 15

parte cattolica ed in parte protestante. [...] Ognuno usava il suo calendario. Per passare da un
calendario all’altro si dovevano sopprimere 10 giorni che diventarono 11 nel settecento. Per
fortuna, il ciclo di sette giorni della settimana è rimasto sempre intatto! (da (Casanovas,
2007), pag. 4).

Stesso dicasi per la protestante e autonoma Inghilterra, che fu una delle ultime a capi-
tolare:

Le nazioni protestanti tedesche adottarono la riforma gregoriana nel 1700. A quel punto, il
calendario era avanti di 11 giorni rispetto alle stagioni. L'Inghilterra (e le colonie americane)
aspettarono fino al 1752: il giorno dopo mercoledì 2 settembre 1752 fu giovedì 14 settembre
1752. Questo traumatico cambiamento provocò ampie proteste popolari, con la popolazione
manifestava al grido "Ridateci gli 11 giorni!". La Svezia seguì l'Inghilterra nel 1753. La
Russia, comunque, non si adeguò fino al 1918, quando il giorno dopo il 31 gennaio 1918 fu
direttamente il 14 Febbraio. (Weisstein & Mercado, 2007).

September 1752

Sun Mon Tue Wed Thu Fri Sat

1 2 14 15 16

17 18 19 20 21 22 23

24 25 26 27 28 29 30

Figura 1.2 Calendario inglese del mese di settembre 1752.

Al contrario delle convenzioni per la guida a destra o a sinistra, che si basano su si-
stemi sostanzialmente equivalenti fra loro, le riforme di calendario hanno proposto un
cambiamento scientificamente giustificato e di fatto ineludibile, una sorta di corre-
zione di un antico errore. Eppure in entrambi i casi quello che davvero conta sono le
scelte collettive: si cambia non solo e non tanto perché il nuovo metodo sia migliore,
ma soprattutto per potersi meglio coordinare con coloro che lo hanno già adottato.

La rivoluzione del tempo decimale: il rifiuto dei francesi


In teoria il metodo attuale di misura del tempo, che risale agli antichi babilonesi, po-
trebbe essere molto semplificato conformandolo al sistema decimale. Molteplici pro-
poste di riforma in questo senso sono state avanzate nella storia: ad esempio in
(Hynes, 2007b) ne sono state elencate e descritte oltre 30. Sono state costituite in al-
cuni casi associazioni promotrici delle riforme, i benefici del sistema decimale appli-
cato alla misura del tempo sono stati ampiamente dimostrati e divulgati, ma nessuna
delle nuove proposte ha mai potuto rimpiazzare il sistema tradizionale.
Un famoso tentativo di riforma avvenne durante la rivoluzione francese. Il calen-
dario repubblicano fu adottato ufficialmente il 24 ottobre 1793, in base ad un lavoro
di un'apposita commissione composta tra l'altro dei matematici Lagrange, Romme e
Monge, dell'astronomo Lalande, dei poeti Chénier e Fabre d'Eglantine e del pittore
David. Il calendario repubblicano è fra le iniziative intraprese dalla Convenzione na-
16 Capitolo 1

zionale che, come il sistema metrico, tendeva a riformare la società perfino nei rife-
rimenti temporali e spaziali. Contro le superstizioni e il fanatismo, in nome della Ra-
gione e di scienza, natura, poesia, ideologia e utopia, vennero abolite le domeniche, i
santi e le feste cristiane. Nel calendario repubblicano è possibile riconoscere l'opera
dei matematici soprattutto nel sistema decimale delle decadi e delle ore. L'anno re-
pubblicano inizia con il giorno dell'equinozio d'autunno ed è composto di dodici mesi
di 30 giorni, più un periodo aggiuntivo di 5 giorni (6 per i bisestili). Ogni mese re-
pubblicano è diviso in 3 decadi di 10 giorni; ogni giorno è diviso in 10 ore decimali
di 100 minuti decimali, ciascuno di 100 secondi decimali. Un'ora repubblicana ha
dunque la durata di 2 ore e 24 minuti. Nel calendario è riconoscibile anche l'opera dei
poeti e dei pittori, nei nomi conferiti ai mesi e ai giorni e nelle illustrazioni. I mesi di
ogni stagione sono in rima, e ne ricordano la sonorità, il clima e l'aspetto: ad esempio
i mesi primaverili (marzo, aprile e maggio) sono rispettivamente germinal, floréal e
prairial. I giorni assumono nomi di piante, di animali domestici e di attrezzi
(Chapelin, 2007) (Wikipedia, 2007a).
L'ora repubblicana fu fortemente voluta dal governo centrale: essa fu resa obbliga-
toria negli atti pubblici il 24 novembre del 1793. Il 22 Agosto 1794 fu indetto un con-
corso pubblico per la progettazione di nuovi modelli e fogge di orologi repubblicani,
che vennero anche concepiti con doppi quadranti per facilitare la conversione dal
vecchio al nuovo sistema (Cicha, 2007). Ciononostante, il cambiamento dell'orario
non ebbe successo: la legge di attuazione fu sospesa indefinitamente il 7 aprile 1795 e
non fu mai più ripristinata. Il calendario repubblicano ebbe invece una vita un po' più
lunga: esso fu utilizzato in Francia dal 24 ottobre 1793 fino al 1 gennaio 1806, e poi
reintrodotto per alcuni anni durante la Comune di Parigi del 1871; nel 1897 si fece
anche un secondo tentativo di riforma dell'orario, quando la cosiddetta Commission
de décimalisation du temps, coordinata dal matematico Henri Poincaré, propose un
sistema basato su un giorno di 24 ore "standard", ciascuna divisa in 100 minuti di 100
secondi (Hynes, 2007a). Anche questo sistema non riuscì a soppiantare quello tradi-
zionale e fu ben presto dimenticato.
In definitiva, sia la storia delle riforme del calendario che quella dei sistemi di mi-
surazione decimale del tempo mostrano come cambiare alcuni standard, anche quan-
do le ragioni tecniche sono evidenti e c’è una forte convinzione collettiva a favore del
cambiamento, risulti particolarmente difficile, se non impossibile. Una teoria dello
standard dovrebbe dunque rendere conto della difficoltà di generalizzare questi aspet-
ti. Similmente a quanto già visto, nelle diverse reazioni alle riforme di calendario e
del tempo possiamo leggere non soltanto il pesante retaggio della storia e delle abitu-
dini, che rende il cambiamento costoso o persino impossibile, ma anche l’influenza
dei fattori identitari come nazionalità e religione, che possono facilitare o ulterior-
mente ostacolare il processo di riforma, come era già successo ad esempio per
l’adozione dei diversi sistemi di guida in Paesi come la Namibia. Tutti questi elemen-
ti, che comprendono la razionalità ottimizzante e tecnica dello standard, gli effetti re-
te e di raggiungimento della massa critica, la path dependence e i costi di switching, i
fenomeni di "bandwagon" e l’influenza in essi dei fattori identitari e imitativi, sono
stati analizzati in vari studi specifici che prenderemo in rassegna più oltre; essi po-
tranno trovare adeguata collocazione come elementi di una teoria dello standard.
Che cosa è uno standard 17

LA GRANDE AVVENTURA DELLA MISURAZIONE DELLA TERRA


di Francesca Colarullo

1° gennaio 2002: è passato ormai qualche tempo dall'introduzione dell'Euro e


tendiamo a dimenticare la confusione e le difficoltà del cambiamento e del perio-
do transitorio. E se ancora oggi fosse come allora, con doppi cartellini dei prezzi,
pagamenti in Lire e resti in Euro, due borsellini, continue conversioni? E se in più
ci aggiungessimo continui cambiamenti anche nelle unità di misura della lunghez-
za, del peso…degli orari? Come si potrebbe vivere tutti i giorni in una Babele di
misure? Eppure, solo qualche secolo fa, chi doveva spostarsi da Roma a Firenze
non solo entrava in un altro stato e quindi aveva necessità di cambiar moneta, ma
doveva anche barcamenarsi tra tante misure diverse…rischiando, tra l’altro, anche
di essere truffato. Potete quindi immaginare quanto sia importante, oggi, per gli
scambi commerciali, per la ricerca scientifica, ma anche proprio per la vita di tutti
i giorni, il fatto che misure e valute certe ed omogenee vengano riconosciute in
tanti Paesi diversi tra loro e anche lontani. La storia che ci ha portato dalla Babele
su descritta alla situazione attuale è molto lunga e non priva di momenti avventu-
rosi ed eroici: essa è stata raccontata per esteso in (Adler, 2002). L’uomo ha senti-
to il bisogno di misurare sin dagli albori della sua storia. Pensiamo ad esempio alle
grandiose opere ingegneristiche realizzate dagli antichi Egizi e pervenute quasi in-
tatte fino ai giorni nostri: come avrebbero potuto essere compiute senza un si-
stema di misura? Dei primi prototipi spesso si fecero promotori e garanti stregoni,
sacerdoti, capitribù, e generalmente facevano riferimento a parti del corpo (polli-
ci, piedi, braccia…); certo non era un braccio qualunque quello che veniva preso in
considerazione, ma quello "divino" del re o del faraone. Ad esempio, nel 700 a.c.
nell’area del Mediterraneo era in uso il "cubito reale", pari alla lunghezza tra la
punta del dito medio ed il gomito del faraone; nel 1100 d.c., in Inghilterra, Enrico I
aveva decretato che una "yarda" era pari alla distanza tra la punta del suo naso ed
il pollice della sua mano. Nel corso dei secoli quasi ogni stato, ogni tribù, ogni re
aveva sviluppato suoi sistemi di misura.; anche quando il sistema era il medesimo,
gli scarti erano spesso notevoli: nel 1700 la libbra era diffusa in tutta Europa, ma
lo scarto tra la libbra più grande e quella più piccola era del 30%.
Con la rivoluzione industriale il bisogno di un sistema di misurazione univoco si fe-
ce più pressante; pensiamo a tutte le esigenze nate dal diffondersi della produzio-
ne in serie con un commercio internazionale in forte espansione: era ad esempio
importante realizzare pezzi di ricambio il più possibile uniformi e compatibili. Nel-
lo stesso periodo, con il forte influsso culturale del periodo illuminista, il sapere
scientifico tendeva ad acquisire sempre maggior peso nella società. Si svilupparo-
no così le prime proposte su base scientifica che portarono nel 1790 l’Assemblea
Nazionale Francese ad incaricare una commissione dell’Accademia delle Scienze di
Parigi (composta tra gli altri da Condorcet, Monge, Laplace, Lagrange…) di elabo-
rare "un sistema uniforme di pesi e di misure che potesse essere accettabile per
illuminare le nazioni del mondo". L’idea che prevalse fu quella di legare il nuovo
sistema di misura alle dimensioni della Terra, prendendo però in considerazione
un sottomultiplo che fosse più adeguato alle dimensioni umane. E’ in questo con-
testo che si inserisce la grande avventura di due scienziati, Pierre Méchain e Jean-
Baptiste Delambre, ai quali fu affidato il grandioso compito... della misurazione
della Terra.
Per la misurazione fu prescelto il meridiano passante attraverso Dunkerque e Bar-
cellona. A bordo di due strane carrozze ramate, con strumenti che potevano ap-
18 Capitolo 1

parire magici agli occhi di chi li osservava, i due, affiancati dai loro assistenti, parti-
rono procedendo in direzioni opposte, Méchain verso Sud e Delambre verso Nord.
Il loro piano di lavoro iniziale (che era precedente all'incarico ufficiale del 1790)
prevedeva il ritorno entro sette mesi con tutte le misure necessarie per determi-
nare la lunghezza del metro. In realtà ci vollero oltre sette anni! Furono arrestati,
picchiati, calunniati, rincorsi da contadini sospettosi, e nel frattempo eseguirono
le loro misurazioni arrampicandosi su campanili, torri, castelli (il metodo delle
triangolazioni da loro utilizzato prevedeva che le stazioni di rilevamento fossero
poste in luoghi elevati), passando attraverso luoghi aspri e combattendo conti-
nuamente contro la diffidenza. Ma alla fine riuscirono a raggiungere il loro obiet-
tivo, calcolarono la misura di un quarto di meridiano terrestre (la distanza tra il
Polo Nord e l’Equatore) in 5130740 tese. Fu così che il 7 aprile 1795 venne pro-
mulgato il Sistema Metrico Decimale fondato sul metro (in greco metron significa
misura) pari alla quarantamilionesima parte del meridiano terrestre, con esso
vennero inoltre definiti il kilogrammo (corrispondente alla massa di un litro di ac-
qua distillata a 4° C) e il secondo.
Il nuovo sistema aveva tre attributi:
- le unità di misura erano basate su quantità immutabili presenti in natura;
- tutte le unità diverse dalle unità fondamentali derivavano dalle unità base;
- tutti i multipli e sottomultipli delle unità erano decimali.
Ma la storia non termina qui, la grande avventura nasconde un misfatto: nono-
stante la meticolosità del lavoro svolto dai due scienziati, Mechain commise un
errore nelle sue rilevazioni e lo nascose a tutti. I rimorsi per quanto fatto, però, lo
portarono sull’orlo della follia e della morte.
In base a successive misure il valore del metro fu così leggermente modificato ed
un decreto del 24 aprile 1799 stabilì la costruzione di due esemplari in platino,
uno per l’Archivio e uno per l’Osservatorio, accuratamente conservati in condizio-
ni di stabilità ambientale.
Il nuovo sistema di misura non venne subito ben accolto; lo stesso Napoleone, che
aveva dichiarato «Le conquiste militari vanno e vengono, ma questo lavoro durerà
per sempre» fu costretto a ristabilire le vecchie unità di misura. Solo nella secon-
da metà dell’Ottocento il Sistema Metrico Decimale cominciò ad essere adottato
prima dalla Francia e poi via via dal resto della comunità internazionale, compresa
l’Italia, con l’eccezione di alcuni paesi anglosassoni che introdussero il nuovo si-
stema solo molto più tardi. Nel 1875, a Parigi, fu approvata da 17 paesi la "Con-
venzione del Metro" con la quale si adottava tale unità per la misura della lun-
ghezza e contemporaneamente fu istituito l’organismo internazionale della me-
trologia (CGPM). Ma anche in questo caso non mancarono alcuni aspetti avventu-
rosi, infatti la leggenda narra che gli scienziati che erano stati chiamati ad illustra-
re agli USA i vantaggi del nuovo sistema furono assaliti dai pirati e derubati pro-
prio degli esemplari del metro.
Nel 1902 nacque il sistema MKS (metro, kilogrammo, secondo) che dopo varie
modifiche è divenuto nel 1960, durante l’11a Conferenza Generale dei Pesi e delle
Misure, il Sistema Internazionale (SI).
La prima ad aderire al SI fu la Francia nel 1961, poi la Germania e l’Australia nel
1969 e l’Inghilterra nel 1975. La CEE impose l’adozione ai suoi stati membri entro
il 1977; nel 1974 gli stati aderenti al SI erano 49. Oggi possiamo dire che il SI ha
una diffusione praticamente universale: oltre alla Birmania e alla Liberia, solo gli
USA non lo hanno ancora completamente adottato, ma lo utilizzano ampiamente
in campo tecnico-scientifico.
Non che oggi i problemi di misura siano del tutto scomparsi: in molti Paesi, accan-
to ai sistemi di misura ufficiali, resistono ancora le vecchie unità di misura con no-
Che cosa è uno standard 19

tevoli danni potenziali. La vittima più illustre di questo scontro tra vecchio e nuo-
vo è la sonda Mars Climate Orbiter schiantatasi sulla superficie di Marte. La com-
missione d’inchiesta istituita dalla NASA per scoprire le cause del fallimento è
giunta alla conclusione che la perdita è stata causata dall’immissione di dati e-
spressi nel sistema metrico decimale in un computer programmato invece per ac-
cettare dati nel sistema anglosassone; questo ha provocato un avvicinamento del
veicolo alla superficie del pianeta rosso ad una quota troppo bassa (57 km invece
dei 186 km previsti).
Le unità campione vengono oggi definite con metodi molto più sofisticati e precisi,
il metro viene attualmente definito come un multiplo (1.650.763,73 volte) della
lunghezza d’onda di una radiazione elettromagnetica.

1.1.6 L'adozione del sistema metrico in USA: un processo in atto

Come spiegato nel riquadro, gli Stati Uniti sono sostanzialmente l'unico Paese del
mondo ancora riluttante a far uso del sistema metrico internazionale, anche se è in
corso da anni un graduale processo di adozione: nel 1975 il Metric Conversion Act
istituì il US Metric Board per promuovere e coordinare il passaggio su base volonta-
ria al nuovo sistema. Nel 1988 il Omnibus Trade and Competitiveness Act indicò il
sistema metrico come quello preferito e stabilì che entro il 1992 tutte le agenzie fede-
rali dovessero conformarvisi. Nel 1996 è stata costituita la US Metric Association
(USMA: www.metric.org) che ha il compito di promuovere e diffondere l’impiego del
sistema metrico non solo a livello governativo ma anche nella pratica quotidiana. Uno
degli slogan adottati da USMA nella campagna a favore del nuovo sistema è: «Come
l'Inglese è divenuto il linguaggio globale del commercio, il sistema metrico è divenu-
to il linguaggio globale di misura. Quindi: "parla in inglese e misura in metri"».
Le opposizioni sono comunque ancora forti. Un esempio è rappresentato dall'ade-
guamento delle norme sull'imballaggio e l'etichettatura, Fair Packaging and Labeling
Act (FPLA). Si è a lungo discusso se imporre l'uso esclusivo del sistema metrico in-
ternazionale sulle etichette, come richiesto dalle norme europee a partire dal 2010. In
una nota resa pubblica il 25 agosto 2005, il responsabile del Metric Group del NIST
(National Institute of Standards and Technology) rendeva noto che:

La proposta di adeguare il FPLA non è stata introdotta attraverso il Dipartimento del Com-
mercio perché non siamo stati in grado di persuadere il Food Marketing Institute […]. Dato
che il FMI è adamantino nella sua opposizione (e molto influente nelle sedi governative), è
improbabile che avremo successo nell'ottenere la presentazione di una proposta di legge in
questo senso al Congresso nel prossimo futuro. Devo anche aggiungere che non abbiamo
avuto successo nell'ottenere supporto per tale proposta nemmeno da altre organizzazioni in-
dustriali. (Butcher, 2007).

Un secondo esempio di difficoltà di passaggio al sistema metrico è dato da una lettera


che spiega il perché della mancata introduzione del formato standard A4, basato sul
sistema decimale, presso l’ufficio di stampa del governo USA (GPO: United States
Government Printing Office) (DiMario, 1997). Il responsabile dell’ufficio argomenta
che l’ufficio è in grado, conformemente a quanto richiesto dal Omnibus Trade and
Competitiveness Act, di stampare documenti in formato A4 su richiesta. Ciononostan-
te, il nuovo formato non viene sempre utilizzato, dato che poche imprese sul mercato
20 Capitolo 1

sono in grado di fornire la carta A4. Il passaggio al nuovo sistema porrebbe i fornitori
in condizioni di sostanziale oligopolio, alterando il processo competitivo di fornitura.
La storia e i vantaggi del formato metrico standard A4 sono egregiamente documen-
tati da Markus Kuhn in (Kuhn, 2006).
Ancora una volta, dunque, il peso della storia incide sulle scelte di accettazione di
uno standard, e ciò avviene anche se il resto del mondo ha già adottato il sistema in-
ternazionale, che è scientificamente e indubitabilmente dimostrato come più razionale
e più economico del vecchio. Ancora una volta, insieme ai fattori economici e ai costi
di passaggio, gli elementi identitari giocano un ruolo sottile ma importante: rinunciare
alle proprie misure per adottare quelle di altri può sembrare una sconfitta, che può es-
sere mitigata pensando che in cambio si è riusciti a imporre il proprio linguaggio,
come lo standard "parla inglese e misura in metri" sembra discretamente sottolineare.

1.1.7 Standardizzare spine e prese: la ricerca della compatibilità

Molti si chiedono se sarà mai possibile avere un sistema uniforme di spine e prese di
corrente nel mondo, che ridurrebbe enormemente i costi di produzione, quelli di co-
ordinamento e gli inconvenienti dovuti all’incompatibilità di spine e prese diverse.
Effettivamente uno standard a questo fine già esiste, ed è stato approvato nel 1986
nell’ambito della IEC (International Electrotechnical Commission), la principale or-
ganizzazione mondiale per gli standard in campo elettrotecnico ed elettronico.
Il cosiddetto "universal plug and socket system" (standard IEC 60906) ha avuto
una storia travagliata, che ha origine nei primi anni trenta (IEC, 2007), e che risultò
soltanto nel 1970 alla creazione di un’apposita sottocommissione, la SC 23C:

Le prime bozze di un sistema universale considerate dalla SC 23C proponevano spine con
steli metallici piatti, come negli USA e in UK, e questo fu accettato per diversi anni. Quan-
do però si giunse alla fase di voto, si cominciarono a sollevare obiezioni crescenti: molte
commissioni nazionali si espressero in favore di una soluzione con steli arrotondati […].
Dopo lunghe e spesso aspre discussioni, la sottocommissione giunse ad una soluzione accet-
tabile, che impiegava il sistema a steli arrotondati per le installazioni a 250 Volts (IEC
60906-1) e un sistema a steli piatti per le installazioni a 125 Volts (IEC 60906-2) (IEC,
2007).

Dunque un sistema standard di spine e prese universali esiste da molto tempo, ma a


quanto pare le lunghe e vivaci discussioni in commissione non sono bastate a creare
un consenso sufficiente all’adozione generalizzata.
Che cosa è uno standard 21

Figura 1.3 Spine universali a due e tre steli secondo lo standard IEC 60906-1. Fonte: (IEC,
2007).

Non solo infatti il sistema standard non ha generalmente soppiantato quelli nazionali
preesistenti: è stato addirittura lanciato un secondo tentativo di standardizzazione a
livello europeo negli anni ’90, attraverso la CENELEC, la commissione europea per
la standardizzazione elettrotecnica.

Più recentemente, negli anni ’90, la CENELEC è stata sollecitata dalla Commissione Euro-
pea a proporre un sistema di spine e prese che armonizzasse quelli europei. […] La
CENELEC ha preso come punto di partenza lo standard IEC del 1986 e ha speso migliaia di
ore-uomo nell’impresa quasi impossibile di modificarne il design con l’obiettivo di assicura-
re un impiego sicuro al 100% se usato in congiunzione con tutti i tipi già esistenti in Europa.
Naturalmente, a parte le difficoltà tecniche, c’era lo scontro dei molti diversi interessi politi-
ci e commerciali; non c’è da meravigliarsi che, dopo molto lavoro e innumerevoli riunioni,
la CENELEC abbia dovuto ammettere la sconfitta e abbandonare l’impresa, con il disap-
punto della Commissione Europea (IEC, 2007).

Concordare e pubblicare uno standard in questo settore è dunque molti difficile e non
è stato in ogni caso sufficiente ad assicurarne l’adozione generalizzata. Una teoria
dello standard dovrebbe essere in grado di spiegare il perché, tenendo conto anche di
come motivazioni economico-razionali come la ricerca della compatibilità tecnica e
la riduzione del rischio e dei costi di passaggio al nuovo sistema possano convivere
con il bisogno di affermazione delle proprie identità nazionali e continentali, fattori
già presenti in grado diverso nelle storie considerate in precedenza.

1.1.8 La regola dei 24 secondi: la leadership statunitense

LA REGOLA DEI 24 SECONDI


di Francesco Bolici

La regola FIBA (International Basket Federation) numero 29 è piuttosto chiara:


"Ogniqualvolta un giocatore acquisisce il controllo di una palla viva sul terreno, la
sua squadra deve effettuare un tiro a canestro entro ventiquattro (24) secondi".
22 Capitolo 1

Poi solo i fanatici del basket vi sapranno spiegare correttamente cosa sia una palla
viva (che nulla ha a che fare con una palla magica o con la palla avvelenata) e se
c’è violazione nel caso in cui i 24 secondi terminino nel momento esatto del tiro o
quando la palla tocca il ferro o quando… insomma, per i dettagli tecnici potete
leggere le specifiche del regolamento o rivolgervi a qualche inguaribile patito della
pallacanestro.
Il punto è che da quando si prende il pallone (sarebbe questo il famoso
"l’acquisire il possesso") bisogna tirare entro 24 secondi. Punto e basta, tutto qui.
Se ci mettete di più, allora, commette un’infrazione. L’arbitro fischia --in realtà po-
trete sentire una sirena orribilmente uguale in tutti i palazzetti dello sport che ini-
zia a gemere, i tabelloni quasi offesi dalla mancanza di rispetto diventeranno rossi
come a infierire sulla squadra che non solo non ha fatto canestro, ma che ha at-
taccato così male da non esser stata in grado nemmeno di tirare!-- e la palla andrà
alla squadra che difendeva.
Tutto qui. Semplice e lineare. Fino ad una decina di anni fa succedeva però una
cosa strana. In tutta Europa la regola dei "24 secondi" era conosciuta come la re-
gola dei "30 secondi". Esatto, proprio perché i secondi a disposizione per tirare
erano 30 (in realtà la regola era internazionale, era FIBA, ma il discorso è lo stes-
so). Fin qui tutto normale. Se non che nell’NBA (National Basketball Association),
la lega statunitense… con qualche infiltrazione canadese, i secondi a disposizione
per tirare erano da sempre 24. E giusto per chiarire: l’NBA era ed è il basket. Dico
IL basket. Quello che si guarda quando ci si vuol emozionare. Anzi allora la diffe-
renza tecnica e fisica era più ampia di oggi. Allora una qualsiasi squadra dell’NBA
ne avrebbe dati 40-50, di punti, senza sforzi a quasi tutte le squadre europee. Og-
gi, per diverse ragioni non è più così… ma se volete sorridere guardando una parti-
ta… l’NBA è sempre un ottimo inizio. Ma lasciamo il basket dei fenomeni e tor-
niamo alla nostra regola dei 24/30 secondi. Dunque dicevamo in tutto il mondo si
avevano a disposizione 30 secondi e nell’NBA 24. E allora?
Allora la prima cosa interessante era che nei mondiali di basket, alle olimpiadi, la
squadra USA si trovava a giocare con regole diverse a quelle cui era abituata (mica
solo quella dei 30 secondi, c’erano regole diverse per la difesa a zona e altre anco-
ra). Con un duplice risultato: gli statunitensi erano abituati a giocare più veloce-
mente per poter concludere entro i 24… e quindi si trovavano a disposizione altri
6 secondi (che nel basket sono un’eternità!) per giocare ancora. D’altra parte que-
sto voleva anche dire che dovevano potenzialmente esser pronti a difendere 6 se-
condi in più ogni azione (e anche qui è un’eternità… ed un’eternità molto fatico-
sa!).
L’altro aspetto da considerare è proprio che la regola dei 24, insieme a molti altri
fattori, contribuiva alla spettacolarità del basket NBA. Costringeva infatti il gioco
ad esser più veloce, i giocatori a correre di più, gli schemi d’attacco ad essere me-
no complessi… e stimolava molto la fantasia/disperazione degli attaccanti che ar-
rivati a 2/3 secondi dallo scadere dei 24 erano obbligati a inventare qualche pene-
trazione o tiro folle… e quindi spettacolare!
Come è andata a finire già lo sapete: la FIBA per rendere più spettacolare il basket
europeo (e non solo) ha cambiato la regola ed ha portato anche i suoi campionati
a 24 secondi. Ricordo le opinioni che circolavano nell’ambiente del basket romano
l’anno dell’introduzione della nuova regola… ma alla fine… il basket ne ha giovato,
ora siamo quasi tutti concordi. Il gioco si è velocizzato, l’intensità è aumentata, i
contropiedi e le azioni sono diventate più emozionanti e anche per questo credo,
la qualità del basket europeo e degli altri campionati si è avvicinata sempre più a
quella dell’NBA. Tanto che oggi molti europei e stranieri giocano da protagonisti
Che cosa è uno standard 23

negli USA… e addirittura la prima scelta assoluta 2007 (ossia il giovane selezionato
per primo da una squadra NBA per il campionato seguente) è stata un italiano,
Andrea Barignani. Non dipenderà certo dalla regola dei 24 secondi… ma un picco-
lo contributo quei 6 secondi di differenza l’hanno di sicuro dato.

Anche i non conoscitori di basket (come il sottoscritto) restano affascinati e stupe-


fatti da come il cambiamento di una regola standard apparentemente secondaria, rac-
contato nel riquadro qui sopra, possa essere stato ponderato e discusso a lungo, abbia
trovato fazioni a favore e contro, e abbia in definitiva influenzato profondamente il
basket internazionale. In questo caso il mondo si è adeguato agli USA, e non vicever-
sa. La razionalità tecnica dello standard dei 24 secondi insieme al ruolo dominante
del basket statunitense NBA hanno giocato a favore, anche se gli effetti rete, la massa
critica, la dipendenza dal percorso e i fattori identitari facevano pressione in senso
opposto.

Le storie qui evidenziate sollevano dunque utili argomenti di discussione e di ponde-


razione: quali sono i fattori in comune a tante situazioni così diverse e distanti tra loro
come la regola dei 24 secondi e il linguaggio del Manzoni? In che modo uno standard
emerge, si diffonde e viene poi soppiantato da uno standard diverso? Gli spunti indi-
viduati finora hanno messo in evidenza il ruolo della razionalità tecnica ed economi-
ca, della storia e delle abitudini, del caso, della dipendenza dal percorso, dei costi di
passaggio, dei fattori di potere e di dominio del più forte, degli effetti rete e di massa
critica, dei fattori di identità individuale e collettiva e di auto-riconoscimento, di
compatibilità tecnica e di rischio. Per poter utilmente proseguire nell’analisi è oppor-
tuno a questo punto individuare una definizione accurata del termine "standard" che
ci permetta di delimitare e caratterizzare con chiarezza l’oggetto dell’analisi.

1.2 Che cosa è uno standard

La radice etimologica: segno di appartenenza a un gruppo


La parola "standard" è mutuata in italiano dall'inglese standard: secondo l'Oxford
English Dictionary, in inglese questa parola apparve per la prima vola nel 1138 in un
13
sonetto di Richard of Hexham intitolato La Battaglia dello Standard . Lo "standard"
nel poemetto è una sorta di carro su cui è montato un albero, con dei vessilli in cima,
portato nel campo di battaglia come riferimento visibile per i combattenti.
Il termine inglese standard risale a sua volta all'antico francese estendart, che si-
gnifica "stendardo, bandiera, insegna". La radice etimologica dell'antico francese e-
stendart si può far risalire al verbo latino extendere, da ex (fuori) e tendere. Lo sten-

13
Una versione in inglese moderno del poemetto è disponibile su (of Hexham, 2007).
24 Capitolo 1

dardo, la bandiera, vengono infatti estesi, esposti all'esterno in modo ben visibile per-
ché possano essere facilmente riconosciuti da tutti.
La radice etimologica del termine "standard" come stendardo o, per estensione na-
turale, come bandiera, suggerisce dunque l’idea di un segno di appartenenza a un
gruppo che viene intenzionalmente reso visibile al pubblico. In quanto tale, esso do-
vrebbe presentare tre attributi essenziali: identità condivisa, visibilità e stabilità. Cia-
scuno di questi tre attributi verrà ora brevemente preso un esame.

Identità condivisa
Tipicamente lo stendardo rappresenta un gruppo: anche quando fa riferimento ad un
individuo specifico (es. l'imperatore), esso sottolinea simbolicamente un'identità con-
divisa e collettiva (il casato, l'esercito, il popolo dell'imperatore, ecc.). Il riconosci-
mento e il rispetto di questo simbolo identitario pubblico non riguarda unicamente il
gruppo di appartenenza, ma viene richiesto a tutti. Durante la prima guerra mondiale,
ad esempio, numerosi patrioti italiani diedero la vita pur di difendere la bandiera ita-
liana e non farla cadere nelle mani del nemico. Solitamente la comunità non solo ri-
spetta il proprio stendardo/bandiera, ma si adopera perché esso venga generalmente
riconosciuto e rispettato anche da chi non fa parte di essa, considerando ad esempio
ogni offesa alla bandiera nazionale come un'offesa alla nazione stessa che vi si rico-
14
nosce ed identifica .

Visibilità
Anticamente gli stendardi avevano una notevole importanza pratica: spesso nelle bat-
taglie campali erano lo strumento che permetteva di individuare anche da lontano la
posizione degli eserciti alleati o nemici. In questo senso la visibilità dello stendar-
do/bandiera era un connotato essenziale e primario, sia nei confronti del gruppo adot-
tante, che poteva ottenere aiuto e sostegno dai propri alleati, sia nei confronti degli
esterni e dei nemici.

Stabilità
Un ulteriore aspetto importante che può ricavarsi dal significato originario della paro-
la "standard" come stendardo/bandiera è quello di stabilità nel tempo. A causa della
sua visibilità e del suo valore identitario condiviso come segno di appartenenza ad un
gruppo, uno stendardo/bandiera tende a rimanere invariato nel tempo. La bandiera
americana e quella dell'Unione Europea rappresentano una felice eccezione a questa
regola, con il numero di stelle che è aumentato nel tempo a rappresentare il progres-
sivo estendersi del numero di stati: comunque, si tratta di un cambiamento non so-
stanziale e anzi necessario a mantenere invariato il significato simbolico adottato in
fase iniziale: una stella per ogni stato. In generale, stendardi e bandiere hanno una lo-
ro connotazione chiara, definita e accettata da tutti, che una volta definita non viene
più cambiata nella sostanza.

14
Lo stesso ordinamento giuridico italiano ripone un altissimo valore nella bandiera nazionale
(art. 12 della Costituzione), configurando il reato di "vilipendio alla bandiera" (art. 292 del
Codice Penale).
Che cosa è uno standard 25

In definitiva, dunque, la radice etimologica della parola "standard" fa riferimento


ad un segno di appartenenza ad un gruppo da mostrare ben visibile (ex-tendere) in
pubblico, i cui attributi essenziali sono l'identità condivisa, la visibilità e la stabilità.
Tale connotazione originaria è tuttora presente, in vario grado, nei significati che
la parola standard ha assunto oggi nel linguaggio moderno.

1.2.1 Il significato corrente: modello, base, norma

La parola "standard" viene attualmente usata in modo simile sia in italiano che in in-
glese. Lo Zingarelli e il dizionario inglese-italiano Garzanti-Hazon sono sostanzial-
mente concordi nell'attribuirvi, accanto ad un certo numero di connotazioni in campi
specialistici (statistico, urbanistico, linguistico, botanico, …), tre accezioni fonda-
mentali: 1) modello, campione, tipo, criterio di giudizio/confronto (es. "standard di
sicurezza"; "by any standard this is great music"); 2) livello, grado di eccellenza, qua-
lità (es. "standard di efficienza", "standard of living"); 3) supporto, base, piedistallo.
I primi due significati hanno connotazioni simili, indicando un punto di riferimen-
to e di confronto che può essere neutro oppure indicare un obiettivo desiderabile. Il
terzo significato presuppone invece un processo di costruzione/evoluzione, di cui lo
standard rappresenta il fondamento, la base di partenza.
L'idea moderna dello standard come punto di riferimento e come base di partenza
aggiunge invero qualcosa al significato etimologico originario di segno di apparte-
nenza ad un gruppo, riferendosi agli aspetti normativi che determinano
l’appartenenza al gruppo. Entrare a far parte del gruppo che adotta uno standard vuol
dire non solo riconoscere lo standard, ma conformarsi ad esso, seguirne il modello,
cioè applicare delle norme di riferimento o di base.
Il fatto che lo standard non sia soltanto un segno di appartenenza a un gruppo, ma
anche un particolare tipo di norma che il gruppo adottante sceglie di seguire verrà
ulteriormente chiarito nelle definizioni in letteratura che verranno analizzate qui di
seguito.Implicitamente si assume anche un’idea di condivisione: un punto di riferi-
mento e una base di partenza può aver rilievo per un singolo individuo, ma diviene
uno standard quando viene condiviso tra più persone. Dall’idea di condivisione deri-
va il concetto di gruppo adottante: il punto di riferimento, la base di partenza vale per
il gruppo di coloro che hanno deciso di aderirvi e condividerla, adottando lo standard.
Per poter garantire l'uso dello standard a chiunque voglia entrare a far parte del grup-
po adottante, la visibilità (spesso ottenuta attraverso la pubblicazione delle specifiche
tecniche dello standard) appare un requisito essenziale, così come la stabilità nel tem-
po dello standard. I connotati etimologici originari di appartenenza, visibilità e stabi-
lità appaiono dunque ben presenti ancora oggi nel significato corrente della parola
"standard".
In definitiva, dunque, il significato corrente della parola "standard" di modello,
base, norma, risulta riflettere ancora oggi, pur in modo implicito, il senso etimologico
originale di segno di appartenenza ad un gruppo, visibile e stabile, latore di identità
condivisa. Oggi tali antichi connotati originari non sono più immediatamente ricono-
scibili, ma possono risultare di grande aiuto per analizzare a fondo la natura del fe-
nomeno.
26 Capitolo 1

1.2.2 Le definizioni in letteratura

E’ molto più frequente riscontrare in letteratura classificazioni ed esempi di applica-


zione del termine "standard" piuttosto che vere e proprie analisi critiche e di signifi-
cato. Qui di seguito indicheremo e commenteremo alcuni dei riferimenti più convin-
centi ed autorevoli.

Metrica che influenza i comportamenti di gruppo


Forse non sorprende il fatto che le prime monografie sul tema della standardizzazione
provengano dal mondo dell’information technology, o meglio da quello che negli an-
ni ’70 si chiamava il settore EDP (Electronic Data Processing: elaborazione automati-
ca dei dati). Tra esse ricordiamo un saggio di Carl Cargill, della Digital Equipment
Corporation, che fu pubblicato nel 1989 (Cargill, 1989) come una rielaborazione ed
estensione di un testo preesistente ad opera di Marjorie Hill, della Control Data Cor-
poration (Hill, 1973), ormai giunto alla terza edizione ed allora noto come "il libro
verde" degli standard EDP. In quel periodo di intensa innovazione tecnologica, che
ha visto la nascita dei primi computer commerciali e delle tecnologie alla base di
Internet, si verificava infatti una crescita tumultuosa del numero e dell’importanza
degli standard IT, e con essi quello delle persone e istituzioni che partecipavano alla
loro elaborazione. Vi era dunque un bisogno, nell’ambito delle vivaci e attive comu-
nità direttamente interessate a questi fenomeni, di una sorta di manuale di riferimento
sulla standardizzazione.
Ecco dunque una delle definizioni proposte da Cargill, nella versione che ha ac-
colto maggior favore, riportata anche in (De Marco, 1991:84): «uno standard è l'ac-
cettazione da parte di un gruppo di persone caratterizzato da comuni interessi e cultu-
ra di una metrica quantificabile che influenza il loro comportamento e le loro attività
permettendo un comune interscambio (Cargill, 1989:13)».
L’autore, riferendosi primariamente agli standard tecnici in campo EDP, usa il ter-
mine di "metrica quantificabile", che potrebbe forse essere difficilmente applicabile
ad altri tipi di standard. Elementi costitutivi di particolare interesse appaiono quello
dell’accettazione (di cui verrà discussa più avanti la volontarietà) e quello
dell’influenza sui comportamenti, che caratterizzerà uno dei successivi filoni di stu-
dio più promettenti. L’enfasi sul comune interscambio nell’ambito del gruppo di ado-
zione anticipa il dibattito sulle finalità e sui benefici della standardizzazione che si
svilupperà in seguito.

Documento di specifiche tecniche a cui aderire


In accademia, uno dei primi contributi fondamentali in termini di analisi sistematica e
di definizione del concetto di standard viene dallo storico dell’economia Paul David,
che dopo aver introdotto la distinzione tra standard comportamentali e standard tecni-
ci (David, 1987), ha in seguito, insieme a Shane Greenstein, approfondito soprattutto
l’analisi di questi ultimi. Nel 1990 David e Greenstein hanno infatti pubblicato una
fondamentale rassegna critica della letteratura agli standard di compatibilità tecnica,
ormai considerata un classico ((David & Greenstein, 1990): vedi capitolo 3, sezione
3.2.5 e Figura 3.10), nella quale propongono la seguente definizione, che viene citata
molto spesso: «per standard si intende, ai nostri fini, un set di specifiche tecniche al
Che cosa è uno standard 27

quale aderisce un produttore, tacitamente o come risultato di un accordo formale»


(David & Greenstein, 1990:4, corsivo aggiunto).
In questa definizione non si fa alcuna menzione specifica di un gruppo, ma il fatto
che un produttore possa "aderire" è un’assunzione implicita dell’esistenza di almeno
un’altro soggetto, il promotore.
Gli autori identificano tre tipi di standard tecnici: di riferimento, di qualità minima
15
e di compatibilità . Pur avendo tutti in comune una simile forma scritta, documentata
e pubblicamente accessibile, gli standard di compatibilità tecnica si possono però dif-
ferenziare notevolmente in base alle modalità di generazione e pubblicazione, che
presuppongono un elemento di negoziazione più o meno esplicito:

Anche se alcuni accordi su specifiche tecniche standardizzate vengono negoziati in modo


esplicito, gli standard di compatibilità tecnica in generale possono emergere in altri modi.
Uno è la generale accettazione passiva di un set di specifiche tecniche che è stato promulga-
to da un singolo attore in modo unilaterale. In alternativa, uno standard può emergere attra-
verso un processo competitivo spontaneo nel quale molti soggetti esercitano le loro scelte
nell’ambito di una gamma potenzialmente vasta di alternative (David & Greenstein,
1990:4).

Su tale base David e Greenstein distinguono tra standard di compatibilità tecnica de


facto e de jure, come illustrato in Figura 1.4: gli standard de facto sono il risultato di
processi di mercato, in cui è possibile, ma non necessario, che alcuni attori (sponsor)
esercitino un ruolo determinante. Gli standard de jure sono invece prodotti in seno ad
apposite istituzioni, siano esse le cosiddette SDO (Standard Development Organiza-
tions) come l’ISO (International Organization for Standardization), oppure autorità
16
governative con potere regolamentare o normativo .

15
E' interessante notare come questa classificazione in standard tecnici di riferimento, qualità
minima e compatibilità corrisponda ai significati correnti della parola standard discussi nella
sezione precedente (modello, base, norma): gli standard di riferimento e quelli di qualità
minima sono modelli usati a fini di confronto, di valutazione, di garanzia del raggiungimento di
particolari requisiti. Gli standard di compatibilità fungono da base, in quanto garantiscono che
un componente possa essere integrato in un sistema più ampio, a patto di rispettare le
specifiche tecniche dettate dallo standard stesso. In questo senso essi fungono da "piedistallo",
da base fondante del sistema stesso, costituendone spesso parte essenziale dell’architettura. Sia
come modelli che come base, essi hanno il carattere di un particolare tipo di regola, ad
adesione volontaria, come si vedrà in seguito. Per un’analisi più estesa e generalizzata di
questa tassonomia si rimanda a (David, 1987).
16
In effetti, «entrambi [SDO e governativi] vengono a volte genericamente indicati come de
jure, sebbene solo nel secondo caso essi abbiano effettivamente forza di legge» (David &
Greenstein, 1990:4).
28 Capitolo 1

standard
di compatibilità
tecnica

standard standard
de facto de jure

pubblicati da promulgati da
non sponsorizzati sponsorizzati organizzazioni organizzazioni
volontarie (SDO) governative

Figura 1.4 Classificazione degli standard di compatibilità tecnica di (David & Greenstein,
1990).

La distinzione operata in base alle modalità di generazione e pubblicazione è alla ba-


se dell’intera analisi di David e Greenstein delle modalità di creazione e diffusione
degli standard, che verrà qui presa in esame nel capitolo 3, sez. 3.2.5.
In seguito David tornerà ancora, con Edward Steinmueller, sulla definizione, spe-
cificando la differenza tra l’impiego comune del termine e quello specialistico adotta-
to in sedi ufficiali come l’ISO.

Il termine "standard" è usato in più di un modo. Esso viene impiegato nel linguaggio di tutti
i giorni quando ci si riferisce ai mezzi di determinare «il modo in cui le cose dovrebbero es-
sere». Ciò è abbastanza ampio da includere le regolarità della pratica stabilite dall’autorità,
dall’uso, o dall’accordo generale su di un modello, esemplare o criterio, così come su qual-
cosa che è stato stabilito per autorità come una regola per la misura di quantità, peso, esten-
sione, valore o qualità. Nel parlato corrente il sostantivo "standard" ha anche acquisito un
significato speciale (quello che i giuristi chiamerebbero term of art, termine tecnico); esso
viene invocato quando l’Organizzazione Internazionale per la Standardizzazione (ISO) ne fa
uso in riferimento ad un documento tecnico che descrive il progetto, la composizione mate-
riale, la lavorazione o le caratteristiche di performance di un prodotto. (David & Steinmuel-
ler, 1994:218).
Che cosa è uno standard 29

Ciò che distingue in primo luogo l’ampia serie di significati adottati nel linguaggio
corrente da quello tecnico ISO è la presenza di un documento tecnico in forma scritta
e pubblicamente accessibile, che dunque costituisce, almeno secondo l’ISO, un requi-
sito essenziale che distinguerebbe lo standard in senso proprio da altri tipi di norme
informali e non scritte.
In sintesi, dunque, David e i suoi coautori distinguono originariamente tra stan-
dard tecnici e comportamentali per poi focalizzarsi su quelli tecnici, visti come un in-
sieme di specifiche pubblicate in forma scritta a cui è possibile aderire.

Standard come istituzioni


Sulla scia di Paul David, molti autori hanno prevalentemente preso in esame standard
di tipo tecnico, visti come insiemi di specifiche pubbliche e formali a cui aderire. Uno
dei primi autori a tornare sugli standard comportamentali è stato Richard Langlois,
nell’ambito di uno studio con Deborah Savage sullo sviluppo degli standard della
professione medica negli USA all’inizio del XX secolo:

La maggior parte delle analisi […] si sono concentrate sui sistemi tecnologici in senso stret-
to. […]. [In esse, solo] occasionalmente il comportamento umano è parte di ciò che viene
standardizzato e coordinato; […] ma pochi nella tradizione davidiana si sono focalizzati di-
rettamente sugli standard come strumento di coordinamento del comportamento umano
piuttosto che come tecnologia di interconnessione. E questo è piuttosto sorprendente. Infatti
gli standard sono in essenza una particolare istituzione sociale; e le istituzioni sociali sono
modelli di comportamento ricorrenti che aiutano a coordinare l’attività umana. (Langlois &
Savage, 1997:150, corsivo aggiunto)

Questo punto di vista, anche se occasionalmente ripreso e parzialmente sviluppato da


altri autori (Tothova & Oehmke, 2003), non è mai stato oggetto di un’analisi specifi-
ca e compiuta che ne discutesse le implicazioni. Considerare gli standard all’interno
17
delle istituzioni , infatti, se da un lato mette luce sulla natura dello standard come una
particolare forma di regolamentazione, dall’altro sembra suggerire l’impiego di alcuni
fondamentali strumenti teorici di analisi e comprensione che verranno esplorati più
oltre.

Regole concordate
Bowker e Star, nella loro brillante e approfondita analisi dei sistemi di classificazione
(Bowker & Star, 1999), prendono in considerazione anche il concetto di standard, che
è legato a quello di classificazione, pur restandone distinto.

17
La dicitura di Langlois "standard come istituzione" sarebbe forse più appropriatamente
espressa in "standard come componente istituzionale", dato che in base ad una visione oggi
ampiamente accettata, un’istituzione consiste, oltre che di norme e regole, anche di altre
strutture e attività: «le istituzioni consistono in strutture cognitive, normative e regolative e in
attività che danno stabilità e significato al comportamento sociale» (Scott, 1995:55, ed. it.).
Esempi classici di istituzioni comprendono lo Stato, il matrimonio, il denaro. Il fatto che le
istituzioni includano modelli di comportamento (sia formali che informali) non vuol dire che i
modelli di comportamento siano istituzioni, ma piuttosto componenti istituzionali, e con essi
gli standard. L’argomento verrà ripreso in maggiore dettaglio nella parte dedicata alle teorie
istituzionali, nel capitolo 3, sez. 3.3.2.
30 Capitolo 1

Secondo gli autori, «A ‘standard’ is any set of agreed-upon rules for the
production of (textual or material) objects», cioè un insieme di regole concordate per
la produzione di oggetti (testuali o materiali) (Bowker & Star, 1999:13). Tali regole
vengono tramandate nel tempo tra comunità e gruppi sociali; esse servono anche a
«making things work together over distance» (far funzionare le cose insieme a distan-
za); sono generalmente "enforced" (imposte, fatte rispettare) dalle istituzioni e mo-
strano una considerevole inerzia, senza peraltro che vi sia alcuna garanzia che preval-
gano e vengano sempre adottate le migliori.
La definizione proposta da Spivak e Brenner è in sintonia con quella di Bowker e
Star: «Uno standard, nel senso più semplice, is an agreed-upon way of doing some-
thing (è un modo concordato di fare qualcosa). Più elegantemente, uno standard defi-
nisce un set uniforme di misure, accordi, condizioni o specifiche tra le parti (compra-
tore e venditore, produttore e utente, governo e imprese, governanti e governati,
ecc.)» (Spivak & Brenner, 2001:16, corsivo aggiunto).
L’idea di agreement, accordo, appare qui centrale: uno standard nasce innanzi tut-
to da un accordo negoziale tra due o più soggetti, che concordano qualcosa in comu-
ne. Questo "qualcosa" abbraccia un campo molto ampio, che difficilmente può essere
delimitato in un elenco. La nozione di regola, che verrà esplicitamente considerata
nel seguito, sembra appropriata a considerare la natura e l’ambito di tale accordo.

Regole ad adesione volontaria


La definizione adottata in (Brunsson et al., 2000), nell’ambito di un cospicuo lavoro
collettivo di ricerca sui processi di standardizzazione svolto in team presso lo Sto-
ckholm Center for Organizational Research, discute e approfondisce criticamente la
nozione di standard come un particolare tipo di regola, abbracciando esplicitamente, a
fianco agli standard tecnici, anche quelli di processo e organizzativi. Secondo gli au-
tori,

ad un livello generale ed astratto, gli standard costituiscono regole su ciò che coloro che li
adottano debbano fare, anche se ciò riguardi soltanto il dire qualcosa o il designare qualcosa
in un modo particolare. Più specificamente, si possono distinguere tre tipi di standard: stan-
dard sull’essere qualcosa, sul fare qualcosa, o sull’avere qualcosa. (Brunsson et al., 2000:4,
corsivo aggiunto).

La standardizzazione costituisce dunque, in questa prospettiva, una particolare forma


18
di regolamentazione , con la specificità di essere, almeno nominalmente, ad adesione
volontaria:

Gli standards hanno in comune due aspetti con le direttive formali, che li distinguono dalle
norme sociali: [standard e direttive] sono espliciti ed hanno una fonte evidente [al contrario,

18
In questo senso, anche se con una definizione meno ampia e completa, già (King et al.,
1994:156): «La standardizzazione è una forma di regolamentazione mirata a vincolare le
opzioni di attori e organizzazioni in assenza di autorità centrale a più ampi obiettivi
istituzionali o sociali. Gli standard sono socialmente costruiti; essi sono accordi o "trattati" tra
le parti interessate per descrivere un modo di fare le cose come "preferibile". Possono essere
completamente volontari, come lo sono molti standard emanati da associazioni professionali e
commerciali, o possono avere forza di legge»
Che cosa è uno standard 31

le norme sociali sono implicite e non hanno fonti riconoscibili]. Gli standard, d’altra parte,
si differenziano dalle direttive formali per il fatto che essi sono, almeno nominalmente, ad
adesione volontaria. Gli standardizzatori non hanno la possibilità di far valere sanzioni su
coloro che non si adeguano ai loro standard. Se uno standard raccolga o no adesioni dipende
prevalentemente non tanto dall’autorità gerarchica della fonte proponente, quanto dalla ca-
pacità dello standard stesso di risultare gradito ai potenziali adottanti per altre ragioni
(Brunsson et al., 2000:13).

La volontarietà dell’adesione nel senso indicato da Brunsson appare come un requisi-


to importante e ricco di implicazioni. Essa verrà presa in esame in maggiore dettaglio
nella successiva discussione.

Anticipatory standards
Nel numero monografico di MIS Quarterly 2006 dedicato al tema "IT standard ma-
king" (Lyytinen & King, 2006) accanto alle classiche tipologie di standard individuati
in (David & Greenstein, 1990), che includono quelli di riferimento, di qualità minima
e di compatibilità/interoperabilità, alcuni contributi prendono specificamente in esa-
me i processi di creazione di standard che si riferiscono a prodotti e applicazioni non
ancora sul mercato, guidandone la compatibilità e l’interoperabilità futura, come ad
esempio è avvenuto per gli standard tecnici dell’infrastruttura di telefonia mobile
GSM (Bekkers et al., 2002) e di comunicazione bluetooth (Keil, 2002). Questo tipo di
standard prendono il nome di anticipatory standards. Per una discussione sulla nasci-
ta e le implicazioni degli anticipatory standards nel settore IT, vedi (Bonino &
Spring, 1999).

1.2.3 Discussione

Le accezioni del termine "standard" prese in considerazione finora sono illustrate


nell’insieme in Tabella 1.1. L’insieme comprende, per scelta esplicita, pochi esempi
scelti attentamente non solo per la loro rappresentatività ed influenza nella letteratura,
ma anche perché ciascuno aggiunga elementi nuovi al quadro complessivo.
Anche se dunque esistono in effetti molte altre definizioni in letteratura, alcune
19
anche molto diverse da quelle qui discusse , il quadro complessivo dato dall’analisi

19
Si consideri ad esempio la seguente definizione di Carl Cargill, che manca forse di generalità
e può risultare piuttosto eccentrica, ma introduce particolari spunti di riflessione sugli
anticipatory standards (Bonino & Spring, 1999). «Uno standard, di qualsiasi forma e tipo,
rappresenta una dichiarazione da parte degli autori, che credono che il loro lavoro verrà
compreso, accettato e attuato dal mercato. Questa convinzione è bilanciata dalla
consapevolezza che il mercato agirà secondo il proprio esclusivo interesse, anche se questo
non coinciderà con lo standard. Uno standard è anche uno degli agenti utilizzati dal processo
di standardizzazione per causare cambiamenti nel mercato» ((Cargill, 1989:41-42), corsivo in
originale). Un’altra definizione piuttosto diversa da quelle menzionate qui sopra è stata
proposta con riferimento ai processi di standardizzazione. Essa ha origine dalla sintesi degli
elementi essenziali di varie definizioni precedenti operata in (de Vries, 1999): «La
standardizzazione è l’attività di stabilire e registrare un insieme limitato di soluzioni a
‘matching problems’ effettivi o potenziali, dirette a benefici per la parte o le parti coinvolte,
bilanciandone le necessità, con l’intesa e l’aspettativa che queste soluzioni saranno
ripetutamente o continuamente impiegate durante un certo periodo o da un numero sostanziale
di parti alle quali esse sono indirizzate» , dove ‘matching problems’ sono «problemi di entità
32 Capitolo 1

etimologica e da quella della letteratura pare a questo punto sufficientemente comple-


to da poter giungere ad una definizione ragionata.

Tabella 1.1 Quadro sintetico dei significati attribuiti dalla letteratura al termine "standard".

Significati attribuiti al termine "standard"


Fonte Definizioni Tipologie
(Cargill, 1989) Accettazione di una metrica che in-
fluenza i comportamenti di gruppo
(David, 1987) tecnici
comportamentali

(David & Greenstein, Documento formale di specifiche tecni-


1990); (David & che a cui aderire
Steinmueller, 1994)
(David & Greenstein, de facto/de jure
1990) riferimento
qualità minima
compatibilità
(Langlois & Savage, Componente istituzionale
1997)
(Bowker & Star, 1999) Regola concordate

(Brunsson et al., Regola ad adesione volontaria sull'essere


2000) sull'avere
sul fare
(Lyytinen & King, anticipatory standards
2006)

interrelate che non armonizzano le une con le altre» (Gelinas & Markus, 2005:3). Questa
definizione anticipa alcune delle osservazioni che verranno svolte nei prossimi capitoli
sull’impiego degli standard nelle organizzazioni e sui processi di creazione e diffusione. Tra
queste il coordinamento (armonizzazione delle parti), gli effetti rete (numero sostanziale di
parti), gli aspetti di potere (il bilanciamento delle necessità delle parti), la dipendenza dal
percorso (impiego dello standard per un certo periodo). Essa può però risultare ai nostri fini
fuorviante, ponendo in primo piano fattori probabilmente importanti nei processi di
standardizzazione, senza però spiegarne i motivi, la rilevanza e la generalità. D'altra parte, la
definizione lascia invece in secondo piano un elemento qui considerato essenziale della forma
scritta e pubblica. Un modo ancora diverso di esprimere l'idea di standard emerge da studi in
ambito medico: «uno standard medico è visto come un technoscientific script che cristallizza
traiettorie multiple» (Timmermans & Berg, 1997:275). In questo caso il concetto di "traiettorie
multiple" è mutuato dalle teorie sociologiche cosiddette "attore-rete" (actor network theory:
(Callon, 1986); (Law, 1987); (Law, 1992); (Latour, 2005)). L'idea delle traiettorie multiple
viene usata dagli autori per indicare la molteplicità di diversi impieghi locali a cui è collegato,
nell'uso e spesso anche nell'origine, uno standard universale; si rinvia per questo aspetto alle
riflessioni sul grado di flessibilità d'uso di uno standard che verranno proposte nel capitolo 3,
sez. 3.3.6.
Che cosa è uno standard 33

Standard come regola…


Il carattere essenziale generale individuato in letteratura, appare quello dello standard
come un particolare tipo di regola. In base all’analisi di Brunsson già citata, tutti gli
standard sono fondamentalmente regole sull’essere, sul fare o sull’avere qualcosa.
L’accezione di regola è abbastanza generale da ricomprendere come casi speciali tut-
te le definizioni fin qui riscontrate in letteratura, dalla metrica che influenza i compor-
tamenti di gruppo di Cargill fino alla componente istituzionale di Langlois, incluse le
"specifiche tecniche" menzionate nella tradizionale definizione di David e Green-
stein. In accordo con essi e con la letteratura successiva, le regole standard possono
essere classificate in due grandi categorie: comportamentali e tecniche. Quelle com-
portamentali hanno per oggetto i comportamenti, tutte le altre sono regole tecniche.
Tra le regole tecniche, è utile distinguere quelle di riferimento, di qualità minima e di
compatibilità. Quando gli standard si riferiscono a prodotti/servizi ancora da venire,
prendono il nome di anticipatory standards. Infine, in base al processo di generazio-
ne, distinguiamo standard de facto e de jure, a seconda che siano prodotti da processi
di mercato o da apposite istituzioni. Questa distinzione si può specificare ulteriormen-
te già come illustrato in Figura 1.4.
Non tutte le regole costituiscono però degli standard. Almeno due attributi essen-
ziali caratterizzano e distinguono infatti lo standard dalle altre forme di regolamenta-
zione: l’adesione volontaria e la forma scritta e pubblica.

… ad adesione volontaria…
Brunsson parla di volontarietà "almeno nominale" dell’adesione come requisito es-
senziale di uno standard. Come abbiamo visto, l’adesione è considerata volontaria in
modo più o meno esplicito dalla maggior parte degli autori, per lo più sulla scia di
David e Greenstein che fanno un generico riferimento ad un accordo di adesione. In
effetti non sempre l’uso di uno standard è opzionale, ed anzi molti standard vengono
definiti per autorità da enti governativi e imposti per legge; «Gli standard possono es-
sere istituiti da organizzazioni di standardizzazione volontaria. Inoltre, essi possono
20
anche essere imposti per autorità da enti governativi» (Greenstein, 1992:538) . Si
rende dunque qui necessario un duplice chiarimento, che riguarda da un lato le forme
di adesione resa obbligatoria in forza di norma cogente, dall’altro le forme di adesio-
ne ad uno standard sottoposto al pagamento di diritti di proprietà intellettuale (Intel-
lectual Property Rights, IPR) o ad altre forme di controllo.
Adesione obbligatoria in forza di legge. Molti standard, pur restando nominal-
mente ad adesione volontaria, sono localmente ad adesione obbligatoria per effetto di
legge o di altre regolamentazioni cogenti, come ad esempio gli standard igienico-
sanitari, gli standard ecologico-ambientali, gli standard di sicurezza e molti altri pre-
visti per l’autorizzazione all’esercizio di attività economiche e commerciali. La di-
stinzione tra la regola che impone uno standard preesistente e il processo di standar-
dizzazione che lo costituisce non è sempre cristallina: si pensi ad esempio ad una leg-
20
In questo senso vedi anche ad esempio (Rosenberg, 1979:80) «Gli standard sono insiemi di
condizioni o requisiti, prescritti e adottati formalmente oppure ampiamente riconosciuti e
accettati, e rispettivamente promulgati dalle amministrazioni pubbliche o meramente stabiliti
da usi o accordi tra acquirenti, venditori, o altre entità ammministrative o commerciali».
34 Capitolo 1

ge che impone per la circolazione dei veicoli in autostrada un certo limite di velocità
massima. E’ stato del resto autorevolmente affermato che alcuni standard de jure
21
hanno "forza di legge"; essi non potrebbero pertanto essere ad adesione volontaria .
L’argomentazione di Brunsson e di coloro che con lui sostengono che è proprio la
volontarietà dell’adesione a distinguere gli standard dalle regole coercitive appare qui
del tutto convincente. La volontarietà dell’adesione come connotato distintivo dello
standard rispetto alla regola coercitiva risulta infatti ben chiara, anche in presenza di
standard "con forza di legge", qualora si distinguano i diversi gruppi di riferimento, in
linea con l’approccio di (Pinch & Bijker, 1987) che verrà preso in esame più oltre
(capitolo 3, sezione 3.3.6). Ad esempio, nel caso di una delibera cogente che sancisca
l’impiego per un’amministrazione comunale di un sistema di certificazione ambienta-
le secondo lo standard ISO 14001, il gruppo di riferimento che è obbligato
all’adozione dello standard è quello dei cittadini del comune interessato (i soggetti di
riferimento della regola coercitiva); esiste invece un diverso gruppo di riferimento di
coloro che adottano lo standard ISO 14001 (numerose organizzazioni in Italia e
all’Estero) che è sempre aperto a nuove adesioni su base volontaria. La "forza di leg-
ge" per il gruppo dei cittadini del comune non è data in questo caso dalla regola stan-
dard ISO 14001 ma dalla diversa regola cogente che ne sancisce (solo per essi e non
universalmente) l’adozione obbligatoria.
Adesione ad uno standard sottoposto a brevetti, licenze o simili. In alcuni casi lo
standard, pur essendo pubblicamente disponibile in forma scritta, è sottoposto a bre-
vetto, licenza o ad altre forme di tutela che ne limitano o subordinano l’impiego lega-
le al pagamento dei corrispondenti diritti a chi che ne detiene la proprietà e può limi-
tarne l’apertura, cioè il libero uso. Gli aspetti della proprietà e dell’apertura di uno
standard verranno considerati più in dettaglio nel seguito.
In definitiva, dunque, la volontarietà di adesione ad uno standard può essere com-
pressa in due sensi opposti: da un lato essa può essere resa obbligatoria in forza di
normativa cogente, dall’altro possono darsi restrizioni significative in base alla disci-
plina di brevetti e licenze. Per quanto discusso finora, però, questo non sembra altera-
re fondamentalmente la concezione dello standard come regola ad adesione essen-
zialmente volontaria.

… in forma scritta e pubblica


Una regola ad adesione volontaria deve dunque essere per natura aperta (almeno no-
minalmente, come si diceva) da un lato all’adesione da parte di potenziali nuovi uten-
ti, dall’altro all’individuazione, al riconoscimento e al confronto da parte di coloro
che hanno deciso di non adottarla. Questo requisito, a cui Brunsson stesso di riferisce
quando sostiene che gli standard «sono espliciti ed hanno una fonte evidente»
(Brunsson et al., 2000:13) è stato chiamato della visibilità nell’analisi etimologica.
Esso viene soddisfatto attraverso la forma scritta e la pubblicazione. Corrispondente-

21
Vedi ad esempio (David & Greenstein, 1990), come riportato in nota 16, e anche in (King et
al., 1994:156): «[gli standard] possono essere completamente volontari, come molti standard
promulgati da associazioni professionali e commerciali, o possono avere forza di legge».
Che cosa è uno standard 35

22
mente anche in altre definizioni (tra cui quella dell’ISO , discussa anche, come ab-
biamo già visto, in (David & Steinmueller, 1994)), si fa specifico riferimento ad un
documento scritto. Le norme sociali, le consuetudini e le routine, anche se a volte
vengono indicate con l’attributo standard nel linguaggio corrente, non possono dun-
que costituire, in questo senso, degli standard, in quanto non hanno forma scritta e
pubblica. Anche le specifiche tecniche proprietarie, tenute segrete e non rivelate pub-
blicamente, non possono qui considerarsi come degli standard.

La proprietà e l’apertura
A chi appartiene uno standard? In (Kindleberger, 1983) viene discusso il carattere di
23
bene pubblico di alcuni standard, come i sistemi di misurazione, distinguendolo da
quello privato di standard industriali o tecnici, che possono essere creati per apparte-
nere ad una collettività specifica (standard collettivi) o a individui/istituzioni (stan-
dard privati). Gli standard privati vengono anche comunemente chiamati "standard
proprietari":

Con uno standard proprietario un’impresa detiene diritti di proprietà sullo standard e li usa
per restringere l’adozione da parte di altre imprese. Essa potrebbe opporsi a qualsiasi tenta-
tivo di copiare lo standard o potrebbe addebitare delle royalties. Gli standard proprietari di
solito richiedono che qualche proprietà intellettuale nello standard sia fortemente protetta da
24
brevetti, copyright, o conoscenze specifiche , come le pellicole Kodacolor, le copiatrici Xe-
rox, il software IBM, o i medicinali di marca (Grindley, 1995:24).

Gli standard proprietari possono dunque essere "chiusi", nel senso che l’adozione
può essere ristretta o impedita. Agli standard chiusi si contrappongono gli "standard
aperti", categoria a cui appartiene la maggioranza degli standard di oggi. Essi sono di
dominio pubblico e liberamente aperti all’uso di tutti: «Con uno standard aperto nes-
suna restrizione viene applicata sulle altre imprese che adottano lo standard, che esi-

22
Brunsson nota tra l’altro che la definizione di standard secondo l’ISO costituisce essa stessa
uno standard: «Infine, vale la pena notare che ci sono anche standard per definire che cosa è
uno standard. Quello che segue è uno standard ISO che specifica che cosa è uno standard: ‘un
documento stabilito attraverso il consenso e approvato da un’istituzione riconosciuta, che
fornisce, per uso comune e ripetuto, regole, linee guida, o caratteristiche per le attività o i loro
risultati, mirato al raggiungimento del grado ottimale di ordine in un dato contesto (SS-EN
45020 1999)’ (Brunsson et al., 2000:15).
23
Sulla natura di bene pubblico e di bene collettivo vedi nota n. 68.
24
Si noti come, secondo la definizione che si va qui delineando, la forma scritta e pubblica
rappresenti un requisito essenziale dello standard. Dunque, come già accennato, perché in
questa sede possa parlarsi di standard, non dovrebbero essere impiegati meccanismi di
protezione basati sull’occultamento delle specifiche tecniche. In tal caso dovremmo parlare di
tecnologie proprietarie, piuttosto che di standard proprietari. Un esempio è quello delle
specifiche tecniche del sistema operativo Microsoft Windows, che vengono spesso considerate
come uno standard de facto. Per esempio: «Il periodo dopo l’affermazione di Windows come
uno standard non ha visto nessun tentativo diretto significativo di ingresso o espansione nel
mercato dei sistemi operativi per personal computer» (Bresnahan, 2001:13). Le specifiche
tecniche di Windows sono state solo parzialmente rese pubbliche, quindi non andrebbero
strettamente considerate, in questa sede, come un esempio di standard proprietario.
36 Capitolo 1

sta o meno un’impresa detentrice di diritti di proprietà sullo standard. L’imitazione


viene di solito incoraggiata» (Grindley, 1995:24-25).
Anche quando l’uso venga concesso in forma gratuita, uno standard proprietario
resta direttamente controllato dal produttore. Si consideri ad esempio il formato Ado-
be PDF per la stampa e la pubblicazione di documenti: il produttore (pur avendo a-
dottato una politica di relativa apertura e collaborazione con le altre case produttrici
25
di software ) ne ha definito autonomamente le specifiche e continua ancora oggi a
stabilire l’agenda e le caratteristiche delle nuove versioni, riservandosi di volta in vol-
ta il diritto di concedere a terzi produttori l’autorizzazione all’uso più o meno esteso a
tutte le funzionalità disponibili. Gli standard proprietari come il formato PDF si evol-
26
vono di solito da prodotti di mercato, come standard de facto . Il controllo pubblico o
privato dei processi di creazione di uno standard e di sviluppo delle nuove versioni,
che è legato al grado di apertura dello standard stesso, costituisce oggi un fondamen-
tale argomento di riflessione e di dibattito pubblico. Per una discussione sulle forme e
i gradi possibili di apertura che uno standard può assumere e sulle relative implica-
zioni, vedi (West, 2006).

La stabilità nel tempo


Secondo quanto detto nell’analisi etimologica, anche in conformità al carattere di
pubblicità e visibilità di uno standard, è opportuno considerare il requisito della stabi-
lità nel tempo. La stabilità servirebbe anche ad assicurare che lo standard effettiva-
mente in uso sia lo stesso ovunque, nello spazio e nel tempo, evitando ad esempio che
gruppi di utenti continuino, anche inconsapevolmente, ad usare forme precedenti di
uno standard che in seguito è stato modificato. In effetti non c’è pieno accordo in let-
teratura sul fatto che la stabilità nel tempo costituisca un requisito essenziale. Ad e-
sempio, Hanseth e i suoi coautori, nell’analisi del processo di standardizzazione di un
"electronic patient record" (archivio elettronico del paziente: un sistema informativo
in ambito medico) recentemente condotta presso un ospedale norvegese, illustrano
come in ambiti di complessità elevata i sistemi informativi possano essere soggetti ad
un processo di standardizzazione e contemporaneamente anche di continua evoluzio-
ne (Hanseth et al., 2006). Ciò avviene anche a livello di infrastrutture informative,
come per esempio nel caso del web o dei servizi di posta elettronica, che subiscono
continue pressioni evolutive (Hanseth et al., 1996). Come vedremo più avanti nel ca-
pitolo 3 (sezione 3.3.1), i sistemi complessi di questo tipo hanno di solito

25
La casa produttrice Adobe ha spesso autorizzato l’uso gratuito del formato PDF, anche
all’interno di software libero e open source come OpenOffice.org e altri. Ha invece
ripetutamente negato alla Microsoft l’autorizzazione a includere in Office 2007 la possibilità di
salvare documenti direttamente in formato PDF (caratteristica richiesta da numerosi utenti,
secondo la Microsoft), chiedendo un pagamento di royalties, e minacciando in caso contrario
una causa antitrust (Beer, 2006). Alla fine la Microsoft ha deciso di non inserire la funzionalità
di salvataggio in PDF in Office 2007, mettendola però disponibile on line come "add-on"
(modulo aggiuntivo) gratuito da scaricare e installare separatamente (Broersma, 2006).
26
Standard de facto, come originariamente Adobe PDF possono in seguito anche dare origine a
standard de jure. La stessa Adobe in gennaio 2007 ha avviato il procedimento ufficiale perché
le specifiche alla base di PDF reader e Acrobat possano divenire uno standard ISO (LaMonica,
2007). La durata tipica del procedimento è di circa 3 anni.
Che cosa è uno standard 37

un’architettura abbastanza stabile composta di molti standard che tendono a essere


sostituiti nel tempo da nuove versioni. La gestione delle versioni richiede tra l’altro di
affrontare i tipici problemi di compatibilità (verso il basso, verso l’alto, attraverso a-
dattamento, conversione, ecc.) con cui molti utenti di software per personal computer
hanno probabilmente qualche familiarità.
Comunque, in questa sede si sceglierà di considerare il ciclo di vita di uno stan-
dard limitato alla versione del documento ufficiale di rilascio e pubblicazione. Ogni
nuova versione rappresenta dunque un nuovo standard, lasciando quello precedente
immutato e perfettamente stabile nel tempo. Si tratterà dunque di distinguere tra stabi-
lità e immutabilità dei singoli standard (ciascuno con una unica versione di rilascio)
ed evoluzione dei sistemi multi-standard, come le infrastrutture informative. Queste
ultime sono infatti rese relativamente stabili dai processi di standardizzazione, ma so-
no anche in continua evoluzione, che viene controllata attraverso la gestione della
compatibilità.

L’elemento negoziale
Secondo quanto discusso finora, esiste un duplice elemento negoziale nel concetto di
standard: da un lato infatti è possibile individuare un accordo iniziale, nell’ambito del
gruppo istitutivo, che dà luogo alla nascita dello standard e alla pubblicazione del re-
lativo documento: in questo senso, come abbiamo visto, Bowker e Star parlano pro-
prio di un "agreed-upon set of rules". Questo primo atto negoziale può riguardare la
semplice adozione di una norma preesistente (es. l’elezione di una convenzione, di un
particolare prodotto o di un insieme di specifiche tecniche al ruolo di standard) oppu-
re può comportare un vero e proprio elemento progettuale, come avviene per gli anti-
cipatory standards.
Tale atto negoziale, insieme alla pubblicazione formale della norma, di per sé isti-
tuisce e dà ufficialmente inizio alla vita dello standard.
In secondo luogo, essendo l’adesione volontaria, è sempre possibile, anzi naturale,
che avvengano nuove adesioni attraverso un successivo e distinto atto negoziale: può
trattarsi di un semplice comportamento concludente unilaterale (conformarsi alla nor-
ma) o anche invece di un accordo formale a cui partecipa il soggetto o il gruppo che
abbia eventualmente un potere di accettazione o ratifica sull’adozione, come nel caso
di alcuni standard proprietari.

Standard come attributo


E' possible considerare gli standard come entità che vengono create attraverso un pro-
cesso di standardizzazione, come ad esempio avvenne per la creazione ex novo del
metro come standard di misurazione, un anticipatory standard per eccellenza. Proces-
si simili sono recentemente avvenuti in settori a forte sviluppo infrastrutturale: pen-
siamo agli esempi già accennati in precedenza della nascita dello standard GSM nella
telefonia cellulare (Bekkers et al., 2002) e del bluetooth per le comunicazioni wire-
less (Keil, 2002).
E' però anche possibile considerare il termine "standard" come aggettivo. In que-
sto caso il processo di standardizzazione non avrebbe più l'obiettivo di creare, ma di
trasformare un'entità preesistente in standard. Perché questo possa avvenire, come
abbiamo visto, è necessario un atto negoziale e una pubblicazione formale. Ad esem-
38 Capitolo 1

pio la famosa relazione di William Sellers Su un sistema uniforme di filettature per


viti al meeting dell'Istituto Franklin del 21 aprile 1864, rappresenta l'avvio del proces-
so negoziale che costituisce il consenso nell'ambito di un gruppo di riferimento e che
culmina con la formale pubblicazione del nuovo standard. La filettatura Sellers, che
in precedenza era una semplice specifica tecnica di un prodotto, acquisisce dunque
l'attributo di standard attraverso le due fasi essenziali dell'atto negoziale e della pub-
blicazione formale.

Il gruppo di riferimento
Compiere scelte comuni può essere un fattore di aggregazione sociale: si pensi agli
utilizzatori di un prodotto, ai lettori di un libro o anche agli ammiratori di un perso-
naggio famoso. Se lo standard è una regola formale "scelta" dagli utenti, potremmo
dunque considerare questi ultimi come un vero e proprio gruppo di riferimento dello
standard stesso.
La comprensione dei meccanismi che adducono alla scelta di una regola, piuttosto
che un prodotto o un romanzo, può dunque gettare luce sulle caratteristiche del grup-
po di riferimento e sui suoi meccanismi di composizione ed evoluzione. Questo tema
verrà affrontato più in dettaglio nel terzo capitolo, in cui si osserverà come il gruppo
degli utenti che adottano uno standard sia costituito da individui che hanno compiuto
una scelta comune, prevalentemente in base a criteri di razionalità strumentale e/o di
appropriatezza, identificazione, espressione di valori, imitazione. Essi dunque condi-
vidono, in proporzioni diverse, una positiva valutazione razionale dello standard, un
senso di identità e valori condivisi, una spinta più o meno forte all’imitazione e forse
anche, in alcuni casi, una certa componente affettiva.

Dopo aver dunque posto la prima pietra dell'edificio teorico, discutendo che cosa
è uno standard e come debba delimitarsi l'ambito di riferimento in questa sede, pas-
siamo dunque ad una ulteriore questione di base, prima di affrontare la domanda cen-
trale dell'investigazione (come nasce uno standard?). La questione di base è quella
delle possibili modalità di impiego dello standard nelle organizzazioni (a che cosa
serve uno standard?). Nel capitolo che segue verrà dunque offerta una rassegna criti-
ca della letteratura, volta a chiarire e illustrare il ruolo dello standard come strumento
organizzativo.
2
A che cosa serve uno standard

Nel capitolo precedente per comprendere a fondo che cosa è uno standard si è in-
nanzi tutto fatto ricorso a storie ed esempi, che illustrassero alcuni dei temi e degli
aspetti da prendere poi in considerazione nell'analisi successiva. Similmente, prima di
affrontare nel prossimo capitolo la domanda centrale di questo lavoro, come nasce
uno standard, è opportuno preparare qui il terreno attraverso la disamina dei possibili
impieghi degli standard nelle organizzazioni. Per capire come nasce uno standard ci
chiederemo innanzi tutto per quali impieghi esso venga alla luce, attraverso l'analisi
delle sue modalità di utilizzo come strumento organizzativo e dei relativi scopi.
La discussione sarà qui essenzialmente basata sull'analisi critica della letteratura
organizzativa, attraverso cui verranno evidenziate tre possibili forme d'uso dello stan-
dard come strumento: 1) come meccanismo di coordinamento, per la progettazione
organizzativa; 2) come tipologia di investimento che ha effetto sulle relazioni interor-
ganizzative; 3) come agente di innovazione e piattaforma di improvvisazione. Queste
diverse forme di impiego potranno aver rilievo sui meccanismi di creazione e diffu-
sione, influenzando ad esempio i soggetti coinvolti nei processi di standardizzazione,
i loro profili di utilità e i loro rapporti di potere, come si vedrà nel capitolo successi-
vo.

2.1 Standard per il coordinamento


Le regole (e tra esse gli standard) sono innanzi tutto importanti come strumento orga-
nizzativo perché soddisfano, in un certo senso, un motivo essenziale di esistenza delle
27
organizzazione: consentire a più individui di agire sinergicamente .
27
Naturalmente si è ben consci di come sia impossibile (e probabilmente sbagliato) tentare di
fornire in termini specifici un motivo essenziale di esistenza dell'organizzazione che sia
condivisibile da tutti. "Agire sinergicamente" esprime qui in sintesi estrema alcuni dei tratti
comuni delle tre definizioni complementari di organizzazione come sistema razionale, naturale
e aperto proposte da W. Richard Scott a fondamento della sua analisi estensiva di quasi 2000
contributi della letteratura organizzativa (Scott, 1994). Esse sono: collettività orientata al
raggiungimento di fini relativamente specifici che presenta una struttura sociale relativamente
formalizzata (sistema razionale); collettività i cui partecipanti condividono un'interesse alla
sopravvivenza del sistema e si impegnano in attività collettive, strutturate informalmente, per
40 Capitolo 2

L'azione sinergica in una collettività avviene di rado in modo esclusivamente


spontaneo ed emergente. Essa richiede a volte, specie quando si applicano criteri di
divisione del lavoro, un intervento che assicuri una certo grado di ordine artificiale,
che si distingue da quello naturale proprio dei fenomeni fisici (es. l'ordine cosmologi-
co) e biologici (es. il funzionamento ordinato degli organismi viventi ed anche i com-
portamenti cooperativi degli animali guidati dall'istinto).

2.1.1 Coordinamento e interdipendenze

L'intervento atto a produrre un certo grado di ordine artificiale nel sistema di azione
di una collettività prende il nome di coordinamento. Il coordinamento rende possibile
l'azione sinergica; in particolare, esso svolge un ruolo cruciale per l'applicazione di
criteri di divisione del lavoro e rappresenta dunque, nel senso qui chiarito, l'essenza
stessa dell'organizzazione.
Un'analisi originale e profonda della portata di questo concetto è quella offerta da
Anna Grandori, che dedica una parte consistente di (Grandori, 1995) all'analisi dei
meccanismi di coordinamento.

La maggior parte delle attività economiche genera interdipendenza tra operatori [...] Per co-
ordinamento si intende la regolazione efficace di tale interdipendenza. Il significato tecnico
in cui useremo il termine coordinamento non si discosta perciò molto dal suo significato
comune: «ordinare insieme; disporre più cose o elementi nell'ordine più adatto al fine che si
vuole raggiungere» (Grandori, 1995:129, II ed.).

Adottando un'ottica organizzativa economizzante, assume particolare rilievo un ordi-


ne efficace. In questa logica, l'esperienza insegna che, in un sistema collettivo, le atti-
vità che più facilmente generano diseconomie in assenza di regolazione non sono
28
quelle isolate e tra loro indipendenti, bensì quelle in relazione le une con le altre .
L'ordine artificiale efficace si otterrà dunque intervenendo sulle attività in relazione al

garantire tale sopravvivenza (sistema naturale); sistema di attività interdipendenti che


connettono coalizioni instabili di partecipanti; tali sistemi sono radicati nell'ambiente in cui
operano, dipendono da continui interscambi con essi e ne sono costituiti (sistema aperto)
(Scott, 1994:42-46). L'idea di azione sinergica, infatti, comprende in sé un orientamento ad un
fine, che può essere formulato espressamente secondo termini di efficacia (sistema razionale),
collegato implicitamente alla lotta per la sopravvivenza (sistema naturale), o emergente
dinamicamente (sistema aperto). Anche se l'esistenza di un'orientamento ad un fine verrebbe
probabilmente respinta da una parte della letteratura organizzativa, (vedi ad esempio alcune
analisi postmoderne basate sull'idea di "storytelling organization", come (Boje, 1995)), appare
qui appropriato accogliere "in un certo senso", il concetto alto e articolato, ma pur sempre
finalistico di azione sinergica come ampiamente caratterizzante dell'organizzazione.
28
Il grado di relazione tra le attività può variare in base alla loro natura e alle diverse situazioni:
ad esempio le persone che camminano in una piazza possono spostarsi con percorsi e tempi di
azione definiti in modo autonomo e libero, dato che la loro bassa velocità non ne pregiudica la
sicurezza. Al contrario, gli automobilisti che impegnino un incrocio dovranno spostarsi con
percorsi e tempi di azione definiti in modo interdipendente, al fine di evitare un incidente.
A che cosa serve uno standard 41

loro grado di dipendenza reciproca. Il coordinamento in questo senso è dunque, la


29
gestione delle dipendenze tra le attività (Crowston, 1997:159) .
Come è noto, si deve a James Thompson il contributo organizzativo senz'altro più
30
influente e diffuso su questo tema (Thompson, 1967). La classificazione di Thom-
31
pson delle dipendenze tra attività (o interdipendenze ) è uno degli argomenti imman-
32
cabili in ogni testo base di Organizzazione . Essa può essere applicata all'analisi delle
attività classificandole come segue:
Attività ad interdipendenza generica (debole): le attività fanno parte dello stesso
sistema di azione, con un contributo individuale verso un obiettivo comune, ma non
sono collegate tra loro in modo diretto. Esempio: le attività di due braccianti che con-
tribuiscono (ciascuno autonomamente) alla raccolta della frutta in un campo.

29
Tale definizione è stata proposta e analizzata estensivamente in (Malone & Crowston, 1994),
prendendo in esame numerose altre accezioni di coordinamento usate in varie discipline. Per
una rassegna della letteratura organizzativa sul tema del coordinamento vedi (Decastri, 1997).
30
Thompson parla di interdipendenze tra "atti" (acts) nel definire le caratteristiche delle
tecnologie: ad esempio «la tecnologia sequenziale implica interdipendenza seriale nel senso
che l'atto Z può essere effettuato solo dopo il che l'atto Y sia stato portato a termine con
successo» (Thompson, 1967:15). Quando invece passa a trattare il tema del coordinamento,
introduce e classifica le "interdipendenze interne", cioè le "interdipendenze di parti
organizzative". «Possiamo descrivere questa situazione come una in cui ciascuna parte fornisce
un contributo distinto al tutto e ciascuna è supportata dal tutto. Chiamiamo questa
interdipendenza generica (pooled interdependence)» (Thompson, 1967:54). Grandori, come
abbiamo visto sopra, parla in generale di interdipendenza tra operatori (Grandori, 1995:129, II
ed.) nella definizione di coordinamento; di analisi delle interdipendenze tra attività in fase di
progettazione delle unità organizzative (Grandori, 1995: 447, II ed.); di "interdipendenze
«residue» che legano le unità organizzative" quando passa all'applicazione dei meccanismi di
integrazione (Grandori, 1995:454, II ed.). Oggi convenzionalmente, seguendo Crowston e
Grandori, ci si riferisce alle (inter)dipendenze tra attività per la definizione dei confini delle
unità organizzative, come ad esempio nelle fasi iniziali del metodo "Zero Base" (Grandori,
1988). Questo permette di separare le attività dai soggetti per poterle raggruppare ed assegnare
in un secondo momento in base ai risultati dell'analisi delle dipendenze. Parlando di attività il
livello di analisi può essere individuale o anche di gruppo, a seconda della natura dell'attività
stessa.
31
Malone e Crowston (i fondatori del centro per lo studio interdisciplinare del coordinamento
presso il MIT) usano nella teoria interdisciplinare del coordinamento l'espressione "dipendenze
tra attività", mentre Thompson usava quello di "interdipendenze", riferito sia alle attività che
alle unità organizzative (vedi nota successiva). Il termine "dipendenze", riferito alle attività, è
probabilmente più corretto, dato che potrebbe comprendere anche attività che dipendono da
un'attività indipendente. Nelle discipline organizzative, dopo Thompson, il termine
"interdipendenze" resta tuttavia ancora oggi quello più utilizzato.
32
Gli studi più recenti hanno individuato nuove e più complesse forme di interdipendenza.
Oltre ai contributi di (Camuffo, 1997) e (Grandori, 1995:324-327, II ed.), è utile far riferimento
ai lavori del gruppo MIT che hanno dato luogo all'Handbook for Organizational Processes
(Malone et al., 1999). La nozione base di interdipendenza accolta in quella sede include, oltre
al concetto di attività, anche quello di risorsa. Essa comprende le dipendenze di tipo flow
(l'attività A produce una risorsa necessaria all'attività B), share (A e B fanno uso della stessa
risorsa) e fit (A e B producono la stessa risorsa). Una rassegna comparativa delle più recenti
classificazioni delle interdipendenze è offerta in (Bolici, 2007), nell'ambito dell'analisi dei
meccanismi di coordinamento delle comunità di sviluppo di software Open Source.
42 Capitolo 2

Attività ad interdipendenze sequenziale (moderata): l'attività B deve essere svolta


dopo l'attività A, che ne è un prerequisito essenziale. Esempio: Il calcio di un rigore
dipende sequenzialmente dal fischio dell'arbitro.
Attività ad interdipendenze reciproca (forte): se A e B sono in interdipendenza re-
ciproca, esse vanno svolte congiuntamente, in continua interazione. Esempio: le atti-
vità collegate di una pattinatrice e del suo partner durante l'esecuzione di una figura.
Secondo questo semplice approccio, coordinare vuol dire essenzialmente indivi-
duare le attività interdipendenti e intervenire, in base al grado di interdipendenza e
agli altri fattori e vincoli rilevanti, perché vengano eseguite ordinatamente. A tal fine,
nell'ambito della progettazione dell'assetto organizzativo, che verrà illustrata nel se-
guito, trovano impiego i cosidetti meccanismi di coordinamento.

2.1.2 Meccanismi di coordinamento

Una vista d'insieme sui meccanismi di coordinamento può risultare utile per meglio
individuare il ruolo degli standard. La Figura 2.1 che segue illustra tre categorie di
meccanismi di coordinamento, rappresentate nella parte alta dello schema: supervi-
sione diretta, adattamento reciproco e standardizzazione. Quest'ultima, che è qui l'og-
getto di maggiore interesse, può agire sulla programmazione dettagliata e il controllo
analitico delle attività (standardizzazione dei processi), sui meccanismi di definizione
degli obiettivi e di misurazione dei risultati (standardizzazione degli output), o ancora
su sulle conoscenze e competenze (standardizzazione e certificazione di conoscenze e
competenze). Tale classificazione è dovuta alla nota sistematizzazione di (Mintzberg,
1983), che verrà presa in esame più da vicino nella prossima sezione. Nella parte in-
feriore della figura ciascuno di essi è collegato con una delle forme oggetto della più
recente e approfondita analisi di (Grandori, 1995), rispettivamente autorità e agenzia,
33
gruppo e negoziazione, norme e regole .
In relazione alla complessità delle attività, (Mintzberg, 1983) individua una scala
sequenziale per i meccanismi di coordinamento: essi sembrano passare, man mano
che la complessità aumenta, dall'adattamento reciproco alla supervisione diretta, alla
standardizzazione dei processi, dei risultati, delle competenze, per ritornare infine al-
l'adattamento reciproco.

33
Questo collegamento ha puro valore indicativo. Ad esempio la negoziazione non corrisponde
esattamente all'adattamento reciproco, ma ne fa spesso uso. Si potrebbe infatti osservare che la
negoziazione, al contrario del semplice adattamento reciproco, può prevedere, oltre a diritti e
obblighi di azione e informazione, anche diritti ed obblighi di decisione. Addirittura i
diritti/obblighi di azione potrebbero essere non presenti in alcune forme di negoziazione: cfr.
nota successiva.
A che cosa serve uno standard 43

Figura 2.1 Alcuni tra i principali meccanismi di coordinamento. Ciascuna delle tre tipolo-
gie classiche evidenziate in alto (Mintzberg, 1983) è messa in relazione con una
delle forme analizzate in (Grandori, 1995). Fonte: (Virili, 2007:112), figura 4.2.

L'esempio è quello di una persona che lavora inizialmente da sola (nessun mecca-
nismo) e che entra poi a far parte di un gruppo che si coordina informalmente (reci-
proco adattamento); con il crescere delle dimensioni del gruppo, emerge in seguito un
bisogno di leadership: un individuo viene quindi posto a capo del gruppo (coordina-
mento per supervisione diretta). Man mano che aumentano le dimensioni e le interdi-
pendenze tra le attività dei componenti del gruppo, emerge un bisogno di standardiz-
zazione. Se le attività sono semplici e ripetitive, vengono standardizzati i processi di
lavoro; se invece risultano più varie e articolate, sono gli output a venire standardiz-
zati; in presenza infine di elevata complessità e imprevedibilità l'unica standardizza-
zione possibile è quella delle competenze. Nel caso la complessità sia tanto elevata da
rendere impossibile anche quest'ultima scelta, si torna alla forma di coordinamento
più flessibile: quella per reciproco adattamento.
Per una trattazione analitica molto più ricca e approfondita, rinviamo all'analisi
delle forme di coordinamento individuate in (Grandori, 1995): alle tre forme base il-
44 Capitolo 2

lustrate in Figura 2.1 (autorità e agenzia, gruppo e negoziazione, norme e regole) si


34
aggiunge in quella sede quella dei meccanismi di prezzo e voto .

2.1.3 La funzione degli standard secondo l'approccio contingente

Nella letteratura organizzativa uno degli studi che ha affrontato con maggiore siste-
maticità e ampiezza l'argomento degli standard appare alla fine degli anni '70, ad ope-
ra di Henry Mintzberg (Mintzberg, 1979), sulla base di un notevole lavoro di raccolta
35
e sistematizzazione della letteratura organizzativa precedente . Tale studio è stato
successivamente rielaborato in (Mintzberg, 1983), adottando un linguaggio e un'im-
36
postazione più operativa . In esso si individuano innanzi tutto due aspetti caratteriz-

34
L'analisi in (Grandori, 1995) integra e sintetizza in modo originale la teoria del
coordinamento organizzativo, individuando gli elementi essenziali su cui si basa in ultima
analisi ogni organizzazione: la definizione delle modalità e delle espressioni possibili dei diritti
e obblighi di azione, informazione, decisione, controllo, ricompensa e proprietà. Con questo
approccio di sintesi, l'economia, il coordinamento e la governance aziendale vengano trattati in
modo unificato. In precedenza il pensiero organizzativo, nella classificazione delle tre forme
classiche rappresentate in Figura 2.1 (supervisione (autorità/agenzia), aggiustamento
(negoziazione/gruppi) e standardizzazione (norme/regole)), includeva implicitamente
nell'accezione di coordinamento la sola definizione dei diritti e obblighi di azione e di alcuni
tra i possibili diritti e obblighi di informazione, decisione e controllo. L'inclusione esplicita di
una vasta gamma di modalità e diritti/obblighi di informazione, decisione e controllo tra gli
elementi costitutivi del coordinamento ha permesso di introdurre, accanto alle tre forme
classiche di coordinamento illustrate in Figura 2.1, una quarta modalità, poco trattata nella
letteratura organizzativa sul coordinamento: quella dei sistemi di prezzo e voto e di quelli di
negoziazione, presi in esame rispettivamente nel capitolo IV e nel capitolo VII di (Grandori,
1995:139-154 II ed.).
35
Mintzberg scrive The Structuring of Organizazions - A Synthesis of the Research proprio
nella seconda metà degli anni '70, effettuando un'opera di sistematizzazione di cui si sentiva il
bisogno. Come ha spiegato in seguito nell'introduzione di (Mintzberg, 1983), in quel periodo la
ricerca organizzativa era piuttosto difficile da decifrare univocamente «I risultati delle ricerche
sono […] spesso contraddittori e i tentativi di interpretare e di spiegare tali contraddizioni sono
stati molto limitati. Di conseguenza, l'operatore che abbia avuto la pazienza di esaminare tutta
la letteratura si trova alla fine più confuso di quanto non fosse prima di intraprendere un tale
esame. Verso la metà degli anni Settanta decisi di tentare di riordinare la letteratura
disponibile, di individuarne i messaggi principali e, soprattutto, di sintetizzarli in uno schema
integrato del processo di progettazione organizzativa» (Mintzberg, 1983:31-32, ed. it.). L'opera
di Mintzberg, pur non introducendo innovazioni radicali, rappresenta un significativo
contributo, sia accademico che manageriale, della cosiddetta scuola contingentista. L'approccio
contingente, sviluppatosi a partire dalla fine degli anni '50, abbandona l'impossibile ricerca di
una teoria di portata generale e valore assoluto tipica delle scuole organizzative classiche,
ponendosi invece l'obiettivo di individuare, nella progettazione organizzativa, i criteri di
intervento più appropriati a seconda delle diverse situazioni. Tale approccio (e Mintzberg con
esso, vedi nota 37) è stato in seguito oggetto di importanti critiche, ma resta ancora oggi uno
degli elementi costitutivi fondamentali del pensiero organizzativo. Per una rassegna critica dei
contenuti e delle tematiche dell'approccio contingente si può fare riferimento a (Delmestri,
1996) e ai riferimenti ivi contenuti.
36
Come appare evidente dal titolo della revisione del 1983, Structuring in fives (strutturare a
base cinque) Mintzberg propone un quadro analitico in cui ricorre curiosamente il numero
cinque, individuando cinque parti dell'organizzazione, cinque configurazioni strutturali, cinque
meccanismi di coordinamento, cinque parametri di progettazione e così via.
A che cosa serve uno standard 45

zanti dell'organizzazione: le parti di cui è costituita (vertice strategico, linea interme-


dia, nucleo operativo, staff di supporto e tecnostruttura) e i meccanismi di coordina-
mento (adattamento, supervisione, standardizzazione dei processi, degli output, delle
competenze). Si passa dunque ad una rassegna dei parametri di progettazione (posi-
zioni individuali, macrostruttura, collegamenti laterali, decentramento verticale e o-
rizzontale), per poi individuare e analizzare i fattori contingenti (età e dimensione,
tecnologia, ambiente, potere). Le cinque configurazioni descritte e analizzate da Min-
tzberg (struttura semplice, burocrazia meccanica, burocrazia professionale, soluzione
divisionale, adhocrazia) sono dunque il risultato dell'applicazione del quadro analitico
tracciato in precedenza: in ciascuna di esse, le parti dell'organizzazione e i meccani-
smi di coordinamento vengono definiti in relazione a diverse combinazioni dei para-
metri di progettazione e dei fattori contingenti. Una progettazione efficace deve per-
tanto assicurare che i parametri di progettazione siano appropriati alla situazione (co-
erenza esterna) ed anche in armonico e coerente equilibrio (coerenza interna), indivi-
duando in ultima analisi la configurazione organizzativa più appropriata.

Le variabili o gli elementi dell'organizzazione debbono essere scelti in modo da raggiungere


un'armonia o una coerenza interna e nel contempo anche una coerenza di fondo con la situa-
zione dell'azienda: la dimensione, l'età, il tipo di ambiente nel quale opera, il sistema tecnico
che impiega, e così via. Invero, questi fattori situazionali possono essere «scelti» non meno
di quanto accade per le variabili organizzative: la posizione dell'azienda nel suo ambiente, la
sua dimensione, i metodi che impiega per ottenere i prodotti o i servizi, tutti questi elementi
formano oggetto di una scelta. Ciò ci porta alla conclusione che sia i parametri della proget-
tazione organizzativa sia i fattori situazionali dovrebbero essere combinati per creare quelle
che noi chiamiamo configurazioni. […] La tesi centrale di questo libro è che un numero li-
mitato di configurazioni spiega la maggior parte delle tendenze che spingono le aziende ef-
ficaci a organizzarsi nel modo in cui sono organizzate (Mintzberg, 1983:37-38, ed. it.)

Nell'ambito di questo approccio "configurazionale" che caratterizza l'opera di Min-


37
tzberg , il ricorso agli standard è uno dei primi e più basilari meccanismi di coordi-
37
L'approccio configurazionale è stato oggetto di numerosi contributi sia sul piano della
metodologia della ricerca che su quello di elaborazione teorica e verifica empirica. Tra i primi
menzioniamo (Doty & Glick, 1994), che difendono la validità di teorie organizzative basate su
tipologie (typological theories); tra i secondi segnaliamo i lavori apparsi nello Special
Research Forum dell' Academy of Management Journal dedicato al tema "Configurational
Approaches to Organization", introdotto in (Meyer et al., 1993). Sul versante delle critiche
possiamo distinguere quelle di ordine generale verso la scuola contingentista e funzionalista da
quelle più specifiche basate sulla verifica empirica dei suoi assunti. L'approccio funzionale
tipico dei contingentisti è stato criticato in base ad argomenti di ordine filosofico,
epistemologico, ontologico e politico: per un dibattito su questo tema, originato da un
controverso contributo di Lex Donaldson (un contingentista della scuola di Aston), vedi
(Hickson et al., 1998). Sul fronte della verifica empirica, una critica diretta ed evidente
all'impianto di Mintzberg è invece fornita in (Doty et al., 1993), che operazionalizzano le
cinque configurazioni organizzative base di Mintzberg e le mettono in relazione con una stima
di efficacia organizzativa. Il sorprendente risultato è che non esiste alcuna relazione statistica
evidente: in base alle variabili usate, il grado di attuazione delle configurazioni non influisce
sull'efficacia organizzativa per il campione di organizzazioni oggetto di analisi, laddove la
stessa metodologia riscontra invece una certa relazione significativa (24% di varianza spiegata)
mettendo alla prova la nota tipologia di Miles e Snow. Gli autori ne concludono che «a meno
che altri ricercatori non forniscano [in futuro] supporto empirico al lavoro di Mintzberg, non
siamo [oggi] in grado di dimostrare la validità né della tipologia, né della teoria di Mintzberg»
(Doty et al., 1993:1243). E bene però considerare, tenendo conto della difficoltà e delle forti
46 Capitolo 2

namento per la progettazione organizzativa. Le tre tipologie già introdotte e illustrate


nella Figura 2.1 comprendono gli standard di processo, di output e quelli atti a certi-
ficare conoscenze e competenze. Esse verranno ora descritte più nel dettaglio, in base
all'analisi di Mintzberg.

Standardizzazione dei processi


La standardizzazione dei processi di lavoro, nel senso inteso da Mintzberg, non sem-
pre comporta l'adesione ad uno standard vero e proprio; essa include l'adozione di
procedure formali ed anche di prassi e routine secondo norme non scritte, come evi-
denziato negli esempi che seguono.

I processi di lavoro vengono standardizzati quando si specificano o si programmano in con-


tenuti del lavoro. Un esempio che viene alla mente riguarda le istruzioni di montaggio che
vengono fornite con un gioco per bambini. In questo caso il costruttore standardizza in ef-
fetti il processo di lavoro del genitore: «prendere la vite Phillips da due pollici a testa roton-
da e inserirla nel foro BX, unire questo alla parte XB con la rondella di bloccaggio e il dado
esagonale, nello stesso tempo tenere…». Nelle organizzazioni, la standardizzazione può es-
sere molto spinta, [...] come nel caso di un pasticcere che ebbi una volta occasione di osser-
vare: egli immergeva il cucchiaio in un vaso di ripieno per crostate, eseguendo questa ope-
razione letteralmente per migliaia di volte ogni giorno (ciliegie, mirtilli o mele, la cosa non
era rilevante per lui) e ne vuotava il contenuto sullo strato superiore della crostata che gli
veniva presentata su un piatto girevole. Naturalmente altri standard lasciano più spazio o di-
screzionalità all'operatore: il compratore può dover richiedere almeno tre offerte per gli or-
dinativi superiori a 10.000 dollari, ma per tutti gli altri aspetti può svolgere il suo lavoro
come meglio ritiene. (Mintzberg, 1983:41-42, ed. it.).

Oltre alle tipologie specificate da Mintzberg, notiamo oggi un fenomeno sempre più
diffuso di adesione generalizzata a standard di processo internazionali. Tra le classi di
standard oggi più diffuse e rilevanti nel mondo vi sono quelli della famiglia ISO 9000
per le gestione della qualità e quelli della famiglia ISO 14000 per la gestione ambien-
tale. Secondo quanto dichiarato sul sito dell'Organizzazione Internazionale per la
Standardizzazione, «Le famiglie ISO 9000 e ISO 14000 sono tra gli standard ISO più
ampiamente conosciuti in assoluto. Gli standard ISO 9000 e ISO 14000 sono imple-
mentati da circa 887.770 organizzazioni in 161 Paesi» (ISO, 2008).

Standardizzazione degli output


Il secondo tipo di standardizzazione preso in esame da Mintzberg riguarda i risultati
del lavoro; esso risulta più flessibile rispetto alla standardizzazione dei processi. Per
la standardizzazione dell'output, Mintzberg cita gli esempi del vasaio, del tassista, del
modellatore di blocchi d'argilla, ai quali viene indicata la destinazione, il tipo di vaso
o la dimensione del blocco d'argilla che è il risultato finale del loro task, ma non la
procedura da seguire. La standardizzazione degli output assicura preventivamente il
coordinamento tra le attività: «la legatoria sa che le pagine che riceve da una parte si
adatteranno perfettamente alle copertine che riceve da un'altra parte» (Mintzberg,
1983:42, ed. it.).

limitazioni degli approcci di verifica empirica, che «molte tipologie non sono mai verificate
empiricamente, e quelle che lo sono di solito mancano di essere confermate» (Miller,
1996:506).
A che cosa serve uno standard 47

Standardizzazione delle conoscenze/competenze


La standardizzazione delle conoscenze/competenze risulta più complessa e multifor-
me, per la rilevanza che il fattore umano viene ad assumere. La definizione di un per-
corso formativo chiaramente individuato e caratterizzato per l'accesso a determinate
posizioni (in termini organizzativi, della variabile strutturale "professionalità") può
rappresentare un rilevante fattore di coordinamento delle attività. Questo tipo di stan-
dardizzazione lascia infatti agli attori un maggior grado di libertà e che permette di
affrontare situazioni più complesse: l'esempio è quello dell'anestesista e del chirurgo,
che, condividendo competenze specifiche e standard, comunicano durante un'opera-
zione chirurgica usando un linguaggio altamente specifico, formale ed efficace.
Nella parte dedicata alla progettazione della macrostruttura, Mintzberg riprende in
vari punti il discorso sulla standardizzazione per individuarne il rapporto con le va-
riabili contingenti e di progettazione. Una prima osservazione (Mintzberg, 1983:125,
ed. it.) è che le dimensioni delle unità organizzative possono aumentare man mano
che si introducono procedure, output e competenze standardizzate: questo risultato è
confermato anche dall'analisi dei famosi studi della Woodward sulle imprese di pro-
duzione. Mintzberg mette anche in relazione il grado di burocratizzazione della strut-
tura, da un lato, e il grado di decentramento, dall'altro, con i diversi tipi di standardiz-
zazione. Il grado di burocratizzazione tende a decrescere in presenza di ambiente in-
stabile: in questa situazione c'è una forte spinta verso modelli organici piuttosto che
meccanici e burocratici. Il decentramento decisionale è invece correlato alla semplici-
tà/complessità dell'ambiente: ambienti più complessi richiedono un maggiore decen-
tramento di ambienti semplici. Tenendo conto del fatto che la standardizzazione tende
ad aumentare il grado di burocratizzazione e l'accentramento, passando dalla standar-
dizzazione dei processi a quella dei risultati e a quella delle competenze, ci si sposta
maggiormente verso un modello più organico e caratterizzate da minore accentramen-
to decisionale, più adatto ad un ambiente dinamico e complesso.

Standard come meccanismo di integrazione


Lo standard può essere impiegato anche come meccanismo di integrazione. L'integra-
zione è una forma di coordinamento ulteriore, che ha solitamente natura più "soft"
della pura gestione delle dipendenze tra attività. Essa serve a soddisfare un fabbiso-
gno che nasce dalla differenziazione tra unità organizzative in termini di orientamenti
e cultura, conoscenze e competenze, obiettivi e interessi. Questo fenomeno è stato o-
riginariamente individuato in (Lawrence & Lorsch, 1969). Tra unità differenziate
possono esistere interdipendenze "residue" (Grandori, 1995:454, II ed.;Van de Ven et
al., 1976) anche di natura più complessa di quelle thompsoniane (Victor & Bla-
38
ckburn, 1987) , che si gestiscono appunto attraverso i meccanismi di integrazione.
L'elenco dei meccanismi di integrazione secondo Lawrence e Lorsch, partendo dai
più semplici per giungere ai più sofisticati, comprende:
9 Procedure, programmi e standard
9 Gerarchia
9 Contatti diretti

38
Sulle forme complesse di interdipendenza vedi anche la nota 32.
48 Capitolo 2

9 Team temporanei e permanenti


9 Posizioni e organi di integrazione.
La standardizzazione viene qui utilizzata in presenza di basso fabbisogno di inte-
grazione e basso grado di differenziazione, che sono di solito associate un ambiente
relativamente semplice e stabile. In (Galbraith, 1973), la sofisticazione delle soluzioni
organizzative è messa in relazione con la complessità informativa delle attività. Per
livelli crescenti di complessità del task, Galbraith definisce una scala di meccanismi
di integrazione di efficacia, complessità e costo crescente:
9 Standardizzazione
9 Gerarchia
9 Delega e programmi
9 Information Technology
9 Contatti diretti tra i manager
9 Progettazione degli spazi di lavoro
9 Riunioni e task force
9 Perni di collegamento
9 Ruoli manageriali di integrazione
9 Organi di integrazione
9 Struttura a matrice
In entrambe le "classifiche" la standardizzazione si trova al primo posto, rappre-
sentando dunque il meccanismo di integrazione più semplice e a costo organizzativo
più basso. Infatti lo standard è un meccanismo di tipo impersonale, che minimizza le
comunicazioni verbali necessarie per eseguire un compito, contenendo l'impegno di
risorse umane per il coordinamento e dunque riducendone i costi organizzativi
(Galbraith, 1973); (Van de Ven et al., 1976:323). Lo standard rappresenta dunque una
delle prime e più semplici opzioni di progettazione da prendere in considerazione
39
come meccanismo di integrazione .

In definitiva possiamo osservare come la prospettiva contingente abbia riconosciuto


un ruolo importante agli standard nella progettazione organizzativa. L'impiego di
standard nelle organizzazioni ai fini del coordinamento e dell'integrazione è visto
come un fattore di efficienza necessario al contenimento dei costi organizzativi del
coordinamento ed anche come un prerequisito indispensabile per la crescita dimen-
sionale delle organizzazioni. Nell'ambito delle forme di standardizzazione possibili, il
grado di flessibilità e quindi di organicità della struttura può aumentare passando dal-
la standardizzazione dei processi a quella dei risultati e a quella delle competenze,
permettendo di gestire processi di complessità crescente. Il ricorso a sistemi di regole
e standard può fornire anche un apporto limitato, ma a basso costo organizzativo,

39
In tal senso anche la classificazione in base al costo e all'efficacia dei meccanismi di
collegamento orizzontale (un sottoinsieme dei meccanismi di integrazione) esposta in (Daft,
2004:88, II ed. it.), figura 3.5, dove al primo posto vengono riportati i sistemi informativi, che
incorporano regole e standard.
A che cosa serve uno standard 49

come meccanismo di integrazione organizzativa, specie quando effettuata attraverso


uno sviluppo e un impiego appropriato dei sistemi informativi.

2.2 Standard per le relazioni


Nei primi anni 70, mentre si sviluppavano e si diffondevano le idee della scuola con-
tingentista, Oliver Williamson poneva il fondamento della teoria dei costi di transa-
zione, con la pubblicazione dei primi studi sull'integrazione verticale (Williamson,
1971). La scuola contingentista, come abbiamo appena visto, dedicò una notevole at-
tenzione agli standard come strumento di progettazione organizzativa; potremmo
dunque rimanere sorpresi nel constatare che, scorrendo l'indice dell'opera centrale di
Williamson che è considerata il manifesto ufficiale della teoria dei costi di transazio-
ne, The Economic Institutions of Capitalism (Williamson, 1985), non si incontri alcun
riferimento al concetto di standard, che non è presente nemmeno nel dettagliato indi-
ce delle parole di fine volume.
Eppure le teorie williamsoniane possono essere utilmente applicate per mostrare
alcuni significativi effetti potenziali degli standard nelle organizzazioni: tra questi
particolare rilievo assume l'effetto abilitante che gli standard possono avere sulla nu-
merosità, la dinamica e l'intensità delle relazioni tra organizzazioni.
Non è nostra intenzione, in questa sede, offrire una sintesi della teoria dei costi di
transazione. A tal fine rinviamo il lettore, oltre alle fonti originali (Williamson,
1975); (Williamson, 1985), agli studi che sono stati effettuati sull'argomento anche
nel nostro Paese, tra i quali indichiamo il testo a cura di Nacamulli e Rugiadini
(AAVV, 1985) e le numerose altre fonti elencate e commentate, ad esempio, in
(Camuffo & Cappellari, 1996).
Alcuni tratti fondamentali delle teorie williamsoniane sono più o meno diretta-
mente mutuati dall'opera dei suoi illustri maestri, e in particolare da quella di Ronald
40
Coase tra essi in particolare l'unità di analisi (transazione), le forme organizzative
alternative (imprese e mercati) ed anche il concetto di costo di transazione come fat-
41
tore discriminante per la scelta tra impresa e mercato . Secondo Williamson, la nuova

40
Williamson stesso riconosce esplicitamente il proprio debito nei confronti di Ronald Coase, a
cui dedica "The Economic Institutions of Capitalism" insieme agli altri suoi maestri: Kenneth
Arrow, Alfred Chandler, Jr., e Herbert Simon.
41
L'assunto di base della teoria dei costi di transazione è quello, formulato nel 1937 dal premio
Nobel Ronald Coase (Coase, 1937), che le organizzazioni economiche per la produzione
possano concretizzarsi in due forme alternative, quella di impresa/gerarchia/organizzazione
(scelta di internalizzazione della produzione ) e quella di mercato (scelta di esternalizzazione
della produzione): la scelta tra queste due forme non viene però determinata da pure
considerazioni di efficienza di produzione. L'abbandono dell'impostazione degli economisti
neoclassici che identificavano le organizzazioni economiche come delle pure "funzioni di
produzione", si accompagna in Coase all'adozione di un punto di vista, mediato dagli studi di
John Commons, secondo il quale le organizzazioni economiche non rispondono soltanto a
istanze meramente tecnologiche come le economie di scala, le economie di raggio d'azione, la
produttività e gli altri aspetti fisici o tecnici, ma hanno anche l'obiettivo di armonizzare le
relazioni tra le parti riducendo i conflitti potenziali (Commons, 1934). Questo punto di vista
per così dire "relazionale" si associa in Commons alla proposta di adottare una diversa unità di
50 Capitolo 2

impostazione di Coase della teoria dell'impresa basata sui costi di transazione non era
stata subito adottata, ma si era anzi costruita una "ben meritata cattiva reputazione",
per via di un "dilemma" rimasto insoluto:

Nonostante tutto, un dilemma cruciale restava insoluto. Se non si identificano i fattori che
determinano i costi di transazione, le ragioni per scegliere una forma piuttosto che un'altra
di organizzazione delle transazioni (impresa o mercato, NdT), restano necessariamente o-
scure. Il persistente fallimento dei tentativi di operazionalizzare i costi di transazione (cioè
di individuarne le determinanti , NdT) è stato il responsabile della sua reputazione tautolo-
gica (Alchian & Demsetz, 1972:783). Dal momento che in questo modo tutte le soluzioni
potevano virtualmente trovare una spiegazione ricorrendo al framework dei costi di transa-
zione, esso acquistò gradualmente una "ben meritata cattiva reputazione" (Fisher, 1977:322,
nota 5) (Williamson, 1985:4).

Williamson risolve il dilemma delle determinanti dei costi di transazione ricorrendo a


42
tre dimensioni critiche : incertezza, frequenza e, soprattutto, specificità degli investi-
menti, una dimensione, quest'ultima, che costituisce forse uno degli apporti più signi-
43
ficativi della teoria dei costi di transazione .

analisi economica degli scambi tra le parti, di livello più microanalitico rispetto a quella dei
prezzi adottata dagli economisti classici: la transazione. In base a questa visione relazionale,
Coase giunge a sostenere che ciò che determina la scelta tra le forme di impresa e quelle di
mercato sono innanzi tutto i diversi costi di transazione associati a ciascuna delle due forme.
Coase sviluppò in seguito l'analisi dei costi di transazione applicandola allo studio delle
esternalità negative, cioè delle conseguenze negative provocate alla collettività dall'azione
economica di un soggetto (es. l'inquinamento di una fabbrica). Coase dimostrò come, in
assenza di costi di transazione, qualsiasi forma di intervento dello Stato nell'economia a
riduzione delle esternalità sia ingiustificata (teorema di Coase): la contrattazione tra agenti
economici porterà comunque alla soluzione più efficiente da un punto di vista sociale (Coase,
1960). Nel caso dell'inquinamento, il "diritto ad inquinare" potrà essere oggetto di
contrattazione e scambio per raggiungere il più basso costo sociale complessivo. Tali idee
costituiscono oggi la base di nuove modalità di analisi economica dei diritti di proprietà e delle
forme di intervento pubblico; ad esse si ispira anche il protocollo di Kyoto sulla riduzione delle
emissioni inquinanti (AAVV, 2007).
42
Ciò risulta chiaramente dalle parole stesse dell'autore: «Le tre dimensioni critiche per
caratterizzare le transazioni sono (1) incertezza; (2) la frequenza con cui si verificano le
transazioni; (3) il grado in cui avvengono investimenti specifici per una particolare transazione.
Di questi tre, l'incertezza viene ampiamente considerata come un attributo critico, mentre il
fatto che la frequenza abbia importanza appare almeno plausibile. Le ramificazioni di
governance di entrambe, comunque, non sono state completamente sviluppate, né lo possono
essere finché non si considerino congiuntamente con la terza dimensione critica: gli
investimenti specifici per una transazione» (Williamson, 1979:239).
43
Su questo punto Williamson stesso: «L'importanza della condizione della specificità degli
investimenti [...] è difficile da sopravvalutare: [...] l'assenza di essa renderebbe inutilizzabile
gran parte dell'economia dei costi di transazione. [...] A dire il vero, la specificità degli
investimenti assume la sua importanza soltanto in congiunzione con la razionalità limitata e
l'opportunismo e in presenza di incertezza. Nondimeno, resta vero che la asset specificity è la
grande locomotiva alla quale la transaction cost economics deve molta della sua capacità
previsionale» (Williamson, 1985:156).
A che cosa serve uno standard 51

2.2.1 La specificità degli investimenti

In generale, la specificità può riguardare sia gli investimenti in risorse che in compe-
tenze:

Se una risorsa è molto specifica rispetto ad un uso o attività, la differenza tra il valore dei
servizi resi in quell'attività rispetto al migliore impiego alternativo è molto elevata
(Williamson, 1981). Similmente, se la competenza sviluppata da un attore è molto specifica
rispetto ad una relazione con un altro particolare attore, essa genererà in quella relazione un
valore molto superiore che in relazioni alternative (Grandori, 1995:96, II ed.).

Il fatto che una transazione richieda per essere eseguita la disponibilità di competenze
o attrezzature non riutilizzabili non si verifica sempre: alcune transazioni richiedono
investimenti specifici, altre invece possono essere eseguite usando risorse e compe-
tenze generiche ed eventualmente riutilizzabili in diverse transazioni. Su questa sem-
plice considerazione si basa il modello del processo di contrattazione che Williamson
usa per spiegare in che modo i costi di transazione influiscono sul ricorso alle diverse
forme organizzative. La mappa cognitiva del processo di contrattazione è riportata
nella Figura 2.2 che segue.

A
p1

k=0

B
p’
k>0 s=0
p’ > p’’

s>0

p’’
C

Figura 2.2 Schema di contratto, da (Williamson, 1985:33), Figure 1-2.

L'assunto di base è che un bene o un servizio possa essere prodotto o erogato tra-
mite due tecnologie alternative: una generica e l'altra specifica. La tecnologia specifi-
52 Capitolo 2

ca richiede un investimento in attività durevoli (es. immobilizzazioni a utilità plu-


riennale come impianti, macchinari o software) esclusivi per quella determinata tipo-
logia di transazione ed è più efficiente della tecnologia generica per soddisfare una
domanda constante nel tempo. Se si usa k come una misura dell'entità dell'investimen-
to specifico, identifichiamo con k = 0 le transazioni per cui non sono necessarie tec-
nologie specifiche e possono essere eseguite usando tecnologie generiche. Tale situa-
zione è identificata nel nodo A dello schema, per il quale esiste un determinato prez-
zo di breakeven p1.
Qualora invece sia k > 0, per eseguire questa tipologia di transazioni saranno ne-
cessari degli investimenti su misura per le particolari esigenze delle parti coinvolte
(es. la creazione di un software personalizzato di gestione degli ordini). Se queste
transazioni venissero prematuramente annullate, gli investimenti specifici perdereb-
bero utilità determinando una perdita (ad esempio si dovrebbe eliminare il software,
invendibile a terzi, registrando un'insussistenza di valori dell'attivo patrimoniale).
Dal momento che questo genere di transazioni può dunque mettere a repentaglio
risorse significative, le parti coinvolte hanno l'interesse a mettere in atto meccanismi
di salvaguardia per proteggere i loro investimenti specifici. Se indichiamo con s la
44
dimensione degli strumenti di salvaguardia adottati , avremo s>0 nel caso in cui sia-
no state invece previste opportune misure di protezione. Indicheremo invece con s=0
la situazione "nessuna salvaguardia" Tale caso è indicato nel nodo B dello schema,
nel quale le transazioni richiedono investimenti specifici (k > 0) ma senza alcuno
strumento di protezione dal rischio di interruzione prematura del rapporto. Il prezzo
di breakeven per il nodo B è p'. Anche il nodo C prevede investimenti specifici, ma
dal momento che è prevista una salvaguardia per essi, il prezzo di breakeven p'' per il
nodo C è inferiore a p'.
Questo semplice schema, dal quale si deduce che i prezzi (p), la tecnologia (k) e
gli strumenti di governance e salvaguardia contrattuale (s) vengono determinati si-
multaneamente e dinamicamente in modo interattivo, viene applicato da Williamson
45
ad una grande varietà di problematiche contrattuali .
44
I meccanismi di salvaguardia possono normalmente essere di tre tipi: il primo è quello di
prevedere una forma di penalità (es. il pagamento di un prezzo) in caso di interruzione
prematura del rapporto. Il secondo è quello di introdurre una struttura di governance per la
risoluzione delle dispute, come un collegio di arbitri. Il terzo è quello di introdurre meccanismi
per supportare la continuità del rapporto ripartendone i rischi, come quello della reciprocità
concertata degli scambi e degli investimenti specifici.
45
Le proprietà dei nodi A, B e C sono così illustrate dall'autore: «(1) Le transazioni che
possono essere eseguite efficientemente senza bisogno di investimenti specifici (k=0) sono
identificate dal nodo A e non necessitano di strutture di governance. Gli strumenti contrattuali
tipici del mercato sono sufficienti: siamo nel mondo della competizione. (2) Le transazioni che
richiedono investimenti specifici significativi (k>0) sono invece quelle in cui si realizza un
rapporto di commercio bilaterale. (3) Le transazioni identificate dal nodo B non prevedono
strumenti di salvaguardia in caso di interruzione del rapporto (s=0), per cui il corrispondente
prezzo di breakeven è elevato (p'>p''). Tali transazioni sono soggette ad instabilità contrattuale.
E' possibile che migrino verso il nodo A (nel qual caso la tecnologia specifica verrebbe
rimpiazzata da tecnologia generica (k=0)) o verso il nodo C (introducendo meccanismi di
salvaguardia che supportino e incoraggino l'uso continuato della tecnologia specifica (k>0). (4)
Le transazioni in C prevedono strumenti di salvaguardia (s>0) per cui i relativi investimenti
specifici sono protetti dai rischi conseguenti all'interruzione del rapporto. (5) Dal momento che
A che cosa serve uno standard 53

La presenza della specificità delle risorse è quella che fa insorgere il fenomeno


della fundamental transformation, che spiega le ragioni e i meccanismi che determi-
nano la migrazione da forme di mercato a forme di scambio bilaterale (Williamson,
1985:61-63): se in una situazione di mercato uno dei concorrenti effettua investimenti
specifici su un rapporto dove (k>0) e gli altri non fanno altrettanto, il concorrente che
ha investito si trova in posizione di vantaggio e questo tende ad escludere dal rappor-
to gli altri concorrenti, determinando una trasformazione di una forma di mercato in
un rapporto di scambio bilaterale con regime contrattuale non standard.
Nel capitolo dedicato alla governance delle relazioni contrattuali, Williamson of-
fre un'ulteriore elaborazione dei concetti sopra accennati, prendendo in considerazio-
ne i tre principali fattori considerati responsabili delle differenze tra transazioni: la
specificità delle risorse, la frequenza e l'incertezza. Il quadro di analisi della Figura
2.3 che segue illustra l'effetto dei primi due fattori sulle forme di governance organiz-
zativa.
Dallo schema appare chiaro come spostandosi verso destra, al crescere della specifici-
tà degli investimenti, le forme di governance passino dal mercato a forme più vicine
alla gerarchia, cioè alla governance bilaterale (due imprese) e unificata (una sola im-
presa). L'effetto del ridursi della frequenza delle transazioni in presenza di investi-
menti specifici è quello di rendere proibitivi i costi di una governance bilaterale e ri-
chiedere l'intervento di un terzo operatore (arbitro, market maker) che garantisca l'e-
secuzione delle transazioni. Si passa dunque, spostandosi dal basso verso l'alto, ad
una governance trilaterale, tipica della disciplina contrattualistica neoclassica
(Williamson, 1985:75).
Quindi, in sintesi, nell'ambito di una relazione di mercato in cui più operatori
scambiano beni e/o servizi in regime di concorrenza ed in presenza di costi di transa-
zione non nulli, il ricorso ad investimenti specifici su una relazione transazionale da
parte di uno o due attori tende a rendere le transazioni di quella specifica relazione
più efficienti e preferibili rispetto alle altre, riducendone i costi. Ciò da un lato tende
a spingere gli attori coinvolti nella relazione "privilegiata" a stipulare tra loro contrat-
ti di salvaguardia dalla rottura del rapporto (es. contratti di esclusiva); dall'altro lato,
specie in presenza di transazioni frequenti e ripetute, li incentiva all'adozione di for-
me di governance bilaterale o unitaria, cioè in pratica rende convenienti operazioni di
integrazione verticale, attraverso una varietà di possibili forme e strumenti che inclu-
dono, ad esempio, joint ventures, incorporazioni e fusioni. Quando questo avviene, si
è determinata una fundamental transformation: un rapporto di mercato, disciplinato
dai prezzi e dalla concorrenza, si è trasformato in un rapporto gerarchico, disciplinato
in senso organizzativo. Di qui il titolo dell'opera a fondamento della teoria dei costi di
transazione: Markets and Hierarchies: Analysys and Antitrust Implications
(Williamson, 1975).

esiste un legame tra il prezzo p e i meccanismi di governance s, i contraenti non dovrebbero


aspettarsi di poter salvare contemporaneamente la capra (basso prezzo) e i cavoli (nessuna
salvaguardia). Più in generale, è importante prendere in considerazione il processo di
contrattazione nella sua interezza. Sia le condizioni definite ex ante che le modalità di effettiva
esecuzione del contratto variano con le caratteristiche degli investimenti e con le associate
strutture di governance incorporate nelle transazioni» (Williamson, 1985:34-35).
54 Capitolo 2

caratteristiche investimento

nonspecifico misto idiosincratico

governance trilaterale
occasionale

(contrattazione neoclassica)
(contrattazione classica)
market governance
frequenza

governance governance
ricorrente

bilaterale unificata

(contrattazione relazionale)

Figura 2.3 Forme di governance in relazione alle caratteristiche dell'investimento e alla


frequenza delle transazioni ((Williamson, 1985:79) Figure 3-2).

Dopo aver dunque illustrato il ruolo centrale che la specificità degli investimenti
riveste nell'economia dei costi di transazione, ci possiamo chiedere se esista un rap-
porto tra standardizzazione e specificità e come esso possa essere investigato secondo
gli assunti e gli strumenti di analisi tipici dell'approccio williamsoniano.

2.2.2 Contrapposizione tra standardizzazione e specificità

Standardizzazione e specificità delle risorse sembrano avere valenza e significato so-


stanzialmente opposti. Nel capitolo precedente abbiamo visto come la standardizza-
zione richieda un atto negoziale, per costituire il consenso nell'ambito del gruppo ini-
ziale di adozione, e una pubblicazione formale, che assicuri la visibilità pubblica del-
lo standard permettendone anche la eventuale futura adesione volontaria da parte di
chiunque. Al contrario un investimento specifico esaurisce la sua utilità nell'ambito
del ristretto rapporto transazionale a cui si riferisce (che è tipicamente bilaterale) e
diventa inutilizzabile al di fuori di esso. La specificità di una risorsa non riguarda sol-
tanto il fatto di essere in un certo momento dedicata esclusivamente ad un determina-
to rapporto transazionale, ma anche quello di essere per propria conformazione e qua-
A che cosa serve uno standard 55

lità inutilizzabile al di fuori di quello specifico rapporto, anche se questo dovesse in-
terrompersi liberando la risorsa. Non a caso, Williamson usa anche il termine idio-
syncratic assets (investimenti/attività/risorse idiosincratiche, cioè incompatibili, vedi
ad esempio (Williamson, 1985), cap. 3) come sinonimo di investimenti/attività/risorse
specifiche, alludendo così alla loro incompatibilità ad utilizzi diversi da quelli origi-
nariamente loro attribuiti.
Nel descrivere e argomentare il concetto di specificità delle risorse, risalendo agli
autori che ne avevano fatto menzione in passato, l'autore riporta un brano che sembra
suggerire un collegamento tra la specificità delle risorse e la loro "imperfetta standar-
dizzazione":

Jacob Marschak riconosceva che le risorse possono essere idiosincratiche ed esprimeva per-
plessità e preoccupazione riguardo alla facilità con cui gli economisti erano soliti assumerne
implicitamente o dichiararne espressamente la fungibilità: 'Esistono risorse umane come ri-
cercatori, docenti, amministratori che sono quasi unici, non rimpiazzabili, proprio come
spesso esistono scelte obbligate per la scelta del collocamento di impianti e porti. Il proble-
ma dei beni unici o imperfettamente standardizzati [...] è stato tuttavia ignorato nei libri di
testo (Marschak, 1968:14) (da (Williamson, 1985:53)).

Dunque se da un lato risorse standardizzate tendono a facilitare la compatibilità e la


fungibilità nell'ambito dell'intero (e tipicamente vasto) gruppo di adozione, dall'altro
risorse specifiche hanno una standardizzazione imperfetta o nulla e trovano impiego
esclusivo nell'ambito del rapporto transazionale (tipicamente bilaterale) a cui sono
dedicate.
Se standardizzazione e specificità delle risorse hanno dunque valenza e significato
opposti, ci aspettiamo che un aumento del grado di standardizzazione delle risorse
abbia l'effetto di ridurne la specificità transazionale: una risorsa standard potrebbe es-
sere meno transaction specific di una non-standard. In generale tale assunto sembra
ragionevole. Secondo l'analisi in (Williamson, 1985:55-56), le categorie di specificità
degli investimenti che possiamo individuare sono almeno quattro: (1) specificità dei
siti; (2) specificità delle immobilizzazioni materiali; (3) specificità delle risorse uma-
ne; (4) investimenti dedicati. L'autore nota a questo punto che le "ramificazioni orga-
nizzative" di dettaglio di queste quattro categorie variano a seconda del contesto e
andrebbero analizzate separatamente nell'ambito, ad esempio, delle problematiche di
integrazione verticale, di contrattazione nonstandard, di gestione delle risorse uma-
ne/mercato del lavoro, di corporate governance, di normativa e regolamentazione,
ecc. In ogni caso è possibile effettuare, più in generale, le seguenti osservazioni:
a) La specificità degli investimenti si riferisce a investimenti durevoli che vengono
effettuati a supporto di transazioni particolari; se tali transazioni dovessero interrom-
persi prematuramente, il valore del miglior utilizzo alternativo possibile, da parte di
chiunque, sarebbe molto più basso, determinando una forte o persino totale svaluta-
zione dell'asset.
b) L'identità della parti coinvolte nella transazione è importante, il che comporta
che la continuità della relazione abbia un suo specifico valore.
c) Strumenti di salvaguardia contrattuali e organizzativi sono posti in essere a
supporto di questo tipo di transazioni, che non sarebbero altrimenti necessari.
56 Capitolo 2

Quali potrebbero essere gli effetti di un'eventuale standardizzazione per le quattro


categorie di investimenti delineate sopra?
Se ci riferiamo alla specificità dei siti, cioè della collocazione fisico-geografica di
impianti, installazioni, infrastrutture e simili a supporto specifico di determinate tran-
sazioni, ci potremmo chiedere se tale aspetto possa essere oggetto di standardizzazio-
ne. La standardizzazione prevede, come abbiamo visto, un atto negoziale di determi-
nazione del consenso su un set di caratteristiche del sito e uno di pubblicazione for-
male delle caratteristiche stesse. Alcuni esempi di questo tipo sono presenti nel setto-
re agricolo alimentare, con la determinazione di zone, disciplinari e denominazioni di
produzione standard come DOC (Denominazione di Origine Controllata) e DOP (De-
nominazione di Origine Protetta), riconosciuti rispettivamente dalla legislazione na-
zionale ed europea.
Un esempio tipico per le immobilizzazioni materiali è dato dal grado di specificità
di impianti e macchinari. Un produttore di imballaggi può essere costretto a dotarsi di
impianti particolari a specifico supporto delle transazioni con un determinato cliente,
che li impiega per un suo specifico prodotto. In molti casi l'utilità di un determinato
tipo di confezionamento è assolutamente esclusiva, dato che in essi sono spesso pre-
senti elementi di identificazione del prodotto e del produttore: si pensi ad esempio al-
la caratteristica forma e colore di alcune bottiglie per bevande. In casi del genere una
standardizzazione dei macchinari e conseguentemente degli imballaggi ne ridurrebbe
46
la specificità e li renderebbe inutili .
Standardizzare le risorse umane può sembrare apparentemente un nonsenso, ma è
un fenomeno diffuso sul piano delle competenze e conoscenze professionali. Il cre-
scente ricorso a curricula e profili certificati, specie in alcuni settori come quello del-
l'Information Technology, ha fatto sì che in qualche misura il grado di specificità di
alcune figure professionali sia diminuito: ad esempio un sistemista certificato può più
facilmente essere ricollocato in diversi ambiti lavorativi ed è più facilmente negozia-
bile sul mercato. Le possibilità di standardizzazione delle competenze rimangono
comunque confinate in superficie e non possono coinvolgere i livelli più profondi di
esperienza e conoscenza che restano embedded nelle persone che li hanno conseguiti.
Il diffondersi di pratiche e strumenti di knowledge management rappresenta un altro
dei tentativi di ridurre il grado di specificità delle risorse umane, attraverso la crea-
zione di strumenti standard di elicitazione, archiviazione e condivisione della cono-
scenza (Pontiggia, 2002); (Baskerville & Dulipovici, 2006).
Le risorse dedicate non possono essere standardizzate per la loro stessa natura: la
standardizzazione ha infatti lo scopo opposto: permettere a chiunque l'adozione vo-
lontaria dello standard (pur nelle forme e con i limiti già discussi nel capitolo prece-
dente).
Sotto il profilo generale, per tutte e quattro le tipologie esaminate (siti, immobiliz-
zazioni materiali, risorse umane, risorse dedicate) una eventuale standardizzazione a)
renderebbe maggiormente riutilizzabile una risorsa specifica, riducendo l'entità della
46
Un macchinario specifico può però utilmente essere sostituito con uno standard se
quest'ultimo è riconfigurabile o riprogrammabile sulla base di esigenze diverse. Ciò è in
relazione con il grado di flessibilità dello standard, che verrà preso in esame nel capitolo 3, sez.
3.3.6.
A che cosa serve uno standard 57

sua svalutazione in caso di interruzione prematura del rapporto transazionale; b) il


valore dell'identità delle parti e della continuità del rapporto tenderebbe dunque a ri-
dursi; c) la necessità e l'entità degli strumenti di salvaguardia contrattuali a tutela del-
la continuità della transazione ne sarebbero dunque proporzionalmente ridotte.
In definitiva dunque, la standardizzazione tende a ridurre il grado di specificità
transazionale degli investimenti: gli esempi presi in esame finora evidenziano, a un
primo esame, effetti potenziali sia positivi che negativi. Per comprenderne più a fon-
do le implicazioni è necessario introdurre il concetto di lock-in, che verrà discusso
nella sezione che segue.

2.2.3 Standardizzazione, specificità e lock-in

Il ruolo della specificità degli investimenti appare prominente già nei primi studi di
Williamson sull'integrazione verticale (Williamson, 1971), nei quali si analizzano i
motivi che determinano il passaggio da forme di autonomous trading a forme di uni-
fied ownership, mostrando come le scelte di integrazione verticale siano fortemente
condizionate dagli investimenti transaction-specific. Ad esempio, una delle motiva-
zioni per passare dall'acquisto di un prodotto presso un fornitore all'internalizzazione
della produzione (acquisizione e incorporazione dei processi produttivi del fornitore)
è quella di aver effettuato significativi investimenti specifici sul rapporto transaziona-
le in oggetto, come l'acquisizione di competenze uniche tecniche e/o manageriali in
relazione a quel particolare fornitore. La spinta verso la trasformazione fondamentale
del rapporto di mercato di uno di gerarchia è rappresentata da un lato dalla riduzione
dei costi di transazione per la relazione su cui si è investito; dall'altro dall'emergere di
costi di switching che determinano la mancata convenienza a sottrarsi al rapporto
transazionale su cui si è investito. Tra questi rileva in particolar modo la svalutazione
dell'investimento specifico che si avrebbe nell'abbandonare la relazione, che si affian-
ca ai costi associati ai meccanismi di salvaguardia (es. penali contrattuali) e agli even-
tuali investimenti sulla nuova relazione.
L'insieme di questi fattori (riduzione dei costi di un rapporto transazionale; au-
mento dei costi dei rapporti alternativi) ingenera un effetto di blocco, o di lock-in
transazionale, che è il primo passo verso la trasformazione fondamentale:

Le transazioni che sono supportate da investimenti in attività durevoli e transaction-specific


sono caratterizzate da effetti di lock-in, per via dei quali l'autonomous trading tende ad esse-
re soppiantato da una unified ownership (integrazione verticale) (Williamson, 1985:53).

Il fenomeno del lock-in verrà preso in esame in maggiore dettaglio nel prossimo capi-
tolo, con riferimento ai processi di diffusione degli standard.
Se, come abbiamo visto nella sezione precedente, la standardizzazione tende a ri-
durre il grado di specificità delle risorse, ci potremmo aspettare che anche il relativo
fenomeno di lock-in ad esse associato possa venire ridimensionato. Se ad esempio un
macchinario specifico viene sostituito da uno standard, che può essere più facilmente
riconvertito e utilizzato per transazioni diverse, in caso di interruzione prematura del
rapporto tra le parti esso subirà una minore svalutazione e dunque chi ha effettuato
l'investimento ha un minore interesse a tutelare la continuità del rapporto in quanto
58 Capitolo 2

corre un minor rischio di perdite da svalutazione. Dunque l'introduzione di uno stan-


dard determinerebbe la cessazione o almeno l'indebolimento di un effetto di lock-in.
Il lock-in relazionale associato ad un investimento specifico su un rapporto transazio-
nale sembra dunque essere più forte del lock-in tecnologico associato all'adozione di
uno standard, che prenderemo in esame nel capitolo 3. A ben vedere si tratta di due
fenomeni con portata diversa: il lock-in associato agli investimenti specifici riguarda
il rapporto transazionale su cui gli investimenti sono stati effettuati: le parti tendono a
rimanere "ancorate" l'una all'altra per non incorrere nei costi di switching e contempo-
raneamente beneficiare dei bassi costi di transazione. Il lock-in associato all'investi-
mento su una tecnologia standard lega invece l'utente alla tecnologia: una volta adot-
tato uno standard risulta infatti costoso distaccarsene per adottarne uno diverso. Dun-
que scegliendo se investire su una risorsa specifica, piuttosto che su una risorsa stan-
dard, si sceglie anche tra un lock-in relazionale tendenzialmente più forte ed un lock-
in tecnologico tendenzialmente più debole. E' infatti possibile associare inversamente
l'intensità del lock-in con il numero di soggetti coinvolti in esso: un lock-in relaziona-
le coinvolge tipicamente i due soggetti di una relazione nei confronti di tutti gli altri;
un lock-in tecnologico coinvolge i soggetti del gruppo (spesso numeroso) che adotta-
no lo standard nei confronti dei soggetti esterni. Nel secondo caso è come se tutta la
comunità degli utenti dello standard avesse effettuato un investimento specifico sui
rapporti transazionali nell'ambito della comunità stessa che ha adottato lo standard e
lo utilizza. Supponiamo ad esempio che un gruppo di utenti (A,B,C,D) abbiamo adot-
tato un investimento standard S, mentre gli utenti V e Z abbiano effettuato un inve-
stimento non standard NS. Supponendo che esista una relazione transazionale tra A e
B in cui viene impiegato S, i costi di switching tecnologico si determinano dunque
non già nel passaggio dall'utente A da una relazione con B ad una relazione con C o
con D (che hanno adottato anch'essi S), ma nel passaggio dall' utente A ad una rela-
zione con V o con Z che non hanno adottato lo standard. Al contrario, sia V che Z
soffriranno elevati costi di switching (dovuti alla svalutazione di NS) se abbandonano
la loro relazione transazionale esclusiva per passare ad una qualsiasi altra. Dunque
più grande è il gruppo che adotta lo standard, più numerose saranno le possibilità di
passare da una relazione all'altra, nell'ambito dello stesso gruppo di adozione, conti-
nuando a usufruire dell'investimento originario, senza sostenere costi di switching ad
esso associati. In generale, dunque, nel caso di investimenti in tecnologie o altri asset
standard a supporto di una relazione transazionale, la probabilità di incorrere in costi
di switching nel passaggio da una relazione transazionale all'altra sarà in relazione
inversa al numero di utenti che fanno parte del gruppo di adozione dello standard. Per
questo possiamo considerare il lock-in transazionale, che coinvolge tipicamente due o
pochissimi soggetti, più forte di quello tecnologico dovuto all'investimento su una ri-
sorsa standard, dove i soggetti coinvolti sono tipicamente numerosi.
Le risorse standardizzate si pongono dunque ad un livello intermedio tra quelle
generiche e perfettamente fungibili considerate dagli economisti neoclassici e quelle
transaction-specific analizzate da Williamson: il loro utilizzo non è ristretto ad uno
specifico rapporto transazionale tipicamente bilaterale, ma non è nemmeno generaliz-
zato e universale: è possibile riutilizzare tali risorse per effettuare transazioni con tutti
A che cosa serve uno standard 59

i soggetti che fanno parte del gruppo che ha adottato e utilizza lo standard in questio-
ne.
Il grado di specificità delle risorse standardizzate non riguarda un solo rapporto
transazionale ma l'insieme dei rapporti transazionali potenziali con tutti gli apparte-
nenti al gruppo che ha adottato e utilizza lo standard. Questo fa sì che a seconda del
grado di diffusione dello standard e della concentrazione sul mercato locale dei sog-
getti che lo hanno adottato, gli investimenti standard possano risultare più o meno
fungibili e dunque manifestare in grado più o meno elevato le caratteristiche di una o
dell'altra categoria.
Considerando che il grado di adozione di uno standard e la numerosità e distribu-
zione dei soggetti adottanti può variare nel tempo, potrebbe avvenire che, a parità di
altra condizioni, una risorsa standardizzata che risultava in precedenza sostanzialmen-
te specifica perché non erano presenti sul mercato soggetti compatibili, possa tra-
sformarsi in risorsa fungibile, innescando una sorta di fundamental transformation
rovesciata. Nel caso della fundamental transformation infatti, in una originaria situa-
zione di mercato uno dei concorrenti che aveva effettuato investimenti "transaction
specific" viene a trovarsi in posizione di vantaggio rispetto agli altri che vengono
gradualmente allontanati: il mercato degenera in un rapporto bilaterale. Immaginiamo
ora invece che vi sia un rapporto di transazioni bilaterali supportato da investimenti in
tecnologie standardizzate, laddove però lo standard non sia abbastanza diffuso da far
comparire sul mercato altri concorrenti "compatibili". Quando il grado di diffusione
dello standard diviene tale da far apparire sul mercato concorrenti "compatibili", gli
investimenti perdono la loro specificità e possono essere utilmente reimpiegati in
rapporti transazionali con altri soggetti sul mercato. A questo punto le motivazioni
per la salvaguardia della continuità del rapporto (scongiurare la svalutazione degli
investimenti specifici ) vengono meno e il rapporto bilaterale si trasforma in rapporto
di mercato.
Di conseguenza, l'avanzare del processo di diffusione di uno standard, a parità di
altre condizioni, può incentivare il ricorso al mercato e l'ampliamento del numero di
rapporti transazionali. E' il caso ad esempio di chi ha investito sul sistema operativo
standard Linux quando non era ancora molto diffuso: la possibilità di impiego del si-
stema per un numero elevato di transazioni con altri soggetti dotati di sistemi tecno-
logicamente compatibili si è accresciuta man mano che Linux ha trovato maggiore
diffusione, diventando sempre più una commodity.
Dunque gli investimenti in tecnologie standard hanno un grado di specificità che
tende a ridursi nel tempo, man mano che aumentano le dimensioni del gruppo adot-
tante, cioè man mano che lo standard si diffonde. Ne derivano due ordini di conse-
guenze di segno opposto: da un lato una modificazione del numero, della dinamica e
dell'intensità delle relazioni organizzative potenziali, dall'altro la potenziale riduzione
del valore strategico degli investimenti in risorse standardizzate, man mano che ne
aumenta la diffusione e diventano beni comuni sul mercato, quasi commodities.
A parità di altri fattori, il numero di relazioni transazionali potenzialmente suppor-
tato da un unico investimento standard è più elevato che per un investimento specifi-
co: l'investimento standard può supportare transazioni con tutti i soggetti che lo han-
no adottato; l'investimento specifico, invece, solo nell'ambito del ristretto rapporto
60 Capitolo 2

originario, che è tipicamente a due. Tale differenza aumenta con l'aumentare delle
dimensioni del gruppo di utenti dello standard. Inoltre, dati i minori costi di switching
nell'ambito del gruppo di adozione, la stabilità della relazione può ridursi e la sua di-
namica aumentare: un maggior numero di relazioni, più deboli, più instabili e più di-
namiche tendono a risultare possibili, rispetto ad un numero necessariamente più ri-
dotto di relazioni più stabili e più forti che è il risultato di investimenti specifici su
pochi rapporti bilaterali. Questo effetto potenziale sulla numerosità, sull'intensità e
sulle dinamiche delle relazioni organizzative non dunque dovuta soltanto all'uso degli
standard IT (es. standard Internet) come infrastrutture di comunicazione e di coordi-
namento; esso, come abbiamo visto, è anche il risultato della riduzione della specifi-
cità transazionale degli investimenti. Quindi, a parità di altre condizioni, tanto più è
elevata la quota degli investimenti standard sul totale degli investimenti, tanto più de-
bole sarà l'effetto di lock-in transazionale, tanto maggiore sarà la possibilità di abban-
donare relazioni transazionali preesistenti ed allacciarne di nuove all'interno del
gruppo di adozione dello standard comune. Questa tendenza è in linea con quella evi-
47
denziata dai primi studi sui mercati elettronici (Malone et al., 1987) . Essa appare an-
che in sintonia con altri ben noti studi ed analisi non solo sul piano organizzativo ed
48
economico, ma anche su quello sociale .
Dall'altro lato, ci sono autori che hanno sostenuto che la commoditization (e con
essa la standardizzazione) abbia come effetto la riduzione dell'importanza strategica
degli investimenti IT (Carr, 2003). Si tratta di un fenomeno complesso, per alcuni
versi confermato anche dall'analisi qui sopra, che mostra come per costi di transazio-
ne non nulli l'effettuazione di investimenti specifici e conseguente il lock-in siano un
prezzo da pagare per ottenere un vantaggio rispetto agli altri competitors su una de-
terminata relazione transazionale. Di conseguenza, la standardizzazione degli inve-
stimenti ne ridurrebbe la specificità e anche il valore distintivo rispetto agli altri com-
petitors, tendendo a indebolire sia il lock-in che la posizione di vantaggio. Se ad e-
sempio si vuole ottenere un vantaggio su una relazione strategica con un fornitore,
avrebbe maggiore senso investire in un sistema informativo "proprietario" che non
possa essere standardizzato e appropriato facilmente da altri. Un sistema informativo
standard porterebbe inevitabilmente alla condivisione dei suoi benefici con tutto il
gruppo aderente allo standard, annullandone il valore strategico in termini di distinti-
47
Malone e i suoi coautori prendono in esame il ruolo congiunto della diminuzione della
specificità degli investimenti e della aumentata capacità di elaborazione delle informazioni.
Anche se entrambi i fattori sono presenti nel loro schema di analisi, nella successiva
discussione il ruolo dell'evoluzione tecnologica e della riduzione dei costi di coordinamento
emerge in primo piano, mentre la spiegazione delle dinamiche e degli effetti della diminuzione
di specificità degli investimenti appare meno chiara e completa.
48
Per uno studio ampio e approfondito delle trasformazioni sociali accompagnate alla
diffusione delle tecnologie IT si veda (Castells, 1996:ed. it.) e i riferimenti ivi contenuti. Il
ruolo dell'IT nelle dinamiche economiche e sociali della globalizzazione emerge evidente
nell'analisi di taglio divulgativo e molto nota proposta in (Friedman, 2005). Tra i dieci fattori
indicati da Fredman come indicativi della trasformazione in atto verso un "flat world", almeno
otto sono stati resi possibili essenzialmente dall'information technology e non si sarebbero
verificati senza Internet: (Quotazione di Netscape; Work-flow software; Open sourcing;
Outsourcing; Supply chaining; Insourcing; Search engines; Mobile). Gli altri due fattori sono
la caduta del muro di Berlino e l'off-shoring verso i paesi a basso costo della manodopera.
A che cosa serve uno standard 61

49
vità . Esistono tuttavia importanti ragioni in senso opposto, a cui è possibile solo fare
50
cenno in questa sede . Una considerazione che appare qui molto importante è quella
del grado di distintività che è possibile ottenere attraverso la combinazione creativa di
componenti standard. Tecnologie basate su componenti modulari e ad elevato grado
di flessibilità combinatoria (Baldwin & Clark, 2000) (cfr. capitolo 3, sez. 3.3.1) con-
sentono oggi investimenti a specificità ridotta e distintività potenziale elevata. La
specificità è ridotta perché i singoli componenti modulari sono standardizzati e acces-
sibili a tutti; la distintività potenziale è elevata perché è possibile combinare compo-
nenti standard in modi diversi e spesso innovativi. Questo consente da un lato di go-
dere dei benefici della standardizzazione e dell'evoluzione tecnologica in termini di
nuove relazioni e forme organizzative distribuite e globali, abilitate dall'interoperabi-
lità e dalla compatibilità tecnologica dei componenti e delle infrastrutture IT standar-
dizzate; dall'altro di mantenere il potenziale di differenziazione competitiva, co-
51
struendo barriere su specifici posizionamenti in risorse difficilmente imitabili , attra-
52
verso la combinazione creativa di componenti IT standardizzati. In questo senso an-
53
che alcune delle numerose repliche alla provocazione di Carr .
In definitiva dunque l'approccio williamsoniano suggerisce che il crescente ricorso
a investimenti standard (con particolare riferimento a quelli in tecnologie dell'infor-
mazione) possa essere uno dei fattori che contribuisce a determinare il numero, l'in-
tensità e la dinamica delle relazioni interorganizzative, rendendole, a parità di altre
condizioni, più numerose, ma anche più deboli e più variabili. Esse sono infatti in-
fluenzate in questo senso non soltanto dalla disponibilità di mezzi di comunicazione

49
In questo senso si era espresso già dal 1991 Claudio Ciborra, che puntava al fenomeno della
facile imitabilità dei sistemi informatici legata alla standardizzazione, suggerendo in rimedio
nuovi approcci alla strategia, al design e all'implementazione basati sul bricolage e sul
tinkering: (Ciborra, 1991). Il contributo è poi apparso in forma estesa in (Ciborra, 2002), con il
titolo "Bricolage".
50
L'articolo di Carr e il successivo libro sull'argomento (Carr, 2004) hanno avuto un impatto
straordinario. Una selezione delle repliche suscitate è disponibile on line (Carr, 2005).
51
Il concetto di resource position barrier si deve originariamente allo studio di Birger
Wernerfelt, poi esteso alla letteratura manageriale in (Prahalad & Hamel, 1990). Per l'analisi
organizzativa della Resource Based View vedi (Pontiggia, 2002).
52
La combinazione creativa basata su componenti standard si basa su quelle che Pontiggia
chiama "capacità combinatorie" (Pontiggia, 2002:108). Dal punto di vista dell'economia
dell'informazione, un certo spazio è dedicato all'argomento da Hal Varian nelle "Raffaele
Mattioli Lectures" tenute in Bocconi nel 2001 e alla Sorbona nel 2003: «Interpreto il boom di
Internet della fine degli anni '90 come una manifestazione di quella che si potrebbe chiamare
combinatorial innovation» (Varian et al., 2004:5). L'autore discute alcuni esempi di
innovazione combinatoria nella storia di Internet per poi analizzarli in termini economici.
Un'approfondita e affascinante analisi socio-tecnica dell'innovazione combinatoria è offerta in
(Tuomi, 2002), ove nel capitolo 7 si interpreta in termini di innovazione combinatoria il
famoso studio di Bijker sulla nascita della bachelite (Bijker, 1987).
53
Alcune delle repliche all'articolo di Carr hanno fatto menzione più o meno esplicita al ruolo
degli standard per l''innovazione combinatoria, come per esempio Paul Strassman: «Insistendo
sull'interoperabilità dei dati e dei protocolli, le imprese stanno cercando una maggiore libertà di
combinare applicazioni da una crescente varietà di offerte software» (AAVV, 2003:8).
L'interoperabilità di dati e protocolli viene tipicamente ottenuta attraverso gli standard IT.
62 Capitolo 2

ed elaborazione più efficaci, ma anche dai minori vincoli relazionali (lock-in) associa-
ti ad investimenti su tecnologie e prodotti standardizzati rispetto a quelli su tecnolo-
gie e prodotti non standard. Come abbiamo visto, ciò è dovuto al basso grado di spe-
cificità degli investimenti standard e si verifica con maggiore intensità man mano che
lo standard si diffonde ed aumentano le dimensioni del gruppo di adozione.

2.3 Standard per l'improvvisazione


Qual è il ruolo degli standard nei processi di improvvisazione organizzativa e di e-
mergenza spontanea? Questa domanda nasce originariamente con la lettura di From
Control to Drift (Ciborra et al., 2000). Uno dei casi ivi analizzati prende in esame le
ragioni dell'iniziale fallimento del tentativo di introduzione in IBM di un nuovo si-
stema di "CRM" (Customer Relationship Management), cioè di una serie di applica-
zioni software per la gestione dei rapporti con i clienti secondo modalità nuove. Que-
sto fallimento, secondo gli autori, è dovuto al fatto che nelle grandi organizzazioni il
successo dei tentativi di imposizione dall'alto di modalità di lavoro radicalmente nuo-
ve non è affatto scontato; tutt'altro. L'approccio di progettazione razionale di un nuo-
vo sistema software e della sua imposizione dall'alto è spesso inattuabile per almeno
tre ordini di motivi: il primo è la difficoltà di gestire con i metodi tradizionali la com-
plessità di organizzazioni multinazionali con decine di migliaia di persone coinvolte
nella riorganizzazione dei processi; il secondo è che ciascuna di queste persone è un
individuo con i suoi processi di interpretazione, apprendimento ed adozione della
tecnologia, che non sono sempre facilmente prevedibili. Il terzo, molto importante ma
spesso sottovalutato, è che, in termini generali, la tecnologia utilizzata (sistemi basati
su Intranet e Web) lascia più gradi di libertà all'utente di quelle tipicamente impiegate
in precedenza (es. sistemi accentrati multiutente e sistemi client/server), rendendo più
imprevedibili le modalità di adozione e interpretazione degli utenti.
In seguito, secondo il brillante resoconto di Ciborra e dei suoi coautori, l'IBM è in
effetti riuscita a trasformare il fallimento iniziale in un successo, passando da una
modalità di progettazione razionale con imposizione dall'alto del sistema CRM ad un
approccio "bottom-up" in cui le caratteristiche e le modalità di utilizzo del nuovo si-
stema venivano decise insieme agli utenti stessi, che contribuivano allo sviluppo del
nuovo sistema.
Il caso IBM è caratterizzato dall'utilizzo della tecnologia infrastrutturale Intra-
net/Web, che si basa su noti standard IT, tra cui TCP/IP, HTML e HTTP. Qual è il
ruolo delle tecnologie standard in questo approccio bottom-up per la definizione delle
caratteristiche e lo sviluppo del nuovo sistema informativo? Quanto un approccio bot-
tom-up di sviluppo partecipativo, aperto dunque all'emergenza spontanea, è reso pos-
sibile/condizionato dalle tecnologie standard? Un simile interrogativo può essere u-
tilmente posto anche nello studio delle pratiche di sviluppo di sistemi informativi per
le emergent organizations (Truex et al., 1999); a tale proposito un'analisi approfondi-
ta e sistematica, ricca di spunti affascinanti sia nel metodo che nei contenuti, è offerta
in (Baskerville & Truex, 1998), che esplorano e poi decostruiscono il concetto di
"deep structure" mutuato dagli studi linguistici di derivazione chomskiana, per pro-
A che cosa serve uno standard 63

porre metaforicamente un dualismo tra struttura profonda e struttura emergente nello


sviluppo dei sistemi informativi. Se ha senso di parlare di una struttura profonda con-
trapposta e in fondo necessaria all'esistenza di una struttura emergente, ha forse altret-
tanto senso parlare di una infrastruttura di regole standard al servizio delle pratiche
emergenti di improvvisazione creativa.

2.3.1 Le premesse: i processi di interpretazione

Un'utile premessa per l'analisi è rappresentata dai processi di interpretazione e di at-


tribuzione di senso. I due lavori centrali di Karl Weick (Weick, 1969); (Weick,
1995a) costituiscono un buon punto di riferimento sull'argomento. Weick ha struttu-
rato un intero libro intorno ad una frase «How can I know what I think until I see
what I say?» ((Weick, 1969, II ed.) ch. 5). Questa frase viene così commentata dal-
l'autore:

Lo schema di base per l'intero modello dell'organizzare si trova nella seguente ricetta per
l'attribuzione di significato: «come posso sapere quello che penso finché non vedo quello
che dico?» Si suppone che l'organizzazione parli a se stessa a lungo per scoprire che cosa
pensa. E' essenzialmente a questo che si riferisce l'intero libro. [...] L'organismo, o il gruppo,
costituisce un ambiguo discorso grezzo, il discorso viene visto retrospettivamente, gli viene
attribuito un significato, e questo significato viene archiviato nel processo di ritenzione.
((Weick, 1969: 189-190, ed. it.)).

Pur dell'impossibilità di analizzarle a fondo in questa sede, queste idee appaiono cen-
trali per abbandonare la prospettiva oggettiva delle sezioni precedenti per prestare
maggiore attenzione al ruolo delle persone e dei processi di attribuzione di significa-
to. Per tornare al caso IBM, il fallimento del primo progetto CRM raccontato da Ci-
borra può essere interpretato alla luce del processo weickiano di enactmnent, selezio-
ne e ritenzione di significati, ignorato per definizione in fase di progettazione "top-
down". Questo tipo di progettazione, basata sulla pianificazione razionale, è dunque
da considerare per questo definitivamente superato? Se la tecnologia è interpretabile,
qual è il ruolo dello standard in questo processo?

2.3.2 Spunti di analisi postmoderna

La critica degli approcci di progettazione razionale e l'enfasi sul ruolo dell'interpreta-


zione soggettiva e della costruzione sociale nella produzione della conoscenza trova
una sua naturale evoluzione nei contributi di alcuni autori recenti. Essi assumono
spesso un atteggiamento di ironica sfiducia nei confronti di ogni edificio di cono-
scenza organizzativa razionale, univoca e con una pretesa di validità scientifica veri-
ficabile. Un utile punto di partenza per un'introduzione critica su questi autori è il bel
saggio introduttivo ospitato nel manuale della Hatch, dedicato alla cosiddetta "pro-
spettiva postmodernista nella teoria delle organizzazioni" (Hatch, 1997:43-52, ed.it.).
Per un'analisi approfondita delle idee postmoderne in organizzazione è possibile
far riferimento al pregevole saggio di Robert Chia (Chia, 1996), che esprime i pre-
supposti, l'impostazione, i contenuti le implicazioni organizzative del pensiero po-
64 Capitolo 2

stmoderno. L'analisi è complessa, articolata ed estesa. I postmoderni, per definizione,


tendono a sfuggire alle classificazioni. Mi piace dunque riportare, a livello puramente
indicativo, una tabella di parole chiave, che contrappongono modernismo e postmo-
dernismo.

Tabella 2.1 Alcuni tratti evocativi del modernismo e del postmodernismo.


Fonte: Rielaborazione da (Chia, 1996:106), Figure 4.

Modernismo Postmodernismo

Forma (chiusa) Anti-forma (aperta)

Finalità Gioco

Progettazione Casualità

Gerarchia Anarchia

Artefatto Processo/performance/happening

Distanza Partecipazione

Costruzione Decostruzione

Sintesi Antitesi

Semantica Retorica

Radice, profondità Rizoma, superficie

Interpretazione, lettura Contro l'interpretazione e la lettura

Significato Significante

Narrativo / grand histoire Antinarrativo / petit histoire

Sintomo Desiderio

Tipo Mutante

Paranoia Schizofrenia

Origine / causa Differenza-deferenza /traccia

Metafisica Ironia

Determinatezza Indeterminatezza

Trascendenza Immanenza
A che cosa serve uno standard 65

Ho idea che una più approfondita comprensione del movimento culturale postmoder-
no, che richiede una attenta considerazione degli aspetti epistemologici e filosofici e
che passa attraverso la lettura di autori come Lyotard, Derrida e Focault, potrebbe es-
sere utile a riconsiderare criticamente il ruolo dello standard come una forma di lin-
guaggio e di infrastruttura minimale per l'improvvisazione e l'innovazione organizza-
tiva. Dato che un'operazione di questo genere va al di là delle possibilità di questo
contributo, mi limiterò qui al tentativo di offrire un racconto che ha l'obiettivo princi-
pale di evocare sensazioni e spunti di riflessione, in simpatia con le idee postmoder-
ne. Si tratta di un episodio avvenuto recentemente, assistendo alle prove della rappre-
sentazione, diretta da Riccardo Muti, de Il diario dello sdegno di Fabio Vacchi, un
giovane autore bolognese di musica contemporanea. Prima dell'esecuzione, Muti si è
rivolto al pubblico con un breve quanto inaspettato discorso, dicendo pressappoco:

«Signori, sono lieto di poter dirigere, per la prima volta qui alla Scala, un brano di musica
contemporanea, di un giovane autore in cui credo molto. Non so quali saranno le vostre rea-
zioni: queste prove di oggi costituiscono la prima rappresentazione in pubblico di quest'ope-
ra, e l'autore è qui presente tra voi per rendersi anche lui conto dell'effetto che potrà avere su
di voi. E' importante dire che si tratta di un'opera di arte moderna e che come tale è estre-
mamente diversa dalle opere classiche a cui siete abituati. Che cosa potete "portare a casa"
da quest'ascolto? Non certo una bella melodia da canticchiare. Piuttosto delle sensazioni,
che ciascuno di voi, con la sua sensibilità, elaborerà in modo personale. Se vi aspettate un
"messaggio" chiaro, immediatamente comprensibile, rimarrete delusi, ma questo avviene
oggi anche nelle altre forme di arte contemporanea: pensate ad esempio ad un quadro astrat-
to… non sono qui adesso per parlare delle peculiarità e delle differenze dell'arte e della mu-
sica contemporanea rispetto a quella classica, ma voglio solo esortarvi a non avere precon-
cetti e a lasciarvi trasportare dalle emozioni e dalle sensazioni».

Poi l'esecuzione: un groviglio di suoni apparentemente disordinati, eppure con una


loro coerenza, una specie di atmosfera che si formava progressivamente, e che a dire
il vero aveva su di me un effetto un po' angosciante. Mi incuriosiva molto cercare di
capire che tipo di "controllo" avesse il maestro sull'orchestra: era affascinante sentir-
lo, alla fine dell'esecuzione (che ha riscosso un grande successo), ricordare a memoria
le battute di quei suoni apparentemente aggrovigliati e chiedere agli esecutori di ripe-
terle (battuta 115; battuta 161...), portando in primo piano alcuni strumenti piuttosto
che altri, intervenendo sui modi e sui tempi di esecuzione.
Non c'è forse un parallelo tra la mancanza di "una bella melodia" nella musica
contemporanea e il superamento degli approcci di progettazione razionale avocato da
Ciborra? Tra l'interpretazione libera degli ascoltatori e le applicazioni che emergono,
"bubble up" dalle modalità d'uso degli utenti? Non esiste anche qui un dualismo tra
emergent structure e deep structure, tra disciplina di fondo e apparente mancanza di
ordine, tra il linguaggio e le convenzioni musicali standard adottate dall'orchestra e
l'interpretazione libera e senza schemi, affidata al puro istinto?

2.3.3 Improvvisazione musicale e organizzativa

Parlando di musica e di "emergenza" spontanea il pensiero non può non andare alle
forme di improvvisazione musicale. C'è una letteratura organizzativa abbastanza con-
sistente su questo tema: un utile punto di riferimento è il numero speciale di Organi-
66 Capitolo 2

zation Science di settembre 1998, dedicato all'improvvisazione Jazz come metafora


organizzativa, edito a cura di Alan Meyer, Peter Frost e Karl Weick (Meyer et al.,
1998). I contributi ivi ospitati sono stati prodotti in occasione del simposio Jazz as a
metaphor for organizing in the 21st century, tenuto alla Academy of Management Na-
tional Conference di Vancuover (Canada), nel 1995. Il simposio, nato da un'idea di
Mary Jo Hatch e Frank Barrett, consisteva in un concerto Jazz e una serie di presenta-
zioni e dibattiti sull'improvvisazione organizzativa, con il dichiarato intento di evi-
denziare parallelismi e differenze tra improvvisazione organizzativa e musicale. L'or-
ganizzazione dell'evento è stata curata in modo tale da stimolare il massimo di intera-
zione tra i musicisti: la star musicale era Ken Peplowski, un sassofonista molto famo-
so che aveva suonato anche, tra l'altro, nella band di Benny Goodman; però è impor-
tante notare come alle tastiere ci fosse lo stesso Frank Barrett, studioso di organizza-
zione (oltre che buon pianista) e co-organizzatore dell'evento. Dopo il concerto, i mu-
sicisti sono stati sollecitati ad analizzare insieme agli organizzativi i processi di im-
provvisazione musicale per trarne spunti e indicazioni organizzative. Tra gli organiz-
zativi, Karl Weick, Mary Jo Jatch, Bill Pasmore.
Il risultato è una raccolta di contributi sul tema dell'improvvisazione organizzativa
che è al tempo stesso leggera e profonda, rigorosa e vivace, molto piacevole da legge-
re. Nell'impossibilità di scendere in maggiore dettaglio, appare però qui utile eviden-
ziare alcuni aspetti di interesse per il tema qui affrontato.
Innanzi tutto, l'improvvisazione…non si improvvisa. Sia i musicisti che gli orga-
nizzativi hanno sottolineato che essa, pur nella sua imprevedibilità e dinamicità, ri-
chiede una forte preparazione, una comune base culturale e una comunicazione conti-
nua tra i partecipanti. Ad esempio il contributo di (Weick, 1998) riporta da un saggio
di Paul Berliner:

Le definizioni popolari di improvvisazione che enfatizzano soltanto la sua natura spontanea


e intuitiva sono sorprendentemente incomplete, caratterizzandola come la creazione di qual-
cosa dal nulla. Questo modo semplicistico di intendere l'improvvisazione non tiene conto
della disciplina e dell'esperienza richiesta a chi improvvisa. [...] L'improvisazione è infatti
resa possibile dall'aver assimilato un'ampia base di conoscenze musicali, inclusa una miria-
de di convenzioni che contribuiscono a formulare le idee in modo logico, cogente ed espres-
sivo. Non sorprende, pertanto, che gli improvvisatori usano metafore del linguaggio per de-
scrivere la loro forma di arte. ((Berliner, 1994:492), come riportato in (Weick, 1998:544)).

Mi sembra importante sottolineare la necessità di aver assimilato, per una buona im-
provvisazione, "una miriade di convenzioni" e quasi un "linguaggio" comune: è pro-
prio quello a cui pensavo nell'episodio delle prove d'orchestra ricordato sopra, quando
vedevo il maestro Muti comunicare con gli orchestrali: con termini tecnici in qualche
54
modo standard : «alla battuta 218, ripetiamo dal bemolle!».
Gli esempi potrebbero continuare a lungo: mi piace qui sottolineare un brano di
Alan Meyer, tratto dall'articolo in cui prende in esame i processi negoziali sottesi al-
l'organizzazione dell'evento attraverso l'analisi testuale delle email scambiate nei mesi
precedenti. Descrivendo l'enorme sforzo organizzativo e l'impiego di risorse che era

54
Ricordiamo dal capitolo 1 come le convenzioni non scritte - e tra queste il linguaggio -
abbiano molti aspetti in comune con gli standard, esclusa però la forma scritta e pubblica.
A che cosa serve uno standard 67

stato necessario per la preparazione dell'evento, Meyer conclude osservando come


invece i trenta minuti di jam session erano apparsi improvvisati del tutto spontanea-
mente, nati dal nulla, tra persone che non avevano mai suonato insieme né avevano
fatto prove o preparativi:

Noi accademici sapevamo che il pubblico non aveva idea di tutto quello che era stato neces-
sario per rendere possibile l'evento. Doug Conner (il batterista, NdT) osservò che questa
sensazione era tipica di ogni musicista Jazz: «Alcuni pensano che tu debba semplicemente
arrivare e cominciare una session, non capiscono che devi avere anni e anni di esperienza, e
che la tua esecuzione dipende anche dalla buona volontà di quelli che ti hanno preceduto».
L'improvvisazione è difficile, richiede tempo e assorbe una notevole quantità di risorse
(Meyer, 1998:573).

Due anni dopo, Organization Science ha pubblicato un articolo di un altro studioso di


organizzazione e musicista jazz, Michael Zack, in cui l'autore fa notare che esistono
nel jazz almeno quattro tipi di improvvisazione, con gradi crescenti di libertà da rego-
le e strutture musicali da rispettare (Zack, 2000).

Tabella 2.2 Quattro tipi di improvvisazione musicale. Fonte: adattata da (Zack, 2000:232).

Genere Grado di Metafora orga- Metafora comu- Dinamica


musicale improvvisazione nizzativa nicativa
Classico Nessuna, Gerarchia funzio- Formale, struttu- Rigida
minima nale rata; predefinita,
lineare

Jazz tradi- Costretta entro una Piattaforma or- Prevedibile Flessibile


zion., swing struttura rigida ganizzativa ma flessibile
Bebop Estensiva; l'armonia Network Conversazione Organica
e la struttura tonale complessa
possono essere mo- ma strutturata
dificate
Postbop Massima: sia la Anarchia funzio- Conversazione Caotica
struttura che i con- nale emergente, spon-
tenuti emergono li- tanea, costruita
beramente mutualmente

Zack, prendendo come esempio la musica di Miles Davis, suggerisce di confrontare i


primi album del periodo "bebop" con gli album del periodo "postbop" come "Miles
Smiles" o "Bitches Brew", in cui Miles mise in discussione «il linguaggio e le regole
dell'improvvisazione stessa» (Zack, 2000:230).
Nel Jazz, come del resto nella musica classica, è possibile notare una tendenza nel
tempo a elaborare forme musicali sempre meno strutturate e sempre più interpretabili
liberamente dall'ascoltatore. Eppure alcune fondamentali regole di base continuano
ad esistere anche nelle espressioni più recenti e destrutturate.
Nella direzione di una sempre maggiore apertura alla personale interpretazione
dell'esecutore e dell'ascoltatore troviamo alcune forme artistico-musicali contempora-
68 Capitolo 2

nee, come ad esempio l'opera di Sylvano Bussotti (Ulman, 1996). Bussotti, pur par-
tendo dalla notazione musicale standard, la altera, la trasforma, vi traccia dei grafici o
vi dipinge sopra per arricchirla di indicazioni espressive ed estetiche, ma anche per
suscitare nell'esecutore delle emozioni da trasferire più o meno liberamente nella mu-
sica. Assistiamo dunque a una sorta di opera "aperta" in cui l'autore "lancia un sasso"
e si aspetta, dall'esecutore e dagli ascoltatori, un contributo personale di interpreta-
zione e, in ultima analisi, di co-creazione.

Figura 2.4 Una parte di uno spartito di Bussotti. Da "Mobile-stabile" (N. 5 in "Sette fogli")
per chitarre, canto e pianoforte (1959, prima esecuzione Londra 1960).

2.3.4 Apertura dell'opera d'arte e interpretazione emergente

Il tema dell'"apertura" nell'espressione artistica contemporanea è affrontato in modo


straordinariamente lucido e approfondito in un saggio di Umberto Eco dal titolo em-
blematico: "Opera Aperta" (Eco, 1962, II ed.).
Il saggio è estremamente ricco e articolato: voglio qui segnalare un passaggio che
mi sembra particolarmente evocativo. Eco sostiene che ogni opera d'arte è per defini-
zione aperta, cioè fruibile in modo personale; eppure c'è una forte differenza tra il
grado di apertura dell'opera classica, che tende comunque ad avere un significato uni-
voco, e quello dell'opera contemporanea, che invece produce intenzionalmente una
plurivocità di significati diversi. Nelle parole dell'autore:

Il problema si farà più chiaro paragonando due brani, uno dalla Divina Commedia e l'altro
dal Finnegans Wake. Nel primo Dante vuole spiegare la natura della Santissima Trinità [...],
A che cosa serve uno standard 69

passibile dunque [...] di una sola interpretazione che è quella ortodossa. Il poeta usa pertanto
delle parole ciascuna delle quali ha un dato referente preciso e dice:
O luce eterna, che sola in Te sidi,
Sola t'intendi, e, da te intelletta
Ed intendente te, ami ed arridi!
[...] Di converso, ogni volta che si rilegge la terzina, l'idea del mistero trinitario si arricchi-
sce di nuove emozioni e di nuove suggestioni immaginative e il suo significato, che pure è
univoco, sembra approfondirsi e arricchirsi a ogni lettura.
Joyce, invece, nel quinto capitolo del Finnegans Wake, vuole descrivere la misteriosa lettera
che viene trovata in un letamaio e il cui significato è indecifrabile, oscuro perché multifor-
me; la lettera è dello stesso Finnegans e in definitiva è un'immagine dell'universo che il Fin-
negans rispecchia sotto specie linguistica. Definirla è in fondo definire la natura stessa del
cosmo; [...] la definizione occupa pagine e pagine del libro, ma in fondo ciascuna frase non
fa che riproporre in una prospettiva diversa l'idea base, anzi il campo di idee. Prendiamone
dunque una a caso:
From quiqui quinet to michemiche chelet and a jambebatiste to a brulobrulo! It is
told in sounds in utter that, in signs so adds to, in universal, in polyguttural, in each
ausiliary neutral idiom, sordomutics, florilingual, sheltafocal, flayflutter, a con's
cubane, a pro's tutute, strassarab, ereperse and anythongue athall.
La caoticità, la polivalenza, la multi-interpretabilità di questo chaosmos scritto in tutti gli i-
diomi, [...], ecco una serie [...] di suggestioni che derivano dall'ambiguità stessa delle radici
semantiche e dal disordine della costruzione sintattica. [...]
Quello che avviene nella terzina dantesca e nella frase joyciana è in fondo un procedimento
analogo [...]. Entrambe le forme, se contemplate sotto il loro aspetto estetico, si rivelano a-
perte in quanto stimolo a una fruizione sempre rinnovata e sempre più profonda. Tuttavia
nel caso di Dante si fruisce in modo sempre nuovo la comunicazione di un messaggio uni-
voco; nel caso di Joyce l'autore vuole che si fruisca in modo sempre vario un messaggio che
di per sé [...]è plurivoco. Si aggiunge qui alla ricchezza tipica della fruizione estetica una
nuova forma di ricchezza che l'autore moderno si propone come valore da realizzare. Que-
sto valore che l'arte contemporanea intenzionalmente persegue, quello che si è tentato di i-
dentificare in Joyce, è lo stesso che cerca di realizzare la musica seriale liberando l'ascolto
dai binari obbligati della tonalità e moltiplicando i parametri su cui organizzare e gustare il
materiale sonoro; è quello perseguito dalla pittura informale quando cerca di proporre non
più una, ma varie direzioni di lettura di un quadro; è ciò cui mira il romanzo quando non ci
racconta più una sola vicenda e un solo intreccio ma cerca di indirizzarci, in un solo libro,
all'individuazione di più vicende e di più intrecci. (Eco, 1962:90-93 II ed.).

Il parallelo tra le forme letterarie, musicali e visive indicate da Eco e l'analisi di Zack
sull'evoluzione dell'improvvisazione musicale nel Jazz moderno appare evidente: tor-
nano in mente le espressioni musicali del periodo Postbop di Miles Davis a cui si fa-
ceva riferimento più sopra, dove l'interpretazione, anzi, la pluralità di interpretazioni
possibili, nascono dalla conversazione tra l'autore, l'esecutore e l'ascoltatore e l'opera
non è mai univoca anche se ripetuta più volte.
Eppure, anche nell'opera aperta contemporanea, non è forse necessario un lin-
guaggio, una piattaforma comune di comunicazione, uno standard di riferimento mi-
nimale? Non è forse questo standard minimale che permette all'interprete e all'ascolta-
tore di costruire interpretazioni e significati sul canovaccio pluri-evocativo offerto
dall'autore?
70 Capitolo 2

2.3.5 So what?

Riconsiderando in sintesi il percorso tracciato finora, sembra emergere un tratto co-


mune a tutti aspetti trattati: l'idea classica di standard come strumento di omologazio-
55
ne, omogeneizzazione, livellamento appare qui messa in discussione . Con un proce-
56
dimento che potremmo chiamare di "decostruzione" , in simpatia con il linguaggio
57
postmoderno , abbiamo infatti lanciato alcuni spunti di riflessione che evidenziano il
possibile ruolo dello standard come strumento per la generazione di varietà, di inno-
58
vazione e persino di creatività artistica .
Il caso menzionato in apertura di questa sezione, sull'introduzione in IBM di un
sistema di Customer Relationship Management basato su standard Web/Intranet, la-
scia pensare che esistano degli standard (come appunto Web/Intranet) più flessibili,
interpretabili più liberamente, più "aperti" di altri e dunque più adatti a generare pro-
cessi di innovazione "bottom up"; le tecnologie standard non sono probabilmente in
questo senso tutte uguali.
55
Tale idea, anche se non è stata discussa nella analisi del significato di "standard" del capitolo
precedente, è implicita nella natura dello standard come regola ad adesione volontaria:
l'adesione collettiva ad una regola comune implica infatti una certa uniformità di effetti, che è
solitamente associata ad una riduzione di varietà; appare peraltro naturale sollevare
preoccupazioni sui potenziali effetti negativi che la standardizzazione potrebbe avere sul tasso
di produzione di innovazioni nel sistema economico. Nella letteratura economica le
implicazioni degli effetti di variety reduction dovuti alla standardizzazione sono state prese in
esame, tra l'altro, in (Farrell & Saloner, 1986b); per le implicazioni sulla produzione di
innovazioni vedi, ad esempio, (Farrell & Saloner, 1985). Questo tema verrà affrontato nel
capitolo 3, nella sezione 3.2 dedicata alla cosiddetta network economics.
56
Che cosa è la decostruzione? Con il breve testo che segue non si vuol certo avere la pretesa di
spiegarlo; si potrà forse però fornire qualche spunto sul tema, se non altro per sottolineare lo
stile giocoso tipico dei postmoderni. Il testo è tratto da un libro scritto da Derrida in risposta
alla domanda di un giornalista di dare una spiegazione del concetto di decostruzione "in a
nutshell" (in un guscio di noce, cioè in poche parole). Il brano è ricco di ironia e giochi di
parole, con un pizzico di maliziosa provocazione: «Il significato ultimo e la missione della
decostruzione è di mostrare che le cose - testi, istituzioni, tradizioni, società e pratiche di
qualsiasi data dimensione e sorta - non hanno significati definibili e missioni determinabili, che
sono sempre più di quanto qualsiasi missione possa imporre loro, che superano i confini che
occupano in un dato momento. Quello che si verifica davvero nelle cose, quello che sta
davvero accadendo è sempre ancora di là da venire. Ogni volta che cerchi di stabilizzare il
significato di una cosa, di fissarlo nella sua posizione missionaria, la cosa stessa, se davvero si
trattava di qualcosa, sguscia via. Un "significato" o una "missione" è un modo per contenere e
compattare le cose, come un guscio di noce (nutshell), portandole ad unità, laddove la
decostruzione fa ogni sforzo per uscire al di fuori di questi confini, per trasgredirne i limiti, per
interrompere e disgiungere questa unità. Ogni volta che la decostruzione incontra un limite,
preme contro di esso. Ogni volta che la decostruzione trova un guscio di noce (nutshell) - un
assioma sicuro o una massima essenziale – l'idea essenziale è quella di aprirla rompendola, e di
disturbare questa tranquillità. Ecco che cosa è la decostruzione, il suo significato e la sua
missione essenziale, se ne ha alcuno. Si potrebbe dire, in un guscio di noce (= in poche parole),
che la decostruzione consiste nel rompere i gusci di noce ('One might even say that cracking
nutshells is what deconstruction is. In a nutshell.')» (Derrida & Caputo, 1997:31-32).
57
Non vi è infatti qui alcuna pretesa di…rigore metodologico postmoderno.
58
Si vedano a questo proposito le considerazioni svolte nella nota n. 52 sulla combinazione
creativa di componenti standard.
A che cosa serve uno standard 71

L'episodio delle prove d'orchestra, in cui le convenzioni e gli standard musicali


venivano usati come piattaforma tecnica e linguaggio comunicativo di base per la
produzione di un risultato partecipato, interpretato e quasi co-creato da autore, esecu-
tore e ascoltatore, appare in sintonia (è il caso di dire) con gli studi sulla improvvisa-
zione organizzativa in relazione a quella della musica Jazz, ove è apparsa ben chiara
la presenza di una forma di struttura a base dell'improvvisazione. Come abbiamo vi-
sto, il vincolo strutturale può lasciare al musicista e all'interprete gradi di libertà di-
versi, che sono ad esempio molto più elevati nel genere postbop degli anni 90 che nel
genere swing degli anni '70; ciò ricorda quanto sembra avvenire per le diverse tecno-
logie dell'informazione nello sviluppo dei sistemi informativi: i gradi di libertà lascia-
ti dai sistemi basati su Web/Intranet degli anni 2000 sembrano essere superiori a
59
quelli dei sistemi accentrati basati su sistema multiterminale tipici degli anni '70 .
Una forma di struttura, sia pure minimale e poco visibile, è comunque presente in
tutti i casi presi in esame, comprese le espressioni artistiche contemporanee che sono
caratterizzate da un grado più elevato di "apertura", come alcuni scritti di James Jo-
yce o composizioni di Sylvano Bussotti. Il dualismo già considerato tra una "deep
structure" nascosta e precostituita ed una "emergent structure" continuamente rimessa
in discussione, sembra dunque assumere senso anche in questo contesto. Come ab-
biamo visto, per un individuo l'improvvisazione si basa sulla precedente acquisizione
profonda e istintiva di un linguaggio tecnico, di un sistema di espressività armonica
ed estetica e di corrispondenti capacità motorie che richiede una preparazione assidua
e prolungata negli anni. In termini organizzativi questo ha un parallelo in una memo-
60
ria organizzativa condivisa (Moorman & Miner, 1998) . Perché uno standard possa
essere impiegato efficacemente come motore di improvvisazione, di innovazione e di
creatività, esso deve dunque facilitare i processi di assimilazione, di preparazione,
apprendimento e interiorizzazione di ciò che è necessario, a livello individuale ed an-
che di memoria organizzativa, senza però ridurre troppo i gradi di libertà lasciati all'u-
61
tente .

59
Ad esempio, i sistemi multiterminale installati da IBM nelle banche degli anni '70 non
richiedevano necessariamente approcci di progettazione "bottom up": essi erano tipicamente
fortemente accentrati, gerarchici e con gradi di libertà praticamente nulli per l'utente. Per
un'introduzione su questo tema con un'analisi in chiave storica delle principali "pietre miliari"
dell'evoluzione IT nelle organizzazioni e delle loro modalità applicative vedi (De Marco et al.,
2003). Lo studio della natura e delle determinanti della flessibilità tecnologica, dei gradi di
libertà operativa permessi ai progettisti e agli utenti e dei conseguenti approcci di progettazione
dei sistemi informativi e di gestione dell'innovazione rappresentano, a mio parere, una delle
sfide affascinanti poste ai ricercatori dal progresso tecnologico attuale. Per un'indagine
esplorativa sulle pratiche emergenti di sviluppo IS rese possibili da nuovi standard tecnologici
vedi (Virili & Sorrentino, 2008).
60
Moorman e Miner distinguono ai fini dell'improvvisazione tra memoria procedurale (skill
knowledge) e memoria dichiarativa (fact knowledge); esse sono continuamente aggiornate in
base all'esperienza e influenzano il risultato dell'improvvisazione organizzativa in termini di
livello di innovazione, coerenza e velocità dell'azione.
61
L'idea di interpretare il ruolo dello standard nell'improvvisazione attraverso gli studi sulla
memoria organizzativa (Moorman & Miner, 1998) è di Alessandra Valerio, che la propone
nella sua tesi di laurea, applicandola all'analisi dello standard come strumento di
improvvisazione nei box Ferrari durante i gran premi di Formula 1: (Valerio, 2003). Un'altra
72 Capitolo 2

Per usare una delle misure dell'azione improvvisata di Moorman e Miner, lo stan-
dard potrebbe dunque risultare utile a sviluppare capacità e competenze che assicuri-
no il necessario grado di coerenza all'azione, senza pregiudicarne il potenziale di in-
novazione e creatività. Un po' come il pentagramma nella musica di Bussotti: una ba-
se ben nota su cui creare, a volte in modo sorprendente.

2.4 Interpretazione complessiva


Nel corso di questo capitolo il ruolo dello standard nelle organizzazioni è stato visto
da tre prospettive diverse. Da un lato, secondo la prospettiva contingentista, lo stan-
dard assume rilievo nella progettazione organizzativa come strumento di coordina-
mento e integrazione; dall'altro, secondo la teoria dei costi di transazione, la diffusio-
ne degli standard tende a incidere sulle relazioni interorganizzative, che a parità di
altre condizioni possono accrescersi nel numero e nella dinamica, riducendosi di in-
tensità; infine, con un punto di vista più vicino a quello dell'ironia e della decostru-
zione postmoderna, abbiamo osservato come il concetto tradizionale di standard come
strumento di riduzione della diversità possa utilmente essere affiancato a quello di
standard come piattaforma e base di improvvisazione, innovazione e creatività.
Il quadro sistematico e coerente fornitoci da Mintzberg, sulla base dei contributi
dei classici e in particolare dei contingentisti, pone in primo piano il ruolo di standard
e regole come meccanismo di coordinamento e di integrazione organizzativa. Si ri-
corre innanzi tutto a regole, piani e procedure standard per coordinare le attività ge-
stendone le interdipendenze a costo organizzativo contenuto. Vi si ricorre inoltre an-
che per gestire le interdipendenze "residue" tra unità organizzative differenziate, cioè
come meccanismo elementare di integrazione organizzativa. L'adozione di regole,
piani e procedure standard è considerata un prerequisito indispensabile per la crescita
dimensionale dell'organizzazione: al giorno d'oggi essa avviene in gran parte attraver-
so l'incorporazione di regole, piani e procedure standard in sistemi informativi che
attraversano l'organizzazione sia in senso orizzontale, cross-funzionale, sia in senso
verticale, connettendo livelli manageriali e operativi.
La standardizzazione come meccanismo di coordinamento ha comunque un'effi-
cacia limitata, specie in presenza di elevata complessità e incertezza. Anche se è pos-
sibile ricorrere a diverse tipologie di standardizzazione (dei processi, degli output,
delle competenze) che garantiscono livelli crescenti di flessibilità organizzativa, essa
è soltanto una delle classi di meccanismi di coordinamento e integrazione di uso co-
mune nelle organizzazioni.

possibile linea di interpretazione del ruolo dello standard come base per l'improvvisazione
potrebbe derivarsi per analogia da alcuni noti lavori di Martha Feldman sulle routine
organizzative (Feldman, 2000); (Feldman & Pentland, 2003). Secondo l'autrice, le routine
organizzative possono avere una duplice natura, sia strutturale (ostensive) che dinamica
(performative); esse sono dunque al tempo stesso fonte di stabilità/coerenza e di
flessibilità/improvvisazione organizzativa (Feldman & Pentland, 2003). Il concetto di
flessibilità è qui affrontato nel capitolo 3, sezione 3.3.6.
A che cosa serve uno standard 73

L'opera di Williamson permette di ampliare il campo di indagine ai rapporti tran-


sazionali tra organizzazioni. I processi di standardizzazione, anche se non sono stati
trattati esplicitamente dall'autore, possono esercitare un'influenza sul grado di specifi-
cità delle risorse, che è alla base dell'intera costruzione williamsoniana. Se il posizio-
namento nel continuum tra gerarchia e mercato dipende dalla specificità delle risorse
su cui si è investito, allora l'evoluzione dei processi di standardizzazione delle risorse
stesse può risultare determinante ai fini del passaggio da forme di gerarchia a forme
di mercato: all'aumentare degli utenti di uno standard si riduce il corrispondente gra-
do di specificità degli investimenti e si determina una spinta verso forme di mercato.
In termini di relazioni organizzative, il crescente ricorso a investimenti standard
(con particolare riferimento a quelli in tecnologie dell'informazione) appare dunque
essere uno dei fattori che contribuisce a determinare il numero, l'intensità e la dinami-
ca delle relazioni interorganizzative, rendendole, a parità di altre condizioni, più nu-
62
merose, ma anche più deboli e più variabili . Esse sono infatti influenzate in questo
senso non soltanto dalla disponibilità di mezzi di comunicazione ed elaborazione più
efficaci, ma anche dai minori vincoli relazionali (lock-in) associati ad investimenti su
tecnologie e prodotti standardizzati rispetto a quelli su tecnologie e prodotti non stan-
dard. Come abbiamo visto, ciò è dovuto al basso grado di specificità degli investi-
menti standard e si verifica con maggiore intensità man mano che lo standard si dif-
fonde ed aumentano le dimensioni del gruppo di adozione.
In simpatia con gli studi organizzativi più recenti, è stato infine possibile rivedere
la concezione tradizionale di standard come strumento di ordine. Con una diversa vi-
sione teorica ed epistemologica, che pone al centro dell'attenzione l'iniziativa dei sin-
goli, i processi di sensemaking e di innovazione organizzativa, l'applicazione degli
standard può contribuire a creare i presupposti cognitivi a livello individuale (skills) e
collettivo (memoria organizzativa) per l'improvvisazione, l'innovazione e la creativi-
tà, offrendo una soluzione alla contrapposizione apparentemente insolubile tra la rigi-
dità omologata della standardizzazione di stampo taylorista e una flessibilità creativa
puramente basata su patchwork e soluzioni ad hoc completamente prive di un concre-
to senso di direzione.

2.4.1 Perché nasce uno standard? standard volontari e regole coercitive

Lo standard, accanto agli altri tipi di regole, costituisce dunque un basilare strumento
organizzativo. Le regole sono certamente importanti nelle organizzazioni, anzi ne so-
no parte essenziale: questo è un fatto evidente ed assodato, che è stato oggetto di nu-

62
In linea con l'approccio williamsoniano, in questa sede un rapporto transazionale a relazione
"debole" o "a bassa intensità" è tale da poter essere soppiantato da un rapporto alternativo ad
un costo relativamente meno elevato rispetto a quello da sostenere nel caso di un rapporto
transazionale originario caratterizzato da una relazione più forte. Ciò è evidentemente dovuto
alla più bassa specificità degli investimenti a supporto del rapporto originario. L'idea di
relazione debole è evidentemente contigua a quella più generale di loosely coupled system. Per
una rassegna della letteratura ed un'analisi dei fattori causali, della tipologia e delle
implicazioni dei loosely coupled systems si veda (Orton & Weick, 1990).
74 Capitolo 2

63
merosi studi . Pertanto, se gli standard sono un particolare tipo di regola, quali sono
le ragioni per ricorrere proprio a degli standard piuttosto che ad altri tipi di regole? In
altre parole, le organizzazioni hanno proprio bisogno degli standard? Perché?
Fin dalle origini molte forme di standardizzazione tecnica (che, come ricordiamo
dal capitolo 1, comprendono standard di riferimento, di qualità minima e di compati-
bilità), furono promosse nell'ambito del commercio e dell'industria: standard di rife-
rimento come i sistemi di pesi e misure; standard di qualità minima come le classi di
prodotto con descrizioni e requisiti minimali; standard di compatibilità come, ad e-
sempio, quelli a noi già noti dello scartamento dei binari ferroviari e della filettatura
di dati e bulloni. Gli standard comportamentali, come il già menzionato standard or-
ganizzativo ISO 9000 per i processi di gestione della qualità, sono più recenti, ma in
alcuni casi sono tra i più diffusi a livello globale ed hanno un impiego vastissimo.
Esistono numerosi motivi per creare degli standard, sia tecnici che comportamen-
tali. Kindleberger raggruppa i benefici della standardizzazione in due grandi catego-
rie: economie di scala e riduzione dei costi di transazione (Kindleberger, 1983). Più
specificamente, l'ISO individua una serie di obiettivi della standardizzazione
((Sanders & International Organization for Standardization, 1972), riportato in
(Spivak & Brenner, 2001:29-30)):
9 Interscambiabilità
9 Semplificazione
9 Mezzi di comunicazione
9 Simboli e codici
9 Sicurezza
9 Tutela di interessi pubblici
9 Riduzione delle barriere al commercio.
Ad esempio, nel caso degli idranti di Baltimora, riportato nel riquadro che segue, i
benefici principali vengono ottenuti in termini di costi di transazione e soprattutto di
64
gradi di libertà relazionale , grazie alla standardizzazione delle attrezzature. Un bene-
ficio secondario si consegue dal lato della produzione: l'attrezzatura antincendio stan-
dardizzata viene prodotta per volumi più elevati, con conseguenti economie di scala.
L'esempio della standardizzazione dei mattoni per la ricostruzione di Boston eviden-
zia vantaggi in sia in termini di riduzione dei costi di transazione (semplificazione
delle attività in tutto il processo di costruzione, interscambiabilità) che in termini di
economie di scala.

63
«Le regole sono onnipresenti nel comportamento umano, ma sono particolarmente numerose
nelle organizzazioni formali dove sono spesso considerate gli strumenti prototipi
dell'organizzare« (March et al., 2000:8, ed. it.). Il capitolo primo dello studio di March e dei
suoi coautori "le regole nelle organizzazioni" offre un'ampia rassegna critica della letteratura
organizzativa su questo tema.
64
Ricordando l'analisi effettuata nella sezione 2.2 sulla base del quadro williamsoniano, la
specificità degli investimenti in attrezzature antincendio si riduce con la standardizzazione, e
con essa l'effetto di lock-in transazionale: si passa da relazioni bilaterali (municipalità-vigili del
fuoco locali) a un piccolo "mercato" nazionale che può impiegare indifferentemente le stesse
risorse: il numero di relazioni possibili aumenta, insieme con la loro interscambiabilità.
A che cosa serve uno standard 75

A volte, come nei casi appena considerati, esiste un'autorità che può promulgare
uno "standard" obbligatorio per la comunità di riferimento. In situazioni di questo ge-
nere, quando per esempio uno standard viene definito e imposto per legge, la nascita
dello standard tende ad identificarsi l'emanazione della legge che lo istituisce e lo im-
pone; non sono queste le fattispecie che interessano qui: esse hanno meccanismi giu-
ridici ben noti e presi in esame in altre discipline.
I casi in cui lo standard mostra invece chiaramente caratteristiche "genetiche" sue
proprie, che lo differenziano rispetto agli altri tipi di regole, sono quelli in cui non è
presente un'autorità centrale a istituire lo standard e ad imporne l'adozione, ma esisto-
no una o più collettività che hanno qualche interesse alla creazione e all'uso di uno
standard comune, ma che non sono necessariamente in accordo sulle sue caratteristi-
che.

STANDARDIZZARE URGENTEMENTE!

L'incendio di Baltimora e gli idranti incompatibili


«Nel 1904 scoppiò un incendio alla base dello stabilimento della John E. Hurst &
Company, che si trovava nella città di Baltimora. Dopo essersi esteso a tutta la
struttura, cominciò a propagarsi da edificio a edificio, finché non interessò un'area
enorme della città di ben 80 isolati. Per aiutare a combattere le fiamme le città di
New York, Filadelfia e Washington inviarono immediatamente rinforzi, ma senza
successo. I loro idranti non potevano allacciarsi alle bocche di alimentazione di
Baltimora perché non erano compatibili. Rimasero sul posto, senza poter far quasi
nulla, a osservare le fiamme. L'incendio distrusse approssimativamente 2500 edi-
fici e bruciò per più di 30 ore.
Risultò evidente, a quel punto, che bisognava definire un nuovo standard su scala
nazionale per prevenire altri simili disastri nel futuro. Fino a quel momento, ogni
municipalità aveva il proprio particolare set di standard per le attrezzature antin-
cendio. In conseguenza, fu svolta un'indagine sugli oltre 600 sistemi diversi di
connessione degli idranti che esistevano in tutta la nazione; un anno dopo fu isti-
tuito uno standard nazionale per garantire un sistema uniforme di attrezzature
antincendio in tutta la nazione, per la sicurezza della popolazione statunitense».
(Fonte: (ANSI (American National Standards Association), 2007), sezione "20th
Century").

La ricostruzione di Boston e i mattoni standard


«Nel 1689 Boston fu distrutta dal fuoco. Per velocizzare la ricostruzione, i padri
della città decretarono che gli operatori delle fornaci producessero soltanto mat-
toni di 9x4x4 pollici al posto della grande varietà di diverse misure di cui facevano
uso in precedenza. La violazione di questa direttiva comportava l'esclusione del
fornitore e la sua messa alla berlina. […] Con questo decreto la classe dirigente si
assicurò che i produttori di mattoni, i costruttori e i progettisti sapessero fin dall'i-
nizio che cosa aspettarsi a riguardo. Ciò rendeva inoltre possibile una previsione
ragionevolmente accurata del tempo, della manodopera e dei costi necessari a
completare la costruzione degli edifici».
Fonte: (Spivak & Brenner, 2001:25).
76 Capitolo 2

Pensiamo ad esempio al lungo processo di affermazione della filettatura Sellers


negli USA e nel mondo. In casi come questo, cioè in tutte le forme di relazione e
scambio tra soggetti non necessariamente sottoposti ad autorità gerarchica o a forme
arbitrali, le particolari caratteristiche degli standard (adesione volontaria, forma pub-
blica) li rendono l'unica forma di regolamentazione possibile.
Dunque vi sono casi in cui si ricorre agli standard come una forma di regolamen-
tazione "debole" in assenza di un'autorità regolamentare con poteri coercitivi.
Che cosa avviene quando si può scegliere tra regole coercitive e standard volonta-
ri? Le regole coercitive sono preferibili?
Nel 1996 negli USA esistevano circa 49.000 standard emanati da organizzazioni
non governative. Il governo federale, inoltre, aveva emanato d'autorità e gestiva ben
44.000 ulteriori "standard" governativi, di cui 34.000 in ambito militare. (Spivak &
Brenner, 2001:133). Si tratta prevalentemente di specifiche standard imposte per leg-
ge, come ad esempio i requisiti di qualità e le descrizioni caratteristiche degli approv-
vigionamenti militari. Eppure si registrava già una netta inversione di tendenza verso
l'abbandono di "standard" governativi, promulgati e imposti per legge, e l'impiego di
standard volontari veri e propri:

Gli orientamenti recenti nello sviluppo di standard in ambito militare sono stati verso l'eli-
minazione di standard e specifiche militari dettagliate in favore dell'adozione di standard
non governativi o lo sviluppo di descrizioni di prodotto e specifiche di performance com-
merciali. Dal 1990 al 1995, il Ministero della Difesa (DoD: Department of Defense) ha can-
cellato oltre 6500 standard e specifiche militari [...]. Il DoD adotta ora nel complesso oltre
7400 standard non governativi (Spivak & Brenner, 2001:139).

Questo trend di passaggio dalle regole coercitive agli standard volontari vale in gene-
rale nell'amministrazione USA, come testimonia la circolare A-119 dell'Office of
Management and Budget, intitolata "Partecipazione Federale nello sviluppo e l'im-
piego di standard a consenso volontario e nelle attività di verifica della conformità":

Questa circolare stabilisce direttive per migliorare il management interno dell'Esecutivo


(Executive Branch). Essa richiede alle agenzie di utilizzare standard di consenso volontario
(voluntary consensus standards) invece di standard governativi salvo quando incompatibili
con la legge o comunque non pratici. (Fonte: riportata in (Spivak & Brenner, 2001:284).

Dunque gli standard volontari non sono soltanto una versione "debole" delle regole
coercitive, uno strumento a cui è giocoforza ricorrere in mancanza di un'autorità cen-
trale: essi possono risultare preferibili agli altri tipi di regole. Ciò anche perché la loro
particolare dinamica di generazione, il processo che determina il "consenso volonta-
rio" di cui sopra, ha caratteristiche tipiche della selezione di mercato, tali da rendere
spesso più economico, efficiente e vicino ai bisogni della comunità ciò che risulta da
un processo di standardizzazione volontaria rispetto ciò che viene univocamente pre-
determinato dall'alto.
Il prossimo capitolo sarà dunque dedicato all'analisi degli studi che contribuiscono a
spiegare e interpretare questo processo; esso costituisce la parte centrale dell'investi-
gazione su come nasce uno standard.
3
Analisi della letteratura

Abbiamo finora considerato che cosa è uno standard e a che cosa serve: si tratta di
un particolare tipo di regola scritta e pubblica ad adesione volontaria, che trova im-
piego nelle organizzazioni come meccanismo di coordinamento, come catalizzatore
relazionale e come possibile piattaforma di innovazione, creatività e improvvisazione;
esso assume carattere di particolare necessità e rilievo nelle situazioni in cui è assente
un'autorità centrale che abbia il potere di emanare e imporre delle regole, ma può ri-
sultare comunque una utile alternativa alle regole coercitive, con una serie di vantaggi
che lo rendono spesso preferibile, legati alla sua stesso natura di strumento regolativo
volontario concordato e disponibile sul mercato.
E' il momento di esplorare il tema principale di questo lavoro: come nasce uno
standard. In questo capitolo, attraverso l'analisi delle letteratura, verranno passati in
rassegna gli attori, le fasi, le attività che danno origine all'istituzione di uno standard,
esaminando sia il processo di formazione che, quando opportuno, il processo di diffu-
65
sione . L'analisi è sostanzialmente divisa in tre parti. Nella prima parte si prende co-
me punto di riferimento un recente numero monografico di MIS Quarterly, dedicato
ai processi di standardizzazione nel settore IT, che presenta una varietà di approcci e
impostazioni teoriche nella quale si tenterà di individuare alcune basi teoriche comu-
ni. Questa analisi conferma la multidisciplinarietà e la complessità del tema. Esso è
stato affrontato finora da una vasta letteratura economica, che costituisce ormai una
base ampia e riconosciuta, e da una molteplicità di contributi in vari ambiti delle
scienze sociali, non sempre in diretta relazione tra loro. A questi due grandi rami del-
la letteratura, quello delle scienze economiche e quello delle scienze sociali, verranno
dedicate le successive due sezioni, per poi tratteggiare un quadro complessivo nella
sezione finale del capitolo.

65
Anche se risulta difficile distinguerli in modo netto, si considererà qui come processo di
formazione quello antecedente alla pubblicazione dello standard; come processo di diffusione
quello ad essa successivo.
78 Capitolo 3

3.1 Una rassegna introduttiva: IT standard making


La ricerca sui processi di standardizzazione si trova ancora in uno stadio di relativa
immaturità: il tema è estremamente ampio, coinvolgendo aspetti che sono stati tratta-
ti, con gradi diversi di approfondimento, in discipline diverse. I processi di standar-
dizzazione e gli standard sono ovviamente oggetto di una copiosa produzione docu-
66
mentale . Le istituzioni interessate, a partire dall'ISO, patrocinano e promuovono e-
venti e pubblicazioni. La produzione accademica in ambito organizzativo e manage-
riale, come è immaginabile, è in qualche modo interessata da questo tema, ma risulta
molto distribuita e "sparsa": gli standard intersecano e a volte generano molti filoni di
interesse e di studio, che restano però ampiamente separati gli uni dagli altri, in ter-
mini di affinità disciplinari, livelli e obiettivi di analisi, teorie e prospettive ispiratrici.
In particolare, alcuni tra i primi studi specifici e diretti sui processi di standard ma-
king stanno cominciando ad apparire nel campo di studi noto in Italia come "Organiz-
67
zazione dei Sistemi Informativi" (IS: Information Systems) . Per un orientamento ini-
ziale dell'analisi della letteratura, si è dunque scelto di passare brevemente in rassegna
il recente numero monografico di MIS Quarterly (una delle riviste internazionali di
maggiore prestigio in ambito IS) dedicato alla standardizzazione nel settore IT ("IT
Standard making": (Lyytinen & King, 2006)).

3.1.1 Gli aspetti affrontati nei contributi

La Tabella 3.1 che segue offre una vista d'insieme dei sette articoli del numero mo-
nografico, illustrando il tipo e l'origine dello standard, il focus dell'analisi (fase del
processo di standardizzazione e descrizione dello standard in esame), nonché le basi
teoriche adottate.
I primi tre contributi riguardano standard de jure che originano in enti riconosciuti
di standardizzazione volontaria, (voluntary consensus standards). In essi il focus del-
l'analisi è sulla standardizzazione di tipo anticipatory, applicata allo sviluppo di nuo-
ve specifiche e tecnologie non ancora presenti sul mercato (Web services Choreo-
graphy: (Nickerson & Zur Muehlen, 2006); MISMO "SMART docs": (Markus et al.,
2006)), o all'istituzione dello standard britannico BS7799 sulla sicurezza IT, un ibrido
tra standard manageriale (cioè comportamentale, secondo la distinzione originale di
Paul David discussa nel cap. I) e standard tecnico (Backouse et al., 2006).

66
Secondo una stima basata sui dati disponibili negli archivi NIST (NIST directories: (Toth,
1996:175;Toth, 2001:142)) ci sarebbero nel mondo oltre 800.000 standard attivi. Essi
costituiscono di per sé una notevole mole documentale, continuando inoltre ad alimentare un
flusso di attività e di investimenti pubblici e privati notevolissimo. Incontri e conferenze
specialistiche, nei vari settori economici e industriali interessati, aggregano interessi e
conoscenze specifiche: uno dei temi ampiamente dibattuti è quello di come massimizzare
l'efficienza e l'efficacia della produzione di standard nelle varie sedi istituzionali.
67
Per alcuni manuali di Organizzazione dei Sistemi Informativi ad opera di autori italiani cfr.
(De Marco et al., 1987); (Pontiggia, 1997); (Martinez, 2005).
Analisi della letteratura 79

Tabella 3.1 Vista d'insieme dei contributi rielaborato da (Lyytinen & King, 2006:407-8), Ta-
ble 1.

"IT STANDARD MAKING" (Lyytinen & King, 2006)


ARTICOLO TIPO/ORIGINE FOCUS BASI TEORICHE

(Markus et al., 2006) Standard de jure Creazione e diffusio- Teorie dell'azione


“Industry-Wide Infor- "verticali", emana- ne di anticipatory collettiva (Olson,
mation Systems Stan- ti da un ente rico- standard "verticali" di 1965)
dardization as Collecti- nosciuto nel setto- compatibilità (intero-
ve Action: The Case of re (MISMO, Mor- perabilità IT) nell'am-
the U.S. Residential tgage Industry bito del settore indu-
Mortgage" Standards Main- striale dei mutui ipo-
tenance Organiza- tecari: MISMO
tion). "SMART docs"
(Nickerson & Zur Standard de jure Creazione di anticipa- Istituzionalismo e
Muehlen, 2006) “The emanati da enti tory standard di strutturazione
Ecology of Standards riconosciuti di compatibilità IT: Web (Barley & Tolbert,
Processes: Insights standardizzazione services Choreo- 1997); Ecologia
from Internet Stan- volontaria graphy delle popolazioni;
dard Making” Internet. Network econo-
mics
(Backouse et al., 2006) Standard de jure Creazione di anticipa- Teoria dei circuiti
“Circuits of Power in emanati da enti tory standard di rife- di potere (Clegg,
Creating de jure Stan- riconosciuti ISO: rimento per la sicu- 1989)
dards: Shaping an In- BSI (British stan- rezza dei sistemi in-
ternational Informa- dards organiza- formativi: Standard
tion Systems Security tion). BS7799
Standard"
(Hanseth et al., 2006) Sia de jure che de Sviluppo e istituzione Actor-network
“Reflexive Standardi- facto di anticipatory stan- Theory e teorie
zation: Side Effects dard e norme, sia sociologiche della
and Complexity in tecnici che compor- modernità (Law,
Standard Making” tamentali, nel settore 1994); (Beck et al.,
sanitario: EPR (Elec- 2003)
tronic Patient Re-
cord)
(Weitzel et al., 2006) Sia de jure che de Adozione e diffusione Network econo-
“Unified Economic facto di standard di compa- mics
Model of Standard Dif- tibilità IT
fusion: The Impact of
Standardization Cost,
Network Effects, and
Network Topology”
80 Capitolo 3

"IT STANDARD MAKING" (Lyytinen & King, 2006)


ARTICOLO TIPO/ORIGINE FOCUS BASI TEORICHE

(Zhu et al., 2006) “Mi- Sia de jure che de Adozione e diffusione Network econo-
gration to Open Stan- facto di standard di compa- mics
dard Interorganizatio- tibilità IT "aperti" (o-
nal Systems: Network pen standards)
Effects, Switching
Costs and Path De-
pendency”
(Chen & Forman, Sia de jure che de Adozione e diffusione Network econo-
2006) “Can Vendors facto di standard di compa- mics
Influence Switching tibilità IT "aperti" (o-
Costs and Compatibili- pen standards)
tà in an Environment
with Open Standards?

Ad un simile ibrido socio-tecnico è dedicato anche il quarto contributo (Hanseth et


al., 2006), in cui i processi di generazione e affermazione di norme tecniche e com-
portamentali standardizzate vengono presi in esame nel contesto ospedaliero, nel-
l'ambito di un progetto di automazione della gestione cartelle cliniche (Electronic Pa-
tient Record) condiviso e negoziato tra i maggiori ospedali norvegesi. I restanti tre
articoli sono dedicati prevalentemente ad analisi economiche dei processi di adozione
e diffusione di standard di compatibilità tecnica, sia de jure che de facto.

3.1.2 Le basi teoriche dei contributi

La colonna più a destra nella tabella fornisce un'indicazione delle basi teoriche di cia-
scun articolo: appare evidente come esista un approccio comune agli ultimi tre con-
tributi, generalmente indicato come network economics, per l'analisi prevalente dei
processi di adozione, selezione e diffusione degli standard di compatibilità tecnica.
Tale approccio è presente in (Weitzel et al., 2006); (Zhu et al., 2006); (Chen & For-
man, 2006). Gli altri quattro contributi si ispirano invece a ambiti teorici e disciplinari
più disomogenei, che comprendono la teoria dell'azione collettiva in (Markus et al.,
2006); la teoria dei circuiti di potere in (Backouse et al., 2006); l'actor-network the-
ory e le teorie sociologiche della modernità in (Hanseth et al., 2006).

Standardizzazione come azione collettiva


Il primo contributo evidenziato in Tabella 3.1 (Markus et al., 2006) tenta di spiegare
come nasce uno standard con riferimento alle specifiche tecniche di comunicazione e
interoperabilità tecnica nel settore dei mutui ipotecari, con il patrocinio di un ente di
standardizzazione di settore chiamato MISMO ("Mortgage Industry Standards Main-
tenance Organization"); lo standard in questione prende il nome di "MISMO smart
docs". Gli standard di settore vengono spesso anche chiamati standard verticali. Si
Analisi della letteratura 81

tratta tipicamente di standard completamente volontari, aperti e spesso anticipatory,


come in questo caso, che tipicamente mettono in comunicazione i diversi attori di una
filiera di settore. Tra gli esempi più noti di standard verticali gli autori menzionano il
successo dei codici a barre, inizialmente originati nel settore del commercio all'in-
grosso di prodotti di largo consumo, e l'insuccesso degli standard di comunicazione
EDI, che è stato da più parti analizzato in letteratura (vedi ad esempio (Beck & Wei-
tzel, 2005); (Damsgaard & Truex, 2000)). Gli standard verticali rappresentano una
categoria importante e per alcuni versi peculiare.
Markus e i suoi coautori osservano come gli analisti dei processi di standardizza-
zione abbiano mediato utili concetti dalle teorie sull'azione collettiva (collective
68 69
action) . Tra essi, innanzi tutto, rileva la natura di bene collettivo che lo standard
68
I meccanismi che determinano l'azione collettiva sono stati oggetto di una notevole mole di
studi nelle scienze sociali, a partire dal lavoro fondativo di Mancur Olson (Olson, 1965), a cui
si fa esplicito riferimento in (Weiss & Cargill, 1992) per spiegare la partecipazione ai processi
di standardizzazione. Uno dei filoni più significativi di studio sull'azione collettiva nasce
dall'indagine della nuova concezione, avanzata da Olson negli anni '60, dell'individuo come di
un essere fondamentalmente non portato alla collaborazione spontanea: «gli individui razionali
e interessati a se stessi non agiscono a favore dei propri comuni interessi di gruppo…» ((Olson,
1965:2), come riportato in (Oliver & Marwell, 2001:293)) «…senza incentivi privati o selettivi
che premiino chi coopera o puniscano chi non cooopera. Prima di Olson, i ricercatori nelle
scienze sociali assumevano che esistesse una naturale tendenza per le persone con interessi
condivisi (gruppi di interesse) ad agire assieme per perseguire i propri interessi. Gli economisti,
comunque, da tempo opponevano l'argomentazione che la tassazione coercitiva era invece
necessaria perché individui razionali in un mercato competitivo non sarebbero mai disposti a
offrire volontariamente denaro per finanziare beni pubblici come gli eserciti, le legislature, i
parchi, le scuole pubbliche, o i sistemi di irrigazione. Olson sostenne che tutti gli obiettivi o gli
interessi di gruppo erano soggetti allo stesso dilemma. Egli definì come bene collettivo
qualsiasi bene che anche se messo a disposizione di un membro di un gruppo con un interesse a
quel bene, non può essere rifiutato a nessuno degli altri membri [vedi anche nota successiva].
Ciò prende generalmente il nome di non escludibilità o "impossibilità di esclusione" (Hardin,
1982:16). Ne conseguiva pertanto la definizione di azione collettiva come qualsiasi azione che
dà origine ad un bene collettivo. Olson argomentò che, dato che i benefici di un bene collettivo
non possono non essere estesi anche a coloro che non hanno contribuito a sostenerne i costi,
allora gli appartenenti razionali ad un gruppo di interesse sono motivati al free riding, cioè al
godere dei benefici di un bene collettivo a spese di altri che ne sostengono i costi. Inoltre,
aggiunse, questa tentazione tenderebbe a crescere con le dimensioni del gruppo, laddove i
benefici del contributo di un singolo andrebbero ripartiti su un numero più elevato di persone,
rendendo poco probabile che esso possa produrre una differenza visibile sul risultato generale.
Perciò, l'azione collettiva sarebbe secondo Olson "irrazionale", a meno che alle persone non
vengano riconosciuti incentivi privati o selettivi, per spingerli a contribuire alla produzione di
beni collettivi. L'argomento di Olson ebbe un'influenza notevole sulla early resource
mobilization theory nello studio dei movimenti sociali. Egli problematizzò l'azione collettiva,
aprendo le porte allo studio delle condizioni alle quali l'azione collettiva può aver luogo»
(Oliver & Marwell, 2001:293-294). Tali condizioni furono poi messe in luce, fra l'altro, dalla
cosiddetta "teoria della massa critica", proposta da Oliver e Marwell (Oliver et al., 1985);
(Oliver & Marwell, 1988); (Marwell et al., 1988); (Marwell & Oliver, 1993), che indaga
appunto i meccanismi che rendono possibile la produzione di beni collettivi, con elaborazioni
ed applicazioni successive in diversi campi di indagine. Per una rassegna critica degli sviluppi
della teoria della massa critica cfr. (Oliver & Marwell, 2001).
69
Per una discussione introduttiva sulla natura dei beni collettivi, vedi (Hardin, 2003). Hardin
(sezione "2. Public Goods") spiega come il concetto di bene collettivo sia stato mediato da
Olson dalla teoria dei beni pubblici di Samuelson. Un bene pubblico, come ad esempio il corpo
di polizia, è caratterizzato dal fatto che esso, una volta reso disponibile ad un soggetto
82 Capitolo 3

tipicamente assume (Kindleberger, 1983): una volta istituito esso è a disposizione di


tutta la collettività. Come vedremo nella sezione dedicata alla network economics, i
benefici che i potenziali utenti possono godere dalla istituzione del bene collettivo
tendono tipicamente a manifestarsi soprattutto quando esiste già una base di utenti
numerosa e consolidata, aumentando con la diffusione dello standard. Markus e i suoi
coautori sottolineano come nella standardizzazione di settore, ciò possa facilmente
ingenerare una tendenza naturale al free-riding, cioè, come già accennato in prece-
denza (vedi nota 68), al voler godere dei benefici del bene collettivo a spese altrui
(Hardin, 2003). Un free rider può semplicemente aspettare che uno standard venga
istituito da altri e che raggiunga un adeguato numero di utenti, prima di "salire sul
carro". In tal modo in fase di creazione non contribuirà a sostenere i costi del proces-
70 71
so di istituzione dello standard ; in fase di diffusione , aspettando ad adottare lo
standard fino a quando esso abbia già conquistato una base di utenti abbastanza nu-
72
merosa da garantirne il successo , si assicurerà benefici più elevati con incertezza ri-
dotta. I processi di standardizzazione danno dunque origine a due diversi tipi di di-
73
lemma sociale : il dilemma della partecipazione al processo di creazione e quello del-

(cittadino), è per sua natura disponibile anche a tutti gli altri. Questa condizione prende il nome
di fornitura collettiva (jointness of supply) o di non rivalità nel consumo (non rivalness of
consumption). Quando un bene è perfettamente pubblico, alla non rivalità nel consumo si
accompagna la impossibilità di esclusione (impossibility of exclusion): è impossibile escludere
chicchessia dal consumo del bene pubblico, una volta che questo sia stato messo a disposizione
di un qualsiasi membro della collettività. Nella realtà molti beni, pur non essendo pubblici nel
senso delinato da Samuelson, vengono comunque prodotti e forniti dalla collettività. Tali beni
assumono il nome di beni collettivi, e sono appunto quelli a cui si interessa Olson. Lo standard
è uno di questi: come abbiamo visto, esso nasce da un atto di negoziazione collettiva, anche se
non sempre presenta in senso pieno entrambi gli attributi di jointness of supply e di
impossibility of exclusion.
70
Markus e i suoi coautori (Markus et al., 2006:441) osservano come la necessità di porre luce
sui meccanismi che spingono i soggetti a partecipare in fase di creazione, sostenendone quindi
i costi, sia stata messa in luce fin dai primi analisti dei processi di standardizzazione, tra cui
(Cargill, 1989) e (David & Greenstein, 1990).
71
Come abbiamo già osservato nella parte introduttiva di questo capitolo, risulta a volte
difficile distinguere nettamente tra fase di creazione e fase di diffusione di uno standard: ad
esempio la diffusione dei personal computer IBM e dei suoi "cloni" ha determinato
l'affermazione di una serie di standard tecnologici de facto, incorporati nel prodotto stesso
(product standard) come le specifiche tecniche della scheda grafica, delle porte per la
stampante, per la tastiera, ecc. In molti casi come quello, i processi di adozione/diffusione
risultano dunque determinanti alla fine dell'istituzione stessa dello standard. In questo lavoro, il
focus principale è comunque sui processi di creazione, anche se verranno presi in esame gli
aspetti di diffusione ad essi collegati. Convenzionalmente, la data di pubblicazione dello
standard è qui considerata come il punto finale del processo di creazione e quello iniziale di
quello di adozione e diffusione. In (Markus et al., 2006) si sottolinea come i due processi siano
fortemente interrelati, mentre la letteratura li abbia spesso analizzati separatamente.
72
Gli economisti hanno chiamato questi comportamenti di attesa con il nome di "effetti
pinguino" (penguin effects: vedi (Farrell & Saloner, 1986a:943), nota n. 9). Essi vengono
illustrati in maggiore dettaglio più oltre in questo capitolo, nella sezione 3.2.2 al paragrafo
"Farrell e Saloner (1986): Effetti contrastanti sull'innovazione".
73
Un dilemma sociale si ha quando un comportamento razionale a livello individuale risulta
invece irrazionale a livello collettivo. Ad esempio astenersi dal voto nelle elezioni politiche per
non sostenerne i costi (tempo, trasferimento, informazione ecc.) pur godendo dei benefici del
Analisi della letteratura 83

la formazione della base iniziale di utenti. Markus e i suoi coautori caratterizzano


questi due dilemmi in base a uno degli attributi fondamentali dell'azione collettiva:
l'eterogeneità dei partecipanti. La letteratura sull'azione collettiva distingue tradizio-
nalmente almeno due forme di eterogeneità dei partecipanti: l'eterogeneità di interes-
si, che si verifica quando l'interesse a contribuire alla produzione del bene collettivo
ha diversi gradi di intensità tra i potenziali partecipanti, e l'eterogeneità di risorse, che
si riferisce alla diversa distribuzione delle risorse a disposizione dei potenziali parte-
cipanti alla produzione del bene collettivo (Oliver et al., 1985).
Gli autori, che vantano una significativa esperienza di ricerca sulla standardizza-
74
zione IT di settore , osservano come la nascita di uno standard IT di settore si diffe-
renzi da quella di molti altri standard tecnologici per varie ragioni: in primo luogo,
l'iniziativa di standardizzazione è tipicamente guidata dagli utenti oltreché che dai
75
fornitori IT ; in secondo luogo, i gruppi e le categorie di utenti coinvolti hanno di so-
lito interessi che tendono a divergere strutturalmente non solo per le diverse configu-
razioni di preferenze, ma anche per l'appartenenza a categorie diverse: ad esempio
76
fornitori primari, clienti, finanziatori, fornitori di servizi di supporto, ecc. ; in terzo
luogo, «a meno che uno standard volontario non incontri i bisogni di tutti i gruppi di
utenti rilevanti, esso non può essere adottato ampiamente nel settore industriale; per-

sistema democratico è razionalmente giustificato a livello individuale, dato che con


elevatissima probabilità l'incidenza di un singolo voto sul risultato finale è praticamente nulla.
Questo comportamento è però irrazionale a livello collettivo: se tutti seguissero la stessa logica
la rappresentanza democratica non potrebbe esistere. Per una rassegna introduttiva sui dilemmi
sociali cfr. (Kollock, 1998). Sullo specifico aspetto della razionalità individuale del free riding
nell'espressione della rappresentanza politica vedi (Hardin, 2003), sezione 4-6.
74
Uno degli autori (Minton) è il vicepresidente della Mortgage Bankers Association; i tre
accademici (Markus, Steinfield e Wigand) hanno coordinato un importante progetto di ricerca
pluriennale sugli standard per le relazioni interorganizzative in vari settori industriali, chiamato
"Networks of industry", che ha ricevuto tre finanziamenti dalla National Science Foundation,
dando luogo ad oltre 10 pubblicazioni. Per maggiori informazioni sul progetto "Networks of
industry" è possibile far riferimento al sito web http://ebusiness.tc.msu.edu/netindustry/.
Markus, Steinfield e Wigand sono anche stati i curatori di una special issue della rivista
"Electronic Markets" sul tema dei vertical standards (Wigand et al., 2005).
75
Per un'analisi economica dei fattori rilevanti per il coinvolgimento degli utenti nei processi di
standardizzazione, vedi (Foray, 1994).
76
Il fenomeno dell'eterogeneità "qualitativa" degli interessi degli attori coinvolti nei processi di
standardizzazione di settore è così illustrato dagli autori: «Noi crediamo che, dal momento che
le iniziative di standardizzazione IT di settore (VIS: Vertical Information Systems) hanno
l'obiettivo di promuovere l'interconnessione tra organizzazioni di utenti che sono
strutturalmente diverse (es. produttori e distributori di beni di largo consumo; fornitori di
componenti e costruttori di automobili), tutte le iniziative di standardizzazione VIS comportino
eterogeneità qualitativa di interessi tra le organizzazioni utilizzatrici che vi partecipano, non
solo tra utenti e fornitori IT. L'eterogeneità di interessi mette a repentaglio il successo dello
sviluppo di standard VIS inibendo la collaborazione. Purtroppo, la soluzione più ovvia del
problema – la frammentazione in iniziative rivali di standardizzazione, che possano competere
sul mercato – non funziona per gli standard VIS. La ragione è che la partecipazione di membri
di tutti i gruppi di rilievo strutturalmente differenti è necessaria per assicurare una soluzione
che soddisfi le necessità dell'intero settore per l'interconnettività digitale» (Markus et al.,
2006:461).
84 Capitolo 3

ciò, qualche membro di tutti i gruppi rilevanti deve partecipare nello sviluppo dello
standard (Hills, 2000)» (Markus et al., 2006:444).
Pertanto, l'indagine di Markus e dei suoi coautori è stata tesa a verificare come l'e-
terogeneità dei gruppi (in termini sia di interessi che di risorse) abbia potuto influire
sulle possibili soluzioni ai dilemmi sociali della partecipazione e della iniziale diffu-
sione dello standard di settore sotto esame (MISMO smart docs), e come tutto questo
possa riflettersi in ultima analisi nel contenuto dello standard stesso. In estrema sinte-
si, l'analisi del caso ha evidenziato:
1) l'esistenza di significativa eterogeneità di risorse e interessi tra i potenziali par-
tecipanti all'iniziativa di standardizzazione, con un particolare rilievo per la posizione
delle due grandi potenti istituzioni private certificate dal governo statunitense (GSE,
Government Sponsored Enterprises: Fannie Mae e Freddie Mac) che disponevano di
tecnologie diverse in forte concorrenza tra loro per la comunicazione con le banche e
i broker, e per la posizione dei fornitori di tecnologie e servizi informatici, anch'essi
in concorrenza tra loro con sistemi diversi. L'adozione di un unico sistema di comuni-
cazione dei dati per l'intero settore rischiava di ledere le rispettive posizioni concor-
renziali delle due GSE concorrenti, che guardavano dunque con sospetto all'iniziati-
va. In questo senso l'eterogeneità di interessi e di risorse viene vista dagli autori come
un possibile ostacolo al successo dell'iniziativa.
2) Il conseguente ricorso ad una serie di misure e di tattiche, tra le quali la più de-
terminante è stata la moral suasion della Mortgage Bank Association su Fannie Mae
e Freddie Mac, per convincerle finalmente ad aderire all'iniziativa, con conseguente
legittimazione della stessa; ulteriori tattiche osservate dagli autori hanno riguardato
l'adozione di principi di apertura e di libera partecipazione nella governance dell'ini-
ziativa e nella gestione dei diritti di proprietà intellettuali; di limitazione del raggio di
azione dello standard (solo alla codifica del formato dei dati, mantenendo libertà di
definizione dei processi sottostanti); di enfasi sulla razionalizzazione tecnica delle
77
specifiche .
3) Il contenuto finale dello standard è stato necessariamente influenzato dai di-
lemmi di azione collettiva e dalle tattiche adottate per risolverli. In particolare, gli au-
tori notano come alcuni dei soggetti intervistati abbiano osservato come la struttura
finale del documento elettronico risultante dallo standard "MISMO smartdoc" risulti
forse inutilmente complicata, prevedendo duplicazioni di dati e parti aggiuntive non
soltanto per motivi di sicurezza dei dati, ma forse anche con lo scopo di non escludere
77
Su questo punto gli autori notano la relazione tra le tattiche osservate e le questioni e i
dilemmi di azione collettiva discussi in precedenza sia di ordine generale e complessivo:
«Abbiamo trovato una serie di tattiche (il supporto delle GSE, la governance, i diritti di
proprietà intellettuale, le decisioni tecniche sul raggio di azione, comprese quelle di
razionalizzazione dei dati) che nel complesso sono servite a fornire una risposta alla maggior
parte delle questioni identificate nella nostra analisi dei dilemmi dell'azione collettiva di
MISMO […]. Non c'è nessuna corrispondenza uno a uno tra tattiche e questioni. Alcune
tattiche affrontano sia i dilemmi che le questioni che riguardano molteplici stakeholders.
Sebbene alcune di queste tattiche siano state menzionate in precedenza dalla letteratura, il
modo in cui esse sono risultate efficaci nel caso MISMO in alcuni casi è risultato diverso da
quello previsto dalla letteratura. Per esempio, le regole di affiliazione a MISMO sono state
concepite per garantire un'ampia base di partecipazione, piuttosto che per escludere i rivali»
(Markus et al., 2006:459).
Analisi della letteratura 85

dal business una serie di società fornitrici dei servizi di verifica dei contenuti. Se tali
dubbi fossero confermati, la complessità inutile della specifica sarebbe una delle rica-
dute della tattica di inclusione e di apertura nella partecipazione all'iniziativa. L'ec-
cessiva complessità delle specifiche potrebbe a sua volta compromettere la diffusione
e quindi il successo finale dello standard.
In definitiva, dunque, gli autori offrono alcune proposizioni teoriche che mettono
in rilievo l'importanza, ai fini del successo della standardizzazione di settore, dei se-
guenti elementi: 1) in presenza di elevata eterogeneità (interessi, risorse) dei gruppi
che partecipano all'iniziativa è importante assicurare la partecipazione di tutti gli atto-
ri rilevanti, con particolare riferimento a coloro che hanno capacità di influenza e di
moral suasion nel settore; 2) esistono tattiche utili alla gestione delle questioni e dei
dilemmi sociali di azione collettiva (moral suasion, apertura nella gestione di gover-
nance e diritti intellettuali, limitazione del raggio di azione e razionalizzazione tecni-
ca); 3) il contenuto tecnico dello standard finale è comunque influenzato dalle tattiche
adottate e dalla necessità di assicurare la piena partecipazione, che potrebbero ingene-
rare complessità ridondante. Questo aspetto va controllato per assicurare il successo
della successiva diffusione dello standard.
La ricchezza e la profondità di analisi del caso osservato in (Markus et al., 2006)
lo rendono un importante punto di riferimento per la ricerca sui processi di standar-
dizzazione, che indica una direzione ricca di possibili sviluppi. In particolare,i se-
guenti interrogativi si pongono naturalmente all'attenzione del ricercatore:
Come mai nel caso MISMO l'eterogeneità dei gruppi sembra avere un effetto po-
tenzialmente negativo sull'azione collettiva, mentre in analisi apparse altrove di casi
simili a questo si sono avuti risultati variabili e in alcuni casi opposti (vedi (Monge et
al., 1998:422), proposizioni 10-14)?
E' possibile prendere in considerazione ulteriori fattori critici e risultati teorici e-
videnziati dalle teorie dell'azione collettiva, come l'interdipendenza e il tipo di fun-
zione di produzione (Oliver et al., 1985), la dimensione dei gruppi (Oliver & Mar-
well, 1988) o le caratteristiche della rete di relazioni sociali (Marwell et al., 1988)?
Esiste una relazione tra le teorie dell'azione collettiva e quelle sugli effetti re-
te/network economics, che possa dar luogo ad una visione complessiva dei processi di
78
standardizzazione ?
In che termini è dunque possibile giungere ad una generalizzazione? Esiste un
modo di valutare i possibili elementi in comune e le eventuali differenze tra il proces-
so discusso nel caso MISMO e gli altri processi di standardizzazione, sia per gli stan-
dard di settore che più in generale?

78
A questo proposito gli autori della teoria della massa critica osservano: «Abbiamo affermato,
e ancora sosteniamo, che tutto si basa sulla funzione di produzione, vale a dire sul modo in cui
le contribuzioni si convertono in unità del bene collettivo. Ci sono, infatti, molti differenti 'tipi'
di funzioni di produzione con molte differenti proprietà, e la significatività delle contribuzioni
individuali in ciascuna di esse varia enormemente. L'intero problema dell'azione collettiva è un
subset del problema economico più generale delle esternalità di rete, in cui le azioni
individuali hanno effetto sulla collettività. Il nostro punto è che non ci sono proprietà generali
dell'azione collettiva. C'è prima bisogno di impostare alcuni parametri di particolari tipi di
azioni; poi sarà allora possibile esaminare gli effetti di altri fattori come la dimensione del
gruppo» (vedi (Oliver & Marwell, 2001:296), corsivo aggiunto).
86 Capitolo 3

A questi interrogativi verrà dedicato ulteriore spazio più oltre in questo capitolo.

Standardizzazione come ecologia


Il secondo contributo della Tabella 3.1 (Nickerson & Zur Muehlen, 2006) prende in
esame un complesso e articolato processo di standardizzazione sviluppatosi nell'arco
di oltre 12 anni e ancora in corso, volto alla definizione di un sistema di anticipatory
standards per collegare e gestire i processi di business via Web (Web services chore-
ography: (Peltz, 2003)). Questo sistema tende oggi a integrarsi nell'architettura dei
Web services, un altro sistema di anticipatory standards che verrà illustrata in mag-
79
giore dettaglio nel capitolo 5. . Lo studio di Nickerson e zur Muehlen, con una ricca
analisi empirica basata su fonti documentali, interviste e partecipazione diretta alle
80
riunioni dei comitati di standardizzazione , individua i soggetti e le istituzioni rile-
vanti, evidenziando nell'arco degli anni le principali vicende che hanno dato luogo al
quadro attuale. Gli autori prendono in esame oltre 20 diverse proposte tecniche che
sono state presentate e discusse nelle sette maggiori istituzioni di standardizzazione
volontaria Internet. Essi analizzano le dinamiche evolutive delle proposte di standar-
dizzazione prese in esame, dei cicli di vita dei gruppi di lavoro e degli spostamenti
degli individui attraverso i gruppi di lavoro in base ai principi generali che ispirano
l'ecologia delle popolazioni (Hannan & Freeman, 1989); osservano inoltre gli aspetti
sociali con una visione integrata di istituzionalismo e strutturazionismo (Barley &
Tolbert, 1997), rilevando infine gli aspetti economici in base ai principi della network
economics che verranno qui presi in esame più oltre. Nickerson e zur Muehlen mo-
strano dunque come i principi ispiratori e le idee chiave di teorie così diverse come
l'istituzionalismo, la teoria della strutturazione, l'ecologia delle popolazioni e la
network economics possano tutti contribuire a spiegare lo stesso fenomeno. Questo
approccio, se da un lato permette di illustrare gli accadimenti in modo estremamente
articolato e realistico, dall'altro però si limita necessariamente all'impiego dei soli
principi ispiratori delle varie teorie, senza poter usare nessuno dei quadri analitici di
dettaglio di ciascuna di esse per l'analisi empirica. Risulta quindi oltremodo difficile
giungere a conclusioni specifiche, rigorose e generalizzabili dall'osservazione, se non

79
All'inizio del periodo di osservazione degli autori, nel 1992, l'architettura e l'idea stessa di
Web services non esisteva ancora, ma era già forte la domanda per uno standard di gestione dei
flussi di lavoro (workflows). Per questo a partire dal 1993 nacque la Workflow Management
Coalition (WfMC), la prima istituzione di standardizzazione volontaria sul tema. Con
l'evoluzione tecnologica, molte altre coalizioni hanno poi proposto ulteriori specifiche
tecniche, che in parte si completano, in parte si sovrappongono e competono per affermarsi
sulle altre, con vario successo. Tutto ciò non ha ancora dato luogo ad un quadro finale
omogeneo e unitario. Per un'introduzione generale sulle caratteristiche di alcune di queste
specifiche tecniche vedi (Virdell, 2003). Per un'analisi approfondita del merito tecnico e delle
dinamiche negoziali tra due opposte scuole di pensiero in ambito workflow (soluzioni basate su
REST piuttosto che su SOAP), vedi (Zur Muehlen et al., 2005).
80
In particolare, Michael zur Muehlen, dello Stevens Institute of Technology, è un esperto
riconosciuto nel settore degli standard di workflow, con una grande esperienza diretta sui
processi di definizione di standard tecnici in quest'area. Tra l'altro è stato sia membro attivo che
group chair in note istituzioni di standardizzazione volontaria, come WfMC (Workflow
Management Coalition), BPMI (Business Process Management Iniziative) e OASIS
(Organization for the Advancement of Structured Information Standards).
Analisi della letteratura 87

per indicazioni congetturali e generiche come queste: «gli individui sono parte di un
campo interazionale, nel quale le loro azioni sono interdipendenti con quelle degli
altri individui»; «i gruppi di lavoro nei processi di standardizzazione Internet funzio-
nano come un'ecologia delle popolazioni»; «le norme di funzionamento delle orga-
nizzazioni di standardizzazione volontaria sono fonte di stabilità istituzionale nei pro-
cessi di standardizzazione» (Nickerson & Zur Muehlen, 2006:480-81). Tali indica-
zioni non rendono però ragione alla ricca e articolata serie di osservazioni e interpre-
tazioni che gli autori hanno offerto nell'analisi del caso. Alcune delle più importanti
tra esse vengono utilizzate nella discussione finale per rispondere alla domanda:
«Perché gli standard possono fallire? Quali tipi di standard hanno maggiori possibilità
di ottenere il consenso?» (Nickerson & Zur Muehlen, 2006:481). Gli autori osservano
che l'evidenza empirica disponibile nel loro caso di studio non permette di fornire ri-
sposte chiare. Tuttavia, è possibile restringere il set delle ipotesi accettabili.
Si possono intanto escludere sia l'idea che l'intero processo sia casuale, sia quella
opposta che si tratti di una pura negoziazione razionale a più parti. Un partecipante da
un lato non ha in mano tutti gli elementi per valutare razionalmente le possibilità di
successo di una proposta, dall'altro ha però a disposizione alcuni mezzi per influen-
zarne il corso: «ci sono qua e là alcuni spazi di negoziazione, ma solo alcuni. Dal
momento che non c'è un'autorità centrale con poteri coercitivi, le negoziazioni non
devono necessariamente completarsi. Come nelle ecologie naturali, i partecipanti a
cui non piace il modo in cui sta procedendo un accordo possono andar via e provare
nuovamente altrove» (Nickerson & Zur Muehlen, 2006:482).
Lo spazio negoziale e progettuale in cui nascono gli standard Internet si articola in
modo caotico in un tumulto di relazioni tra individui, gruppi di lavoro, organizzazioni
e alleanze che evolvono e si trasformano velocemente, dando luogo a proposte tecni-
che che nascono, si modificano, si fondono, si scindono, vengono abbandonate, gene-
rano nuove proposte ecc. Tutto ciò risulta caotico e forse inefficiente. Una delle ipo-
tesi degli autori è che forse il caos piace davvero agli standard makers di Internet: «il
caos attualmente osservabile nell'ambiente di standardizzazione Internet potrebbe es-
sere supportato e perpetuato dagli standard makers, che apprezzano la libertà ad esso
associata» (Nickerson & Zur Muehlen, 2006:482). Oltre ad apprezzare il caos, la co-
munità responsabile degli standard Internet, pur essendo influenzata in misura sempre
crescente dagli interessi commerciali delle imprese, mantiene un'anima per così dire
pura, che difende l'impostazione originale no-profit della Rete, ciò che gli autori
chiamano "lo spirito di Internet", riprendendo un'espressione in vivo, fortemente usata
81
dalla comunità nei documenti presi in esame dagli autori . Lo spirito di Internet è og-
gi istituzionalizzato in almeno due degli enti più autorevoli e influenti per la standar-
dizzazione Internet: IETF (Internet Engineering Task Force) e W3C (World Wide
Web Consortium). Entrambi questi enti sono animati da personaggi carismatici che

81
In uno degli episodi documentati dagli autori, dall'analisi di oltre 2000 messaggi della
comunità nel sistema di messaggeria pubblica del consorzio W3C, che discutevano la proposta
di concedere in futuro licenze d'uso non più esclusivamente gratuite sugli standard promulgati
dal consorzio W3C, 485 messaggi email usavano l'espressione "The spirit of the Web".
Nonostante l'evidente interesse commerciale delle imprese, la proposta è stata fortemente
osteggiata dalla comunità e infine ritirata (Nickerson & Zur Muehlen, 2006:477).
88 Capitolo 3

stati tra i pionieri di Internet, come Vinton Cerf e Robert Kahn (IETF), che hanno svi-
luppato i protocolli standard TCP/IP su cui si basa Internet, e Tim Berners Lee
(W3C), l'ideatore di HTML e HTTP, gli standard tecnici alla base del Web.
In accordo con lo spirito di Internet, la comunità nutre dei sospetti nei confronti
delle proposte di standard in cui l'interesse commerciale prevale sull'"estetica tecni-
ca": «Gli standard motivati da obiettivi di business sono immediatamente sospetti tra
coloro che condividono un'estetica tecnica» (Nickerson & Zur Muehlen, 2006:481).
Tra i valori tradizionali della comunità che difende lo spirito di Internet c'è infatti una
vera e propria estetica della soluzione semplice ed elegante, simile a quella dei mate-
matici. Di conseguenza, coloro che sono ispirati da questi valori «non approveranno
mai una proposta che non si è ancora consolidata in una chiara soluzione tecnica»
(Nickerson & Zur Muehlen, 2006:482).
In definitiva dunque, nell'ambiente caotico della standardizzazione Internet nessun
soggetto o organizzazione sembra essere attualmente nelle condizioni di poter impor-
re uno standard anticipatory o di condurre una negoziazione razionale con parti defi-
nite e una chiara configurazione delle preferenze e degli interessi in gioco. Si tratta
piuttosto di formare un'alleanza iniziale, individuare un'appropriata sede di negozia-
zione (o crearne una ad hoc) e fare una proposta, avviando un processo che potrà dar
luogo o meno al consenso generale e all'approvazione della comunità, necessario per-
ché lo standard possa poi avere successo. Fattori importanti in tutto questo sembrano
essere il merito tecnico della proposta, ivi compreso il suo valore di "estetica tecnica"
e l'aderenza all'ethos della Rete come iniziativa libera, aperta e non-profit. D'altro lato
anche gli interessi commerciali delle imprese, specie se largamente condivisi, posso-
no giocare un ruolo importante.
Il contributo di Nickerson e zur Muehlen può fornire elementi di riflessione e di
indagine utili per una teoria della standardizzazione: in che modo aspetti come il me-
rito tecnico dello standard interagiscono con aspetti come i valori e l'identità dei par-
tecipanti e dei gruppi di influenza? In che misura queste osservazioni e congetture
possono essere estese anche agli altri processi di standardizzazione? Il caso sembra
infatti suggerire qualche differenza sostanziale tra standard anticipatory e non: i primi
infatti richiedono uno sforzo di progettazione congiunto a quello negoziale, mentre
nella standardizzazione a posteriori la competizione tra proposte alternative appare
più simile ad una negoziazione pura e semplice. Inoltre, anche la distinzione tra stan-
dard verticali e orizzontali appare assumere particolare rilievo: nei primi gli interessi
commerciali tendono maggiormente a prevalere sul merito tecnico: di solito si tratta
infatti di stabilire dizionari, ontologie, pratiche condivise, piuttosto che di risolvere
problemi tecnici. Quindi va bene una soluzione qualunque ma condivisa (come nel
caso della guida a sinistra/destra). Al contrario il merito tecnico, la semplicità, l'ele-
ganza della soluzione possono contare molto negli standard orizzontali, come ad e-
sempio le specifiche tecniche delle infrastrutture IT (i protocolli di comunicazione
per il telefono, il fax, Internet, il Web, i Web services…).
L'ambiente caotico, ricco di interazioni e di commistioni anche casuali tra indivi-
dui, gruppi e culture spesso molto diverse, sembra essere particolarmente adatto a
stimolare l'innovazione e l'invenzione nello sviluppo di standard anticipatory, laddo-
ve l'elemento progettuale e il merito tecnico potrebbero prevalere sull'aspetto pura-
Analisi della letteratura 89

mente negoziale e sulle logiche identitarie e di potere: «nel discutere gli standard,
Tuomi (Tuomi, 2002:32) fa riferimento all'argomento di Mokyr (Mokyr, 1990) che
come ambiente per l'invenzione, il caos delle città stato europee del tardo medio evo
risultava preferibile all'ordine dell'impero cinese» (Nickerson & Zur Muehlen,
2006:482). In questo senso se ne possono trarre due utili indicazioni di ricerca per
una teoria della standardizzazione: in primo luogo, appare utile differenziare e carat-
terizzare gli aspetti progettuali e di innovazione da quelli negoziali, con la consape-
volezza che i primi sembrano avere peso soprattutto nella standardizzazione anticipa-
tory, mentre i secondi assumono particolare rilevanza negli standard verticali; in se-
condo luogo, i processi di innovazione, ove presenti, possono utilmente essere visti in
82
relazione alle caratteristiche di "caoticità" dell'ambiente di riferimento . Qualora en-
trambi gli aspetti siano presenti, come nel caso di standardizzazione verticale e anti-
cipatory per la progettazione dello smartdoc MISMO nel settore dei mutui ipotecari,
è possibile che si giunga a soluzioni di compromesso tra il merito tecnico e la compo-
sizione degli interessi in gioco, con l'effetto secondario che la soluzione di compro-
messo, per poter soddisfare gli interessi diversi di tutti gli attori in gioco, potrebbe
divenire tanto complessa da ostacolarne l'uso pratico e quindi la diffusione.

Standardizzazione come risultato di potere


In (Backouse et al., 2006) la teoria dei "Circuiti di Potere" (Clegg, 1989) viene im-
piegata per l'analisi del processo di creazione e diffusione degli standard britannici di
sicurezza dei sistemi informativi, BS7799. Secondo questo approccio, esistono diver-
si circuiti di potere che possono congiuntamente determinare per un attore l'esistenza
di "punti di passaggio obbligatori": circuiti episodici, determinati da azioni e cam-
biamenti contingenti; circuiti sistematici, determinati da tecniche di produzione e di-
sciplina; circuiti sociali, determinati da condivisione di significati e senso di apparte-
nenza. L'analisi della nascita dello standard BS7799 ha evidenziato il ruolo dei diver-
si circuiti di potere ai fini della efficace produzione e diffusione dello standard: l'av-
vio dell'iniziativa è stato innescato da episodi contingenti (la diffusione di un virus e
la pubblicazione di un rapporto sulla sicurezza) nell'ambito di un circuito di potere
episodico; la partecipazione attiva delle istituzioni governative ha conferito legittimi-
tà all'iniziativa, facilitando la collaborazione delle imprese interessate, che hanno
condiviso pratiche comuni nell'ambito di un circuito di potere sociale; il sistema or-
ganizzativo, le infrastrutture e le pratiche di standardizzazione sono state fornite dal-
l'ente britannico che ha patrocinato l'iniziativa, mettendo in atto un circuito di potere
sistematico. Questo studio mostra come la ricca tradizione degli studi organizzativi
sul potere possa essere utilmente impiegata per spiegare come nasce uno standard; gli
aspetti di potere costituiranno dunque uno dei temi di analisi che verranno presi in
considerazione più oltre.

82
Tuomi osserva che, in simili contesti, hanno rilievo non solo le innovazioni dovute alla
selezione naturale darwiniana, basati su mutazioni casuali, ma anche quelle generate da usi
nuovi e creativi di risorse preesistenti, che sono il frutto di ricombinazioni che implicano
spesso un cambiamento relazionale a livello di comunità di pratica o di network, reso oggi più
semplice dall'IT (Tuomi, 2002:32-33).
90 Capitolo 3

Standardizzazione come sistema socio-tecnico complesso


L'insorgere di effetti indesiderati e la gestione della complessità nei processi di pro-
gettazione negoziale è oggetto specifico di studio nell'ultimo contributo della Tabella
3.1 (Hanseth et al., 2006), che esamina i tentativi di creazione di un sistema uniforme
di gestione dei dati del paziente per il sistema ospedaliero scandinavo, interpretando-
lo alla luce dei contributi sociologici sulla riflessività e sui processi di modernizza-
zione. Gli autori illustrano come questo processo possa essere visto in senso ampio
come un processo di standardizzazione; come esso abbia le caratteristiche distintive
della complessità, nel senso di un numero elevato di componenti e relazioni diverse e
83
in rapido cambiamento ; come il processo, in circa 10 anni di storia, abbia mostrato
in varie occasioni effetti inaspettati e spesso opposti a quelli perseguiti. In particolare
quattro storie dettagliate illustrano come in varie occasioni un massiccio impiego di
risorse e competenze su vasta scala, pur adeguato alle conoscenze e alle best practices
correnti, non sia servito a conseguire gli obiettivi dell'ambizioso progetto di un siste-
ma globale di archiviazione elettronica "DocuLive", risolvendosi in un sostanziale
fallimento. L'idea chiave di Hanseth, Jacucci e colleghi è che "il fallimento di Docu-
Live, almeno come storia di standardizzazione, può essere visto come il fallimento
del tentativo di controllare la complessità". I tentativi di mettere ordine tendevano in-
fatti a risolversi nella generazione di ulteriore disordine e ulteriore complessità, si-
milmente alle dinamiche sociali riflessive della "seconda modernità" (Beck et al.,
2003). Secondo gli autori, quando un processo di standardizzazione assumere un li-
vello di complessità tale da presentare dinamiche riflessive, esso diviene sostanzial-
mente incontrollabile. Dunque, piuttosto che cercare di controllare il processo, biso-
gna eliminare la complessità: «noi assumiamo che i problemi identificati sono ineren-
ti ai sistemi complessi e che non possano essere risolti da metodologie meglio struttu-
rate o con nuovi strumenti per il controllo manageriale. Per affrontare questo tipo di
problemi, dobbiamo evitare di creare sistemi complessi» (Hanseth et al., 2006:577).
A questo fine gli autori propongono in conclusione una serie di possibili tattiche per
evitare la complessità e le sue dinamiche riflessive. In primo luogo è importante «re-
sistere alla tentazione di ottenere un ordine perfetto» (p. 577): la standardizzazione
dovrebbe evitare di coinvolgere i dettagli e gli aspetti peculiari delle pratiche di lavo-
ro, accettando dunque intenzionalmente un certo grado di disordine, particolarmente
in ambiti di lavoro ad elevata intensità di conoscenza come quello ospedaliero. In se-
condo luogo, piuttosto che un ordine assoluto e perfetto, è utile perseguire una molte-
plicità di ordini imperfetti e relativamente indipendenti, connessi tra loro solo debol-
84
mente, in un sistema loosely coupled . In terzo luogo, ed in conseguenza di quanto
già osservato, è dunque importante «evitare di incorporare pratiche di lavoro specifi-
che negli standard» (p. 577). Le pratiche di lavoro "locali" che vengono incorporate

83
Hanseth, Jacucci e colleghi hanno mutuato questa idea di complessità da precedenti studi di
sistemi informativi che hanno affrontato l'argomento (Schneberger & McLean, 2003). In
seguito Jacucci e Hanseth sono stati curatori insieme a Lyytinen di una special issue sulle
teorie della complessità in ambito sistemi informativi (Jacucci et al., 2006), a cui si rinvia il
lettore interessato ad ulteriori approfondimenti.
84
In proposito gli autori rinviano all'analisi in (Perrow, 1984); sui loosely coupled systems si
veda anche la nota 62.
Analisi della letteratura 91

nella tecnologia oggetto di standardizzazione tendono infatti a ingenerare complessità


ridondante, con un effetto simile a quello osservato da Markus e colleghi nello stan-
dard "MISMO smartdoc" discusso in precedenza. In quarto luogo, è opportuno ridur-
re quanto possibile il raggio di azione dell'iniziativa di standardizzazione, dividendola
se possibile in parti separate e indipendenti, cioè in sottosistemi più semplici con
connessioni deboli. La comunicazione tra i sottosistemi può avvenire anche attraverso
gateways, cioè attraverso mezzi di collegamento, traduzione e smistamento delle in-
formazioni (Hanseth, 2001), piuttosto che imponendo un unico linguaggio comune.
In quinto luogo, l'individuazione dei sottosistemi può avvenire attraverso strategie di
"black-boxing" e di modularizzazione: anche in sistemi globalmente complessi - e
dunque in continuo cambiamento - è infatti spesso possibile individuare sottosistemi
relativamente stabili e con raggio di azione più ridotto.

Standardizzazione come fenomeno di network economics


Mentre i quattro contributi presi in esame finora fanno riferimento a basi teoriche di-
verse, gli ultimi tre contributi rappresentano probabilmente un gruppo a sé stante, pre-
valentemente ispirato alla cosiddetta network economics. In particolare, tra essi, due
studi analizzano esplicitamente l'influenza del grado di "apertura" di uno standard
sulla sua diffusione (Chen & Forman, 2006); (Zhu et al., 2006); il terzo prende in e-
same molti altri aspetti, tra cui la topologia e la densità della rete di utenti, mostrando,
con simulazioni basate su modelli ad agenti artificiali, come esse possano avere un'in-
fluenza significativa sui processi di diffusione e quindi sul successo di mercato di uno
standard (Weitzel et al., 2006).

Nell'insieme, l'analisi del numero speciale di MIS Quarterly sulla standardizzazione


IT fornisce un insieme di risultati utili e indica una serie di strade percorribili per l'o-
rientamento teorico e metodologico di questa rassegna della letteratura su come nasce
uno standard. In particolare possiamo trarre tre considerazioni orientative.
Primo: formazione e diffusione sono fenomeni diversi ma in relazione tra loro. La
letteratura (più limitata) sulla fase di formazione va dunque integrata e messa in rela-
zione con quella (più vasta) sui processi di diffusione (Markus et al., 2006:444).
Secondo: esistono casi più semplici e casi più complessi, sia nelle dinamiche di
standardizzazione sul campo che nell'analisi teorica. I più semplici sono i casi di stan-
dardizzazione con attori relativamente omogenei, dimensioni e raggio di azione limi-
tato e soprattutto quelli in cui i "candidati" standard sono già noti ed esistenti e non
devono essere progettati ex novo. In questi casi i modelli economici, come quelli de-
gli ultimi tre contributi della Tabella 3.1, possono fornire utili spiegazioni. I primi
quattro contributi prendono invece in esame alcuni tra i casi più complessi: quelli che
richiedono l'inclusione di una molteplicità di attori diversi (standardizzazione vertica-
le: (Markus et al., 2006)) e quelli in cui lo standard deve essere progettato ex novo
(standardizzazione anticipatoria: (Nickerson & Zur Muehlen, 2006)). A volte, nella
creazione di alcuni standard comportamentali, è richiesta anche la progettazione anti-
cipatoria di alcuni aspetti tecnici (Backouse et al., 2006) o la definizione di un'infra-
struttura tecnica condivisa di settore (Hanseth et al., 2006). Nel definire gli elementi
92 Capitolo 3

di una teoria, è dunque auspicabile partire progressivamente dalle spiegazioni dei casi
più semplici per poi arricchire il quadro di analisi con riferimento ai fenomeni più
complessi.
Terzo: mentre sappiamo molto delle dinamiche di diffusione, sappiamo ancora
pochissimo dei processi di formazione degli standard: a questo proposito, gli stessi
contributi del numero speciale qui presi in esame, laddove non si limitino ad indicare
alcune possibili "generalizzazioni analitiche" su temi di osservazione suggeriti dalla
teoria preesistente (Backouse et al., 2006), possono spingersi a proporre "congetture"
(Nickerson & Zur Muehlen, 2006), "tentativi di risposte" (Hanseth et al., 2006), o te-
oria "emergente" prevalentemente basata sull'osservazione di "tattiche" (Markus et
al., 2006), ma restano ben lontani dalla comprensione accurata e completa del feno-
meno. E' dunque importante tenere in conto, dati i limiti di capacità e risorse di chi
scrive a fronte dell'ambizione dell'opera intrapresa ed anche a confronto degli autori
degli studi qui considerati, che il lavoro qui proposto non potrà che ambire ad essere
un piccolo passo in questa direzione.
Per capire dunque come nasce uno standard, specie nei casi più complessi, emer-
gono questioni che trovano spiegazioni non soltanto di natura economica, ma anche
di matrice sociologica, socio-tecnica, organizzativa e manageriale, tra cui abbiamo
individuato, nei contributi fin qui passati in rassegna, le teorie istituzionali ed ecolo-
giche, quelle sugli aspetti di potere, le teorie sulla complessità, le teorie sociali dell'a-
zione collettiva e della modernità. Prima di analizzarne alcune più da vicino, cerche-
remo di capire se in questa varietà teorica e metodologica è possibile individuare un
fattore comune utile ai nostri fini.

3.1.3 Basi teoriche comuni: analisi dei riferimenti bibliografici

Esiste una base teorica minimale e condivisa da tutti per lo studio della standardizza-
zione? Questo aspetto può essere innanzi tutto investigato a partire dall'esame dei ri-
ferimenti bibliografici dei sette contributi del numero speciale già presi in esame. La
Tabella 3.2 visualizza i riferimenti condivisi da almeno tre contributi del numero
speciale.
Analisi della letteratura 93

Tabella 3.2 I riferimenti condivisi da almeno tre contributi della specie issue.

RIFERIMENTI CONDIVISI NELLA SPECIAL ISSUE

AUTORE- TITOLO OUTLET CONDIVISO DA:


DATA (num d'ordine.
primo autore)
(Shapiro & Information Rules - A strate- Libro (no SSCI) 2. Nickerson
Varian, 1998) gic Guide to the Network E- 3. Backouse
conomy 4. Hanseth
5. Weitzel
6. Zhu
7. Chen
(David & The Economics of Compatibi- Economics of In- 1. Markus
Greenstein, lity Standards: An Introduc- novation and New 3. Backouse
1990) tion to Recent Research Technology (no 4. Hanseth
SSCI) 6. Zhu
(Besen & Far- Choosing How to Compete: Journal of Econo- 2. Nickerson
rell, 1994) Strategies and Tactics in mic Perspectives 3. Backouse
Standardization 5. Weitzel
7. Chen
(King et al., Institutional Factors in Infor- Information 1. Markus
1994) mation Technology Innova- Systems Research 2. Nickerson
tion 6. Zhu
(Katz & Sha- Systems Competition and Journal of Econo- 5. Weitzel
piro, 1994) Network Effects mic Perspectives 6. Zhu
7. Chen
(Katz & Sha- Network Externalities, Com- American Econo- 1. Markus
piro, 1985) petition, and Compatibilità mic Review 5. Weitzel
6. Zhu
(Farrell & Sa- Installed Base and Compatibi- American Econo- 3. Backouse
loner, 1986a) lity - Innovation, Product Pre- mic Review 5. Weitzel
announcements, and Preda- 6. Zhu
tion
(Farrell & Sa- Standardization, Compatibi- Rand Journal of 5. Weitzel
loner, 1985) lity, and Innovation Economics 6. Zhu
7. Chen

Il grado di sparsità dei riferimenti è piuttosto elevato: non esiste infatti nemmeno
un riferimento condiviso da tutti. L'unica citazione condivisa in sei contributi su sette
è il testo di Shapiro e Varian che è considerato in un certo senso il manifesto della
94 Capitolo 3

85
network economics: (Shapiro & Varian, 1999); (Shapiro & Varian, 1998) . La elevata
sparsità dei riferimenti teorici può essere interpretata sotto due diversi profili: da un
lato potrebbe indicare che i processi di standardizzazione presentano aspetti sensibil-
mente diversi, da esaminare quindi con diverse prospettive; dall'altro come gli studi
sugli standard siano ancora in uno stadio di relativa immaturità e non abbiano ancora
prodotto una base minimale di riferimento condivisa. Esistono però alcuni segnali che
questo processo è in atto: questa base potrebbe essere appunto la network economics.
La Figura 3.1 mostra come sia possibile individuare due contributi ((Weitzel et
al., 2006) e (Zhu et al., 2006)) che hanno ben 8 riferimenti in comune. Essi sembrano
formare un gruppo omogeneo insieme a (Chen & Forman, 2006), che condivide con
essi tre citazioni su 34, più una solo con (Weitzel et al., 2006).

Weitzel, Zhu, Kraemer,


Beimborn & König 8 Gurbaxani & Xu
(72 riferimenti) (74 riferimenti)
3

Chen &
Forman
(34 riferimenti)

Figura 3.1 Analisi delle citazioni nei paper della special issue di MIS Quarterly (Lyytinen &
King, 2006): il gruppo di articoli basati sulla network economics.

A parte (Emmelhainz, 1993), che è un manuale tecnico sugli standard EDI, tutti gli
86
altri riferimenti condivisi dai tre paper sono classici della network economics . In par-
ticolare, i tre riferimenti comuni a tutti e tre gli articoli sono il già menzionato testo

85
In effetti il noto libro di Shapiro e Varian (Shapiro & Varian, 1998) è citato direttamente solo
da cinque contributi. Nickerson e coautori invece del libro citano un paper di Shapiro e Varian
apparso subito dopo, che ne sintetizza le idee essenziali (Shapiro & Varian, 1999).
86
L'articolo condiviso solo da (Chen & Forman, 2006) e (Weitzel et al., 2006) è (Besen &
Farrell, 1994). I restanti 5 riferimenti comuni solo a (Weitzel et al., 2006) e (Zhu et al., 2006)
sono: (Farrell & Saloner, 1986a); (Katz & Shapiro, 1985); (Katz & Shapiro, 1986); (Arthur,
1989); (Emmelhainz, 1993).
Analisi della letteratura 95

(Shapiro & Varian, 1998), e due paper ben noti che verranno considerati più oltre:
(Katz & Shapiro, 1994) e (Farrell & Saloner, 1985).
Gli studi della network economics non soltanto rappresentano la base teorica pri-
maria degli ultimi tre contributi del numero speciale di MIS Quarterly qui presi in e-
same; essi sono anche un punto di confronto e di riferimento per gli altri contributi.
La Tabella 3.2 mostra infatti come quasi tutti i riferimenti condivisi da almeno tre
contributi siano della network economics, con la sola eccezione di (King et al.,
87
1994) .
La network economics è il filone a cui gli studi sulla standardizzazione fanno più
frequente riferimento, non soltanto nel numero speciale di MIS Quarterly qui preso in
esame, ma anche in generale. La Tabella 3.3 mostra infatti i primi sei articoli pubbli-
cati nelle scienze sociali in ordine di numero di citazioni per anno, a cui è stata asse-
88
gnata negli indici di citazione la parola chiave "standardization" . Ben cinque su sei
89
sono proprio articoli di network economics , e tra questi quattro sono gli stessi evi-

87
(King et al., 1994) è uno studio dei fattori istituzionali nell'innovazione tecnologica che viene
richiamato dai due autori che hanno adottato una prospettiva vicina ai temi istituzionali
(Markus e colleghi con la teoria dell'azione collettiva; Nickerson e zur Muehlen con il loro
approccio ecologico, economico e istituzionale), oltre che nel contributo di Zhu e colleghi, che
invece è interamente basato su network economics e menziona gli aspetti istituzionali tra le
possibili limitazioni della ricerca. Si noti che John Leslie King era uno dei guest editors della
special issue.
88
Per non escludere i contributi di sistemi informativi presenti nel Science Citation Index (SCI)
ma non nel Social Science Citation Index (SSCI) la ricerca è stata fatta includendo sia SCI che
SSCI e poi eliminando i contributi in ambito medico, chimico, ecc. attraverso la selezione delle
materie (SubjCat). Il periodo in esame è stato 1956-2007. La ricerca è stata effettuata il 9
giugno 2007. Il testo della query è il seguente:
"TS=(standardization); DocType=All document types; Language=All languages; Databases=SCI-
EXPANDED, SSCI; Timespan=1956-2007; SubjCat=engineering, electrical & electronic,
telecommunications, computer science, information systems, computer science, software
engineering, computer science, theory & methods, engineering, multidisciplinary, computer science,
hardware & architecture, information science & library science, computer science, interdisciplinary
applications, management, business, statistics & probability, multidisciplinary sciences, psychology,
educational, engineering, mechanical, economics, education & educational research, operations
research & management science, materials science, characterization & testing, communication,
computer science, artificial intelligence, mathematics, interdisciplinary applications, sociology,
psychology, applied, engineering, manufacturing, psychology, developmental, anthropology,
psychology, experimental, physics, multidisciplinary, construction & building technology, psychology,
social, behavioral sciences, law, social sciences, interdisciplinary, history & philosophy of science,
education, scientific disciplines, public administration, transportation science & technology, business,
finance, planning & development, materials science, textiles, social sciences, biomedical, computer
science, cybernetics, international relations, agricultural engineering, political science, engineering,
geological, social issues, industrial relations & labor, history, social work, area studies, history of social
sciences, urban studies, agricultural economics & policy, transportation, humanities, multidisciplinary
> subjcat=management, business, economics, operations research & management science,
sociology, psychology, social, behavioral sciences, social sciences, interdisciplinary, history &
philosophy of science, public administration, business, finance, social issues, history, social work,
history of social sciences".
Al risultato finale della ricerca sono stati manualmente aggiunti tre articoli frequentemente
citati che non erano stati selezionati dalla query per assenza di parole chiave nel record SSCI:
(Farrell & Saloner, 1986a); (Katz & Shapiro, 1985); (Katz & Shapiro, 1986).
89
L'articolo che si differenzia dagli altri cinque è (Ulrich, 1995), nel quale la standardizzazione
viente trattata dal punto di vista funzionale e progettuale piuttosto che esclusivamente
economico, analizzando le implicazioni e i benefici delle "architetture di prodotto" suddivise in
componenti standard. Si tratta di un tema di organizzazione industriale e di progettazione, che
96 Capitolo 3

denziati nella tabella precedente, cioè condivisi da tre o più contributi della special
issue.

Tabella 3.3 Articoli citati frequentemente con la parola chiave "standardization".

"STANDARDIZATION" - ARTICOLI PIU' CITATI in SSCI

AUTORE-DATA TITOLO JOURNAL CIT/ CIT


ANNO TOT
(Katz & Shapi- Network Externalities, Competi- American Eco- 26,87 618
ro, 1985) tion, and Compatibilità nomic Review
(Farrell & Sa- Standardization, Compatibility, Rand Journal of 16,30 375
loner, 1985) and Innovation Economics
(Katz & Shapi- Systems Competition and Journal of Eco- 15,29 214
ro, 1994) Network Effects nomic Perspecti-
ves
(Katz & Shapi- Technology Adoption in the Pre- Journal of Politi- 15,05 331
ro, 1986) sence of Network Externalities cal Economy
(Ulrich, 1995) The Role of Product Architecture Research Policy 14,15 184
in the Manufacturing Firm
(Farrell & Sa- Installed Base and Compatibility American Eco- 13,14 289
loner, 1986a) - Innovation, Product Prean- nomic Review
nouncements, and Predation

Esiste inoltre una notevole mole di lavori e working paper presenti on line ma non
pubblicati nella letteratura accademica tradizionale; in Google scholar risultano infat-
ti per (Katz & Shapiro, 1985) 1709 citazioni, quasi il triplo che in SSCI; tra queste,
90
quasi la metà (774) usano nel testo la parola "standardization" .
In che modo questi numerosi studi di matrice economica contribuiscono a spiega-
re come nasce uno standard? Qual è invece il contributo che possono fornire gli studi
basati su altre discipline? Le prossime sezioni saranno dedicate a questi interrogativi,

verrà discusso più oltre in questo capitolo, nella sezione 3.3.1 dedicata alle tecnologie
dominanti.
90
L'interrogazione si riferisce a giugno 2007. La ricerca in google scholar non avviene su un
indice di parole chiave ma sul contenuto dell'intero testo dei paper, quindi sono state necessarie
due query separate per comprendere anche l'accezione britannica "standardisation" oltre a
quella di "standardization". Il testo delle query è il seguente:
Query1:
http://scholar.google.com/scholar?q=standardization&num=100&hl=it&lr=&cites=17478
077157496016892&start=100&sa=N;
Query2:
http://scholar.google.com/scholar?q=standardisation&num=100&hl=it&lr=&cites=17478
077157496016892&start=100&sa=N
Analisi della letteratura 97

distinguendo tra teorie e modelli della network economics e contributi di diversa ma-
trice.

3.2 Il contributo di teorie e modelli economici


Essendo, come abbiamo visto, numerosissime le fonti di matrice economica legate al
tema della standardizzazione, l'obiettivo di questa in questa parte del capitolo è indi-
viduare i temi più importanti, che come vedremo vengono oggi spesso complessiva-
mente indicati con la denominazione di network economics. Per questo verranno in-
nanzi tutto presentati i classici di Tabella 3.2 e Tabella 3.3, che comprendono oltre
al libro di Shapiro e Varian, la rassegna della letteratura di Paul David e alcuni degli
articoli più influenti degli ultimi venticinque anni. Si passerà poi ad una discussione
dei temi fondamentali della network economics, come le esternalità di rete, i rendi-
menti crescenti e i costi di switching, per poi dedicare una discussione approfondita
alla controversia sulla natura, l'intensità e la rilevanza del fenomeno della cosiddetta
dipendenza dal percorso.

3.2.1 Le origini e i contributi seminali della network economics

Nella prefazione a (Rohlfs, 2001), Hal Varian scrive:

Ho incontrato per le prima volta Jeff Rohlfs nel 1973, quando visitai i Bell Labs. Durante la
visita mi parlò di network externalities (esternalità di rete). Questo era un termine nuovo per
me – e per chiunque, suppongo, dato che Jeff lo aveva appena inventato. Mi raccontò come
la AT&T aveva speso milioni di dollari nel Picturephone, e mi spiegò come aveva fatto
flop. Mi mostrò il suo modello di network effects (effetti rete) e ricordo di essere rimasto
impressionato dalla sua eleganza. Non potevo certo immaginare quanto potente e importante
sarebbe divenuta questa idea! (Rohlfs, 2001:xiii).

Il Picturephone era un prototipo anni '70 di videotelefono che non riuscì mai a decol-
91
lare, nonostante gli ingenti investimenti di AT&T . Rohlfs era convinto che una delle
cause principali del fallimento del progetto fosse la mancanza di un numero sufficien-
te di utenti iniziali che rendesse abbastanza attraente la videocomunicazione. In ter-
mini economici, Rohlfs stesso espresse così questa idea:

L'utilità che un abbonato deriva da un servizio di comunicazione si accresce quando altri


abbonati si uniscono al sistema. Questo è un caso classico di economie esterne nel consumo
ed ha un'importanza fondamentale per l'analisi economica del settore delle telecomunica-
zioni (da (Rohlfs, 1974:16), corsivo aggiunto).

Secondo l'intuizione di Rohlfs, l'inclusione di utenti aggiuntivi in un "sistema" (di te-


lefoni, di fax…) apporta benefici a tutti gli altri, aumentando il valore del bene o del
servizio collegati. Questo fattore assume rilievo economico primario del settore delle
telecomunicazioni, specie nelle fasi di avvio di un nuovo sistema come il Picturepho-

91
La storia completa del progetto Picturephone è raccontata nel capitolo 8 di (Rohlfs, 2001).
98 Capitolo 3

ne, quando non esiste ancora una massa critica di utenti sufficiente a giustificarne l'u-
so. Nel mondo degli anni '70, i mercati concorrenziali di beni e servizi di questo tipo
non erano però ancora così diffusi, per cui le implicazioni economiche di queste "e-
conomie esterne" erano ancora poco visibili. Passarono dunque oltre dieci anni prima
che questo concetto fosse portato all'attenzione di tutti.

Il classico di Katz e Shapiro (1985): La "rete" dei consumatori


Negli anni 80, con lo sviluppo tumultuoso e fortemente concorrenziale del mercato
dei personal computer, si verificarono i presupposti per una generalizzazione dell'idea
di Rohlfs anche al di fuori dell'ambito delle telecomunicazioni. I primi proporla, in un
articolo che diventerà rapidamente un classico della network economics, sono due e-
conomisti di Princeton, Michael Katz e Carl Shapiro, che in (Katz & Shapiro, 1985)
scrivono:

Ci sono molti prodotti per i quali l'utilità che un utente deriva dal consumo del bene si ac-
cresce con il numero degli altri consumatori dello stesso. Ci sono diverse possibili fonti di
queste esternalità positive di consumo.
1) Le esternalità di consumo possono ingenerarsi attraverso un effetto fisico diretto del nu-
mero di acquirenti sulla qualità del prodotto. L'utilità che il consumatore deriva dall'ac-
quisto di un telefono, ad esempio, dipende chiaramente dal numero di altre famiglie o
imprese che sono allacciate alla rete telefonica. Queste esternalità di rete sono presenti
anche per altre tecnologie di comunicazione, tra le quali il telex, le reti di comunicazione
dati e i fax.
2) Potrebbero esserci anche effetti indiretti che danno luogo alle esternalità di consumo. Per
esempio, un agente che acquista un personal computer sarà interessato al numero di altri
agenti che acquistano hardware similare, perché l'ammontare e la varietà del software
che verrà fornito per l'uso sarò una funzione crescente del numero di unità hardware che
sono state vendute. Questo paradigma hardware-software si applica anche ai video ga-
mes, ai video riproduttori e registratori, ai riproduttori audio.
3) Esternalità positive di consumo insorgono per un bene durevole quando la qualità e la di-
sponibilità di assistenza post-vendita per il bene dipende dall'esperienza e dalla dimen-
sione della rete di servizio, che a sua volta varia con il numero di unità del bene che so-
no state vendute. Nel mercato delle automobili, per esempio, le vendite di auto straniere
erano inizialmente frenate dalla consapevolezza dei consumatori che le reti di servizio
per i marchi nuovi o meno diffusi erano meno estese e con minore esperienza.
In tutti questi casi, l'utilità che un dato utente deriva dal bene dipende dal numero di altri u-
tenti che sono nella sua stessa "rete". Il raggio di azione della rete che dà luogo alle esterna-
lità di consumo varia attraverso i mercati. In alcuni casi, come nell'esempio dell'automobile,
le vendite di una sola impresa costituiscono la rete rilevante. In altri casi, le reti rilevanti
comprenderanno l'output di tutte le imprese che producono il bene. Per esempio, il numero
di fonografi stereo di una determinata marca non è una determinante dell'offerta di dischi
che un consumatore può ascoltare con il suo stereo. In altri mercati, la rete potrebbe invece
comprendere i prodotti di una coalizione di imprese che è un sottoinsieme dell'intero merca-
to, come nel caso dei computer, dove alcuni gruppi di produttori adottano un sistema opera-
tivo comune (Katz & Shapiro, 1985:424).

L'idea di Katz e Shapiro di analizzare esplicitamente la "rete" di consumatori di un


bene permette di generalizzare il concetto dei benefici dovuti alla possibilità di co-
municazione diretta, tipico dei sistemi di telecomunicazioni, applicandoli ad ulteriori
sistemi e mercati di grande rilievo economico. Nel caso dei computer, infatti, i bene-
fici per un consumatore di un software sono connessi all'aumentare del numero di u-
tenti di un computer compatibile.
Analisi della letteratura 99

In tutti i casi, la dimensione della "rete" è determinata dal numero di utenti che u-
sano sistemi tecnicamente compatibili, che siano cioè in grado di operare in modo in-
tercambiabile. La presenza o l'assenza di standard di compatibilità tecnica può dun-
que fortemente influenzare le dimensioni potenziali delle reti di utenti.
Nello stesso tempo, però, la decisione da parte dei produttori di istituire e di in-
corporare nei propri prodotti degli standard di compatibilità tecnica è a sua volta in-
fluenzata dagli utenti.
Idealmente, le scelte congiunte dei produttori e degli utenti che rispettivamente i-
stituiscono e usano una o più tecnologie standard per un determinato scopo (es. diver-
se configurazioni di tastiera per computer) possono portare il sistema economico
complessivo a punti di equilibrio più o meno socialmente ottimali. Essi saranno infat-
ti ottimali in senso paretiano solo se non esisterà alcuna diversa configurazione di
scelte che possa migliorare la somma delle utilità complessive di tutti gli attori.
L'economia classica mostra come in condizioni di concorrenza perfetta il mercato
tenda a convergere verso punti di equilibrio pareto-efficienti di produzione e consu-
mo: in altre parole, i meccanismi dei prezzi di mercato dovrebbero assicurare che in
equilibrio, tra tutto ciò che la tecnologia rende potenzialmente fattibile, verranno ef-
fettivamente prodotti e consumati i beni che massimizzano l'utilità complessiva di tut-
ti gli attori (produttori e consumatori).
Che cosa avviene in presenza di reti di consumo? In linea di principio, la compa-
tibilità tecnica potrebbe essere vista come un attributo sempre desiderabile, dato che
aumenta le dimensioni potenziali delle reti di utenti e i relativi benefici. Qual è il li-
vello ottimale di compatibilità e dunque di standardizzazione per il sistema? Il merca-
to è in grado di raggiungerlo?
L'analisi seminale di Katz e Shapiro è stata sinteticamente illustrata come segue:
92
Katz e Shapiro (1983) propongono un modello di oligopolio nel quale i consumatori danno
un più elevato valore ad un prodotto quando è "compatibile" con altri prodotti in loro pos-
sesso. Essi chiamano questo effetto "esternalità di rete" (network externalities). In questo
quadro di analisi essi discutono gli incentivi sociali e privati delle imprese a produrre pro-
dotti compatibili o a passare da prodotti incompatibili a prodotti compatibili. Essi trovano,
ad esempio, che un'impresa dominante potrebbe scegliere di rimanere incompatibile con una
rivale per evitare di incorrere nella sostanziale riduzione della sua quota di mercato che si
verificherebbe se divenisse compatibile, dato che questo aumenterebbe il valore per i con-
sumatori dei prodotti del rivale (Farrell & Saloner, 1985:71).

Quattro sono i passaggi essenziali:


1. introduzione del concetto di "rete" di consumo;
2. analisi esplicita dei benefici per i consumatori connessi all'aumentare del
numero di nodi della rete ("esternalità di rete");

92
Farrell e Saloner citano qui una versione preliminare working paper di (Katz & Shapiro,
1985), contribuendo a rendere noto quel lavoro prima ancora che sia pubblicato ufficialmente.
Nei primi anni '80 il gruppo MIT e quello di Princeton avevano avuto contatti diretti e
discussioni sul tema delle esternalità di rete attraverso workshop e iniziative congiunte.
100 Capitolo 3

3. riconoscimento del ruolo abilitante degli standard di compatibilità tecnica


(prodotti tecnicamente compatibili formano un'unica rete di consumatori,
93
con dimensioni – e connessi benefici – maggiori delle singole sottoreti) ;
4. studio dei fattori (aspettative, reputazione) e degli incentivi sociali (ge-
stione delle royalties e di simili diritti) perché i produttori propongano sul
mercato prodotti compatibili con quelli di altri produttori.
Katz e Shapiro considerano dunque (implicitamente ed in prima approssimazione) la
compatibilità tecnica come un obiettivo desiderabile, che non sempre sembra essere
raggiunto spontaneamente dal mercato, lasciando spazio ad eventuali interventi di po-
litica economica atti a favorirla.
Seguirà una lunga serie di ulteriori indagini sulle implicazioni economiche delle
reti di consumo. Il tema dominante di questo tipo di studi è l'influenza dei benefici
"esterni" per ciascun consumatore legati all'accrescimento delle dimensioni reti di
consumo (esternalità) sulle condizioni di equilibrio economico classico, con partico-
lare attenzione ai casi in cui possano insorgere equilibri multipli e inefficienze, ed al-
le eventuali possibili forme di intervento pubblico.

Il primo contributo di Farrell e Saloner (1985): Inerzia e ritardi nelle innovazioni


Nello stesso anno 1985 in cui a Princeton Katz e Shapiro ponevano le basi per lo stu-
dio degli effetti economici delle reti di consumo, al MIT due giovani economisti, Jo-
seph Farrell e Garth Saloner, aprivano un dibattito che si rivelerà particolarmente ac-
94
ceso e partecipato: quello sui costi sociali associati alle reti di consumo .

Accanto ai rilevanti benefici sociali della standardizzazione già sottolineati sopra [da Katz e
Shapiro], potrebbero esservi anche importanti costi sociali. Oltre alla riduzione di varietà,
che è indesiderabile quando compratori diversi preferiscono prodotti diversi, c'è un altro
possibile costo, meno considerato nel mercato, che è il soggetto di questo articolo. E' infatti
intuitivamente plausibile che i produttori, dopo essersi legati tra loro a filo doppio per av-
vantaggiarsi dei benefici della compatibilità o della standardizzazione, saranno estremamen-
te riluttanti a spostarsi verso uno standard nuovo e migliore, con i relativi problemi di coor-
dinamento. Per esempio, (Hemenway, 1975) riporta che il National Bureau of Standards si
rifiutò di definire standard di interfaccia per il settore dei computer perché temeva che que-
sto avrebbe ritardato l'innovazione tecnologica. Inoltre, molti ritengono che lo standard del-
le tastiere "QWERTY" sia inferiore a potenziali alternative come lo Dvorak, anche tenendo
in conto i costi aggiuntivi di riqualificazione professionale degli operatori: la ragione per la
sua persistenza starebbe dunque unicamente nell'imprescindibile beneficio della compatibi-
lità. In questo articolo studiamo l'eventualità che questo "eccesso di inerzia" (excess inertia)

93
Katz e Shapiro identificano due modalità per ottenere la compatibilità tecnica: 1) l'adozione
congiunta di uno standard; 2) la costruzione di un adattatore (adapter), con cui "una singola
impresa può agire unilateralmente per rendere il proprio prodotto compatibile con quello di
un'altra impresa o di un gruppo di imprese" (Katz & Shapiro, 1985:434). Gli adattatori o
gateways sono discussi anche in (Hanseth et al., 1996).
94
L'analisi economica di Farrell e Saloner sui possibili ritardi all'innovazione legati alla
standardizzazione è fortemente legata all'influenza delle idee che cominciavano a circolare a
Stanford in quel periodo sulla influenza di eventi passati (anche apparentemente insignificanti)
sull'evoluzione dei sistemi economici (dipendenza dal percorso, rendimenti crescenti). In
particolare, Farrell e Saloner citano esplicitamente i primi contributi di uno studioso austriaco
di fisica dei sistemi in visita a Stanford (Brian Arthur: (Arthur, 1983)) e di uno storico
dell'economia di Stanford (Paul David: (David, 1985)). Questi temi vengono affrontati con
maggiore dettaglio più oltre in questo capitolo.
Analisi della letteratura 101

possa impedire il passaggio collettivo da una tecnologia standard comune ad un nuovo stan-
dard o tecnologia eventualmente superiore. (Farrell & Saloner, 1985:71).

(Farrell & Saloner, 1985) è il secondo dei contributi più citati in Tabella 3.3. Il prin-
cipale costo sociale delle grandi reti di consumo investigato da Farrell e Saloner viene
chiamato "eccesso di inerzia": una volta adottata una tecnologia standard, come la ta-
stiera QWERTY, il costo collettivo di porre in uso uno standard alternativo comune a
tutti risulta tanto più elevato quanto maggiore è la dimensione della rete degli utenti,
e forse persino superiore alla somma dei singoli costi individuali. Per reti abbastanza
grandi, questo costo potrebbe rappresentare una forza di inerzia "in eccesso" che o-
stacolerebbe l'innovazione, ponendo le nuove tecnologie e i nuovi standard, even-
tualmente superiori ma non compatibili, in posizione di sostanziale svantaggio rispet-
to a quelli eventualmente inferiori ma compatibili con i preesistenti. Di conseguenza,
condizionato dall'eccesso di inerzia, il mercato potrebbe selezionare standard, tecno-
logie e dunque prodotti socialmente non ottimali rispetto ad alternative potenzialmen-
te preferibili.

L'analisi economica introdotta in (Farrell & Saloner, 1985) dei costi sociali delle
grandi reti, dovuti ai possibili eccessi di inerzia che ostacolerebbero le innovazioni,
rappresenta dunque il contraltare di quella introdotta in (Katz & Shapiro, 1985) dei
benefici sociali delle grandi reti e delle eventuali forme di incentivazione. Nell'analisi
di entrambe le facce della medaglia, gli economisti sono soprattutto interessati a indi-
viduare i fattori e le situazioni che porterebbero i mercati a forme non socialmente
ottimali di equilibrio e ai correttivi eventuali di politica pubblica.
Centinaia di articoli sono stati pubblicati dal 1985 a oggi nell'ambito di questo di-
battito, tanto da rendere problematico l'orientamento del lettore (specie se non eco-
nomista) e la sintesi di conclusioni corrette, complete e utili all'analisi organizzativa
di come nasce uno standard. Non potendo né desiderando compiere in questa sede
una rassegna esaustiva, si potranno qui tratteggiare i seguenti aspetti:
9 illustrazione dei contributi della network economics più frequentemente
citati elencati in Tabella 3.3;
9 discussione sintetica di alcuni grandi temi della network economics che
appaiono avere particolare rilievo per l'analisi organizzativa della stan-
dardizzazione (network effects/externalities; increasing returns and posi-
tive feed-back; path dependence; switching costs and lock-in);
9 panoramica di alcune delle più significative e autorevoli rassegne della
letteratura in tema di network economics.

3.2.2 Gli altri classici della network economics

La maggior parte dei riferimenti della network economics condivisi dagli autori del
numero speciale di MIS Quarterly sulla standardizzazione, elencati in Tabella 3.2,
102 Capitolo 3

appaiono anche tra i più citati in assoluto, registrati negli indici di citazione con paro-
la chiave "standardization", riportati in Tabella 3.3 (vedi nota 88). Tra i primi, come
abbiamo accennato, cinque su sei sono di matrice economica (vedi nota 89). Si è già
detto dell'importanza fondativa dei lavori del 1985, che occupano i primi due posti in
tabella: in (Katz & Shapiro, 1985) si individuano le diverse tipologie di reti di con-
sumo e i benefici − diretti e indiretti − per i consumatori legati all'aumento delle di-
mensioni della rete. In termini economici, come aveva già evidenziato Rohlfs nel
1974, si può parlare di particolari "esternalità positive di consumo" legate all'aumento
delle dimensioni della rete di consumo, che Katz e Shapiro chiamano, per la prima
volta, "esternalità di rete". A questi benefici, come abbiamo visto, fanno da contralta-
re possibili costi sociali, presi in esame per la prima volta nel secondo contributo del-
la tabella, (Farrell & Saloner, 1985). Farrell e Saloner evidenziano con un modello
economico formale i possibili problemi di ritardo nella diffusione delle innovazioni
legati alle dimensioni della rete di consumatori, che essi chiamano "eccesso di iner-
zia".
Già nel 1986 i modelli dell'anno precedente vengono estesi e sostanzialmente per-
95
fezionati dagli autori con ulteriori contributi che sono rapidamente divenuti dei clas-
sici: (Katz & Shapiro, 1986) e (Farrell & Saloner, 1986a) occupano infatti rispettiva-
mente il quarto e il sesto posto di Tabella 3.3. Ad essi si affianca nel 1994 (Katz &
Shapiro, 1994), che diviene rapidamente molto noto, tanto da occupare oggi il terzo
posto di Tabella 3.3.

Katz e Shapiro (1986): Ruolo degli sponsor


In (Katz & Shapiro, 1986) un quadro di analisi economica intertemporale a due fasi,
con due tecnologie alternative sottoposte a esternalità di rete, viene impiegato per da-
re una risposta alla domanda fondamentale già sollevata in precedenza: il mercato è
in grado di assicurare il grado ottimale di compatibilità (standardizzazione)? La ri-
sposta è no: il loro modello mostra come in una fase iniziale, perché si formi una rete
abbastanza grande di utenti, sarebbe infatti necessario abbassare i prezzi di una delle
due tecnologie concorrenti al di sotto dei costi marginali. Tale pratica sarebbe possi-
bile solo considerando i "predatory prices" come un investimento da ammortizzare in
futuro, nella fase di maggiore diffusione in cui la dimensione della rete potrebbe ga-
rantire benefici più elevati per gli utenti. Perché ciò sia possibile, mostrano Katz e
Shapiro, è però necessario garantire in qualche modo le rendite future attraverso mec-
canismi come cartelli tra produttori, accordi di licenza e royalties. Un produttore che

95
Si omette qui la descrizione dei modelli economici formali, che, pur costituendo la sostanza
dei contributi in esame, non sembra qui avere particolare rilievo dal punto di vista
organizzativo. In generale, una delle estensioni di maggiore rilievo rispetto ai primi modelli
statici del 1985 è costituita dalla introduzione di semplici analisi dinamiche attraverso modelli
intertemporali a due fasi (Katz & Shapiro, 1986) o modelli con utenti infinitesimali a flusso
continuo nel tempo (Farrell & Saloner, 1986a). Questo ha permesso agli autori di impostare lo
studio delle azioni e reazioni degli attori nel tempo. La sofisticazione dei modelli della network
economics andrà aumentando nel corso degli anni, fino ai più recenti studi di simulazione
computazionale basata su agenti (ACE: Agent-based Computational Economics) come ad
esempio il già menzionato (Weitzel et al., 2006).
Analisi della letteratura 103

96
detiene i diritti di proprietà su una tecnologia (cioè uno "sponsor" ) può infatti spin-
gere a tal punto la diffusione della tecnologia stessa attraverso prezzi aggressivi da
costringere gli altri concorrenti ad impiegarla in forma di standard de facto proprieta-
97
rio , recuperando in seguito l'investimento iniziale attraverso royalties o vantaggi di-
versi.
La presenza di "sponsor" non è però da sola sufficiente a garantire un livello otti-
male di standardizzazione: secondo il modello di Katz e Shapiro, quando tra due tec-
nologie concorrenti una sola è sponsorizzata, questa tende a divenire lo standard an-
che quando non è quella socialmente ottimale; quando inoltre entrambe le tecnologie
sono sponsorizzate, può ottenersi una forma di "second-mover advantage" che tende a
favorire eccessivamente le innovazioni. Ciò appare sorprendente se confrontato con
le preoccupazioni sollevate l'anno precedente da Farrell e Saloner sui possibili ostaco-
li alla diffusione delle innovazioni in presenza di esternalità di rete. Gli stessi Farrell
e Saloner propongono risultati simili nell'articolo analizzato qui di seguito, avanzan-
do delle nuove spiegazioni.

Farrell e Saloner (1986): Effetti contrastanti sull'innovazione


In effetti, in (Farrell & Saloner, 1986a), tenendo in considerazione gli effetti dinamici
98
"puri" delle esternalità di rete in assenza di sponsorizzazione con un modello di dif-
fusione di due tecnologie alternative, si mostra che l'avvento di una nuova tecnologia
può a volte determinare un particolare tipo di effetto, chiamato stranding o orpha-
ning, cioè "di abbandono", che ha due componenti:

Primo, l'adozione di una nuova tecnologia influenza gli utenti della vecchia tecnologia. La
loro rete cessa di crescere, a potrebbe persino ridursi nella misura in cui alcuni degli utenti
abbandonano la vecchia per la nuova. Per esempio, quando furono introdotte [le pellicole
cinematografiche amatoriali in formato] Super 8, gli acquirenti del precedente formato
Standard 8 sperimentarono crescenti difficoltà nel reperimento delle pellicole, mentre i tem-
pi per lo sviluppo tendevano ad aumentare. Pertanto essi sperimentarono una perdita a se-
guito dell'introduzione del Super 8 […]. Secondo, nelle fasi iniziali ogni nuovo utente della
nuova tecnologia aumenta la sua attrattiva e riduce l'attrattiva della tecnologie precedente
(Farrell & Saloner, 1986a:941).

Gli effetti di abbandono sono particolarmente evidenti quando si pensa che non tutti
gli utenti della nuova tecnologia sono anche utenti della vecchia. Per i nuovi utenti
non ci sono dunque gli stessi costi di passaggio (switching costs: vedi oltre) che per i
vecchi: ad esempio nella fase di coesistenza dei dischi in vinile e dei compact disk,
coloro che compravano un disco per la prima volta, acquistando anche il relativo let-
tore, erano più propensi ad acquistare i nuovi dischi ottici in formato CD dei vecchi

96
La terminologia sulla "sponsorship" è stata introdotta per la prima volta in (Arthur, 1983).
97
Sugli standard proprietari, vedi il capitolo 1, sezione 1.2.3 al paragrafo "La proprietà e
l’apertura".
98
Cioè in assenza di prezzi e senza tenere conti dei meccanismi di gestione dei diritti di
proprietà. Gli autori osservano infatti che quando i prezzi sono determinati dalla concorrenza in
assenza di barriere all'ingresso e di meccanismi di gestione dei diritti di proprietà (cioè quando
le tecnologie standard concorrenti non sono sponsorizzate), i prezzi possono essere trascurati
nell'analisi, che può vertere esclusivamente sugli effetti delle esternalità di rete.
104 Capitolo 3

dischi in vinile, rispetto a coloro che possedevano già una raccolta di dischi in vinile.
Nel tempo, l'avvento di nuovi acquirenti in proporzione sempre maggiore può ulte-
riormente accentuare la tendenza allo stranding.
Dall'altra parte, il modello di Farrell e Saloner tiene conto di un ulteriore aspetto
che agisce in senso opposto: l'"effetto pinguino" (penguin effect: (Farrell & Saloner,
1986a:943)). Si tratta del comportamento dei potenziali utenti che aspettano ad adot-
tare una nuova tecnologia fino a quando essa non sia abbastanza diffusa e consolida-
ta, nel timore di una scelta prematuramente sbagliata. Questo atteggiamento di attesa
nell'adozione fino a che non abbiano adottato gli altri corrisponde a quello dei pin-
guini che inizialmente esitano a tuffarsi per primi in mare in cerca di cibo, per paura
che vi siano dei predatori; una volta che i primi si sono tuffati incolumi, tendono poi
invece a tuffarsi tutti insieme.
Se dunque gli stranding effects tendono a privilegiare l'adozione di una nuova tec-
nologia sulla vecchia, i penguin effects agiscono in senso opposto: essi introducono
ritardi nell'adozione delle nuove tecnologie che tendono a favorire quelle preesistenti.
L'analisi formale condotta da Farrell e Saloner mostra che in presenza di esternali-
tà di rete con stranding effects e penguin effects, il gioco delle aspettative e delle scel-
te degli utenti può portare il mercato a situazioni di equilibrio efficiente (in cui cioè la
diffusione raggiunta dalla due tecnologie standard concorrenti a seguito della massi-
mizzazione delle utilità individuali porta anche a massimizzare l'utilità complessiva
ed è dunque socialmente ottimale). D'altra parte, però, sono anche possibili equilibri
multipli o situazioni di equilibrio inefficiente, in cui dunque le tecnologie standard
che prevalgono non risultano socialmente ottimali. Anche se le assunzioni e le sem-
plificazioni di questa analisi economica suggeriscono estrema cautela, essa comunque
mostra che quando una tecnologia preesistente è in competizione con una nuova, le
esternalità di rete, gli stranding effects e i penguin effects non sempre portano il mer-
cato a risultati socialmente ottimali; si possono infatti determinare sia ritardi (excess
inertia) che accelerazioni eccessive (excess momentum) nell'eventuale passaggio alla
nuova tecnologia. Ulteriori fattori che possono creare distorsioni in questo processo,
presi esplicitamente in esame dagli autori, sono i preannunci di nuovi prodotti e le po-
litiche strategiche di prezzo (predatory prices) considerate in (Katz & Shapiro, 1986)
(vedi sezione precedente).

Ancora Katz e Shapiro (1994): Effetti rete indiretti, strategie e compatibilità


A quasi dieci anni di distanza dal loro primo lavoro sul tema, nel 1994 Katz e Shapiro
pubblicano in uno dei "symposia" del Journal of Economic Perspectives un noto la-
voro in cui fanno un po' il punto della situazione (Katz & Shapiro, 1994). Il quadro di
99
analisi delle esternalità di rete (effetti rete ) è si è ormai arricchito di numerosi temi di

99
I termini "esternalità di rete" ed "effetti rete" vengono spesso usato in modo intercambiabile.
L'accezione "esternalità di rete" è tradizionalmente più diffusa e, come abbiamo visto, è stata
usata per prima. Liebowitz e Margolis osservano però come gli effetti rete costituiscano
effettivamente delle esternalità in senso economico solo quando esse non possono essere
"internalizzate", cioè quando i benefici che un membro di una rete produce all'esterno (verso
gli altri componenti della rete) non possano essere riappropriati da chi li ha prodotti attraverso
transazioni di mercato. (Liebowitz & Margolis, 1994). Un esempio classico di
internalizzazione è quello di coloro che detengono diritti di proprietà su determinate reti (es. le
Analisi della letteratura 105

indagine, tutti accomunati dalla domanda di fondo centrale della network economics:
in presenza di diversi standard tecnologici in competizione soggetti a esternalità di
rete, il mercato è in grado di raggiungere condizioni di equilibrio socialmente ottimali
o si rende invece necessario un intervento pubblico? Gli autori affrontano la questio-
ne nei seguenti termini essenziali.
In primo luogo, essi consolidano la distinzione originaria tra effetti rete diretti e
indiretti, puntando l'attenzione su questi ultimi. Sono effetti rete diretti i benefici che
gli utenti percepiscono al crescere delle dimensioni della rete, come quelli ad esempio
delle reti di comunicazione (telefono, fax). Sono invece indiretti i benefici tipici ad
esempio dei personal computer o degli impianti di riproduzione musicale. In questi
casi la crescita del numero di utenti che hanno acquistato un certo tipo di apparecchio
hardware (PC, lettore di CD) influenza la crescita in dimensioni e varietà del mercato
dei contenuti software (programmi, dischi). L'interesse degli autori è ora prevalente-
mente orientato sui benefici di rete indiretti nei mercati dei sistemi
hardware/software.
In secondo luogo, una volta individuato il mercato dei sistemi come quello di inte-
resse, gli autori discutono le implicazioni degli effetti rete indiretti sia per le scelte dei
produttori che per quelle dei consumatori, in uno scenario di competizione tra sistemi.
Gli effetti rete portano al prevalere di una tecnologia unica sulle altre o alla riparti-
zione del mercato tra tecnologie concorrenti? L'innovazione, (cioè in questa sede l'in-
troduzione sul mercato di un sistema nuovo in concorrenza con quelli preesistenti)
viene ritardata o accelerata in presenza di effetti rete?
In terzo luogo, gli autori estendono l'analisi alle scelte di compatibilità da parte dei
produttori: in quali casi il mercato si orienterà verso sistemi tra loro compatibili e per-
ché?
L'esempio raffigurato qui sotto in Figura 3.2 (non presente nell'articolo originale)
può aiutare a visualizzare i termini della discussione.

società telefoniche), attraverso i quali possono monetizzare i benefici collegati all'espansione


delle stesse imponendo il pagamento di un prezzo a tutti i beneficiari. In casi come questo le
esternalità di rete (cioè i benefici per tutti gli utenti legati all'espansione della rete stessa)
sarebbero internalizzate attraverso transazioni di mercato (il pagamento di un prezzo più
elevato per i servizi di comunicazione) e andrebbero più correttamente chiamate "effetti rete".
In (Liebowitz & Margolis, 1994) vengono prospettati diversi tipi di internalizzazione degli
effetti rete, un fenomeno che gli autori "sospettano" essere molto comune, rendendo dunque
rare le esternalità vere e proprie (p. 144). Sulla infrequenza delle esternalità vere e proprie sono
di diverso avviso Katz e Shapiro nello stesso symposium: «Gli effetti rete discussi sopra
potrebbero ben essere esternalità di rete, non internalizzate in alcuna transazione di mercato»
(Katz & Shapiro, 1994:112).
106 Capitolo 3

Mac/OS

PC/Windows

PC/Linux

Figura 3.2 Competizione tra sistemi hardware/software.

L'area tratteggiata rappresenta la zona di mercato potenziale che i sistemi in concor-


renza si contendono. Le figure esemplificano sistemi hardware/software oggi molto
100
conosciuti: PC/Windows, PC/Linux e Macintosh/OS . Si noti come i tre sistemi si
differenzino innanzi tutto per un fondamentale componente software, il cosiddetto
"sistema operativo": Windows, Linux o Mac OS. Il produttore del sistema operativo
può essere lo stesso dell'hardware (come nel caso di Macintosh) oppure no (come nel
caso di Windows e Linux). Il sistema operativo rappresenta, insieme all'hardware, il
maggior elemento di differenziazione tra sistemi hardware/software concorrenti: dal-
l'interazione di sistema operativo e hardware dipendono caratteristiche fondamentali,
quali la facilità d'uso e di accesso, la stabilità, la sicurezza, la dotazione di programmi
compatibili e di periferiche.
Gli apparecchi hardware che possono far girare Windows o in alternativa Linux (i
cosiddetti PC) sono oggi molto più numerosi di quelli che possono far girare il siste-

100
La maggiore dimensione dell'icona del sistema PC/Windows allude al suo strapotere di
mercato. Tuttavia non esiste qui una proporzione diretta tra le dimensioni delle icone di ciascun
sistema e le loro effettive quote di mercato.
Analisi della letteratura 107

101
ma operativo del Macintosh: , anche se alcuni sostengono che i sistemi Macin-
tosh/OS sarebbero preferibili a quelli PC/Windows per numerosi aspetti tecnici ed
economici, anche se non sono altrettanto diffusi (Emigh, 2007). Che ruolo giocano i
benefici di rete sugli equilibri di mercato? Il mercato porta sempre a situazioni so-
cialmente ottimali o sarebbero a volte richiesti interventi correttivi?
L'esempio di Figura 3.2 illustra in primo luogo la presenza degli effetti rete indi-
retti discussi dagli autori. Tra i fattori chiave appaiono qui particolarmente evidenti i
benefici per gli utenti di PC che adottano il sistema PC/Windows legati all'enorme
ampiezza della base installata, che includono la disponibilità di numerosi accessori e
programmi a costo contenuto, la diffusione e dunque il basso costo relativo dei servizi
di manutenzione e assistenza, le economie di scala e di apprendimento.
In secondo luogo, il quadro può illustrare le implicazioni degli effetti rete sulle
scelte di produttori e consumatori discusse nella seconda parte di (Katz & Shapiro,
1994). Dal lato dei produttori, Katz e Shapiro ribadiscono il ruolo della sponsorship,
già osservato nel contributo del 1986: l'acquisizione di diritti di proprietà su una rete
hardware/software da parte di un produttore (sponsor) può costituire un forte incenti-
vo all'espansione della rete stessa. Nel caso illustrativo, le componenti essenziali
hardware e software dei sistemi PC/Windows (microprocessore e sistema operativo)
sono di rispettiva proprietà dei due maggiori produttori hardware e software sul mer-
cato globale (Intel e Microsoft), che le sviluppano in collaborazione. Gli sponsor
hanno interesse a investire, specie nella fase di sviluppo iniziale della rete
hardware/software, per ampliare la base installata. Katz e Shapiro individuano una
serie di possibili strategie degli sponsor per attrarre utenti in una rete e influenzarne
positivamente le aspettative:
9 preannunci di prezzo/prodotto
9 adozione di standard aperti
9 noleggio di hardware
9 integrazione verticale
9 investimenti "sommersi" su software da sviluppare
9 politiche di prezzi aggressive
9 reputazione
Dal lato dei consumatori, nella scelta tra sistemi alternativi e incompatibili, si verifi-
cano due tendenze contrastanti: tipping e ricerca della varietà. Gli autori chiamano
tipping la tendenza al rapido prevalere, con tassi di crescita tipicamente esponenziali,
delle scelte a favore della tecnologia che ha conquistato la massa critica iniziale, per
via dei benefici crescenti dovuti all'espansione della rete hardware/software. L'enor-
me e rapida espansione del sistema PC/Windows, che oggi raggiunge il miliardo di
unità installate con una quota di mercato quasi totalitaria, potrebbe essere qui inter-
pretata come un fenomeno di tipping. I fenomeni di tipping tenderebbero dunque ad
eliminare dal mercato i sistemi con una più ridotta base installata, come il Mac/OS. In
contrasto a questa tendenza, Katz e Shapiro osservano però che «l'eterogeneità dei

101
La base esistente di personal computer installati si avvicina ormai ad un miliardo di
esemplari che in gran parte hanno installato il sistema operativo Windows (Fontana, 2007),
mentre in piccola parte hanno installato il sistema operativo Linux.
108 Capitolo 3

consumatori e la differenziazione di prodotto tendono a limitare il tipping e a sostene-


re le reti multiple» (Katz & Shapiro, 1994:106). Anche in presenza di effetti rete, non
sempre dunque prevale unicamente la rete più grande eliminando tutte le altre: il pun-
to di equilibrio è determinato da una tensione tra standardizzazione e varietà (Farrell
102
& Saloner, 1986b) che lascia spesso spazio allo sviluppo di reti multiple di sistemi
incompatibili o solo parzialmente compatibili, come appunto illustrato in Figura 3.2.
Oltre a rilevare che il trade-off tra varietà e standardizzazione rispecchia l'eterogenei-
tà di soluzioni e preferenze presenti in natura, gli autori osservano che la presenza di
diverse alternative possibili presenta benefici sociali in condizioni di incertezza sullo
sviluppo del progresso tecnologico: investire su una sola tecnologia potrebbe risultare
estremamente costoso se questa dovesse rivelarsi in seguito quella sbagliata. La pre-
senza nel sistema sociale di numerose alternative di sviluppo tecnologico permette
dunque di frazionare i rischi dell'innovazione.
Che cosa avviene dunque nell'incontro tra le scelte dei consumatori (tipping vs va-
rietà) e quelle dei produttori (diritti di proprietà e strategie di investimento sulla rete)?
Come si è accennato, nella competizione tra sistemi il gioco delle aspettative è parti-
colarmente importante, avvantaggiando le imprese che sono in grado di influenzare a
loro favore la visione in prospettiva futura dei consumatori: «Nei mercati di sistemi,
persino più che negli altri mercati, le imprese con una buona reputazione, marchi ben
conosciuti, e accesso ai capitali pronto e visibile hanno un vantaggio competitivo.
Queste sono le imprese che saranno meno disponibili ad adottare una strategia di si-
103
stema aperto» (Katz & Shapiro, 1994:107) .
104
Apertura e compatibilità sono due aspetti diversi ma strettamente collegati . Co-
me abbiamo visto nel capitolo 1, l'esistenza di diritti di proprietà su uno standard ne
riduce il grado di apertura, e con esso quello dell'eventuale sistema hardware/software
che ne fa uso. Di solito artefatti basati su tecnologie aperte come il sistema operativo
Linux, che è completamente non-proprietario e disponibile gratuitamente sul mercato,
possono avere un grado di compatibilità tecnica superiore a quello di artefatti basati
su tecnologie proprietarie, come il sistema operativo Mac OS. Esistono tuttavia e-
sempi di sistemi operativi come Windows, che, pur essendo basati su tecnologie pro-
prietarie, hanno un grado elevato di compatibilità tecnica, potendo interoperare (diret-
tamente o indirettamente) con un gran numero di dispositivi hardware e software di-
105
versi .
102
La tensione tra standardizzazione e varietà a cui fanno riferimento gli autori appare affine a
quella tra standardizzazione e flessibilità (Hanseth et al., 1996), presa in esame più oltre in
questo capitolo. Sul tema vedi anche la rassegna di (Gilbert, 1992).
103
Come già rilevato nella letteratura di management strategico, la detenzione di diritti di
proprietà su tecnologie e standard di un sistema hardware/software è un elemento fondamentale
per il cosiddetto "controllo architetturale" che è alla base di importanti posizioni di vantaggio
competitivo (Morris & Ferguson, 1993).
104
I due argomenti sono stati già affrontati nel capitolo 1: il grado di apertura di uno standard è
discusso nella sezione 1.2.3 al paragrafo "La proprietà e l’apertura"; sulla compatibilità vedi
note 15, 93 e 105.
105
In particolare, si distingue tra compatibilità orizzontale (la capacità di interoperare con
sostituti esterni) dalla compatibilità verticale (la capacità di interoperare con complementi
esterni) (Chen & Forman, 2006:544-45). Ad esempio Windows ha un grado elevato di
Analisi della letteratura 109

Il grado di apertura di un sistema è quindi dipendente sia dai diritti di proprietà


che dalla compatibilità tecnica. A quest'ultima è dedicata la parte finale dell'analisi di
(Katz & Shapiro, 1994). I benefici sociali della compatibilità (economie di scala, ef-
fetti apprendimento, spill-over tecnologico, possibilità di mix and match, salvaguar-
dia della base installata) comportano anche dei costi, tra cui il costo di progettazione
106
e realizzazione degli adapters , a cui è a volte associata anche una riduzione delle
performance, o i costi della standardizzazione (riduzione della varietà, costi di man-
tenimento della base installata). Katz e Shapiro osservano che se esiste uno sponsor o
una coalizione abbastanza forte e credibile da imporre sul mercato i propri standard
proprietari con il ricorso alle strategie di cui si è già parlato, allora è possibile che si
formi una grande rete hardware/software a spese dei concorrenti non compatibili.
Questa situazione è qui illustrata dalla posizione ampiamente maggioritaria del siste-
ma PC/Windows, sponsorizzato da Intel (hardware) e Microsoft (software), rispetto a
quella del sistema Mac/OS, sponsorizzato da Apple. Nella storia di questi sistemi,
una scelta chiave per il successo di PC/Windows è stata quella di un'architettura in
parte proprietaria ma anche in parte aperta, cioè compatibile con dispositivi hardware
107
e software esterni prodotti in base a standard di compatibilità tecnica . In mancanza
di un chiaro vincitore, è probabile che si imponga sul mercato una scelta concertata di
compatibilità, come nel caso della creazione dello standard "Web services" preso in
esame nel capitolo 5. In questi casi, le istituzioni volontarie di standardizzazione gio-
cano un ruolo determinante di coordinamento, che risulta tanto importante ai fini del-
la nascita dello standard quanto poco conosciuto:

Nessuna conclusione generale è disponibile in quest'area, anche se la maggior parte degli


studi trovano una possibilità che almeno qualche tipo di coordinamento esplicito possa risul-
tare di mutuo beneficio. In pratica, istituzioni di standardizzazione volontaria di settore na-
scono per cercare di risolvere questi problemi di coordinamento. Lo studio di queste orga-
nizzazioni comporta un'affascinante mix di scelte collettive e organizzazione industriale
(Katz & Shapiro, 1994:112).

Per riassumere quanto osservato finora dagli autori, i mercati dei sistemi
hardware/software in presenza di effetti rete indiretti non sembrano necessariamente
garantire il raggiungimento di condizioni di equilibrio socialmente ottimale. Si osser-
vano forze compresenti e contrastanti, come la tensione tra la tendenza al prevalere di
una tecnologia dominante (tipping) e la tendenza al mantenimento della varietà e del-
la molteplicità. Tra i fattori che possono influenzare la competizione sono particolar-
mente rilevanti le scelte strategiche degli sponsor, che includono anche il grado di

compatibilità verticale, in quanto può interoperare con numerosi altri dispositivi e software
complementari prodotti dalla concorrenza, ma un grado più ridotto di compatibilità verticale, in
quanto non è in grado di interoperare con sostituti della concorrenza (es. Macintosh OS) con
efficacia e completezza comparabile a quella dell'interoperabilità con altri sistemi Windows.
106
Vedi nota 93.
107
Il successo di Microsoft e Intel (contrapposto ad esempio ai fallimenti di IBM e Apple) nella
definizione delle scelte di apertura e compatibilità viene discusso a fondo dal punto di vista
manageriale da Morris e Ferguson, secondo i quali «scegliere il giusto grado di apertura
rappresenta una delle decisioni più sottili e difficili nelle competizioni architetturali» (Morris &
Ferguson, 1993:92).
110 Capitolo 3

proprietà e di apertura dei sistemi su cui investono per ampliare le dimensioni della
rete e influenzare le aspettative dei consumatori.
Se non c'è garanzia del raggiungimento di un equilibrio socialmente ottimo, appa-
re però problematico l'intervento di un'autorità centrale in assenza di informazioni e
incentivi appropriati. Un ulteriore aspetto su cui si evidenziano tensioni contrapposte
è il noto tema degli effetti sull'innovazione analizzato nella sezione precedente
(Farrell & Saloner, 1986a): anche Katz e Shapiro ricordano come gli effetti rete pos-
sano determinare ritardi nelle innovazioni (excess inertia), ma anche eccessive acce-
lerazioni dovute ai già noti fenomeni di stranding visti nella sezione precedente, qui
denominate insufficient friction.
In conclusione, dunque, gli autori osservano come «In breve, siamo ben lontani
dall'avere una teoria generale di quando l'intervento governativo sia preferibile al ri-
sultato del libero mercato» (Katz & Shapiro, 1994:113). L'auspicio è che l'interesse
delle ricerche possa estendersi ad ulteriori temi di investigazione, come l'influsso de-
gli effetti rete indiretti sulle relazioni e sulle fusioni tra imprese, lo studio dei mecca-
nismi di formazioni delle coalizioni e l'analisi del funzionamento degli enti di stan-
dardizzazione. L'analisi empirica del caso "Web services" qui offerta nel capitolo 5
mirerà a fornire qualche elemento di analisi e discussione su alcune di queste grandi
questioni.

3.2.3 I temi base della network economics

Dopo aver illustrato alcuni tra gli articoli più citati della network economics, osser-
vando come si sono originate le idee seminali che hanno alimentato il dibattito degli
ultimi decenni, appare qui opportuno allargare lo sguardo ai temi su cui tale dibattito
si è sviluppato, pur senza alcuna pretesa di analisi esaustiva. A tale scopo rinviamo
infatti alle rassegne già esistenti della letteratura che verranno selezionate e illustrate
nella prossima sezione.
L'analisi economica delle esternalità di rete implica lo studio di una serie di feno-
meni ad esse strettamente collegati. Tra essi prenderemo qui in esame alcuni dei temi
ormai classici: feed-back positivo, rendimenti crescenti e i costi di passaggio (swi-
tching costs). Riserveremo invece la prossima sezione alle controverse implicazioni
del lock-in e della dipendenza dal percorso.
Un utile riferimento introduttivo a questi temi è il noto "Information Rules"
(Shapiro & Varian, 1998), forse il testo il più diffuso della network economics, un
108
classico che appare infatti al primo posto in Tabella 3.2 .

108
Carl Shapiro ha scritto "Information Rules" assieme ad un economista "tradizionale", Hal
Varian, i cui testi di micreconomia erano già conosciuti e adottati anche in Italia. Questo ha
forse aiutato il libro, scritto in un linguaggio divulgativo e molto accessibile, a guadagnare una
certa credibilità anche presso gli altri economisti, oltre che presso i media e con il grande
pubblico. Parallelamente, alcune delle idee della network economics sono state divulgate da un
famoso articolo del direttore di "Wired", (Kelly, 1997), poi confluito in forma più estesa in un
saggio dal titolo "New rules for the New Economy" (Kelly, 1998); (Kelly, 1999). Esso ha
probabilmente contribuito ad affermare il termine di "New Economy" e al rafforzamento
dell'euforia collettiva degli ultimi anni '90 per il fenomeno Internet.
Analisi della letteratura 111

Esternalità di rete/effetti rete


Nelle sezioni precedenti si è già illustrato, ricorrendo spesso alle parole stesse di co-
loro che lo hanno osservato per primi, il fenomeno dei benefici "esterni" apportati dai
nuovi utenti che si uniscono ad una rete. Il fenomeno delle esternalità si verifica
quando l'ingresso di un nuovo attore nel sistema determina degli effetti per gli altri
senza che questi debbano fare nulla per questo. Sono stati presi in esame vari tipi di
reti, sia tecnologiche che sociali ed economiche, con benefici diretti legati alla mag-
giore possibilità di interconnessione (telefoni, fax) o indiretti spesso dovuti alla mag-
giore disponibilità di beni complementari (es. reti di utenti di sistemi: lettori audio,
videoregistratori, PC); si è inoltre visto come, almeno in via di principio, si possano
distinguere le esternalità di rete vere e proprie da altri tipi di effetto rete che possono
venire internalizzati attraverso transazioni di mercato. Esistono anche esternalità di
rete negative, oltre che positive. L'esempio classico è quello dell'inquinamento: gli
scarichi industriali di un nuovo operatore possono danneggiare tutti gli altri, inqui-
nando l'aria e compromettendo le falde e i corsi d'acqua.
A che cosa si devono gli effetti rete? Come abbiamo visto sopra (sezione "Il clas-
sico di Katz e Shapiro (1985): La "rete" dei consumatori"), per gli effetti rete indiretti
gli economisti fanno spesso riferimento agli esempi e alle indicazioni generali fornite
in (Katz & Shapiro, 1985), dove si parla di reti di assistenza per le automobili, reti di
utenti di computer, videoregistratori e simili, che aumentano di valore nel crescere,
grazie alla maggiore disponibilità di prodotti e servizi complementari, stimolata dal-
l'espandersi delle rete e quindi del mercato dei complementi. Per gli effetti rete diretti,
come quelli legati alle dimensioni delle reti telefoniche, Shapiro e Varian menzionano
109
alla cosiddetta "Legge di Metcalfe" , una nota regola pratica per il calcolo del valore
di una rete, che si basa sul numero di connessioni binarie possibili. Ad esempio in
una rete telefonica di due utenti, ciascuno di essi può comunicare con una persona,
dando luogo a 2x1=2 connessioni. Con tre utenti, ciascuno dei tre può comunicare
con gli altri due (3x2=6 connessioni); in generale, con n utenti il numero di connes-
sioni è uguale a n × (n-1), crescendo dunque esponenzialmente in proporzione al
quadrato degli utenti. Pertanto, «Se il valore di una rete per un utente singolo è di un
dollaro per ciascun utente della rete, allora una rete di 10 nodi ha un valore di circa
100 dollari. In contrasto, una rete di 100 nodi ha un valore di circa 10.000 dollari. Un
aumento di dieci volte delle dimensioni della rete comporta un incremento del suo
valore di 100 volte» (Shapiro & Varian, 1998:184). La legge di Metcalfe appare nello
stesso tempo semplice, potente e abbastanza generale da poter essere applicata ad un
gran numero di esternalità dirette. Anche gli esempi e i principi enunciati da Katz e
Shapiro sulle esternalità indirette nelle reti di consumatori appaiono chiari e convin-
centi. Su queste basi, un gran numero di contributi hanno investigato fino ad oggi va-
rie manifestazioni, proprietà ed implicazioni economiche delle esternalità di rete.
Per riassumere qui i fattori più importanti, gli effetti rete diretti sembrano essere
legati ai task che implicano una comunicazione; i benefici per l'utente sono legati alle

109
Bob Metcalfe è uno dei più noti pionieri dell'informatica, coinventore dello standard di rete
Ethernet, nonché fondatore della 3Com, una società di grande rilievo storico nella produzione e
diffusione di hardware per reti.
112 Capitolo 3

dimensioni della rete perché l'aumento del numero di connessioni potenziali tende a
110
rendere più efficace la comunicazione . Gli effetti rete indiretti, invece, sono caratte-
ristici delle reti di utenti di un prodotto che tende a divenire più ricco complementi al
111
crescere del numero di utenti della rete, con una serie di benefici significativi .
Eppure, osservando il fenomeno dal punto di vista organizzativo, possono di-
schiudersi nuove opportunità di investigazione sulla natura degli effetti rete, specie se
si considerano gli effetti di tipo indiretto che si osservano nelle reti sociali. Esistono
presumibilmente molti fattori che influenzano l'intensità dei benefici che un soggetto
potrebbe ottenere dall'ampliamento della sua rete nello svolgimento di una determina-
ta attività facendo uso di un bene/servizio di rete: tra questi potrebbero rilevare le pre-
ferenze del soggetto, il tipo di relazioni in rete, il tipo e gli obiettivi del task che l'u-
tente pone in essere attraverso la rete. Ad esempio, Liebowitz e Margolis, discutendo
le limitazioni dei modelli economici degli effetti rete, sollevano il problema delle
possibili asimmetrie di inclinazioni e preferenze relazionali:

110
Importanti aspetti restano ancora da investigare in relazione a specifici task e specifiche
modalità di connessione. Ad esempio, nel caso di telefoni e fax, si sottintende di solito che i
benefici per l'utente aumentino al crescere delle dimensioni della rete. Ciò sembra più
probabile per le chiamate in uscita, perché il meccanismo di selezione del destinatario
attraverso la numerazione telefonica permette all'utente di scegliere chi raggiungere. Per le
chiamate in ingresso, le reti completamente connesse potrebbero anche generare effetti rete
negativi: le chiamate non gradite aumentano con le dimensioni della rete, tantoché
tradizionalmente si usa in caso di necessità un meccanismo di filtro (es segreteria). E' possibile
immaginare reti diverse, in cui una selezione e un controllo accurato delle connessioni tenda a
massimizzare i benefici di rete in relazione non solo al numero dei nodi, ma anche alle
caratteristiche degli stessi. I servizi di social networking selettivo, come ad esempio
www.LinkedIn.com, permettono infatti di costituire reti in cui le caratteristiche di ciascun nodo
siano attentamente scelte, riducendo i contatti in ingresso indesiderati e massimizzando l'utilità
dei nodi disponibili per i contatti in uscita. Ad esempio, è possibile scegliere di costruire una
rete in cui i nodi siano persone che lavorano nello stesso settore, oppure che condividano gli
stessi interessi, o che siano indirettamente connessi ad una rete di amici/colleghi "fidati". La
topologia della rete potrebbe rappresentare un altro fattore importante: la scelta del numero e
del tipo di connessioni di ciascun nodo sembra influire sui benefici attesi. Ciò sembra anche
essere in relazione agli specifici tipi di task per i quali il servizio di comunicazione viene
impiegato (es. apprendimento, direzione, controllo, coordinamento, transazioni di mercato,
ecc.). Per un soggetto, l'utilità complessiva di più reti specializzate e con diversa topologia
potrebbe essere maggiore di quella di un'unica rete non specializzata e completamente
connessa, come potrebbe testimoniare la crescente tendenza all'uso di più linee telefoniche e
più apparecchi cellulari.
111
Oltre ai benefici economici legati all'espansione del mercato dei complementi, anche alcuni
effetti di apprendimento possono aver rilievo per le reti di utenti. Ad esempio, alcuni beni e
servizi richiedono notevoli sforzi di pratica iniziale per un uso efficace: «I prodotto high-tech
sono tipicamente difficili da usare e richiedono addestramento. Una volta che gli utenti abbiano
investito in questo addestramento – diciamo, per la manutenzione e il pilotaggio di un aereo di
linea Airbus – essi devono soltanto aggiornare le proprie competenze per le successive versioni
del prodotto» (Arthur, 1996:103). Si pensi anche ad un software di gestione aziendale: per
alcuni utenti possono servire anni per padroneggiarne le funzioni. Questo investimento degli
utenti viene spesso salvaguardato dai fornitori che tendono a introdurre le innovazioni nelle
nuove versioni dei loro prodotti in modo graduale e con percorsi di apprendimento facilitato
per gli utenti preesistenti. Tutto ciò fa sì che le reti di utenti di un prodotto preesistente tendano
a fidelizzarsi, a condividere conoscenze, a rafforzarsi e generare benefici per gli utenti man
mano che si sviluppano.
Analisi della letteratura 113

Una ulteriore restrizione è il valore simmetrico ricevuto dai consumatori quando un altro
consumatore si unisce alla rete. Qualora gli economisti, per esempio, preferiscano di gran
lunga avere altri economisti che si uniscano alla loro rete, invece di, diciamo, sociologi, al-
lora sarebbe possibile per gli economisti formare una colazione che passi ad un nuovo stan-
dard anche se lo standard non fosse in grado di attrarre molti sociologi (Liebowitz & Mar-
golis, 1998).

Accanto alle diverse preferenze relazionali, i meccanismi negoziali che influenzano le


dinamiche di formazione delle alleanze possono giocare un ruolo determinante; que-
sto aspetto è stato studiato a fondo da Robert Axelrod, che gli ha dedicato studi ormai
classici come (Axelrod, 1984) ed il successivo (Axelrod, 1997). In un paper specifi-
camente dedicato alle alleanze nei processi di standardizzazione, Axelrod e coautori
concludono:

Un'impresa preferisce: (1) entrare in una alleanza di standardizzazione di grandi dimensioni,


in modo di aumentare la probabilità di sponsorizzare con successo uno standard di compati-
bilità e (2) evitare di allearsi con i rivali in modo di beneficiare individualmente degli stan-
dard di compatibilità che emergono come risultato degli sforzi dall'alleanza (Axelrod et al.,
1995:1505).

Il modello teorico degli autori, che ha un'antecedente nella landscape theory of ag-
gregation del 1993, applicata alle alleanze internazionali della seconda guerra mon-
diale, è basato sull'ipotesi che gli effetti rete spingano le organizzazioni ad allearsi
anche con i competitors, con una preferenza per le alleanze più grandi, e che nello
stesso tempo esista un trade-off tra la opportunità di ingrandire le dimensioni della
torta (per via dei network effects) e il rischio di veder ridotta la propria fetta (alleanza
112
con i competitors) .
Anche l'applicazione dello studio degli effetti rete ai processi di accettazione tec-
nologica (cioè dei fattori che influenzano gli utenti verso l'accettazione o il rifiuto di
un determinato nuovo dispositivo, come un PC o un cellulare) rivela nuove opportu-
nità di investigazione: l'intensità dei benefici che l'utente percepisce al crescere della
rete potrebbe dipendere ad esempio dal tipo di task e dai suoi obiettivi (Pontiggia &
Virili, 2005); (Carbone, 2007). Uno studio empirico che prenda in considerazione
l'effetto di questi fattori sui benefici percepiti dagli utenti potrebbe rivelare importanti
113
nuovi elementi sulla natura e le origini degli effetti rete .
Le esternalità di rete destano interesse perché, almeno in linea di principio, po-
trebbero ingenerare fenomeni apparentemente in contraddizione con alcune delle leg-
gi fondamentali dell'economia classica. Secondo la legge della domanda e dell'offerta,
ad esempio, in regime di concorrenza perfetta i beni scarsi (in eccesso di domanda)
tendono a salire di prezzo, mentre i beni abbondanti (in eccesso di offerta) tendono a
112
Come esplicitamente statuito dagli autori, il modello da loro proposto non tiene conto del
timing delle alleanze e della dipendenza dal percorso, che però sembrano poter giocare un
ruolo nel processo di standardizzazione: «La configurazione specifica alla quale il sistema
raggiunge la stabilità tenderà ad essere dipendente dal percorso, nel senso che sarà fortemente
influenzata dalle mosse iniziali nel processo di definizione delle alleanze» (Axelrod et al.,
1995:1505).
113
Questo tipo di investigazione è attualmente uno degli obiettivi di ricerca di OrgLab
(www.orglab.unicas.it).
114 Capitolo 3

scendere di prezzo. Si pensi al prezzo del petrolio che tende a salire quando la produ-
zione scende o ne aumenta la domanda. Si pensi ora al servizio commerciale di co-
municazione Internet "Skype": il suo valore percepito è aumentato notevolmente
quando la rete Skype è stata connessa alla rete telefonica, attraverso i servizi Skype-
out e Skypein. L'offerta del servizio si è ampliata, raggiungendo potenzialmente tutte
le case dotate di telefono tradizionale. Allo stesso tempo ne è aumentato il valore (e il
prezzo) per un effetto rete, tanto che i servizi Skypeout e Skypein vengono forniti ad
114
un prezzo superiore a quello dei servizi base . Dunque ad un aumento della disponi-
bilità del servizio corrisponde anche un aumento del suo valore e quindi del prezzo,
suggerendo che a volte, in presenza di effetti rete, alcuni dei meccanismi classici del-
l'economia tradizionale possano essere suscettibili di particolari interpretazioni e ap-
plicazioni. Tra queste anche l'assunzione dell'economia classica di rendimenti decre-
scenti, che verrà presa in esame nella prossima sezione.

Rendimenti crescenti e feed-back positivo


Gli effetti rete possono influenzare i processi di affermazione e le probabilità di suc-
cesso di uno standard in competizione con altri? I rendimenti crescenti e l'effetto di
reazione positiva (feed-back) che auto-alimenta e accelera la crescita della rete più
grande a spese di tutte le concorrenti sono una delle possibili conseguenze delle e-
sternalità. Abbiamo visto come le idee sulle esternalità di rete alle origini della
network economics si svilupparono nell'interazione tra gli economisti di Princeton
(Katz e Shapiro) e quelli del MIT (Farrell e Saloner). Per coglierne a fondo alcune
delle nuove implicazioni era però necessario un approccio nuovo, orientato allo stu-
dio della dinamica dei sistemi piuttosto che dei modelli statici di equilibrio economi-
co. Le idee e i modelli matematici di Brian Arthur, un ricercatore dello IIASA (Inter-
national Institute for Applied Systems Analysis) di Vienna, che in quel periodo si tro-
115
vava a Stanford, ebbero certamente un ruolo in questo senso . Arthur nei primi anni
'80 elaborò un modello matematico delle dinamiche di selezione di tecnologie alter-
native in presenza di increasing returns (rendimenti crescenti) (Arthur, 1983). In suc-
cessivi articoli di taglio più divulgativo Arthur spiegò come tipicamente nel passato i
modelli dell'economia classica assumessero meccanismi di crescita economica con
rendimenti decrescenti, che erano tipici di buona parte della produzione agricola e
industriale della fine dell'800: «Per esempio, […] se una piantagione di caffè continua
a espandere la produzione, essa sarà ad un certo punto costretta a far uso di terreni
meno adatti al caffè. In altre parole, incorrerà in rendimenti decrescenti» (Arthur,
1996:101). In presenza di rendimenti decrescenti, il prevalere di un unico attore sul
mercato (monopolio) è un fatto piuttosto raro e solitamente segnala una distorsione
della concorrenza, su cui lo Stato dovrebbe intervenire. Arthur osserva invece come
alcuni prodotti e servizi dell'economia moderna tendano naturalmente a situazioni di
mercato con un unico vincitore "naturale". L'esempio è quello della lotta per i formati

114
Questo esempio proviene dalla tesi di laurea di Luca Carbone (Carbone, 2007:29), che usa
un modello basato su agenti artificiali per la simulazione di effetti rete.
115
Per esempi di argomenti e citazioni che Farrell e Saloner riprendono da Arthur vedi note 94
e 96.
Analisi della letteratura 115

dei videoregistratori: il formato VCR è infatti prevalso spiazzando completamente


tutti gli altri.

L'evoluzione del mercato VCR non avrebbe sorpreso il grande economista del periodo vitto-
riano Alfred Marshall, uno dei fondatori dell'economia convenzionale di oggi. Nel suo
"Principi dell'Economia" del 1890, egli notò come se i costi di produzione di un'impresa si
riducono con l'aumento della sua quota di mercato, un'impresa che per un puro caso fortuna-
to abbia conquistato in anticipo una elevata proporzione del mercato potrebbe essere in gra-
do di spiazzare i suoi rivali; "qualsiasi impresa abbia una buona partenza" conquisterebbe
tutto il mercato. Marshall non diede seguito a questa osservazione, e comunque l'economia
teorica la ha – fino a tempi recenti – largamente ignorata. Peraltro Marshall non pensava che
i rendimenti crescenti potessero avere applicazione ovunque; l'agricoltura e le miniere – i
più importanti settori dell'economia del suo tempo – erano soggetti a rendimenti decrescenti
causati dagli ammontari limitati di terra fertile e di giacimenti di elevata qualità. Dall'altro
lato però, la produzione industriale poteva essere in qualche modo soggetta a rendimenti
crescenti, laddove grandi stabilimenti rendevano possibile un'organizzazione più efficiente.
Gli economisti moderni non vedono le economie di scala come una fonte affidabile di ren-
dimenti crescenti. In alcuni casi le grandi organizzazioni si sono dimostrate più efficienti, in
altri no (Arthur, 1990:92-93).

Perché Arthur sostiene che le economie di scala da sole non costituiscono "una fonte
affidabile di rendimenti crescenti"? Shapiro e Varian lo spiegano chiaramente nel ca-
pitolo 7 di "Information Rules". Le economie di scala a cui allude Arthur nel brano
riportato qui sopra vengono chiamate anche supply-side economies of scale (econo-
mie di scala dal lato dell'offerta). Esse sono legate ai recuperi di efficienza nella pro-
duzione in volumi, rappresentando importanti fattori di vantaggio competitivo. In al-
cuni casi, piuttosto rari, quando le economie di scala sono particolarmente forti, esse
sono anche propulsori di ulteriore crescita. Però nella maggior parte dei casi, specie
in passato, la supply-side economies da sole non generavano rendimenti crescenti.
Shapiro e Varian osservano che gli effetti rete possono dar luogo ad un diverso tipo di
economie di scala, che prendono il nome di demand-side economies of scale (econo-
mie di scala dal lato della domanda), che rafforzano ulteriormente le economie com-
plessive, dando luogo ad un feed-back positivo: «le economie di scala dal lato dell'of-
ferta e dal lato della domanda si combinano per rendere particolarmente forte il feed-
back positivo nella network economy» (Shapiro & Varian, 1998:182). La combina-
zione di supply-side e demand-side economics può dunque originare un circolo vir-
tuoso: la rete diviene sempre più attraente per i consumatori ed efficiente per i produt-
tori man mano che essa cresce, innescando una reazione (feed-back) positiva di ulte-
riore crescita, con rendimenti crescenti. Nel caso dei videoregistratori VCR, più i vi-
deoregistratori VCR conquistavano quote di mercato erodendo le posizioni dei con-
correnti (formato Sony-Betamax), più essi divenivano attraenti per gli altri utenti (e
convenienti per i costruttori), alimentando una crescita ed un'erosione delle quote del-
la concorrenza ancora maggiore. I formati standard per la videoregistrazione vengono
impiegati in sistemi hardware/software con effetti rete indiretti: una comunità molto
estesa di utenti che adottano un determinato formato stimola il mercato dei prodotti
complementari (videocassette, accessori) e questa maggiore disponibilità di comple-
menti rende lo standard più attraente, con i tipici benefici da effetto rete indiretto. Ciò
porta nuovi utenti all'adozione, aumentando ulteriormente la base installata (anche a
116 Capitolo 3

spese di quelle che adottano formati diversi) e così via, come illustrato in Figura 3.3,
tratta da (Grindley, 1995:27).

Base installata più ampia

Ulteriori nuove adozioni Più complementi

Maggiore credibilità dello standard

Rafforzamento del valore per l’utente

Figura 3.3 Meccanismi di feed-back positivo nella standardizzazione. Fonte: (Grindley,


1995:27).

In quali settori dell'economia è più probabile che si determinino rendimenti crescenti


e feed-back positivo? Nel seguito del brano riportato sopra, Arthur osserva:

Vorrei aggiornare l'intuizione di Marshall osservando che le parti dell'economia che sono
basate su risorse tangibili (l'agricoltura, l'industria manifatturiera, quella estrattiva) sono an-
cora in larga parte soggette a rendimenti decrescenti. Qui l'economia convenzionale si ap-
plica bene. Invece le parti dell'economia che sono basate sulla conoscenza, sono largamente
soggette a rendimenti crescenti (Arthur, 1990:93).

Secondo Arthur, i rendimenti crescenti sono peculiari della cosiddetta "knowledge


economy", per almeno due ordini di fattori: da un lato vi sono spesso elevati costi ini-
ziali e ridottissimi costi marginali, che tendono ad amplificare grandemente le eco-
nomie di scala; dall'altro si registra frequentemente la presenza di effetti rete (Arthur,
1996:103).
Analisi della letteratura 117

Costi iniziali ed economie di scala. I tipici beni e servizi della knowledge eco-
nomy, come ad esempio i computer, gli aeroplani e i prodotti farmaceutici, richiedono
un elevato investimento in ricerca e sviluppo per la produzione del primo esemplare
ma poi, avviata la produzione, hanno costi incrementali molto più contenuti. Shapiro
e Varian ampliano l'analisi a tutti i cosiddetti information goods, i beni/servizi ad ele-
vato contenuto di informazione, come i giornali e i software, che si differenziano da
quelli tradizionali, come i mattoni e il pane. Il pane ha un contenuto di informazione
praticamente nullo: il suo valore si genera facendo uso di una quantità di materie pri-
me tangibili (farina, acqua, lievito) che hanno un costo significativo e non comprimi-
bile oltre certi limiti. Al contrario un giornale o un software hanno un contenuto di
informazione elevato: la quasi totalità del valore del bene risiede nel contenuto in-
formativo, mentre le materie prime tangibili sono impiegate solo per il supporto fisico
(carta stampata, CD). Il contenuto informativo può essere digitalizzato, quindi dupli-
cato praticamente senza limiti. Di conseguenza, una volta sostenuti gli elevati costi di
produzione della prima copia, gli esemplari successivi possono (almeno in linea di
principio) essere prodotti in quantità virtualmente infinita e a costo sostanzialmente
nullo. Questo ha effetti importanti sulle economie di scala dal lato dell'offerta: mag-
giore è il contenuto di informazione, più i costi variabili tendono ad azzerarsi, ridu-
cendo fino ad eliminare i tradizionali limiti ai volumi massimi di produzione che pos-
sono essere raggiunti. Le economie di scala dal lato dell'offerta vengono in tal modo
fortemente amplificate.
116
Effetti rete e informazione. Come si accennava sopra , beni e servizi ad elevato
contenuto di informazione e conoscenza (information/knowledge goods) tendono ad
essere anche network goods: i benefici per gli utenti crescono con le dimensioni della
loro rete. Si pensi ad esempio agli effetti di rete diretti di servizi come skype e a quel-
li indiretti dei sistemi hardware/software come PC e programmi, lettori audio e MP3,
cellulari e suonerie.
In definitiva, beni ad elevato contenuto informativo e/o di conoscenza presentano
dunque più elevate economie di scala dal lato dell'offerta, dovute in buona parte alla
facilità di duplicazione del loro contenuto informativo. Essi presentano inoltre fre-
quentemente effetti rete, legati anche a processi di apprendimento e comunicazione.
Dato che, come abbiamo visto, la combinazione di forti economie di scala ed effetti
rete tende a innescare un feed-back di crescita con rendimenti crescenti, questo spiega
come rendimenti crescenti e feed-back positivi vengano osservati più frequentemente
nei settori dell'economia basati sulla conoscenza e sull'informazione.
Le dinamiche di crescita della rete sono anche collegate al gioco delle aspettative.
Nel caso di un nuovo prodotto standard, come ad esempio il lettore iPod, lo sviluppo
della rete degli utenti facilita non solo l'apprendimento ma anche l'imitazione attra-
verso la trasmissione di informazioni da utente a utente. Man mano che lo standard si
diffonde rafforza la posizione di coloro che lo hanno adottato per primi e convince
nuovi utenti all'adozione. In tal modo le convinzioni iniziali possono cominciare a
rafforzarsi in modo autoreferenziale; di conseguenza, il prodotto che ci si aspettava si

116
Sugli effetti apprendimento dei knowledge goods e su come possano ingenerare effetti rete,
vedi nota 111.
118 Capitolo 3

affermasse come standard diventa effettivamente tale. Aspettative che si autoconfer-


mano sono una manifestazione di economie a feed-back positivo e di effetti bandwa-
gon: se gli utenti si aspettano che un prodotto diverrà popolare, si formerà il "carro" e
tutti cominceranno a saltarvi sopra, cominciando un circolo virtuoso che contribuirà a
far sì che le aspettative degli utenti vengano effettivamente soddisfatte (Rohlfs,
2001). Il successo di un prodotto/servizio o di uno standard viene dunque determinato
non solo esclusivamente dal merito tecnico, ma anche in qualche misura dalle aspetta-
tive e dal caso.
Gli effetti sull'economia di queste particolari dinamiche di crescita sono stati asso-
lutamente straordinari, e non mancano esempi di successi travolgenti (come quello
della Microsoft) e di fallimenti altrettanto straordinari (come quelli di molte dot.com).
L'osservazione dell'andamento degli indici di borsa dei titoli tecnologici negli ultimi
anni è fortemente indicativa dell'effetto boomerang che può generarsi quando il circo-
lo virtuoso delle aspettative che si autosostengono viene spezzato.
In Figura 3.4 si può osservare l'andamento del NASDAQ tra il 1997 e il 2007.Tra
marzo e agosto 2001 (quindi ancora prima che si verificassero gli attentati terroristici
dell'11 settembre), l'indice aveva già perso il 70% del valore. Su 367 Internet compa-
nies sopravvissute al 2001, ben 316 erano sotto il prezzo di collocamento. Rispetto ai
valori di inizio 2000, Cisco era passata da 80$ a 13$; Yahoo da 240$ a 11$, Amazon
da 105$ a 8$. L'indice ha continuato a scendere per circa un anno; dopo sette anni ha
oggi recuperato soltanto il 50% delle perdite di quei tragici mesi. Nella formazione e
nell'esplosione di questa bolla speculativa hanno presumibilmente giocato un ruolo
anche le aspettative di crescita senza limite, alimentate dai clamorosi successi passati
e da una superficiale applicazione delle idee sui rendimenti crescenti della "nuova e-
117
conomia" . Questo stato di fatto ridimensiona drasticamente l'entusiasmo eccessivo e
superficiale che era seguito alla diffusione delle idee sui rendimenti crescenti, riaf-
fermando il valore dei principi dell'economia tradizionale. Pur tuttavia, esso lascia
ancora spazio ad un'applicazione motivata e ben delimitata dei principi che Arthur ha
contribuito a spiegare e porre in luce.

117
Nel capitolo 3 di (Liebowitz, 2002) "Racing to be first: faddish and foolish" si fornisce
un'interpretazione critica di come si originarono false aspettative sulla new economy.
Analisi della letteratura 119

Figura 3.4 Andamento del NASDAQ dal 1997 al 2007.

I meccanismi di feed-back positivo «sono oggi al centro delle moderne teorizzazioni


nella teoria del commercio internazionale, nella teoria della crescita, negli studi sugli
aspetti economici della tecnologia, in organizzazione industriale, in macroeconomia,
in economia politica, regionale e negli studi sullo sviluppo economico» (Arthur,
1994:xi). Sul peso relativo di queste idee esistono naturalmente opinioni contrastanti;
per un'analisi critica si veda ad esempio (Liebowitz & Margolis, 1999).

Switching costs
Se da un lato i benefici delle reti di grandi dimensioni tendono ad attrarre nuovi uten-
ti, essi possono anche scoraggiare l'abbandono dei vecchi. Come si è appena visto,
alcuni beni e servizi – specie se ad elevato contenuto di informazione/conoscenza –
sono associati a processi di apprendimento nel tempo che contribuiscono a generare
benefici di rete (vedi nota 111). In molti casi gli utenti sono portati nel tempo a effet-
tuare veri e propri investimenti complementari: nel capitolo 5 di Information Rules,
Shapiro e Varian illustrano ne illustrano ampiamente varie tipologie, che comprendo-
no impegni contrattuali, acquisizioni di beni durevoli, formazione specifica, know-
how, esperienza, competenze specialistiche, basi di dati e altre fonti di informazione,
fornitori specializzati, costi di ricerca sostenuti, relazioni e programmi di fiducia.
120 Capitolo 3

Tanto maggiore è il valore complessivo di questi asset complementari tanto più eleva-
ta è la perdita che si verrebbe a sostenere nel caso in cui si dovesse passare ad una
118
scelta alternativa . Questo genere di perdite vengono chiamate costi di passaggio o
switching. I costi di passaggio complessivi per gli utenti di una rete possono risultare
particolarmente significativi per reti di elevate dimensioni, per via dell'ampliarsi delle
esternalità di rete, degli elevati costi di coordinamento e per effetto del trend di cre-
119
scita non lineare che abbiamo discusso all'inizio di questa sezione .

In molti settori nell'economia dell'informazione, gli switching costs collettivi sono la forza
più grande che lavora in favore delle posizioni dominanti. Peggio ancora per gli innovatori e
i potenziali entranti, gli switching costs lavorano in modo non lineare: convincere dieci u-
tenti di una rete a passare alla propria tecnologia è più di dieci volte più difficile che con-
vincerne uno soltanto. Ma tu hai bisogno di tutti e dieci, o almeno di una larga parte: nessu-
no vuole essere il primo a innescare le esternalità di rete rischiando di essere lasciato solo se
120
la nuova tecnologia non ha successo . Proprio perché la molteplicità degli utenti trova così
difficile il coordinamento per passare ad una tecnologia incompatibile, il controllo di una
ampia base installata di utenti può essere il più importante asset che tu possa avere (Shapiro
& Varian, 1998:184-5).

Forse il caso più noto solitamente riportato da tutti (inclusi Shapiro e Varian) a sup-
porto di queste osservazioni è la storia dello standard QWERTY, che indica la dispo-
sizione dei tasti nelle tastiere di macchine da scrivere e PC. Una delle versioni più no-
te di questa storia sostiene che la tastiera QWERTY, nata verso la fine del 1800 con
le prime macchine da scrivere, sia oggi tecnicamente superata: da uno standard di ta-
stiera superiore, chiamato DSK (Dvorak Simplified Keyboard), proposto negli anni
'30. L'uso di tastiere DSK permetterebbe significative riduzioni dei tempi di battitura.
Il motivo per cui questa alternativa economicamente superiore non si sia mai afferma-
ta sarebbe proprio attribuito ai costi collettivi di switching (David, 1985). L'altra ver-
sione della storia sostiene invece che il vantaggio relativo delle tastiere DSK su quel-
le QWERTY risulti non chiaramente dimostrato e comunque insignificante
(Liebowitz & Margolis, 1990). L'opposizione tra questi due punti di vista ha un rilie-
vo particolare, non tanto per la dimostrazione dell'esistenza dei costi di switching, che
è ormai accettata da tutti, quanto per le implicazioni in termini di esistenza, intensità e

118
Anche se usualmente le componenti patrimoniali a cui queste perdite si riferiscono non
vengono iscritte in bilancio, si tratterebbe comunque in sostanza di perdite per insussistenza
dell'attivo, dato che gli investimenti che prima avevano un determinati valore (essendo in grado
di generare proventi se impiegati con un determinato standard), tendono a perdere questa
capacità quando lo standard viene rimpiazzato da uno diverso e incompatibile. Si tratterebbe
dunque di investimenti specifici, nel senso già discusso nel capitolo 2, sezione 2.2.1.
119
Comunque, i costi di switching associati alle relazioni interorganizzative possono essere
elevati anche per reti relativamente limitate. Si pensi ad un'organizzazione che fa parte di una
rete commerciale che usa un programma comune di gestione ordini a fornitori, acquisti e
magazzino che però è carente nell'elaborazione dell'inventario: il passaggio ad un software
alternativo potrebbe risolvere il problema dell'inventario ma non permetterebbe più la
trasmissione degli ordini ai fornitori attraverso la piattaforma comune.
120
Qui ci si riferisce ai penguin effects e agli effetti di stranding che sono stati analizzati in
precedenza nella sezione "Farrell e Saloner (1986): Effetti contrastanti sull'innovazione".
Analisi della letteratura 121

conseguenze degli eventuali effetti di lock-in e di dipendenza dal percorso, che ver-
ranno ora presi in esame.

3.2.4 Lock-in e dipendenza dal percorso

To lock in significa "chiudere dentro": quando uno standard viene adottato, può risul-
tare molto difficile che se ne affermi uno alternativo in competizione a questo. Gli
utenti potrebbero restare ingabbiati, "chiusi dentro" nello standard che usano anche se
si offrono loro delle alternative potenzialmente superiori: «una volta che un percorso
è stato selezionato da una serie di eventi economici casuali, la scelta resta fissata (lo-
cked-in) indipendentemente dai vantaggi delle alternative» (Arthur, 1990:92).
Questo argomento di Arthur può essere compiutamente illustrato e provato in ter-
mini matematici. Le sue implicazioni economiche sono invece molto più complesse e
121
controverse, tanto da aver suscitato una vera e propria disputa .
Ad accendere la disputa è stato Paul David, che nei primi anni '80 aveva avuto
modo di conoscere e frequentare a Stanford il visiting scholar Brian Arthur. Le idee e
gli studi precedenti di David sulla dipendenza degli eventi economici dalla storia era-
no molti affini a quelle di Arthur e potevano trovare un fondamento matematico nella
dinamica dei feed-back positivi, dei rendimenti crescenti e dei possibili effetti di lock-
122
in .

La storia della tastiera QWERTY


David era allora un giovane e brillante storico dell'economia, una disciplina conside-
rata con un certo grado di sufficienza dagli economisti "mainstream". Egli intuì che
poteva usare le basi matematiche dei lavori di Arthur per un'operazione estremamente
ambiziosa: affermare di fronte ad una platea di economisti che la storia degli eventi
passati non era soltanto un argomento di interesse culturale, ma contribuiva a deter-
minare gli stati di equilibrio economico, condizionando le scelte degli attori. L'occa-
sione si presentò nel 1984 al meeting annuale della American Economic Association,
come ricorda lo stesso David:

121
Una versione preliminare del contenuto di questa sezione è stata presentata dall'autore al IX
Workshop Nazionale di Organizzazione Aziendale, Venezia 2008, con il titolo "Ciò che resta
della path dependence".
122
Arthur stesso racconta del suo incontro con Paul David, che avvenne appena dopo essersi
trasferito a Stanford nel 1982: «A Stanford incontrai lo storico dell'economia, Paul David. Egli
era molti in sintonia con le mie idee e per il vero stava già elaborando per suo conto su queste
stesse direttrici da parecchio tempo prima di conoscere me. […] Paul era intrigato alla
prospettiva di una teoria formale dei rendimenti crescenti e della dipendenza dal percorso.
Quali esempi potevano essere addotti? Io avevo raccolto articoli sulla storia della tastiera della
macchina da scrivere, e usavo solitamente la tastiera QWERTY come esempio nei miei articoli
e presentazioni. Paul lo prese in considerazione, come fecero diversi altri all'inizio degli anni
'80. Come critica sollevò l'obiezione standard che se ci fosse davvero stata una tastiera
migliore, la gente oggi la starebbe utilizzando. Io non ero d'accordo. Abbiamo continuato le
nostre discussioni per i successivi due anni, e nel tardo 1984 Paul cominciò a effettuare
ricerche sulla storia delle tastiere. Il risultato, il suo paper del 1985 "Clio and the Economics of
QWERTY", divenne un classico istantaneamente (Arthur, 1994:xvii).
122 Capitolo 3

Nel partecipare con il Professor Parker alla programmazione di quella sessione del meeting
dell'AEA 1984, sulla necessità che i giovani economisti si dedicassero un po' allo studio
della storia economica, ed anche nello scrivere il paper su QWERTY, ritornai alla enuncia-
zione esplicita delle mie prime idee sulla storicità nei processi economici. Lo feci con un
nuovo obiettivo: incoraggiare gli economisti a studiare con noi la storia economica, non solo
perché il passato "contiene utili economie" – come (McCloskey, 1976) ha convincentemente
spiegato ai lettori del Journal of Economic Literature – ma anche perché il conseguente te-
ma della "storicità" pone sfide teoriche affascinanti e difficili che sono rimaste largamente
inesplorate dalla nostra disciplina, ed anche perché è cominciato ad apparire evidente che
queste difficoltà potrebbero dare origine ad alcuni dei nuovi concetti e tecniche matemati-
che che sono state proposte in modo comparativamente recente dai teorici della probabilità
per affrontare la statistica dei processi non-ergodici. Attraverso queste tattiche, pensavo, po-
trebbe essere incidentalmente possibile rinvigorire o persino salvare il campo di ricerca che
mi sono scelto dalla condizione di moribondo intellettuale che è stata di fatto diagnosticata
da Robert Solow (Solow, 1986:27), con una battuta sul fatto che la nuova storia economica
sembra evolvere verso una specialità praticata da economisti di formazione neoclassica 'con
una elevata tolleranza alla polvere e possibilmente – cosa particolarmente rara ai nostri
giorni – una buona conoscenza di una lingua straniera.' (David, 1997:6-7).

In mano a David la storia della tastiera QWERTY si rivelò uno strumento particolar-
mente efficace. In questo oggetto di uso comune appare infatti del tutto evidente co-
me le decisioni originarie sulla disposizione dei tasti delle prime macchine da scrivere
meccaniche abbiano potuto influenzare il modo in cui ancora oggi si scrive al perso-
nal computer, costringendoci ad usare una tastiera che ci sembra oggi inefficiente e
inadeguata. Nonostante siano da tempo state proposte delle alternative migliori, il co-
sto collettivo del passaggio ad un diverso tipo di tastiera sarebbe però troppo elevato:
siamo dunque rimasti "ancorati" a questa scelta inefficiente, dipendente dagli acci-
denti della storia passata. L'articolo che illustra questa storia e ne trae le implicazioni
(David, 1985) è un notevole pezzo di bravura, soprattutto nella sua versione comple-
ta, pubblicata in (David, 1986). Alla sua presentazione, per destare l'attenzione degli
economisti presenti alla sua breve sessione, il giovane David decise di ricorrere ad
una serie di "shock", come ricordato qui:

Catturare l'attenzione era il primo problema: il mio discorso sarebbe iniziato parlando di
123
sesso . Ma una volta catturata l'attenzione del pubblico, come trattenerla? C'è una tattica di
rinforzo generalmente affidabile: procurare uno shock attraverso uno stimolo potente. Qual
è l'argomento che scuote gli economisti ancora più dei riferimenti al sesso? L'inefficienza!
Quindi, avrei dovuto produrre una storia in cui un processo economico non poteva scrollarsi
di dosso l'influenza degli eventi passati, ed anche in cui agenti autonomi e razionali erano
portati ad un risultato condiviso e collettivo che sarebbe apparso non migliore per alcuni, e
definitivamente peggiore per altri di una possibile alternativa. E se questo non fosse bastato,
ci sarebbe voluto uno "shock" più forte: mostrare che, nonostante il fatto che ciascun sog-
getto individualmente, se avesse avuto la possibilità di cancellare il passato, avrebbe preferi-
to la scelta alternativa, era più che probabile che la collettività nel suo insieme avrebbe con-
tinuato a convivere con la situazione insoddisfacente (Pareto-inferiore) – a causa delle diffi-
coltà o dei costi di coordinamento in cui sarebbero incorsi per porre in atto la scelta alterna-
tiva. Ammetto liberamente di aver impiegato la storia delle disposizioni dei tasti della mac-

123
Il riferimento è stato ovviamente eliminato nella versione journal (David, 1985), ma è
rimasto nella versione estesa pubblicata l'anno dopo (David, 1986), in cui viene usato all'inizio
e alla fine del contributo. Esso avvenne menzionando un libro degli anni '30, di Thurber e
White, intitolato "Is Sex Necessary? Or Why You Feel The Way You Do", in cui si suggerivano
ai figli delle tattiche per insegnare il sesso ai padri. Queste tattiche, osserva il giovane David,
valgono anche per gli storici (=figli) per insegnare la storia (=sesso) agli economisti (=padri).
Analisi della letteratura 123

china da scrivere (e del computer) come un buono strumento retorico a questo fine (David,
1997:5).

La presentazione e il successivo articolo di David ebbero un tale successo che la sto-


ria di QWERTY si estese al grande pubblico, catturando l'attenzione anche di scrittori
di notevole fama e talento, come lo studioso di storia naturale Jay Gould (Gould,
124
1987); (Gould, 1992) e il biologo Jared Diamond (Diamond, 1997) .
La Figura 3.5 e la Figura 3.6 mostrano una Smith & Corona meccanica simile a
quella che Gould usava ancora nel 1991, a cui era dichiaratamente molto affezionato.

Figura 3.5 Una Smith & Corona meccanica. Fonte: (Gould, 1991), pag. 64.

L'opinione di Gould su QWERTY è quella di un appassionato competente, che


conosce da vicino l'argomento: egli ringrazia esplicitamente Paul David per avergli
spedito il suo "affascinante articolo" fornendogli l'occasione di affrontarlo:

Dal momento che ho un interesse speciale per le tastiere (a cui sono affezionato con una te-
nerezza che risale ai miei tempi più cari dell'infanzia), da anni avrei voluto scrivere qualco-
sa di simile. Ma non ho mai avuto i dati di cui avevo bisogno finché Paul David, Coe Pro-
fessor of American Economic History all'Università di Stanford, mi ha gentilmente spedito
il suo affascinante articolo: "Understanding The Economics of QWERTY: The Necessity of
History" (David, 1986). Virtualmente tutti i dati non personali in questo pezzo provengono

124
In (Nosengo, 2003), capitolo 11, il lettore interessato troverà una ulteriore e più recente
versione divulgativa di questa storia, che comprende anche i retroscena del lavoro di David e le
critiche ricevute in seguito.
124 Capitolo 3

dal lavoro di David, e lo ringrazio per questa opportunità di soddisfare un antico desiderio
(Gould, 1991:63).

Figura 3.6 La tastiera QWERTY della Smith & Corona, dopo molti anni di utilizzo. I tasti A,
S e Z sono visibilmente consumati. Fonte: (Gould, 1991), pag. 64.

La storia di David sembra aver risonato perfettamente con l'esperienza e le sensazioni


di Gould, come ha fatto con quella di moltissime altre persone: la tastiera QWERTY
è il (cattivo) prodotto degli accidenti della storia:

Ho imparato a battere a macchina prima di imparare a scrivere. Mio padre era uno stenogra-
fo di tribunale, mia madre era una dattilografa. Ho imparato la corretta tecnica di battitura a
otto dita quando avevo nove anni ed avevo ancora mani minute e mignoli piccoli e deboli.
Per questo sono stato fin dall'inizio in una posizione particolarmente buona per apprezzare
l'irrazionalità della disposizione delle lettere della tastiera standard, chiamata da tutti
QWERTY in onore delle prime sei lettere della prima riga. Chiaramente, QWERTY non ha
alcun senso (oltre il gusto stesso di battere QWERTY sulla tastiera). Più del 70 per cento
delle parole inglesi possono essere composte con le lettere DIATHENSOR, e queste do-
vrebbero trovarsi nella più accessibile riga centrale, o in quella in basso, come era in una ta-
stiera concorrente di QWERTY introdotta nel 1893 e poi decaduta [Figura 3.7]. Ma in
QWERTY la lettera inglese più comune, E, richiede di raggiungere la riga in alto, così come
le vocali U, I e O (con la O battuta dal debole dito anulare), mentre la A rimane nella riga
centrale ma deve essere battuta con il dito più debole di tutti (almeno per la maggioranza
delle persone che usano la destra): il mignolo sinistro. (Quanto ho combattuto con questo da
ragazzo. Semplicemente non ero in grado di battere quel tasto. Una volta provai a scrivere la
Dichiarazione di Indipendenza, e venni fuori con: th t ll men re cre ted equ l.).
Come illustrazione evidente di questa irrazionalità, considerate la fotografia allegata
[Figura 3.6]: la tastiera di una antica Smith-Corona vista dall'alto, identica a quella (l'origi-
nale di mio padre) che uso per scrivere questi saggi (una magnifica macchina: nessuna rottu-
ra in vent'anni e una fluidità di movimento mai eguagliata da alcuna manuale) [Figura 3.5].
Dopo più di mezzo secolo di utilizzo, alcuni dei tasti usati più di frequente si sono consuma-
ti in superficie, fino al cuscinetto di gomma sottostante (non c'erano plastiche dure a quel
Analisi della letteratura 125

tempo). Si può notare che la E, la A e la S sono consumate in questo modo – Notate però
anche che in QWERTY tutte e tre o sono fuori dalla riga centrale o vanno battute con le dita
più deboli, anulare e mignolo. Questa osservazione non è solo una congettura basata sull'e-
sperienza personale. L'evidenza mostra chiaramente che QWERTY è drasticamente subot-
timale (Gould, 1991:62-3).

Se la tastiera QWERTY è "drasticamente subottimale", non si può dire altrettanto di


disposizioni alternative immesse sul mercato dalla concorrenza: ad esempio quella
della macchine cosiddette "Ideal" mostrata in Figura 3.7, introdotta nel 1893, era
pensata per avere a disposizione nella riga in basso tutte le lettere più comuni. Come
si accennava sopra, circa quarant'anni dopo fu introdotta la più avanzata tra le dispo-
sizioni alternative, la Dvorak Simplified Keyboard (DSK), progettata per massimizza-
re l'efficienza sotto molti punti di vista, incluso il posizionamento delle lettere più
comuni nella riga più accessibile e la ripartizione equilibrata delle battute tra le due
mani. «DSK fu introdotta nel 1932. Da allora virtualmente tutti i record di velocità di
battitura sono stati segnati da dattilografi DSK, non QWERTY» (Gould, 1991:63).

QWERTY e dipendenza dal percorso


La ovvia conclusione è che la tastiera QWERTY non è affatto la migliore. Potrebbero
essere stati proprio gli elevati costi collettivi di switching a "bloccare" la collettività
su questo standard inefficiente: le scelte di oggi sono condizionate da quelle di ieri.
Dipendono dal percorso, appunto.
In termini economici:

E' dipendente dal percorso una sequenza di cambiamenti economici le cui influenze di rilie-
vo sull'eventuale risultato possono essere desunte da eventi temporalmente remoti, inclusi
accadimenti dominati da elementi casuali piuttosto che da forze sistematiche. Processi sto-
castici come questi non convergono automaticamente ad una determinata distribuzione di ri-
sultati, e vengono chiamati non ergodici. In tali circostanze gli "accidenti della storia" non
possono essere né ignorati ne messi in quarantena ai fini dell'analisi economica; anzi, il pro-
cesso dinamico assume esso stesso un carattere essenzialmente storico. (David, 1985:332).
125
L'affermazione di QWERTY si articola in alcuni episodi essenziali .
1) La disposizione QWERTY fu adottata nel 1873 nella prima macchina da scrivere
commerciale, una Remington & Son.

125
Questa sintesi non rende purtroppo ragione del grande talento di David, che sviluppa un
racconto affascinante, ritmato ed anche divertente: si rinvia dunque il lettore al contributo
originale, nella forma più rigorosa e sintetica di journal accademico (David, 1985) o in quella
più completa, godibile e presumibilmente vicina alla presentazione originale (David, 1986).
Anche il saggio di Gould qui parzialmente riportato è ovviamente molto più godibile nella
versione completa, che è originariamente apparsa sulla rivista Natural History ed è oggi inclusa
nella nota raccolta (Gould, 1991), pubblicata anche in versione italiana (Gould, 1992), con il
titolo "Il pollice del panda della tecnologia".
126 Capitolo 3

Figura 3.7 La tastiera "Ideal" introdotta nel 1893 , in cui le lettere DHIATENSOR sono nella
prima riga in basso. Fonte: (Gould, 1991), pag. 65.

Essa riduceva l'inceppamento dei martelletti, che nelle macchine di prima generazio-
126
ne era un problema molto serio .
2) Intorno al 1895, con le nuove generazioni di macchine da scrivere, cominciò ad
127
apparire chiaro che il problema dell'inceppamento sarebbe stato risolto , vanificando
quindi la superiorità tecnica di QWERTY. Nello stesso tempo, però, QWERTY si av-
viava a divenire lo standard dominante, tanto da venire chiamate tastiera "Universal".
126
Le prime macchine da scrivere non permettevano infatti di vedere il foglio mentre si
scriveva. Battiture imprecise (ad esempio la pressione contemporanea di due tasti, oppure la
battitura di una lettera prima che fosse rientrato il martelletto della battitura precedente)
tendevano ad "incollare" i martelletti, risolvendosi nella battitura ripetuta della stessa lettera.
Non potendo vedere il foglio, l'utente se ne rendeva conto troppo tardi e doveva ricominciare
da capo. La disposizione delle lettere più frequentemente battute in posizioni distanti l'una
dall'altra potrebbe dunque essere stata un modo per ridurre le probabilità di battiture imprecise.
David riporta che questi accorgimenti vennero adottati dall'ideatore originario della macchina
da scrivere, Christopher Scholes, nei sei anni che dedicò a perfezionare il suo prototipo
originario, brevettato nel 1867, prima di cederlo alla Remington & Sons nel 1873.
127
Le nuove macchine verticali a battitura frontale, sul tipo di quella raffigurata in Figura 3.5,
permettevano infatti di vedere il foglio mentre si scriveva; inoltre la velocità di ritorno dei
martelletti fu molto incrementata (Parkinson, 1972).
Analisi della letteratura 127

Figura 3.8 La disposizione DSK raggruppa nella seconda riga le lettere di uso più comune.
Fonte: (Parkinson, 1972).

3) Negli anni successivi, anche i concorrenti che avevano adottato tastiere diverse,
come "Ideal" (Figura 3.7) cominciarono a fornire la tastiera QWERTY come opzione,
per poi in seguito adottarla universalmente.

Il tutto appare davvero un accidenti della storia: uno standard riesce ad affermarsi sui
concorrenti e a divenire universale proprio quando le ragioni della sua superiorità tec-
nica cominciano a venire meno:

Proprio quando era ormai divenuto evidente che ogni razionale micro-tecnologico del do-
minio di QWERTY stava svanendo per via del progresso dell'ingegnerizzazione delle mac-
chine da scrivere, il settore statunitense stava rapidamente muovendosi verso lo standard di
una macchina verticale a battitura frontale con una tastiera QWERTY a quattro righe che
veniva chiamata "Universal" (David, 1985:334).

I principi economici che spiegano l'accaduto in termini di dipendenza dal percorso


vengono chiamati da David "QWERTYnomics". Essi richiamano i concetti essenziali
della network economics discussi in precedenza.
128 Capitolo 3

Figura 3.9 La lunghezza delle dita è proporzionale al numero medio di battute. La DSK
(sulla sinistra) permette un carico più equilibrato della QWERTY (sulla destra).
Fonte: (Parkinson, 1972).

David spiega infatti il dominio di QWERTY in base a tre fattori chiave: effetti re-
te indiretti (technical interrelatedness), economie di scala (economies of scale) e costi
128
di switching (quasi-irreversibility of investments) .
David osserva infatti che l'hardware della macchina da scrivere richiede per un u-
tilizzo ottimale la memorizzazione di sequenze e procedure appropriate (software) da
parte dei dattilografi, generando dunque degli effetti rete indiretti: la maggiore dispo-
nibilità di macchine da scrivere QWERTY determina indirettamente un più ampio
mercato di dattilografi esperti, con economie di scala "di sistema", cioè sia dal lato
della domanda che dal lato dell'offerta. Man mano che QWERTY diveniva dominan-
te, anche i produttori che avevano adottato standard concorrenti tendevano ad adottar-
lo: la conversione tecnica della produzione non QWERTY era poco costosa, specie a
confronto del riaddestramento della maggioranza dei dattilografi che già usavano "U-
128
I termini usati da David nel 1985 (David, 1985:334-335) sono diversi da quelli che si sono
poi affermati nel decennio successivo, ma i concetti fondamentali sono gli stessi:
l'interrelazione tecnica (technical interrelatedness) tra hardware (la macchina da scrivere) e
software (i "programmi" mentali dei dattilografi) corrisponde alla compatibilità tecnica alla
base degli effetti rete indiretti nei sistemi hardware/software; le economie di scala che David
chiama "di sistema" corrispondono alla somma delle economie dal lato della domanda e
dell'offerta; la "quasi irreversibilità degli investimenti" (quasi-irreversibility of investments) si
riferisce ai costi correlati alle perdite in investimenti specifici, come l'addestramento sulla
tastiera QWERTY, che si devono sostenere al passaggio ad un diverso standard: sono dunque
costi di switching.
Analisi della letteratura 129

niversal". A maggior ragione quando emerse il più efficiente standard DSK:


QWERTY era ormai tanto diffuso da rendere il passaggio troppo costoso.
Dunque il corso degli eventi passati può influenzare le scelte successive e la storia
è importante: history matters.

La contestazione di Liebowitz e Margolis


David fu comunque cauto nelle sue premesse: la storia di QWERTY non rappresen-
tava una prova empirica, ma solo un caso illustrativo di path dependence; la verifica
sul campo del "peso" effettivo della storia in economia restava ancora da compiere.

In sé e per sé, questa mia storia sarà semplicemente illustrativa e non stabilisce quanta parte
del mondo funzioni in questo modo. Questa è una questione empirica aperta, ed io sarei pre-
suntuoso se pretendessi di averla risolta, o di fornire indicazioni su come affrontarla. Spe-
riamo soltanto che il racconto possa garbatamente provocare un divertito interesse in coloro
che si aspettano spiegazioni sul se e il perché lo studio della storia economica rappresenti
una necessità per gli economisti (David, 1985:332).

La cautela di David era giustificata: la sua analisi storica e soprattutto le implicazioni


che ne traeva si rivelarono sostanzialmente infondate.
Ironicamente per un lavoro che cominciava con la frase «Cicerone richiede a noi
storici, in primo luogo, che raccontiamo storie vere» (David, 1985:332), la storia di
David risultò falsa, o almeno incompleta e fuorviante. Lo hanno dimostrato Stan Lie-
bowitz e Stephen Margolis, due economisti della North Carolina State University in
(Liebowitz & Margolis, 1990). Non è vero che QWERTY sia notevolmente inferiore
a Dvorak e ad altre disposizioni alternative. Non è vero che il sistema sia rimasto
"bloccato" su uno standard palesemente inefficiente, determinato dagli "accidenti del-
la storia".
Liebowitz e Margolis individuano con estrema chiarezza, anche se non senza una
129
certa sprezzante ironia , i seguenti punti critici dell'analisi di David:

129
In (Liebowitz & Margolis, 1990) la presentazione degli argomenti in un modo che potrebbe
suonare arrogante ha probabilmente reso più difficile un successivo confronto sereno delle idee
tra le opposte fazioni. David non ha mai risposto direttamente a queste critiche. Anche altri
scritti del primo autore (Stan Liebowitz) sembrano essere stati recepiti da alcuni lettori con
qualche perplessità sullo stile e sui modi espressivi. Ad esempio, su Amazon.com una delle
recensioni dei lettori di (Liebowitz, 2002) (accanto ad altre in generale molto favorevoli)
sostiene un argomento che in italiano suona pressappoco così: «Ho trovato molta parte del
contenuto di questo libro una lettura molto interessante e intelligente. Purtroppo, l'impressione
che ne ho ricavato di Stan Liebowitz è quella di un autore eccessivamente orgoglioso, che
sembra avere un'idea di se stesso troppo elevata, come di colui che ama sentire il suono della
sua propria voce, e scrive con lo stesso stile. […] Questo non cambia le teorie che vengono
presentate, ma certamente rende spiacevole la lettura di questo libro». Questo atteggiamento di
superiorità stride particolarmente con quello fermo ma rispettoso di uno dei lavori di Ronald
Coase a cui Liebowitz e Margolis dichiarano di essersi direttamente ispirati: (Coase, 1974). In
"The Lighthouse in Economics" Coase demolì l'uso allora comune tra gli economisti di
considerare l'esercizio dei fari per la navigazione un esempio per eccellenza di un'attività
economica che non può essere esercitata in regime privatistico, in quanto risulterebbe
impossibile rilevare e riscuotere un compenso dalle navi che ne beneficiano. Attraverso una
scrupolosa indagine storica, Coase dimostrò che l'esercizio dei fari in Gran Bretagna era
anticamente esercitato proprio in regime privatistico, con un saggio che agli occhi di chi scrive
è un capolavoro di eleganza non solo nei contenuti, ma anche nei modi espressivi, che restano
130 Capitolo 3

Primo, l'affermazione che la tastiera Dvorak sarebbe migliore è supportata soltanto da evi-
denza empirica che è non solo scarsa, ma anche sospetta. Secondo, gli studi nella letteratura
ergonomica non rilevano nessun vantaggio significativo per la Dvorak che possa essere con-
siderato scientificamente affidabile. Terzo, la competizione tra i produttori di tastiere, da cui
emerse lo standard, fu di gran lunga più intensa di quanto comunemente riportato. Quarto, ci
furono molte più gare pubbliche di velocità tra dattilografi. […] Queste gare pubbliche die-
dero ampia opportunità di dimostrare la superiorità di configurazioni di tastiera alternative
(Liebowitz & Margolis, 1990:8).

Dunque QWERTY è sopravvissuta fino ad oggi perché era ed è effettivamente la


scelta migliore per il sistema, e non il prodotto degli "accidenti della storia":

Il fatto che Qwerty è sopravvissuta a sfide significative alle origine della storia della dattilo-
grafia dimostra che essa è almeno tra le più adatte, se non la più adatta che si possa immagi-
nare (Liebowitz & Margolis, 1990:8)

Di conseguenza, non è nemmeno vero che "la storia conta" in economia, almeno non
130
nel senso più forte indicato da David e Arthur .
Liebowitz e Margolis contestano il contributo di David non solo dal punto di vista
della veridicità e della completezza, ma anche da quello del fondamento teorico. Se-
condo il loro punto di vista, la storia QWERTY, in cui uno standard inefficiente si
impone su uno pareto-efficiente per via degli effetti rete e dei relativi costi di swi-
tching, non è vera ed inoltre non può nemmeno essere vera: i modelli economici e
matematici su cui essa troverebbe qualche fondamento, sembrano infatti ben lontani
dal rispecchiare fedelmente ciò che avviene nel mondo reale. Ad esempio, si conside-
ri il caso di uno standard socialmente subottimale per eccesso di inerzia nelle innova-
zioni, ipotizzato nei noti modelli di (Farrell & Saloner, 1985); (Farrell & Saloner,
1986a) presi in considerazione nelle sezioni precedenti. L'eccesso di inerzia si verifi-
ca quando il sistema si "blocca" su uno standard inferiore pur nell'esistenza di uno più
innovativo e più efficiente: l'ipotesi avanzata nella storia QWERTY di David. I mo-
delli economici considerano questa eventualità come possibile, ma non possono tene-
re conto di tutti i meccanismi del mercato nel mondo reale:

Per la loro stessa natura, questo modello e gli altri come questo devono ignorare molti fatto-
ri nei mercati che esplorano. L'adesione ad uno standard inferiore in presenza di uno supe-
riore rappresenta comunque qualche genere di perdita, che implica una opportunità di profit-
to per chiunque riesca ad escogitare un modo di internalizzare l'esternalità e appropriarsi di
una parte del valore generato dal passaggio allo standard superiore. Inoltre, fattori istituzio-
nali come vantaggi di prima mossa, brevetti e i diritti di copyright, marchi, vendite congiun-
te, sconti e simili, possono anch'essi dischiudere possibilità di appropriazione (si legga "op-
portunità di profitto") per gli imprenditori, e con queste opportunità ci attendiamo di vedere
attività poste in essere per internalizzare le esternalità. Maggiore è il gap nella performance
tra i due standard, maggiori sono queste opportunità di profitto, e più probabile che si verifi-
chi uno spostamento verso il nuovo standard. Di conseguenza, un chiaro esempio di eccesso
di inerzia è presumibilmente molto difficile da trovare. Casi osservabili nei quali prevale

pacati e sereni anche quando avanzano, quasi in punta di piedi, critiche potenzialmente
dirompenti.
130
Cioè che gli "accidenti della storia" possano determinare il prevalere stabile di uno standard
inefficiente su possibili alternative più convenienti per il sistema nel suo complesso, così come
alluso dalla frase di Arthur riportata in apertura di questa sezione.
Analisi della letteratura 131

uno standard nettamente inferiore hanno probabilmente vita breve, o sono imposti di autori-
tà, o sono storie romanzate (Liebowitz & Margolis, 1990:4).

Si tratta di una critica molto forte nei confronti dei modelli più noti della network e-
conomics, che gli autori sviluppano compiutamente in un intero libro: (Liebowitz &
Margolis, 1999). Questa frase delle conclusioni riassume efficacemente la loro posi-
zione complessiva.

La nostra posizione è che i buoni prodotti vincono. La posizione opposta di alcuni modelli
economici è che i buoni prodotti potrebbero non vincere. Al contrario, cattivi prodotti,
prezzi elevati, politiche di vendita a svantaggio dei consumatori potrebbero venire "protette"
dai network effects e da altri effetti. C'è un mondo di evidenza a supporto della nostra ver-
sione. Non c'è nemmeno un solo esempio chiaramente documentato a supporto della versio-
ne opposta. (Liebowitz & Margolis, 1999:243).

La posizione critica di Williamson


Lo stesso Williamson, pur non negando del tutto la validità del concetto di path de-
pendence, ne ridimensiona nettamente l'importanza e sostiene invece che la logica
prevalente per l'affermazione delle innovazioni resta sempre quella del "cost econo-
mizing" su cui è basata l'economia dei costi di transazione. Infatti, anche se in genera-
le non è possibile disconoscere che "la storia è importante" (history matters), (e tale
concetto viene utilizzato in più parti nella sua teoria) questo non significa che la sto-
ria sia l'unica determinante delle scelte degli attori: «Il fatto che la storia conta non
implica necessariamente che soltanto la storia debba contare. L'intenzionalità e l'atti-
tudine a minimizzare i costi spiegano molto di quello che accade là fuori»
(Williamson, 1995:236).
Uno degli argomenti della discussione è basato proprio sul riesame del caso
QWERTY da parte di Liebowitz e Margolis. Williamson riprende il racconto di Da-
vid sulla apparentemente strana persistenza nelle tastiere di oggi della disposizione
dei tasti QWERTY. Uno degli argomenti dei sostenitori della path dependence è il
fallimento della "Dvorak Simplified Keyboard (DSK)". Secondo gli esperimenti della
Marina statunitense citati da David, la DSK permetteva una battitura talmente più ve-
loce rispetto alle tastiere tradizionali, che «l'incremento di efficienza ottenuto con la
DSK ammortizzerebbe il costo di riqualificazione professionale di un gruppo di datti-
lografi entro dieci giorni dalla loro successiva assunzione a tempo pieno» (David,
1986:33). In seguito, il computer Apple IIc è stato dotato di uno speciale interruttore
per convertirne la tastiera da QWERTY a DSK. «Se come sostiene la pubblicità Ap-
ple, la tastiera DSK permette di digitare dal 20 al 40% più veloci, perché questa tec-
nologia superiore incontra essenzialmente la stessa resistenza…?» Williamson ricor-
da come, oltre alle spiegazioni addotte da David, tra le quali la dipendenza dal per-
corso sarebbe quella determinante, esiste una ulteriore possibilità prospettata in segui-
to da Liebowitz e Margolis, che mettono in dubbio la affidabilità delle fonti usate da
David: né lo studio della Marina americana né la pubblicità della Apple possono in-
fatti davvero garantire l'effettiva veridicità dei risultati da loro conclamati:

La storia dello standard QWERTY contro quello Dvorak è viziata e incompleta- [...] La
conclamata superiorità della tastiera Dvorak è sospetta. Gli annunci più clamorosi si devono
132 Capitolo 3

allo stesso Dvorak e gli esperimenti meglio documentati, così come studi recenti di ergono-
mia, suggeriscono che la tastiera Dvorak goda di un vantaggio nullo o modestissimo
(Liebowitz & Margolis, 1990:21).

Williamson ne conclude dunque:

David sostiene e io ne sono persuaso che «ci sono molti altri casi QWERTY nel mondo là
fuori» (David, 1986:37). Una configurazione di tastiera immutata nel tempo non mi colpisce
comunque come l'attributo più importante nello sviluppo della scrittura meccanizzata dal
1870 al presente. Che dire dei miglioramenti nella meccanica delle tastiere? Che cosa delle
macchine da scrivere elettriche? E i personal computer e le stampanti laser? Perché sono
prevalsi sui vecchi sistemi a dispetto della path dependence? Ci sono davvero state altre
tecnologie "strutturalmente superiori" (secondo la definizione di Carrol e Harrison) che sono
state ignorate? Se, con ritardi e imperfezioni, le tecnologie più efficienti hanno regolarmente
soppiantato quelle meno efficienti, perché questo non dovrebbe essere esplicitamente consi-
derato? Forse la risposta è che "tutti sanno" che la minimizzazione dei costi è il fenomeno
dominante, del quale la dipendenza dal percorso, la monopolizzazione, l'assunzione di rischi
ecc. sono soltanto delle qualificazioni particolari (Williamson, 1995:239).

Le obiezioni di Williamson sono in fondo quelle "standard" che lo stesso David ave-
va sollevato ad Arthur fin dall'inizio: se esistesse una tastiera migliore, noi la starem-
mo già usando, come è avvenuto per tante altre innovazioni (vedi nota 122).
In effetti, varie fonti anche successive a Liebowitz e Margolis hanno confermato
che i vantaggi oggettivamente misurabili in termini di velocità di battitura della ta-
stiera Dvorak sono molto inferiori a quelli dichiarati da David, e forse non tali da giu-
131
stificare lo switching . Al di là delle contestazioni e delle polemiche, resta comunque
il fatto che, se da un lato i modelli economici e matematici della network economics
hanno fornito notevoli utili spiegazioni e indicazioni strategiche sulla concorrenza
nella produzione e diffusione di beni informativi, attraverso l'analisi degli effetti rete,
dei costi di switching e delle dinamiche di crescita e diffusione, dall'altra parte alcune
delle implicazioni più forti di questi modelli, tra cui la dipendenza dal percorso con
lock-in irreversibile, risultano oggi poco convincenti e non adeguatamente dimostrate
dall'evidenza dei fatti.

Ciò che resta della path dependence


La dipendenza dal percorso nel senso "forte" originariamente indicato da Arthur e da
David appare dunque poco plausibile: non conosciamo casi ben documentati in cui il

131
In (West, 1998) vengono riportati i risultati di accurate misure sperimentali che attribuiscono
alle tastiere Dvorak un incremento di efficienza intorno al 4% rispetto a quelle QWERTY.
Esso non sembra tale da giustificare oggi i costi di passaggio dal vecchio al nuovo standard.
D'altra parte, però, si rileva che il vantaggio sembra essere più elevato (intorno al 10%) per i
soggetti più esperti, il che spiega almeno in parte alcune posizioni di utenti molto favorevoli a
Dvorak che dichiarano notevoli guadagni di efficienza (Shipman, 2003). Una comparazione
ideale dovrebbe però essere effettuata, oltre che in laboratorio, attraverso l'osservazione
rigorosa di un gran numero di soggetti sul campo. Ci sono inoltre altri fattori che potrebbero
influire sulla futura adozione di tastiere Dvorak. L'evoluzione tecnologica rende infatti sempre
meno costosa la disponibilità contemporanea di entrambi gli standard. Ciò potrebbe forse
agevolare il passaggio, specie se fosse abbinato ad una ulteriore conferma dei benefici della
nuova tastiera, alla sua massiccia comunicazione e alla disponibilità di materiale didattico per
le scuole (attualmente scarsa).
Analisi della letteratura 133

sistema abbia liberamente adottato in modo irreversibile uno standard chiaramente


subottimale pur in presenza di un'alternativa socialmente preferibile. D'altra parte, pe-
rò, forme non irreversibili di lock-in e di dipendenza dal percorso sono invece fre-
quenti, specie quando il differenziale di efficienza tra la scelta su cui il sistema è
bloccato e quella concorrente non è elevato. In questa ottica è possibile rileggere il
132
caso QWERTY-Dvorak, ma anche altri casi famosi come quello VCR-Betamax e
quello della concorrenza tra scartamenti ferroviari, illustrato nel capitolo 1. In questi
casi, la predominanza o la persistenza di uno standard apparentemente inferiore, qua-
lora si sia verificata, non necessariamente dipende dal fatto che l'influsso degli acci-
denti della storia possa determinare un fallimento del mercato. Tipicamente in casi
come questi il differenziale di efficienza tra gli standard concorrenti è spesso piutto-
sto ridotto, per cui in condizioni di sostanziale parità tecnica il peso relativo degli al-
tri fattori può risultare determinante.
Piuttosto che come una tendenza irreversibile capace di indurre il sistema verso lo
standard "sbagliato", la dipendenza dal percorso si manifesta in modo molto più evi-
dente attraverso una spinta verso nuovi standard compatibili con quelli precedenti.
Infatti le innovazioni compatibili riducono i costi di switching per gli utenti, mini-
mizzando gli eventuali effetti di lock-in degli utenti allo standard preesistente. E'
dunque naturale che tendano a prevalere non solo le innovazioni più efficienti, ma
anche quelle più compatibili con quelle preesistenti.
Ciò potrebbe fornire un'ulteriore dimensione di valutazione anche del caso
QWERTY-Dvorak, a confronto con gli altri esempi di innovazione tecnologica nel
settore. La tastiera Dvorak non è infatti funzionalmente compatibile con la QWERTY
e richiede una importante fase di addestramento dell'utente prima di poter essere im-
piegata con profitto, mentre lo stesso non è avvenuto, ad esempio, per le macchine da
scrivere elettriche menzionate da Williamson, che erano compatibili con le preceden-
ti.
Per massimizzare le possibilità di successo, i nuovi standard devono dunque esse-
re concepiti in modo tale da abilitare nuove funzioni senza però compromettere, per
quanto possibile, quelle preesistenti. In campo informatico, ad esempio, l'introduzio-
ne di un nuovo sistema operativo compatibile con uno preesistente permette alle ap-

132
Il caso della concorrenza tra standard per videoregistratori VCR e Betamax è stato addotto
dallo stesso Arthur come un esempio classico di lock-in e di dipendenza dal percorso, dato che
secondo alcuni lo standard JVC/VCR (che prevalse) sarebbe tecnicamente inferiore al
Sony/Betamax (che fallì); esso avrebbe conquistato l'intero mercato grazie ai rendimenti
crescenti innescati da una posizione di vantaggio dovuta a fattori minori e/o casuali (Arthur,
1990). Anche questo casi è stato però successivamente riconsiderato da Liebowitz e Margolis,
che spiegano come, ad esempio, la migliore qualità di immagine di Betamax fosse contrapposta
ad una durata doppia delle cassette VCR (circa due ore contro un'ora di Betamax). Mentre la
differenza di qualità di immagine era spesso indistinguibile nelle registrazioni dei programmi
televisivi, la lunga durata era importante per archiviare un intero film in una cassetta. L'analisi
si estende ad altri fattori e ad altre fonti: (Liebowitz & Margolis, 1999), cap. 6. Una più recente
verifica empirica dell'importanza degli effetti rete attraverso tecniche di analisi strutturale,
evidenzia peraltro che essi furono probabilmente rilevanti, accanto alla qualità tecnica dello
standard, per il successo di VCR; attraverso una simulazione, essa mostra anche come, se Sony
avesse usato una politica di prezzi più aggressivi per Betamax, essa avrebbe probabilmente
potuto sfruttare il suo vantaggio di ingresso e conquistare il mercato (Ohashi, 2003).
134 Capitolo 3

plicazioni già sviluppate di continuare a funzionare senza modifiche sostanziali. D'al-


tra parte, però, la ricerca della compatibilità può ridurre l'efficienza dell'innovazione.
Ad esempio, l'evoluzione di Microsoft Windows da ambiente grafico per il sistema
operativo DOS a sistema operativo autonomo è stata notevolmente rallentata e resa
problematica dalla necessità di garantire il funzionamento delle applicazioni preesi-
stenti. L'esistenza di una ampia base installata di applicazioni DOS ha così forzosa-
mente tracciato un percorso evolutivo per Windows che sarebbe altrimenti stato di-
133
verso .
Tornando indietro nel tempo, scopriamo che una delle ragioni per cui l'architettura
PC/Windows ha conquistato il predominio risiede proprio nella scelta di introdurre
gradualmente l'uso del mouse e dell'interfaccia grafica mantenendo nello stesso tem-
po la compatibilità con la base installata DOS, sfruttando in tal modo gli effetti rete
indiretti e minimizzando i costi di passaggio. Al contrario la Apple fece una scelta
radicale e fortemente innovativa: nel passaggio dai primi sistemi ad interfaccia carat-
teri (il famoso Apple II) agli innovativi Macintosh, mise in atto un'innovazione molto
anticipata rispetto alla concorrenza, ma non assicurò la compatibilità dei nuovi siste-
mi Macintosh con i precedenti Apple II. Inoltre il Macintosh, al contrario del PC, era
un sistema "chiuso", (non espandibile né riproducibile dai concorrenti) e non riuscì
mai a conquistare la massa critica necessaria per contrapporsi efficacemente al dilaga-
134
re dei sistemi PC/Windows .
Al di là di contestazioni e dispute accademiche, il dibattito tra le due opposte fa-
zioni pro e contro la path dependence ha evidenziato che l'economia dell'informazio-
ne e delle reti dà luogo a fenomeni complessi e ricchi di potenziali nuove implicazio-
ni, che arricchiscono e completano, ma non sovvertono, i principi base dell'economia
tradizionale. La nascita e l'affermazione di un nuovo standard richiede ancora, innan-
zi tutto, che esso abbia caratteristiche tecniche tali da risultare "socialmente ottimo";
nello stesso tempo, però, essa è fortemente influenzata dagli effetti rete, dai costi di
switching, dalle dinamiche di crescita, nonché dall'importanza della base installata
che si manifesta in una spinta verso la compatibilità. Più in generale, è oggi possibile
di parlare di "miglioramento vincolato dal percorso" (path constrained amelioration:
(David, 2007:16), riferendosi ai vincoli ereditati dalle scelte passate che delimitano e
indirizzano il raggio di azione degli operatori economici.

133
I progettisti del DOS non potevano sapere che alcune delle scelte di progetto da loro
effettuate, come quella di permettere l'accesso diretto e non controllato da parte dei programmi
alla memoria di sistema e alle routine del BIOS, avrebbero contribuito a determinare da una
parte l'endemica instabilità delle applicazioni in ambiente Windows, dall'altra la necessità per i
progettisti di microprocessori della Intel di continuare a prevedere una modalità di
funzionamento (la modalità "reale") superata, primitiva e anche pericolosa. Nello stesso tempo
però questa dipendenza di percorso, pur avendo costituito un fattore di debolezza (soffocando
l'evoluzione tecnologica e compromettendo le prestazioni e l'affidabilità dei sistemi
PC/Windows) ha anche sostanzialmente tagliato fuori dal mercato le architetture alternative
(come Macintosh e Next) che non hanno seguito il "percorso" di compatibilità DOS.
134
Anche la famosa interpretazione del caso Macintosh come di un esempio di innovazione che
avrebbe lasciato il passo ad un'alternativa subottimale ma più diffusa (PC/Windows) è stato
rivisto in chiave critica nel capitolo 6 di (Liebowitz & Margolis, 1999).
Analisi della letteratura 135

La dipendenza dal percorso in senso "forte", cioè la possibilità che gli "accidenti
della storia" spingano il sistema verso scelte subottimali irreversibili, appare invece
135
controversa e non provata empiricamente , nonostante sia teoricamente dimostrata in
numerosi modelli matematici ed economici.
Queste considerazioni potranno trovare impiego più avanti nel delineare un qua-
dro di analisi teorica sui processi di standardizzazione che tenga conto di quanto de-
sumibile dalla letteratura sulla network economics, che si estende comunque ben al di
là dei contributi più noti tratteggiati fino ad ora. Al fine di fornire qualche riferimento
di utilità per il lettore interessato ad esplorare ulteriormente questi temi, nella prossi-
ma sezione verranno prese in considerazione alcune delle più autorevoli e complete
rassegne della notevole mole di letteratura prodotta fino ad oggi in questo ambito.

3.2.5 Le rassegne sulla network economics

Le quattro rassegne qui prese in considerazione, sono, in ordine cronologico, (David


& Greenstein, 1990); (Economides, 1996); (Stango, 2004) e (Farrell & Klemperer,
2007). Esse sono tra le più note, autorevoli e complete literature review sulla network
economics pubblicate negli ultimi venti anni.
L'economia degli standard di compatibilità è il tema della rassegna che Paul David
pubblicò nel 1990 insieme a Shane Greenstein (David & Greenstein, 1990). Questa
rassegna è presto divenuta uno degli studi di riferimento sulla standardizzazione: essa
appare anche in Tabella 3.2 tra i lavori più citati nel recente numero speciale di MIS
Quarterly dedicato ai processi di standardizzazione nel settore IT. Gli autori analiz-
zano circa 150 riferimenti sugli standard, classificandoli in quattro grandi aree a se-
conda dell'origine dello standard stesso, con uno schema che abbiamo già preso in
considerazione in precedenza (Figura 1.4): da un lato gli standard de facto, originati
in modo più o meno spontaneo da processi di mercato, che si distinguono tra sponso-
rizzati e non sponsorizzati; dall'altro gli standard de jure, che sono promulgati da isti-
tuzioni governative o da associazioni come i consorzi di standardizzazione volontaria.
Già nel 1990 la mole e la varietà dei contributi era notevole, rendendo estremamente
complesso e difficoltoso il quadro di insieme. La mappa concettuale rappresentata qui
di seguito sintetizza il contenuto della rassegna evidenziando gli aspetti più rilevanti
ai nostri fini.

135
Il dibattito sulla path dependence si inserisce in un contesto più ampio di superamento di
alcune delle limitazioni dell'economia neoclassica, attraverso l'introduzione di una diversa
concezione della conoscenza economica: da un lato Arthur, David e i loro seguaci che fondano
l'idea della path dependence su una nuova formalizzazione economico-matematica di tipo
dinamico, più evoluta dei modelli statici neoclassici; dall'altro Liebowitz e Margolis, che,
appoggiati dagli esponenti della cosiddetta Austrian Economics, sostengono che i modelli
matematici pur sofisticati non possono costituire nuova conoscenza economica finché non
trovano un'adeguato riscontro empirico. Su questa interpretazione epistemologica del dibattito
vedi (Lewin, 2001). Un ulteriore contributo critico fondamentale sul tema è dati dagli studi di
economia e organizzazione industriale che hanno in Giovanni Dosi un esponente di spicco di
un significativo gruppo di ricercatori in ambito internazionale. La posizione critica di Dosi e
colleghi sul controverso tema della irreversibilità della path dependence è ben illustrata in
(Bassanini & Dosi, 2001).
136 Capitolo 3

Le quattro categorie di standard sono evidenziate nella mappa insieme ai principali


temi discussi nella rassegna.
Unsponsored standards. Gli standard non sponsorizzati nascono da processi di
mercato: di conseguenza la letteratura si è principalmente focalizzata sulle possibili
distorsioni degli equilibri di mercato ad esse conseguenti. I temi centrali, come ab-
biamo già visto, riguardano le dinamiche di diffusione (feed-back positivi e rendi-
menti crescenti); gli influssi sull'innovazione (excess inertia/momentum) e l'esistenza
di stati di equilibrio multipli e subottimali, legati ad effetti di lock-in e dipendenza dal
percorso.
Sponsored standards. L'esistenza di uno o più sponsor privati che investono sulla
futura diffusione di uno standard può determinare, in presenza di esternalità, una serie
di conseguenze che sono state oggetto di numerosi studi. Da un lato sono state prese
in esame le strategie impiegate dagli sponsor per conquistare il mercato, che com-
prendono ad esempio prezzi iniziali aggressivi, licenze aperte, politiche di preannun-
cio e ingresso sul mercato, ecc. Dall'altro gli effetti di rete indiretti presenti nei mer-
cati di sistemi hardware/software hanno motivato numerose analisi, tipicamente foca-
lizzate sugli aspetti, le scelte e le conseguenze della compatibilità tecnica e sulle stra-
tegie ad essa correlate.
SDO/anticipatory standards. Come abbiamo visto, le cosiddette "Standard Deve-
lopment Organizations" (SDO) sono consorzi volontari spesso impegnati nella pro-
gettazione negoziale di nuove specifiche tecniche condivise. Gli studi di questo tipo
di standardizzazione sono piuttosto rari ma particolarmente rilevanti ai nostri fini: es-
si sono evidenziati nella mappa con un circolo più marcato. Nella progettazione ne-
goziale, infatti, gli aspetti strategici e negoziali della competizione tra sponsor si con-
giungono agli aspetti tecnici della progettazione congiunta, che risulta spesso partico-
larmente complessa. Alcuni dei lavori selezionati da David e Greenstein hanno preso
in esame i fattori di successo di questo tipo di standardizzazione. I processi che danno
luogo a standard di successo (cioè che emergono e si diffondono più facilmente) sono
spesso caratterizzati, sotto il profilo tecnico, da soluzioni "naturali" e neutrali, con li-
cenze aperte e pubbliche, che hanno già avuto un significativo test di uso pratico; sot-
to il profilo negoziale, si rivelano utili le strategie atte a preconcordare i risultati, a
ridurre le soluzioni possibili, coinvolgendo però il maggior numero possibile di attori,
sia a livello intraorganizzativo che interorganizzativo. Oltre ai fattori di successo, al-
tre tematiche rilevanti della ricerca hanno riguardato i processi di sense-making con la
generazione di scenari d'uso futuro, l'equilibrio tra le contrapposte esigenze di compa-
tibilità ed efficienza tecnica; l'influenza del raggio di azione dello standard (standard
generalisti verso standard di nicchia).
Analisi della letteratura 137

Figura 3.10 Mappa concettuale di (David & Greenstein, 1990).

Tutti questi fattori potrebbero aver rilievo ai fini della scelta delle modalità otti-
mali di coordinamento organizzativo nei consorzi di standardizzazione volontaria:
138 Capitolo 3

David e Greenstein osservano che ciò dà luogo ad una importante e irrisolta questione
organizzativa, che è anche la principale motivazione di questo lavoro.
Government standards l'ultima parte della rassegna è dedicata agli standard pro-
mulgati direttamente dalle istituzioni governative, estendendosi al tema più generale,
molto caro agli economisti, sull'opportunità e sui modi di intervento pubblico nei pro-
cessi di standardizzazione. Oltre all'acceso dibattito tra liberisti e interventisti, si
prendono in considerazione gli studi sulle forme di intervento indiretto, incentrate
sulla tutela della concorrenza (anti-trust) e sulle politiche a favore della compatibilità
e delle licenze aperte.
In conclusione, David e Greenstein, di fronte alla numerosità e alla ricchezza dei
modelli sull'economia degli standard, osservano che da un lato «i dettagli dei modelli
fanno la differenza e non c'è un forte consenso sulle conclusioni raggiunte da studi
differenti» (David & Greenstein, 1990:34); dall'altro che «gli esercizi di modelling
sono giunti molto oltre la base dei fatti verificati empiricamente in modo solido»
(David & Greenstein, 1990:35). Essi anticipavano in questo modo il fuoco di fila di
critiche che, come abbiamo visto, cominceranno proprio nello stesso anno con la
pubblicazione di "The fable of the keys" (Liebowitz & Margolis, 1990).
Al di là delle questioni accademiche, la rassegna di David e Greenstein ha lasciato
il segno sia nella teoria che nella pratica. Essa ha consolidato e stimolato il progredire
degli studi e delle conoscenze sui processi di standardizzazione in presenza di ester-
nalità, dimostrando che si tratta un campo di ricerca in fase di maturazione; essa ha
inoltre contribuito indirettamente al diffondersi delle idee sulle esternalità di rete an-
che nei comitati di standardizzazione e nelle imprese che vi partecipano. Le contro-
versie suscitate delle implicazioni più forti della network economics (lock-in, dipen-
denza dal percorso, fallimento del mercato) aprono il campo della ricerca a nuove
forme di investigazione, che ne prendano in considerazione anche gli aspetti organiz-
zativi verificandoli empiricamente sul campo.
La rassegna di Nicholas Economides apparsa sei anni dopo (Economides, 1996)
consolida e chiarifica ulteriormente le basi concettuali della network economics, di-
stinguendo chiaramente effetti di rete diretti e indiretti e le loro implicazioni anche in
termini di struttura dei mercati. La rassegna della letteratura è in qualche modo più
ristretta (56 riferimenti, di cui 24 a lavori dello stesso Economides), ma oltre a conso-
lidare e chiarire lo stato dell'arte delle ricerche, individua una serie di questioni anco-
ra almeno parzialmente irrisolte: 1) la determinazione analitica congiunta della strut-
tura di equilibrio del mercato (ivi compreso il grado ottimale di integrazione verticale
e di aggregazione tra imprese) e del livello preferibile di compatibilità in presenza di
più imprese; 2) il livello ottimale di standardizzazione e la struttura delle coalizioni
tra imprese; 3) Il funzionamento dei mercati degli adattatori e degli add-on; 4) l'anali-
si della struttura dei mercati in presenza di dinamiche multi-periodo; 5) il funziona-
mento e gli effetti delle strategie di prezzo e di annunci preliminari; 6) la definizione
della struttura modulare ottimale dei componenti immessi sul mercato; 7) I meccani-
smi della competizione in un mercato di componenti modulari stratificati.
Nel 2004 Victor Stango ha pubblicato una rassegna della letteratura che ospita 56
lavori di network economics (Stango, 2004). Stango individua una fase iniziale di svi-
luppo della teoria, contrassegnata dai lavori degli anni '80 e dei primi anni '90, con-
Analisi della letteratura 139

clusa dalla disputa sul caso QWERTY e dall'evidenziazione di una serie di aspetti da
chiarire: 1) l'esplicitazione e l'importanza degli effetti rete indiretti rispetto a quelli
diretti; 2) il ruolo esplicito e spesso risolutivo delle politiche degli sponsor per la de-
terminazione degli equilibri di mercato; 3) la consapevolezza che lock-in e dipenden-
za dal percorso erano spesso presenti nei primi modelli a causa di assunzioni troppo
restrittive; 4) la consapevolezza che anche in caso di market failure un intervento di-
retto di un'autorità centrale potrebbe essere altrettanto inefficace per far prevalere uno
standard socialmente ottimale. I contributi più recenti hanno teso dunque a fornire ri-
sposte più o meno parziali a queste questioni; essi vengono passati in rassegna da
Stango nella seconda parte della review, che evidenzia alcuni incoraggianti passi a-
136
vanti sia sul piano empirico che su quello teorico , ma che si conclude osservando
come i due gap più importanti ancora da coprire sembrano essere proprio quello della
scarsità di riscontri empirici diretti e quello della insufficiente indagine dei processi
nell'ambito dei comitati di standardizzazione.
Recentemente, Joseph Farrell ha proposto con il contributo di Paul Klemperer,
una ricca rilettura dei contributi della network economics, in cui si passano in rasse-
gna oltre 470 studi, a partire dalle origini fino ad oggi (Farrell & Klemperer, 2007).
La rassegna è organizzata in due grandi parti: la prima sui costi di switching, la se-
conda sui network effects. La rassegna è interessante più per la sua ricchezza di rife-
rimenti (non solo teorici ma anche empirici) che per il contributo di analisi critica,
che resta sostanzialmente allineato alle precedenti posizioni del primo autore.

3.2.6 Considerazioni di sintesi

A conclusione di questa panoramica, si richiamano qui alcuni degli aspetti essenziali


che la network economics suggerisce di tenere esplicitamente in conto nell'analisi dei
processi di standardizzazione.
Primo, la natura degli standard oggetto di analisi ha un ruolo importante: in che
misura possano essere considerati information goods e quindi risultare soggetti ai fe-
nomeni tipici della network economics, come gli effetti rete diretti e indiretti, le eco-
nomie dal lato della domanda e dell'offerta, i costi di switching e le eventuali forme di
dipendenza dal percorso?

136
In particolare, Stango evidenzia come una seconda generazione di lavori sugli effetti rete
abbia impostato analisi maggiormente supportate da evidenza empirica, basate non soltanto
sulla simulazione, ma anche su tecniche di analisi statistica strutturale dei valori osservati di
alcune variabili chiave. Con approcci di questo tipo, ad esempio, Ohashi ha recentemente
riconsiderato il caso VCR/Betamax, evidenziando l'esistenza di effetti rete indiretti (vedi nota
132: (Ohashi, 2003)); Shankar e Bayus hanno mostrato che nei mercati dei videogames
l'intensità degli effetti rete può essere più forte in reti più piccole (Nintendo) piuttosto che in
reti più estese (Sega) (Shankar & Bayus, 2003); Rysman ha riportato la presenza di effetti rete
nel mercato delle pagine gialle (Rysman, 2004); Neils e coautori hanno rilevato empiricamente
l'esistenza di effetti rete indiretti tra hardware e software nel mercato dei PDA (Personal
Digital Assistant), che avvalora le strategie di investimento per l'ampliamento dei mercati del
software da parte dei produttori di hardware, di cui si è parlato in questo capitolo alla sez. 3.2.2
(Nair et al., 2004).
140 Capitolo 3

Secondo, le strategie e le tattiche che la network economics ha ampiamente osser-


vato e discusso possono indirizzare i processi di standardizzazione e innovazione tec-
nologica nella direzione voluta dagli attori e dal mercato: politiche di prezzi, adozio-
137
ne di standard aperti, preannunci di prezzo/prodotto, ecc. .
Terzo, raramente gli information goods producono dipendenza dal percorso irre-
versibile: piuttosto che bloccare il sistema su scelte "sbagliate", essi possono piuttosto
spingere gli attori verso soluzioni innovative condivise (open innovation:
(Chesbrough, 2003)).
Quarto, le analisi degli eventuali fenomeni di dipendenza dal percorso andranno
più opportunamente condotte in termini di path constrained amelioration che in ter-
mini di irreversibilità. A tal fine la valutazione esplicita del grado di compatibilità
delle tecnologie concorrenti e della sua influenza sulle dinamiche di innovazione e
diffusione di tecnologie concorrenti può risultare determinante.
Quinto, anche in presenza di path constrained amelioration, il ruolo della concor-
renza e del mercato, in cui il merito "tecnico" delle tecnologie gioca un ruolo deter-
minante, non può non essere considerato esplicitamente.
Sesto, è importante considerare che in un numero sempre maggiore di settori eco-
nomici e industriali la tensione tra mercato e dipendenza dal percorso può essere ri-
solta ricorrendo ad architetture di prodotto modulari, in cui la logica del dominant de-
sign si sposa non tanto con la dipendenza dal percorso in senso stretto, quanto con le
più recenti teorie sulla complessità e sulla modularità (Anderson & Tushman, 1990);
(Murmann & Frenken, 2006). Questo argomento, tra gli altri, verrà trattato più in det-
taglio nella prossima sezione, che prenderà in esame il contributo offerto dalle scien-
ze sociali alla comprensione dei processi di standardizzazione.

3.3 Il contributo delle scienze sociali


Come abbiamo visto, il contributo complessivo fornito dalla network economics allo
studio interdisciplinare dei processi di standardizzazione è rilevante, indipendente-
mente dallo sviluppo attuale del dibattito e dalle questioni rimaste ancora aperte. La
domanda centrale degli economisti su questo tema riguarda l'esistenza degli effetti
rete e le conseguenti implicazioni in termini di welfare e di politica economica. Se
uno standard in concorrenza con altri viene favorito dalla crescita della sua rete, è
possibile che standard tecnicamente superiori e dunque potenzialmente preferibili non
riescano a decollare sul mercato perché non hanno reti di utenti abbastanza sviluppa-
te? Per quanto questa questione possa essere economicamente rilevante e controversa,
non è l'unico aspetto da considerare per una indagine organizzativa dei processi di
standardizzazione. Ai fini organizzativi la questione fondamentale si sposta dagli e-
quilibri economici alle modalità di lavoro: gli attori e le loro relazioni, le attività, i
meccanismi di coordinamento, le istituzioni, la tecnologia. Con questo tipo di inve-
stigazione anche alcuni del gap fondamentali già evidenziati dagli economisti potran-

137
Vedi sezione 3.2.2, paragrafo: "Ancora Katz e Shapiro (1994): Effetti rete indiretti, strategie
e compatibilità".
Analisi della letteratura 141

no forse un giorno trovare adeguata copertura: quali sono le modalità di funziona-


mento dei comitati di standardizzazione e delle altre organizzazioni (o forme di mer-
cato) in seno alle quali si sviluppa ed emerge uno standard? Quali sono preferibili e
contribuiscono dunque a far nascere ed affermare lo standard "migliore" nel modo più
efficiente e rapido possibile?
Qui di seguito verranno illustrati alcuni dei contributi di maggiore rilievo delle
scienze sociali che possono contribuire ad affrontare questi interrogativi. In particola-
re, verranno presentati gli studi di dominant design e i loro più recenti sviluppi su
complessità e modularità; le teorie neoistituzionali e alcune loro applicazioni empiri-
che; gli studi ecologisti e la loro intersezione con le indagini su identità e legittima-
zione; gli studi sulla flessibilità interpretativa della tecnologia; le analisi classiche sui
temi del potere. La sezione conclusiva del capitolo apre il campo a una vista d'insie-
me di tutte queste prospettive, che possono contribuire a far luce sui processi di stan-
dardizzazione in modo complementare.

3.3.1 Tecnologie dominanti e modularità

Le indagini sull'innovazione tecnologica possono fornire alcune utili risposte alla


questione della nascita di uno standard. In particolare, gli studi sull'affermazione di
un "dominant design" hanno ormai una lunga tradizione sia teorica che empirica e
continuano ancora oggi a evolvere verso una teoria multidisciplinare e integrata sem-
pre più articolata e complessa. Spesso si associa questo filone di studi ai nomi di An-
dersen e Tushman e ai loro contributi sulle discontinuità tecnologiche (Tushman &
Anderson, 1986) e sulle tecnologie dominanti (Anderson & Tushman, 1990). Secon-
do questo modello, le discontinuità tecnologiche determinano significativi "salti" in
avanti che danno luogo a periodi di intensa mutazione e selezione, durante i quali le
diverse varianti competono tra loro per la conquista del mercato, fino a determinare il
predominio eventuale di una tecnologia dominante. A partire dall'introduzione di una
discontinuità tecnologica, si succedono una "era di fermento" e una "era di cambia-
mento incrementale". Durante la "era di fermento" diverse implementazioni della
nuova tecnologia emergente lottano tra loro per la conquista del mercato (competi-
zione within the new technical regime) e contro la tecnologia preesistente, che a sua
volta tende spesso a reagire evolvendo rapidamente (competizione between technical
regimes). L'era di fermento, caratterizzata da un elevato tasso di innovazione, dura
fino all'affermazione eventuale di un dominant design; ciò dà luogo ad un periodo di
relativa stabilità con innovazioni più limitate e graduali del design dominante, chia-
mato appunto "era di cambiamento incrementale", fino alla successiva discontinuità
tecnologica.
Le innovazioni possono essere caratterizzate in base all'effetto che hanno sulle
competenze preesistenti: quelle che le valorizzano (competence enhancing) e quelle
che le rendono obsolete (competence destroying). Anderson e Tushman hanno osser-
vato che la durata dell'era di fermento tende ad essere maggiore quando la disconti-
nuità tecnologica distrugge le competenze preesistenti; inoltre, le innovazioni compe-
tence enhancing tendono a essere proposte dalle imprese che erano già presenti sul
mercato prima della discontinuità, mentre quelle competence destroying vengono
142 Capitolo 3

proposte sia dai new entrants che dagli incumbents. Un altro aspetto di rilievo riguar-
da il ruolo delle forme di protezione della proprietà intellettuale: mentre, come si è
già visto, molti contributi della network economics attribuiscono alla possibilità di
istituire licenze, marchi e brevetti un ruolo centrale ai fini della incentivazione degli
investimenti iniziali per il raggiungimento della massa critica, Anderson e Tushman
osservano un effetto opposto: regimi di appropriabilità eccessivamente elevata posso-
no impedire l'emergere di un design dominante, ostacolando la diffusione per imita-
zione. Questo suggerisce la ricerca di un equilibrio tra forme di totale apertura, che
disincentivano gli investimenti iniziali, e forme di appropriabilità eccessivamente e-
levata, che ostacolano la diffusione delle innovazioni.
Nel complesso, il modello di Anderson e Tushman, che si avvale di un'ampia rac-
colta di dati storici sull'evoluzione tecnologica in tre settori industriali (cemento, ve-
tro e minicomputer) costituisce un punto di riferimento essenziale per le ricerche suc-
cessive. Esso non è comunque il primo né l'unico studio sui dominant designs: la ri-
cerca ha avuto origine negli anni '70 con gli studi di Utterback e Abernathy
(Utterback & Abernathy, 1975); (Abernathy & Utterback, 1978), per svilupparsi no-
138
tevolmente fino ai giorni nostri in molteplici direzioni . Una rassegna piuttosto re-
cente della letteratura su questo tema è ospitata in (Suarez, 2004), in cui viene propo-
sto uno schema integrativo che prende in esame 58 precedenti contributi, con l'obiet-
tivo di riconciliarne e unificarne alcuni dei tratti essenziali. Suarez da un lato caratte-
rizza ulteriormente le fasi del processo di technology dominance sulla base delle ri-
cerche recenti, dall'altro ne riepiloga il complesso dei fattori chiave di dominio tecno-
logico, raggruppandoli in due livelli, il livello di impresa e quello di ambiente.
La letteratura presa in esame da Suarez ha posto in evidenza alcuni avvenimenti
chiave, specie nel periodo di fermento, che danno luogo nel complesso alle seguenti
cinque fasi:
I. Ricerca e sviluppo. Dall'inizio delle ricerche su una nuova tecnologia al mo-
mento in cui emerge il primo prototipo.
II. Prima attuazione. Dal primo prototipo al lancio del primo prodotto commer-
ciale.
III. Creazione del mercato. Dal primo prodotto commerciale all'apparizione della
prima alternativa della concorrenza, che dà il via alla competizione.
IV. Battaglia decisiva. Dall'inizio della competizione fino alla vittoria di uno dei
concorrenti con l'affermazione definitiva del dominant design.
V. Dominio. La fase di dominio dura fino alla successiva discontinuità tecnolo-
gica.

138
All'essenza il concetto di dominant design racchiude infatti la competizione tra tecnologie,
che è stata oggetto di filoni di indagine con diverse denominazioni. «Da decenni gli studiosi di
management osservano e analizzano le battaglie tecnologiche, con etichette che includono
quella di "dominant design", (Anderson & Tushman, 1990); (Utterback & Abernathy, 1975);
(Utterback & Suarez, 1993), quella di "technological trajectories" (Dosi, 1982); (Sahal, 1982)
e quella più recente di "platforms" (Meyer & Lehnerd, 1997); (Cusumano & Gawer, 2002)»
(Suarez, 2004:271).
Analisi della letteratura 143

I fattori che possono influenzare il processo variano a seconda delle fasi: ad esem-
pio gli effetti rete influenzano prevalentemente le fasi finali, mentre la credibilità e la
reputazione dei proponenti sono più importanti all'inizio del processo.
La Tabella 3.4 che segue elenca gli otto fattori chiave riepilogati da Suarez, indi-
cando le fasi del processo in cui essi possono risultare determinanti.

Tabella 3.4 Fattori chiave di dominio di una tecnologia per ciascuna fase del processo. Fon-
te: (Suarez, 2004:283).

Livello Fattore chiave di dominio I II III IV V

Impresa Superiorità tecnologica √

Credibilità/asset complementari √ √

Base installata √ √

Manovre strategiche √

Ambiente Norme e legislazione √

Effetti rete e costi di passaggio √ √

Regime di appropriabilità √

Caratteristiche del settore tecnologico √

Anche se, rispetto agli anni '70 in cui apparsero i primi contributi, sappiamo oggi cer-
tamente molto di più sulle tecnologie dominanti e sui fattori che contribuiscono alla
affermazione di uno standard tecnologico, lo sviluppo e l'applicazione ulteriore delle
teorie sulle tecnologie dominanti appaiono tuttora messi alla prova dalla complessità
dell'oggetto di analisi e dalla ambiguità dei corrispondenti modelli teorici. Che cosa è
esattamente un design? Anche i lavori che si distinguono per il particolare rigore me-
todologico, come (Anderson & Tushman, 1990), tendono ad aggirare questo quesito
fondamentale, usando indifferentemente i termini "dominant configuration of the new
139
technology", "standard architecture" (p. 606), "technological order" (p. 612) ed altri .
Eppure gli studi più recenti hanno evidenziato come la natura complessa dell'oggetto
di analisi possa avere implicazioni importanti ai fini della ricerca: alcune tra le forme
139
Gli autori notano in effetti in modo esplicito la possibile esistenza di diversi "livelli di
analisi" nella tecnologia, ma risolvono solo formalmente l'ambiguità riferendosi ad un generico
livello di prodotto individuato da un codice standard di classificazione: «Ai nostri fini la
tecnologia potrebbe essere analizzata a diversi livelli di analisi. Per esempio, potremmo aver
analizzato l'evoluzione delle bottiglie per il latte, oppure dei contenitori di vetro in generale, o
anche di qualsiasi forma di imballaggio. In questo studio, la tecnologia di un settore è stata
definita attraverso il suo codice standard di classificazione industriale (SIC: Standard
Industrial Classification), in modo di far riferimento ai confini standard del settore» (Anderson
& Tushman, 1990:606).
144 Capitolo 3

oggi più rilevanti di dominant design, come quelle di "dominio architetturale" o "di
piattaforma" non risiedono soltanto nella superiorità tecnologica, ma anche nella par-
ticolare natura complessa e modulare dei prodotti di una buona parte del sistema in-
dustriale contemporaneo. Il dominio esercitato da Microsoft e Intel sul mercato dei
personal computer costituisce un esempio paradigmatico di questa tendenza, che ap-
pare oggi diffondersi rapidamente in diversi settori, incluso quello automobilistico ed
aerospaziale.
Questo aspetto viene analizzato con notevole acume e profondità in (Murmann &
Frenken, 2006), che prende le mosse dalla nota rassegna critica già apparsa in
140
(Tushman & Murmann, 1998) per comporre un quadro analitico sistematico e coe-
rente, che non soltanto integra ed unifica le differenti prospettive sul dominant de-
sign, ma traccia la via per risolvere le ambiguità sull'oggetto di analisi e sulle sue ca-
ratterizzazioni fondamentali. Il contributo di Murmann e Frenken si avvale in modo
rigoroso e documentato di concetti provenienti da diverse discipline (innovazione e
dominant design, teorie della complessità, studi sull'evoluzione biologica, design the-
ories). Si cercherà qui di evidenziarne solo alcuni dei tratti più rilevanti ai nostri fini,
raccomandando al lettore la lettura del lavoro originale in toto, che sviluppa con chia-
rezza un'analisi di notevole estensione e profondità su un tema tanto affascinante
quanto complesso.
La dimostrazione di Murmann e Frenken si articola in tre passaggi essenziali: 1)
illustrazione critica delle diverse posizioni sul dominant design e delle questioni an-
cora aperte; 2) uso di spiegazioni ispirate alle teorie della complessità e dell'evoluzio-
nismo biologico per la costruzione di un quadro unico e coerente sul dominant de-
sign; 3) implicazioni organizzative.

Le divergenze tra gli studi sul dominant design


L'ampia ed aggiornata rassegna della letteratura di Murmann e Frenken, sulla base di
oltre cento contributi precedenti, individua le seguenti dimensioni di divergenza teo-
rica sul dominant design: «(i) la definizione di dominant design; (ii) l'unità di analisi;
(iii) la granularità (livello) di analisi; (iv) la sequenza temporale dello sviluppo tecno-

140
In (Tushman & Murmann, 1998) si evidenziano tre diversi approcci della letteratura,
esemplificati rispettivamente dai lavori di (Abernathy & Utterback, 1978); (Anderson &
Tushman, 1990) e (Henderson & Clark, 1990). In estrema sintesi, i primi due contributi
applicano entrambi l'idea di dominant design al livello di prodotto: secondo la prospettiva
introdotta da Abernathy e Utterback un prodotto dominante è "la migliore sintesi delle
innovazioni disponibili" (Tushman & Murmann, 2002:326), mentre per Anderson e Tushman
esso è il risultato di processi di variazione e selezione che avvengono nella fase di fermento. La
prospettiva di Henderson e Clark introduce invece nello studio delle tecnologie dominanti il
concetto di "sistema", che permette di adottare livelli multipli di analisi, differenziando i tipi di
innovazione a seconda del (sotto)sistema considerato e della sua importanza relativa. Gli autori
da un lato evidenziano le differenze tra le tre prospettive considerate, dall'altro delineano i tratti
essenziali dell'opera di integrazione teorica, basata sull'idea di "gerarchie di cicli tecnologici",
che è oggi al centro degli studi più avanzati. Il contributo di Tushman e Murmann,
originariamente apparso su Research in Organizational Behavior (Tushman & Murmann,
1998), ha vinto lo Stephan Schrader Award dell'Academy of Management nel 1998, ed è stato
inserito in una successiva raccolta di classici pubblicata nel 2002 (Tushman & Murmann,
2002).
Analisi della letteratura 145

logico; (v) i meccanismi causali; (vi) l'ampiezza e i limiti del campo di applicazione»
(Murmann & Frenken, 2006:933).
Nel rinviare al contributo originale per la discussione sistematica delle peculiarità
e delle determinanti specifiche di queste divergenze, si passa qui direttamente al mo-
dello proposto dagli autori che ne permette il superamento.

Il superamento delle divergenze: complessità e pleiotropia


Alla base delle difficoltà nella definizione di dominant design è il fatto che molti arte-
fatti tecnologici sono in effetti sistemi complessi composti da un gran numero di parti
in speciale relazione tra loro. Peculiari interdipendenze tecniche fanno sì che alcune
parti di un artefatto complesso non possano essere innovate senza dover intervenire
con correlate innovazioni anche in altre parti. Intuitivamente si potrebbe pensare che
siano proprio le parti "più importanti" del sistema tecnologico a costituire un domi-
nant design, in grado di condizionare l'evoluzione delle altre parti dell'artefatto e con
esse del settore industriale. La teoria della complessità, fin dalla sua prima formula-
zione ad opera di Herbert Simon (Simon, 1962), pone l'accento su alcune caratteristi-
che essenziali di tutti i sistemi complessi, siano essi sistemi biologici o artefatti tecno-
logici.
Gerarchia Essenzialmente, i sistemi complessi tendono ad essere organizzati in
141
gerarchie di sottosistemi con particolari proprietà , che ne semplificano il comporta-
mento e la descrizione. La Figura 3.11 che segue illustra una gerarchia a quattro li-
velli.
In una struttura gerarchica come questa, i componenti di livello elevato possono an-
ch'essi costituire un sistema complesso. Ad esempio, i componenti principali di un
aeroplano sono sottosistemi di primo livello come le ali, la fusoliera, il carrello ecc.
Le ali sono composte da sottosistemi di secondo livello come i flap, gli alettoni ecc, e
così via fino al livello dei componenti base, ivi incluse le viti e i bulloni.
Per definire con esattezza un dominant design è dunque utile impiegare il concetto
di gerarchia di sistemi, riferendosi esplicitamente al livello gerarchico dei componenti
dominanti nell'ambito del sistema complessivo. Questo contribuisce a risolvere l'am-
biguità che caratterizza molti dei contributi empirici sul dominant design.
Principio di funzionamento. Accanto alla specificazione del livello gerarchico, c'è
però un'altra ambiguità latente che solleva un problema di definizione e classificazio-
ne: quali sono i limiti esatti di una classe di sistemi omogenei? Come si distinguono
da sistemi diversi? Ad esempio, che cosa distingue il sistema aeroplano dal sistema
elicottero? Questo aspetto viene affrontato dagli autori ricorrendo al concetto filoso-
fico, originariamente introdotto da Polanyi, di "principio di funzionamento" (opera-
tional principle), che ai nostri fini individua come le parti devono interagire per im-
plementare le diverse funzioni obiettivo del sistema:

141
Simon osserva come molti sistemi complessi abbiano una struttura non solo organizzata
gerarchicamente, ma anche "quasi decomponibile", nel senso che per ciascun sottosistema la
frequenza delle interazioni tra le parti (all'interno) è maggiore della frequenza delle interazioni
con gli altri sottosistemi (all'esterno). La quasi decomponibilità semplifica il comportamento ed
economizza la descrizione dei sistemi complessi.
146 Capitolo 3

Impiegando il concetto di principio di funzionamento, è possibile confrontare diverse tecno-


logie […]. Ad esempio gli aerei e gli elicotteri, entrambi dispositivi per il viaggio aereo, si
differenziano per come mettono in atto il compito generico di trasportare persone in volo.
Un aereo vola separando la funzione di spinta in avanti da quella di sollevamento in due
componenti separate (rispettivamente il jet e le ali), laddove l'elicottero implementa entram-
be le funzioni con un unico componente, il rotore verticale (Murmann & Frenken,
2006:939).

Livello di Sistema

Sottosistemi di I Livello

Sottosistemi di II Livello

Livello di Componente

Figura 3.11 Una gerarchia a quattro livelli. Fonte: (Murmann & Frenken, 2006), Fig. 1.

Gerarchia di cicli tecnologici. I cicli evolutivi di un prodotto complesso possono av-


venire ai diversi livelli della sua gerarchia: una discontinuità tecnologica ad un parti-
colare livello della gerarchia può dar luogo a nuove discontinuità tecnologiche agli
altri livelli, come visualizzato nella Figura 3.12 che segue. La gerarchia dei cicli tec-
nologici suggerisce che un ciclo di innovazione condiziona ed è condizionato dai cicli
di innovazione dei sistemi di livello inferiore: il progetto di un nuovo tipo di aeropla-
no può richiedere ad esempio particolari innovazioni sui propulsori, la fusoliera, ecc.
In genere le imprese che progettano i sistemi di livello più elevato hanno un maggiore
controllo sul sistema di quelle che progettano i sistemi di livello inferiore; d'altra par-
te però è importante notare come la maggior parte dei sistemi abbiano dei componenti
Analisi della letteratura 147

più "importanti" degli altri, indipendentemente dal livello a cui si trovano, che carat-
terizzano fortemente il sistema.

Ciclo Tecnologico
Livello di Sistema

Ciclo Tecnologico
Sottosistema di I Livello

Ciclo Tecnologico
Sottosistema di II Livello

Ciclo Tecnologico
Livello di Componente

Figura 3.12 Gerarchia di cicli tecnologici. Fonte: (Murmann & Frenken, 2006), Fig. 3.

Ad esempio, il microprocessore, pur essendo un componente di livello inferiore, è il


"cuore" di un personal computer e ne determina, insieme al sistema operativo e ad al-
142
tri componenti chiave come il bus di sistema , il potenziale di performance e di utili-
tà complessiva. Innovazioni a livello di processore, di bus e di sistema operativo pos-
sono abilitare, indurre e a volte imporre ulteriori innovazioni su praticamente tutte le
altre componenti del personal computer, inclusi i dispositivi di visualizzazione, quelli
di stampa, la memoria centrale, i sistemi di archiviazione e di gestione dei dati, le pe-
riferiche di comunicazione e così via. Di conseguenza, il dominio del settore del per-
sonal computer è collegato non tanto alla possibilità di posizionarsi ai livelli più ele-
vati della gerarchia (come Dell, HP e Acer, che progettano e assemblano sistemi

142
Vedi nota n. 153.
148 Capitolo 3

completi) quanto alla possibilità di progettare e controllare le innovazioni dei compo-


nenti "chiave" (microprocessore, bus, sistema operativo), come testimonia la storia
143
recente di Intel e Microsoft. Un discorso analogo vale anche in altri settori .
Componenti "core" e pleiotropia. Dunque in un settore industriale in cui i prodotti
o servizi sono sistemi complessi, un dominant design è essenzialmente definito da al-
cuni componenti core che condizionano le caratteristiche del sistema complessivo, la
sua evoluzione e con essa quella dell'intero settore.
Come si distinguono i componenti core di un sistema da quelli periferici? Gli stu-
di sulla complessità e le design theories hanno individuato diverse caratterizzazioni
del grado di importanza relativa dei componenti. Murmann e Frenken ne distillano
l'essenza in un concetto che le teorie della complessità hanno mutuato dalla biologia:
la "pleiotropia", che individua originariamente la capacità di un singolo gene di in-
fluenzare più caratteri diversi dell'individuo. Tale proprietà, applicata alla relazione
tra componenti (=geni) e funzioni del prodotto (=caratteri), viene riferita ai compo-
nenti che influenzano un elevato numero di funzioni nel sistema complessivo, una ca-
ratteristica che è stata già osservata e discussa in forme diverse in studi precedenti su
144
innovazione e progettazione, come ad esempio in (Clark, 1985) e in (Baldwin &
145
Clark, 2000) .
In un sistema complesso i componenti possono essere distinti per il grado di pleio-
tropia: tipicamente esisteranno un ridotto numero di componenti core ad elevata
pleiotropia, ed un numero più elevato numero di componenti periferici a bassa pleio-
tropia. I componenti core tenderanno a influenzare un numero elevato di funzionalità
del sistema; al contrario i componenti periferici saranno dedicati ad una sola o poche
funzionalità. Nella progettazione di un sistema complesso uno degli aspetti tecnici
più importanti è proprio il livello di pleiotropia dei componenti, che in altre parole
misura il loro grado di specificità funzionale: i componenti periferici tenderanno ad

143
E' ad esempio il caso del dominio di Cisco nel settore dell'hardware per telecomunicazioni.
Le ragioni e le dinamiche della "leadership di piattaforma" di Intel, Microsoft, Cisco ed altri
sono analizzate a fondo in (Gawer & Cusumano, 2002).
144
«Nell'ambito di un dato dominio funzionale come un motore in un'automobile, la struttura
dei parametri associati è gerarchica. Un parametro si trova all'apice, ed è particolarmente
determinante nel suo impatto sugli altri aspetti del dominio. Questi concetti sono centrali o
"core" nel senso che le scelte che rappresentano dominano tutte le altre» (Clark, 1985:243).
Questa descrizione di Clark dei componenti core di un sistema risale ad uno dei primi studi di
questo tipo, allora effettuato nel settore automobilistico; essa appare oggi ben rispecchiata
nell'idea di pleiotropia
145
Il libro di Baldwin e Clark, che è ormai considerato un contributo fondamentale sulla
progettazione modulare e sulle sue implicazioni economiche, fa uso tra l'altro di uno strumento
di analisi denominato design structure matrix (DSM) (Baldwin & Clark, 2000:41) per
individuare le dipendenze tra componenti di un sistema, cioè il numero di componenti che
richiedono modifiche in seguito al cambiamento di uno di essi. Se ad esempio si cambia il
diametro di una pentola, è necessario cambiare anche quello del coperchio. L'idea di
pleiotropia non corrisponde esattamente a quella di dipendenza tra componenti, ma vi è molto
vicina; è lecito infatti aspettarsi che i componenti dai quali in DSM dipendono molti altri
componenti siano anche in grado di interessare un numero elevato di funzioni del sistema, cioè
corrispondano approssimativamente a quelli che Murmann e Frenken definiscono ad elevata
pleiotropia.
Analisi della letteratura 149

essere molto più specifici dei componenti core, essendo dedicati soltanto a ad un nu-
mero ristretto di funzionalità.
Come si è accennato (vedi nota 145), i componenti core possono essere caratteriz-
zati non soltanto per il numero elevato di funzionalità del sistema su cui hanno in-
fluenza (elevata pleiotropia) ma anche per l'estensione della rete di dipendenze con
gli altri componenti: una modifica di un componente core può richiedere modifiche di
146
un numero elevato di componenti periferici (elevata dipendenza inter-componente) .

Motore Impian- Ruote Pianale Carroz-


to di zeria
sterzo

Velocità

Sicurezza

Ingombro

Aerodina-
mica

Estetica

Figura 3.13 Mappa pleiotropica, che visualizza le relazioni tra componenti o caratteristiche
di prodotto (colonne) e funzionalità o caratteristiche di servizio (righe). Fonte:
rielaborazione da (Murmann & Frenken, 2006:941), Fig. 2a.

Nella semplice mappa pleiotropica visualizzata in Figura 3.13 sono visualizzate a


puro scopo esemplificativo alcune componenti chiave di un'automobile, come il mo-
tore, le ruote, il pianale, e la loro relazione con alcune delle funzionalità del veicolo,
come velocità, sicurezza ed estetica. Ogni colonna individua dunque le relazioni
pleiotropiche di un componente con le funzionalità del sistema. Appare evidente che
146
Non riportiamo e discutiamo qui alcun esempio di mappa delle dipendenze, perché si tratta
di un argomento troppo ricco per essere affrontato in questa sede: ne esistono molti tipi diversi,
insieme a numerose tecniche analitiche e progettuali ad esse collegate. Per ulteriori
approfondimenti, rinviamo al cap. 2 di (Baldwin & Clark, 2000), e soprattutto ai numerosi
riferimenti e contributi sulla Design Structure Matrix reperibili da http://www.dsmweb.org.
150 Capitolo 3

il pianale e soprattutto la carrozzeria abbiano pleiotropia più elevata, influenzando la


maggior parte delle caratteristiche riportate nella mappa.
La standardizzazione "strategica" e selettiva dei componenti core ad elevata pleio-
147
tropia e dipendenza permette di gestire la tensione tra efficienza e flessibilità: ad e-
sempio, standardizzando il pianale e la maggior parte dei componenti, ma non la car-
rozzeria, si possono produrre modelli diversi e in concorrenza tra loro che condivido-
no oltre il 90% dei componenti: è il caso di Peugeut 107, Toyota Aygo e Citroën C1,
visibili in Figura 3.14.
Uno degli elementi core la cui standardizzazione consente di conseguire allo stes-
so tempo economie di scala e importanti differenziazioni è proprio il pianale, che da
tempo viene impiegato per produzioni di modelli diversi, e sempre più frequentemen-
te anche da parte di case concorrenti. Un altro esempio recente è quello di Fiat Panda,
Fiat 500 e Ford Ka, che hanno il pianale in comune e condividono anch'esse una gran
parte dei componenti.

Figura 3.14 Peugeut 107, Toyota Aygo e Citroën C1: tre prodotti complessi che condividono
la quasi totalità dei componenti. Fonte: TPCA (Toyota Peugeut Citroën Auto-
mobile).

In definitiva dunque, in un sistema complesso il grado di pleiotropia e di dipendenza


dei componenti ha importanti implicazioni: da un lato i componenti core appaiono

147
La mappa di Figura 3.13 potrebbe far pensare che sia più opportuno standardizzare la
carrozzeria, dato che si tratta del componente a più elevata pleiotropia. Questo avviene ad
esempio quando vengono prodotte diverse versioni con allestimenti differenziati dello stesso
modello. Se la pleiotropia della carrozzaria è molto elevata, non altrettanto può dirsi per la
dipendenza: è possibile costruire modelli con diversa carrozzeria senza cambiare
sostanzialmente la maggio parte dei componenti, come è ben illustrato in Figura 3.14. La
standardizzazione del pianale, che ha un grado forse più basso di pleiotropia ma una
dipendenza elevata, permette di mantenere un numero più elevato di "gradi di libertà"
progettuale, realizzando modelli sostanzialmente diversi che condivisono la maggior parte dei
componenti. Queste considerazioni intuitive richiederebbero comunque un'analisi più formale e
approfondita, che non è possibile svolgere in questa sede.
Analisi della letteratura 151

candidati ideali per la standardizzazione; dall'altro un sistema in cui i componenti


hanno gradi diversi di pleiotropia e dipendenza (componenti core e componenti peri-
ferici) appare spesso preferibile ad uno con componenti relativamente omogenei e
simmetrici.
Standardizzazione dei componenti core. I componenti core ad elevata dipendenza
sono più difficili da modificare di quelli periferici perché la loro modifica richiede-
rebbe una notevole serie di cambiamenti in gran parte dei componenti del sistema.
Una modifica innovativa in un componente periferico presenta conseguenze sulle
funzioni del sistema ben focalizzate e facilmente prevedibili, per cui il rischio di con-
seguenze negative e non previste sulle altre funzioni del sistema è limitato. Al contra-
rio, un'innovazione su un componente core richiede tipicamente innovazioni "a casca-
ta" in numerosi altri componenti del sistema, con conseguenze spesso difficilmente
prevedibili ed un rischio molto più elevato di un decadimento delle funzioni comples-
148
sive . I componenti core sono dunque candidati ideali per la standardizzazione.
Vantaggi dell'asimmetria. Un'analisi completa e formale dei vantaggi di un siste-
ma complesso in cui i componenti hanno gradi diversi di pleiotropia e dipendenza è
certo al di là degli scopi di questo lavoro. Murmann e Frenken forniscono una spiega-
149
zione intuitiva, rafforzata da una serie di contributi precedenti . In sostanza, la sud-
divisione tra componenti core e periferici rappresenta il miglior compromesso tra la
ricerca di flessibilità e innovazione e la salvaguardia della stabilità del sistema. I
componenti core costituiscono per così dire la spina dorsale del sistema. Le innova-
zioni a questi componenti avvengono solo di rado e rappresentano solitamente note-
voli passi avanti dell'intero sistema, spesso una vera è propria discontinuità che dà il
via ad un nuovo ciclo tecnologico. I componenti periferici permettono invece al si-
stema di ottenere un gran numero di configurazioni diverse (flessibilità) e di poter
evolvere "localmente" (innovazione) senza compromettere la funzionalità complessi-
va del sistema stesso.
Per quanto discusso finora, una tecnologia dominante è dunque costituita da una
particolare configurazione dei componenti core che si impone per un intero ciclo tec-
nologico, fino alla successiva discontinuità. Si è già visto come, in essenza, sia possi-
bile caratterizzare una tecnologia dominante come un sistema complesso in cui si di-
148
Murmann e Frenken notano come in biologia la relazione tra rischio e pleiotropia sia stata
dimostrata in termini di probabilità: «Il rischio di una perdita netta diviene più elevato per
componenti a pleiotropia più alta; cioè la probabilità che un cambiamento in una caratteristica
comporterà un miglioramento netto della performance [complessiva] è in relazione inversa con
la pleiotropia di una caratteristica (Altenberg, 1994); (Altenberg, 1995)» (Murmann &
Frenken, 2006:941).
149
Si riportano qui alcuni brani chiave degli autori su questo punto, tralasciando per brevità la
loro analisi della letteratura, per la quale si rinvia all'originale: «Lo studio della storia delle
tecnologie porta all'intuizione che le architetture che presentano sia componenti core ad elevata
pleiotropia che componenti periferici a bassa pleiotropia permettono per così dire
l'ampliamento dell'artefatto in una famiglia progettuale basata su un nucleo standardizzato e su
variazioni nei componenti periferici; inoltre esse agiscono anche nel senso della "profondità"
della tecnologia attraverso l'innovazione incrementale nell'ambito dei componenti
tendenzialmente fissi del nucleo. [...] Senza l'asimmetria dei componenti in termini di
pleiotropia alta e bassa, i miglioramenti complessivi nel senso dell'ampiezza e della profondità
sono meno probabili e presumibilmente meno rapidi» (Murmann & Frenken, 2006:943).
152 Capitolo 3

stingue il principio di funzionamento, la mappa pleiotropica e la mappa delle dipen-


denze. Come apparirà evidente nelle prossima sezione, questi tre aspetti che possono
essere usati per caratterizzare una tecnologia dominante come sistema complesso
hanno notevoli affinità con gli elementi costitutivi delle architetture di prodotto.

Architettura e modularità
Un utile concetto da applicare allo studio delle tecnologie dominanti come sistemi
complessi può essere quello di architettura di prodotto, che deve una delle sue prime
150
definizioni compiute a (Ulrich, 1995) . L'architettura di prodotto è «lo schema attra-
verso il quale la funzione di un prodotto viene allocata ai componenti fisici» (Ulrich,
1995:419). Ulrich descrive lo schema architetturale in base a:
l'arrangement dei componenti funzionali;
il mapping dagli elementi funzionali ai componenti fisici;
la specifica delle interfacce per le interazioni tra componenti fisici.
In seguito Baldwin e Clark hanno descritto l'architettura come una parte delle re-
gole di progettazione (design rules) che specifica i componenti e i loro ruoli. Accanto
all'architettura, le design rules comprendono anche le interfacce e gli standard di in-
tegrazione e test:

Un set completo di regole di progettazione specifica appieno le seguenti categorie di infor-


mazioni:
9 architettura, in altre parole, di quali moduli sarà composto il sistema e quali sa-
ranno i loro ruoli;
9 interfacce, cioè la descrizione dettagliata di come i differenti moduli interagiran-
no, includendo come lavoreranno insieme, si connetteranno, comunicheranno e
così via;
9 protocolli di integrazione e standard di verifica, cioè procedure che consentiranno
al progettista di assemblare il sistema e di determinarne la qualità del funziona-
mento, se un particolare modulo si conforma alle regole generali, e come valutare
le performance di una nuova versione di un modulo
(Baldwin & Clark, 2000:77).

Sia Ulrich che Baldwin e Clark individuano le interfacce tra componenti come ele-
menti essenziali della progettazione modulare. Baldwin e Clark analizzano a fondo il
concetto di modularità ((Baldwin & Clark, 2000), cap. 3), collegandolo all'idea fon-
damentale che, date due unità distinte, gli elementi di ciascuna unità siano fortemente
connessi con gli altri elementi all'interno della stessa unità, ma solo debolmente con-
nessi con gli elementi dell'altra unità. Quest'idea è affine ad uno dei concetti base del-
la teoria della complessità: quello della "quasi-decomponibilità" formulato per primo
151
da Herbert Simon (Simon, 1962) . In un sistema modulare la quasi-decomponibilità
di ottiene attraverso i principi dell'abstraction e dell'information hiding, in base ai
quali i componenti di un sistema sono come scatole nere ad elevata connessione in-
terna il cui contenuto dettagliato viene "nascosto", cioè non viene esposto all'esterno,
se non attraverso un'interfaccia semplice e standard. In tal modo si "astrae" dalla

150
Questo lavoro è tra quelli più frequentemente citati sulla standardizzazione, già elencati in
Tabella 3.3.
151
Vedi nota n. 141.
Analisi della letteratura 153

complessità del componente interno, in quanto ogni comunicazione con l'esterno av-
viene soltanto attraverso l'interfaccia.

Un sistema complesso può essere gestito dividendolo in parti più piccole e guardando a cia-
scuna separatamente. Quando la complessità di uno degli elementi supera una certa soglia,
essa può essere isolata definendo una astrazione separata, che ha una interfaccia semplice.
L'astrazione nasconde la complessità dell'elemento; l'interfaccia indica come l'elemento in-
teragisce con il sistema più ampio. (Baldwin & Clark, 2000:64).

In questo senso la modularità, cioè la definizione di una struttura gerarchica di moduli


a "scatola nera" con interfacce semplici e standardizzate, contribuisce a rendere un
artefatto complesso quasi-decomponibile, semplificandone il comportamento ed eco-
nomizzandone la descrizione: di conseguenza le architetture modulari sono strumenti
ideali per la progettazione di artefatti complessi. In generale, il concetto di modularità
è stato definito e analizzato in molti modi diversi ed ha anche importanti implicazioni
organizzative, che vengono esaminate e discusse criticamente nella rassegna di
(Campagnolo & Camuffo, 2007).
Nel complesso l'idea di architettura modulare appare appropriata a individuare le
dimensioni caratteristiche di una classe di tecnologie dominanti complesse: l'arran-
gement dei componenti funzionali è affine al concetto già discusso del "principio di
funzionamento", che individua le funzionalità del sistema e i principi base per la loro
implementazione; il mapping moduli-funzionalità è affine alla mappa pleiotropica,
che individua i componenti e le funzionalità del sistema a cui sono legati; infine le
mappe delle dipendenze e delle interazioni hanno pari significato ed utilità sia per i
152
componenti che per i moduli e le relative interfacce .

In definitiva, gli studi sul dominant design offrono spiegazioni sempre più articolate e
complete della logica e delle dinamiche della standardizzazione.
Si è visto che la logica della standardizzazione può essere ispirata ai principi base
dei sistemi complessi già descritti da Simon oltre trent'anni anni fa: gerarchia e quasi-
decomponibilità. Questi principi sono oggi messi in atto nelle architetture di prodotto
modulari, basate su una gerarchia di componenti con interfacce semplici e stabili. Le
architetture modulari descrivono da un lato il principio di funzionamento di una clas-
se di prodotti, dall'altro la gerarchia dei componenti e delle loro parti, individuando le
mappe pleiotropiche (componenti-funzionalità), nonché le interfacce per le interazio-
ni tra componenti e la rete delle dipendenze componente-componente.
Non tutte le parti dei prodotti complessi ad architettura modulare, come le auto-
mobili e i computer moderni, hanno la stessa importanza relativa ai fini della standar-
dizzazione. Ciò che è importante standardizzare sono innanzi tutto le interfacce, cioè

152
Interazioni, interfacce e dipendenze appaiono collegate: quando due componenti
interagiscono, la dipendenza progettuale (modificando uno si deve modificare anche l'altro)
può essere infatti ridotta o eliminata attraverso l'impiego di una interfaccia standardizzata e di
un'architettura modulare. Questo spiega intuitivamente alcuni dei benefici della modularità in
termini di riduzioni delle dipendenze tra componenti. Per un'analisi approfondita delle
implicazioni progettuali ed economiche della modularità cfr. (Baldwin & Clark, 2000).
154 Capitolo 3

i dispositivi e le regole standard di comunicazione tra componenti, che se ben proget-


tate possono permettere in seguito la sostituzione e l'innovazione dei componenti sen-
za richiedere modifiche al sistema, riducendo al minimo la rete delle dipendenze tra
153
componenti .
Oltre alle interfacce standard, un'architettura modulare ha tipicamente alcuni mo-
duli core ad elevata pleiotropia e/o dipendenza, cioè che influenzano rispettivamente
molte funzionalità del sistema e molti altri moduli. Un'architettura dominante è dun-
que spesso caratterizzata non solo da interfacce standard, ma anche dalla presenza di
un set di elementi core più o meno standardizzati che ne definiscono i tratti essenziali
della mappa pleiotropica e delle dipendenze tra componenti, riducendo conveniente-
154
mente il design space e inducendo stabilità architetturale ed economie di scala . An-
che se le tecnologie dominanti sono ormai considerate un fenomeno ampio e verifica-
155
to , è dunque possibile e anzi auspicabile chiarirne meglio l'estensione e la portata
nei vari settori evidenziando in modo esplicito i diversi gradi e livelli di dominio tec-
153
Ad esempio la definizione del bus di comunicazione per l'architettura di un personal
computer permette di progettare in modo virtualmente indipendente qualsiasi tipo di periferica
(componente/modulo esterno) che si conformi alle specifiche standard di interfaccia. La storia
della nascita e dell'evoluzione delle specifiche di interfaccia del bus PCI per il personal
computer, affermatisi come standard di settore dietro iniziativa del maggior produttore di
microprocessori per PC, la Intel, appare particolarmente significativa per l'approfondimento di
questo punto. Essa viene illustrata e discussa nelle sue implicazioni strategiche in (Gawer &
Cusumano, 2002): "Gli ingegneri di Intel progettarono PCI in modo che future versioni del
microprocessore non avrebbero di per sé richiesto la riprogettazione di nessun'altro
componente nell'architettura del personal computer. Apparentemente solo un arcano dettaglio
tecnico, questa scelta di progettazione fu strategicamente brillante. Il progetto lasciò
abbastanza spazio ai chip di Intel per evolvere e trovare un posto nell'architettura del PC senza
richiedere ulteriori approvazioni o coordinamento extra tra gli altri attori nel settore» (Gawer &
Cusumano, 2002:30). Per un'introduzione completa al bus PCI e alla sua evoluzione PCI
Express cfr. (Abbott, 2004); (Budruk, 2003). Per un breve tutorial introduttivo si consiglia
(National Instruments, 2006).
154
Ad esempio, le architetture cosiddette "Wintel" dominano da molti anni il mercato dei PC
con interfacce e processori Intel e sistema operativo Microsofts Windows. Nel settore
automobilistico le architetture dominanti a livello di prodotto non sono invece mai emerse: la
tecnologia dominante si è piuttosto esercitata a livello di principio di funzionamento
(autoveicoli con motore a scoppio) o di componenti, anche se in alcuni segmenti di mercato
emergono indicazioni (parziali) in questa direzione, come l'architettura delle automobili TPCA
di Figura 3.14, in cui il pianale funge da principale interfaccia e componente core, insieme alla
famiglia dei motori compatibili.
155
Tushman e Murmann evidenziano questo punto in modo efficace con numerosi esempi: «I
dominant designs esistono effettivamente. Anche se i livelli di analisi sono diversi e spesso
confusi, sono stati rilevati dominant designs nelle macchine da scrivere, in TV e calcolatori
elettronici (Suarez & Utterback, 1995), nelle automobili (Abernathy, 1978), nei
videoregistratori (Cusumano et al., 1992), nei simulatori di volo (Rosenkopf & Tushman,
1998); (Miller et al., 1995), nell'impianto di sistemi auricolari (Van de Ven & Garud, 1994),
nei sistemi di trasmissione fax (Baum et al., 1995), nei computer mainframe (Iansiti & Khanna,
1995), nella fotolitografia (Henderson, 1995), negli stereo portatili (Sanderson & Uzumeri,
1995), nei microprocessori (Wade, 1995), nei disk drives (Christensen et al., 1998), nelle classi
di prodotto vetro, cemento e minicomputer (Anderson & Tushman, 1990), nei pacemakers
cardiaci (Hidefjall, 1997). […] Questa letteratura sulle tecnologie dominanti, quando affiancata
dalla letteratura sulla storia della tecnologia, indica che i dominant designs sono un fenomeno
robusto» (Tushman & Murmann, 2002:329-330).
Analisi della letteratura 155

156
nologico , attraverso gli strumenti di analisi e misurazione propri delle architetture
complesse e modulari: principio di funzionamento, gerarchia dei moduli, interfacce,
mappe della pleiotropia e delle dipendenze tra moduli.
Il quadro analitico delle architetture complesse e modulari, come abbiamo visto,
serve anche a interpretare le dinamiche dell'innovazione tecnologica secondo una ge-
rarchia di cicli di discontinuità tecnologica che si snoda in modo multiforme e com-
plesso, come illustrato nella Figura 3.12. Le discontinuità nei componenti core e in
quelli ai livelli più elevati della gerarchia sono generalmente meno frequenti ma più
importanti; al contrario, le innovazioni ai componenti periferici e nei livelli più bassi
della gerarchia avvengono con maggiore frequenza e sono meno di impatto per il si-
stema nel suo complesso. Le architetture modulari permettono inoltre ulteriori forme
di innovazione di prodotto, anche in assenza di discontinuità tecnologiche: i principa-
li "operatori modulari", analizzati nel dettaglio nel capitolo 5 di (Baldwin & Clark,
2000), includono la suddivisione in più moduli, la sostituzione di un modulo, l'ag-
giunta di un nuovo modulo al sistema, l'esclusione di un modulo, l'inversione di parti
precedentemente nascoste a comporre un nuovo modulo, il porting di un modulo di
un altro sistema.
In ultima analisi, dunque, gli studi sull'innovazione e sulle tecnologie dominanti
forniscono un contributo determinante alla comprensione dei processi di standardiz-
zazione, specie nell'identificazione delle dinamiche delle discontinuità tecnologiche
e, più recentemente, di quelle delle forme di dominio sui prodotti ad architettura mo-
dulare. Anche se i prodotti e i servizi complessi tendono a proliferare e a diffondersi
in modo crescente, non è ancora esattamente chiaro l'ambito di applicabilità generale
delle idee sul dominant design e sulle architetture complesse. In quali condizioni am-
bientali e tecniche tendono ad emergere le architetture dominanti, più o meno com-
plesse e modulari? Quali sono le condizioni per l'emergere degli standard che caratte-
rizzano un dominant design? La network economics, già affrontata in precedenza,
fornisce alcune possibili risposte a questa domanda: le esternalità di rete e i fenomeni
ad esse collegati potrebbero infatti rappresentare una delle condizioni di rilievo. Ma,
con Murmann e Frenken, appare saggio ritenere che anche altri meccanismi possano
157
giocare un ruolo in questo senso .
156
Mentre sulla gerarchia dei livelli di dominio architetturale si è già discusso ampiamente, sui
diversi gradi di dominio è utile richiamare questo passo di Murmann e Frenken: «Sebbene la
semantica del dominant design possa suggerire che il concetto abbia un significato binario
(cioè che una tecnologia dominante possa soltanto o esistere o non esistere in un settore), ai fini
scientifici il concetto di tecnologia dominante può essere meglio rappresentato come un
continuum. Questo significa che una tecnologia può essere più o meno dominante in un settore
(Afuah & Utterback, 1997). Per assicurare risultati confrontabili, il modo in cui viene misurato
il grado di dominio del mercato dovrebbe essere specificato. Anche le aree geografiche e i
settori interessati dall'analisi empirica dovrebbero essere identificati esplicitamente» (Murmann
& Frenken, 2006:944).
157
Gli autori così argomentano su questo punto: «Dato che non possiamo dedurre con certezza
dal nostro modello che le esternalità di rete siano una condizione necessaria per una tecnologia
dominante, a questo punto è utile lasciare aperta la possibilità che anche altri meccanismi
possano giocare un ruolo. Ci attendiamo che tali meccanismi possano acquisire una diversa
importanza relativa, a seconda della natura della tecnologia, della sua interfaccia con gli utenti
e del regime socio-politico» (Murmann & Frenken, 2006:945).
156 Capitolo 3

3.3.2 Teorie istituzionali e isomorfismo

Tra le forze che influenzano i processi di creazione e diffusione delle innovazioni è


necessario considerare anche quelle istituzionali, rappresentate ad esempio dagli enti
di certificazione, dalle normative e dai regolamenti pubblici, dalle pressioni delle as-
sociazioni e dei consorzi di imprese, dalla cultura istituzionale dei proponenti e degli
adottanti. In questa sezione verranno dunque presi in considerazione alcuni tra i con-
tributi più rilevanti delle scuole istituzionali che possono contribuire a spiegare i pro-
cessi di standardizzazione.

Introduzione: l'importanza delle istituzioni nell'innovazione


In (King et al., 1994), uno studio sulle determinanti dell'innovazione nel settore del-
158
l'Information Technology , viene affrontata con una nuova prospettiva una questione
da lungo tempo dibattuta anche in altri abiti disciplinari. Le innovazioni hanno spesso
bisogno di sperimentazione e di messa a punto nella loro fase iniziale. Esse possono
comportare rischi e potenziali svantaggi individuali per i primi pionieri, mentre in se-
guito, se e quando hanno avuto successo, possono produrre benefici con basso rischio
per i successivi utenti. Quindi in teoria non è mai conveniente essere i primi a speri-
mentarle, ma in assenza di chi fa da cavia, il progresso si fermerebbe e con esso i po-
tenziali benefici dell'innovazione. Come mai allora l'innovazione procede?

L'innovazione è attraente, ma anche intrinsecamente rischiosa. Le radici di questo dilemma


dell'innovazione possono farsi risalire alla visione di Schumpeter dello sviluppo capitalista
come un equilibrio ciclico che comprende fornitori e produttori, in cui l'innovazione è un
fattore di destabilizzazione (uno spostamento della funzione di produzione) che influenza le
aspettative di fornitori e produttori in modo non facilmente prevedibile ((Schumpeter,
1935), come analizzato in (Rosenberg, 1982)). Nella visione schumpeteriana le aspettative
si manifestano come uno ciclo di domanda a due stadi nei mercati dei capitali, dapprima da
parte degli imprenditori che hanno bisogno di capitali per ottenere il profitto potenziale in-
travisto nell'innovazione, poi dal settore industriale nel suo complesso in anticipazione di
un'ulteriore espansione dovuta alla diffusione dell'innovazione. Il processo non è né stabile
né prevedibile, e la sua incertezza è una fonte di rischio grave. Il declamato "vantaggio di
prima mossa" che emerge da una lettura superficiale del modello di Schumpeter è notevol-
mente rischioso, come egli stesso riconobbe (Rosenberg, 1976). La comprensibile appren-
sione che ne consegue produce ciò che (Fellner, 1951) denominò "ritardo anticipatorio" (an-
ticipatory retardation), nel quale i potenziali innovatori assumono un atteggiamento di atte-
sa e lasciano che siano altri a testare la profittabilità di un investimento, specialmente se
l'implementazione richiede un investimento elevato […]. Tutti, in principio, beneficiamo
dall'innovazione. Ma finché i benefici individuali non sono chiaramente raggiungibili, uno
stato diffuso di ritardo anticipatorio può fermare l'innovazione. Che cosa allora, in assenza
di azioni eroiche su larga scala, rompe il circolo vizioso delle aspettative che ritardano l'a-
dozione? O alternativamente, che cosa spiega i casi in cui tutti gli ostacoli apparenti alla dif-
fusione sono stati superati, eppure un innovazione non riesce ugualmente a diffondersi se-
condo quanto risulterebbe prevedibile dalle azioni economiche razionali dei singoli attori?
Questo dilemma delle aspettative è al centro della nostra storia» (King et al., 1994:144).

158
Anche se le considerazioni degli autori si riferiscono al settore IT, esse sono abbastanza
ampie da potersi applicare alla maggior parte delle forme di innovazione presenti anche negli
altri settori, per cui nel seguito esso verrà preso come punto di riferimento per l'innovazione in
generale.
Analisi della letteratura 157

Si noti come una simile questione era già stata considerata in questo capitolo da altri
punti di vista: si è infatti osservato, con (Markus et al., 2006), come la tendenza al
free riding ingeneri un dilemma sociale di partecipazione (sezione
"Standardizzazione come azione collettiva", p. 80). D'altra parte, quando si sono di-
scussi i principi base della network economics, si è accennato ai cosiddetti "effetti
pinguino" come possibile implicazione derivata degli effetti rete, che tendono a sco-
raggiare l'adozione dei primi utenti, incoraggiandola invece nelle fasi più avanzate
della diffusione (sezione 3.2.2 "Farrell e Saloner (1986): Effetti contrastanti sull'in-
novazione", pag. 103).
Lo stesso dilemma appare dunque presente in forme diverse in numerosi filoni di
ricerca: negli studi sull'innovazione emerge dall'indagine sui fattori che ostacolano o
favoriscono la diffusione; in sociologia è esplicitamente affrontato nelle teorie dell'a-
zione collettiva; nella network economics assume rilievo con l'analisi quantitativa del-
le conseguenze delle esternalità di rete e delle relative implicazioni sugli equilibri e-
conomici; nella letteratura sugli standard è infine strettamente collegato ai fattori che
influenzano da un lato la partecipazione al processo di standard making e dall'altro la
formazione della base iniziale di utenti. Conviene qui ricapitolare anche alcune delle
spiegazioni e delle risposte già fornite a questo dilemma.
Nella network economics si evidenzia il ruolo nel mercato degli "sponsor" (sezio-
ne 3.2.2 "Katz e Shapiro (1986): Ruolo degli sponsor", pag. 102), che applicano varie
strategie di sviluppo della massa critica, mirate a internalizzare le future esternalità
attraverso transazioni di mercato. Tali strategie comprendono varie forme di investi-
menti, inclusi quelli mirati all'acquisizione di diritti di proprietà intellettuale (sezione
3.2.2 "Ancora Katz e Shapiro (1994): Effetti rete indiretti, strategie e compatibilità",
pag. 104).
Le teorie dell'azione collettiva prendono in considerazione molteplici fattori, tra i
quali assume un rilievo particolare il grado di eterogeneità dei partecipanti all'azione
collettiva (sezione 3.1.2 "Standardizzazione come azione collettiva", p. 80).
I primi studi sull'innovazione tendevano invece ad evidenziare maggiormente i
"vantaggi di prima mossa" rispetto ai rischi dell'innovazione, evitando di considerare
il dilemma della partecipazione. King e coautori riportano la questione in primo piano
con una nuova spiegazione: per favorire la partecipazione iniziale e ridurre i rischi
dell'innovazione, sono le istituzioni a giocare un ruolo determinante. Qui di seguito è
riportato un elenco delle forme istituzionali che secondo gli autori possono influenza-
re l'innovazione nel settore Information Technology. L'elenco è abbastanza ampio da
potersi applicare anche ad altri settori, anche se non necessariamente esaustivo:

9 Autorità governative
9 Istituzioni internazionali
9 Associazioni professionali, commerciali e di settore
9 Enti di formazione superiore orientati alla ricerca
9 Imprese e gruppi industriali, nazionali e multi-nazionali
9 Istituzioni finanziarie
9 Associazioni sindacali e del lavoro
9 Istituzioni morali e religiose

(Fonte: (King et al., 1994), Figure 1).


158 Capitolo 3

Impiegando attivamente le risorse di cui dispongono, queste istituzioni possono faci-


litare e stimolare l'azione sia nelle fasi di produzione che in quelle di primo impiego
delle innovazioni. Esse possono impiegare fondi e altre risorse, o emanare norme sia
formali che informali per ridurre o compensare i rischi di produzione/adozione delle
innovazioni, o per esercitare forme di promozione attiva. In generale, due sono le
modalità essenziali di intervento istituzionale nei processi di innovazione: da un lato
l'influenza e l'azione diretta, attraverso la quale ad esempio i governi producono o fi-
nanziano innovazioni tecnologiche in campo militare; dall'altro le varie forme di re-
golamentazione attraverso le quali le istituzioni determinano condizioni ambientali
favorevoli all'innovazione.
D'altra parte, osservano gli autori, le teorie dell'innovazione hanno tradizional-
mente evidenziato come gli interventi sull'innovazione possano agire rafforzando la
domanda (demand-pull) oppure stimolando l'offerta (supply-push). L'intersezione di
queste diverse forme di intervento determina il quadro del rapporto tra istituzioni e
innovazione, che, pur trascurato dagli studi precedenti, appare di fondamentale im-
portanza teorica.

Il ruolo delle istituzioni deve essere considerato un componente essenziale in qualsiasi teo-
ria dell'innovazione. Il potere istituzionale di influenzare e regolare può essere collegato alle
prospettive teoriche che determinano i due approcci fondamentali all'innovazione come un
fenomeno "spinto dall'offerta" o "attratto dalla domanda" (supply-push vs. demand-pull) nel
tentativo di tenere conto di tutte possibili forme di intervento istituzionale (King et al.,
1994:162).

La figura che segue illustra con degli esempi il quadro di insieme delle forme di in-
tervento istituzionale sull'innovazione, elencando dapprima quelle tese a stimolare
l'offerta di innovazione (supply-push), poi quelle tese a rafforzarne la domanda (de-
mand-pull). In ciascuno dei due elenchi sono state evidenziate per prime le forme di
influenza per azione diretta, per distinguerle dalle forme regolamentari in cui è la
modificazione del quadro normativo a produrre indirettamente gli effetti desiderati
dal lato della domanda o dell'offerta di innovazione.
Analisi della letteratura 159

Intervento istituzionale sull’innovazione


Interventi dal lato dell’OFFERTA di innovazione (supply-push)

– Finanziamento di progetti di ricerca


influenza regolamentazione

– Fornitura di servizi di didattica e formazione


– Finanziamento dello sviluppo di prototipi
– Gestione diretta di R&S
– Incentivi ai mercati dei capitali per il finanziamento di R&S
– Incentivi fiscali a R&S
– Norme che stabiliscono requisiti di formazione per tutti i cittadini
– Norme per la riduzione di vincoli per le organizzazioni di ricerca
– Norme per la rimozione di ostacoli e barriere a R&S
– Emanazione di standard per la produzione di innovazione
– Norme su livelli minimi di investimento R&S nelle organizzazioni

Interventi dal lato della DOMANDA di innovazione (demand-pull)

influenza
– Acquisto di prodotti e servizi innovativi
– Fornitura diretta o indiretta di complementi a prodotti/servizi innovativi
– Eliminazione diretta o indiretta di sostituti
– Programmi per la comunicazione e la promozione
– Norme a supporto della domanda di prodotti/servizi innovativi

regolament.
– Emanazione di standard con requisiti di qualità che richiedono innovazione
– Adozione di standard innovativi
– Norme per l’impiego di prodotti innovativi

Figura 3.15 Forme di intervento istituzionale sull'innovazione. Le parti evidenziate si riferi-


scono alle forme di influenza diretta, le altre alle forme di regolamentazione.
Fonte: elaborazione da (King et al., 1994).

King e coautori si spingono ad analizzare in maniera più dettagliata le forme di in-


159
tervento istituzionale anche secondo la funzione che essi possono esplicare . Su que-
sta base, studi successivi hanno effettivamente verificato sul campo l'esistenza e l'en-
tità delle influenze istituzionali, osservando il ruolo cruciale da esse svolto nella crea-
zione e diffusione dell'innovazione nel campo dei sistemi informativi interorganizza-

159
Le tipologie originariamente individuate dagli autori sono: creazione di conoscenza
(knowledge building), sfruttamento delle conoscenze esistenti (knowledge deployment),
finanziamento e supporto (subsidy), promozione (mobilization), direttiva sull'innovazione
(innovation directive), che si concretizzano negli interventi qui illustrati in Figura 3.15 quando
applicate dal lato della domanda o dell'offerta attraverso l'influenza diretta o la
regolamentazione indiretta. Ponendo in evidenza le fasi e i fattori del processo di produzione
delle innovazioni, potremmo forse più naturalmente distinguere le attività di finanziamento e
supporto, di offerta dei fattori di produzione (e particolarmente la conoscenza), impiego e
condivisione dei fattori di produzione esistenti (e particolarmente la conoscenza), di
comunicazione e persuasione, di intervento sulla domanda di mercato.
160 Capitolo 3

tivi, attraverso lo sviluppo e la promozione delle specifiche tecniche standard "EDI"


(Damsgaard, 2001).
In definitiva, nei processi di innovazione in generale e in quelli di standard ma-
king in particolare, le istituzioni contribuiscono a fornire una spiegazione al dilemma
della partecipazione, risultando determinanti per l'effettiva creazione e diffusione di
nuove tecnologie. Pertanto le teorie organizzative istituzionali che ne indagano la na-
tura e il funzionamento possono fornire utili elementi di analisi ai nostri fini: esse ver-
ranno considerate nella prossima sezione.

Un concetto chiave: la legittimazione istituzionale


L'istituzionalismo è una delle scuole di pensiero più importanti e ricche nelle scienze
sociali, con espressioni articolate e per molti versi autonome non solo in organizza-
zione e in sociologia, ma anche in economia, nella scienza politica e nelle discipline
storiche. L'apporto originario, diffusosi intorno agli anni '50 grazie ai contributi di au-
tori come Philip Selznick (Selznick, 1949) e come Talcott Parsons (Parsons, 1951),
viene oggi considerato distintamente dagli sviluppi successivi cosiddetti "neoistitu-
zionali", che hanno origine alla fine degli anni '70 (Meyer & Rowan, 1977); (Zucker,
1977) (Meyer & Scott, 1983). Gli studiosi distinguono anche le specificità "locali"
dei gruppi di ricerca: «Il neoistituzionalismo scandinavo, per esempio, avanza la ri-
chiesta di differenziarsi dal filone americano e vanta una propria specificità cultura-
le". (Gherardi, 1998:9). Non si pretende dunque in questa sede di analizzare i tratti e i
contributi essenziali delle scuole istituzionali: esistono a questo proposito riferimenti
ben più adeguati (Scott, 1995); (Scott, 1998); (AAVV, 1991); (AAVV, 2000a);
160
(Powell, 2008) .
L'intento di questa sezione è piuttosto quello di individuare concetti, metodi e mi-
sure che, ispirandosi ad alcuni dei più recenti contributi empirici del nuovo istituzio-
nalismo, possano risultare utili alla comprensione di come nasce uno standard. Il
quadro già delineato nella sezione precedente (vedi Figura 3.15), che illustra come le
istituzioni abbiano un ruolo considerevole nell'innovazione tecnologica e nei processi
di standardizzazione, non spiega come le forme di influenza e di regolamentazione
istituzionale che tendono a "spingere" le iniziative di standardizzazione o a "tirare" la
domanda di nuovi standard possano concretamente originarsi ed agire con successo.
Perché ed in che modo le pressioni istituzionali tendono a far nascere e diffondere al-
cune iniziative di standardizzazione favorendo invece l'abbandono o l'insuccesso di
altre iniziative? A questo proposito è possibile far innanzi tutto ricorso a due concetti

160
Il volume di Powell e DiMaggio (AAVV, 1991); (AAVV, 2000a) costituisce in un certo
senso il "manifesto" del neoistituzionalismo grazie anche alla scelta dei curatori raccogliervi,
accanto ai lavori analitici ed empirici di molti degli esponenti di primo piano del movimento,
anche la ristampa dei suoi più significativi contributi fondativi già apparsi a partire dal 1977. In
apertura i curatori propongono un'analisi concisa ma elevata e profonda delle idee e degli
apporti neoistituzionali nel contesto delle diverse discipline e nella tradizione degli studi
sociologici, che è tuttora una delle più significative disponibili sul tema (DiMaggio & Powell,
1991). Essa troverà in seguito un utile completamento sia in estensione che in profondità nel
saggio monografico pubblicato da Walter R. Scott (Scott, 1995); (Scott, 1998).
Analisi della letteratura 161

fondamentali e largamente condivisi dagli istituzionalisti contemporanei: da un lato


161
l'idea di legittimazione istituzionale, dall'altro quella di campo organizzativo .
La legittimazione è «una percezione o assunzione generalizzata che le azioni di
una entità sono desiderabili, proprie o appropriate all'interno di qualche sistema so-
cialmente costruito di norme, valori convinzioni e definizioni» (Suchman, 1995:574).
Un'organizzazione, ad esempio, è legittimata istituzionalmente se essa risponde a
delle esigenze pragmatiche e concrete (legittimazione pragmatica/razionale: es. la
FAO come strumento per combattere la fame nel mondo); se è giustificata dal punto
di vista dei valori che esprime (legittimazione morale/normativa: la FAO come e-
spressione desiderabile di valori di solidarietà e progresso universale); se la sua esi-
stenza è data per scontata o almeno risulta plausibile e comprensibile (legittimità co-
gnitiva/culturale: es. l'esistenza della FAO può essere percepita come appartenente
all'ordine naturale delle cose).
La legittimazione si esprime quindi in uno spazio a più dimensioni: quella prag-
matica/razionale dell'utilità strumentale, quella normativa/morale che implica una va-
lutazione consapevole in base ad un sistema di valori, e infine quella cogniti-
va/culturale che comprende una accettazione inconsapevole di naturalez-
162
za/inevitabilità in base alla cultura e alle percezioni dominanti . Questa pluralità di
dimensioni corrisponde ai tre "pilastri" fondamentali proposti da Scott nella sua nota
analisi della storia e dell'evoluzione delle scuole istituzionali: il pilastro originario
prevalentemente regolativo/razionale, quello più recente di tipo cognitivo/culturale e
quello intermedio cosiddetto normativo/morale (Scott, 1995); (Scott, 1998).

Gli elementi regolativi pongono l'enfasi sulla definizione di regole e sanzioni; quelli norma-
tivi contengono una dimensione di valutazione di opportunità e valori a cui conformarsi,
mentre quelli culturali e cognitivi mettono in campo concezioni e schemi interpretativi con-
divisi della realtà. Ciascuno dei pilastri di Scott offre una diversa dimensione di legittima-
zione istituzionale: attraverso la sanzione legale, oppure l'autorizzazione morale, o infine il
supporto culturale (Powell, 2008:2).

Legittimazione, decisione e azione


In questa visione la legittimazione istituzionale appare dunque come un elemento co-
stitutivo e quasi una precondizione essenziale di ogni decisione e azione umana. In
essenza, si potrebbe affermare che l'idea forte alla base dell'istituzionalismo, che resta
spesso inespressa e implicita, è che decisioni e azioni umane siano basate in larga
161
Il fatto che ci sia ampio accordo sull'importanza di concetti fondamentali come questi non
esclude l'esistenza di notevoli divergenze e varietà di punti di vista tra gli istituzionalisti, che
riguarda non solo le idee di "legittimazione" e di "campo organizzativo" ma anche la stessa
definizione di "istituzione": si veda ad esempio (DiMaggio & Powell, 1991), sezione "Points of
Divergence". Si è pertanto scelto qui di far riferimento a definizioni e concetti largamente
condivisi in campo organizzativo e supportati da analisi esplicite, ampie e approfondite, come
lo studio di Suchman sulla legittimazione (Suchman, 1995).
162
Queste tre dimensioni della legittimazione appaiono sostanzialmente in linea con i tre
"pilastri" dell'istituzionalismo individuati da Scott: regolativo/razionale; normativo/morale;
cognitivo/culturale (vedi nota n. 160). Esse possono inoltre essere poste in relazione a varie
logiche di argomentazione impiegate nella retorica istituzionale, come evidenziato nella
prossima sezione a proposito dell'indagine empirica offerta in (Suddaby & Greenwood, 2005).
162 Capitolo 3

parte sull'applicazione di norme comportamentali non scritte di varia natura e con di-
verse logiche di selezione, elaborazione e applicazione. In (Scott, 1995); (Scott,
1998:61-62) si osserva come questa idea mostri affinità con la distinzione operata da
James March nei processi decisionali tra logica della conseguenza (o strumentale) e
logica dell'appropriatezza. Eccola qui di seguito, nelle parole stesse di March:

Nel capitolo primo il processo decisionale è stato rappresentato come risultato di un calcolo
deliberatamente razionale. La razionalità pura e la razionalità limitata condividono una co-
mune prospettiva, quella di considerare le decisioni basate su una valutazione di alternative
nei termini delle loro conseguenze rispetto alle preferenze. Questa logica della conseguenza
può essere contrapposta ad una logica dell'appropriatezza secondo cui le azioni sono fatte
corrispondere a situazioni mediante norme comportamentali organizzate in identità. […] La
conformità alle regole si fonda su una logica dell'appropriatezza. In questo caso si ritiene
che i decisori si pongano (esplicitamente o implicitamente) tre domande.
1. La domanda sul riconoscimento: Che tipo di situazione è questa?
2. La domanda sull'identità: Che tipo di persona sono io? Che tipo di organizzazione è
questa?
3. La domanda sulle regole: Che cosa fa una persona come me, o un'organizzazione come
questa, in una simile situazione?
[…] Il processo decisionale basato sulle regole si svolge in modo diverso da quello raziona-
le. Il ragionamento prevede la costituzione delle identità e stabilisce una corrispondenza tra
norme e situazioni riconosciute» (da (March, 1994), ed. it. Prendere Decisioni, Il Mulino
1998, 67-68. Il brano parla di "regole" con riferimento in particolare alle norme comporta-
mentali non scritte).

Ad esempio, nella scelta di un vestito da indossare, si avrà riguardo per il tipo di si-
tuazione, pensando alle persone presenti, all’ambiente sociale e all’immagine di sé
che si vuole proporre, avendo cura non tanto della razionalità "economica" della scel-
ta, quanto della sua adeguatezza agli aspetti del proprio io che si intende comunicare
in quella particolare occasione. Il modo di porre in luce la propria identità dipende
anche da come ci si aspetta che questa venga recepita dagli altri.
Nel complesso, i meccanismi di legittimazione che spiegano azioni e decisioni in-
dividuali e collettive vanno quindi al di là della semplice definizione di obiettivi, vin-
coli e strumenti tipici della logica strumentale e del pilastro regolativo/razionale. Con
la logica dell'appropriatezza, entrano infatti in gioco gli aspetti relazionali e sociali
che sottostanno alla formazione e alla selezione delle identità e dei ruoli con l'adesio-
ne ad un sistema di norme e valori condivisi (pilastro normativo/morale), secondo
schemi interpretativi e culturali largamente sottintesi e dati per scontati (pilastro co-
163
gnitivo/culturale) . Appare qui plausibile che la legittimazione istituzionale possa
risultare importante non soltanto per l'esistenza e l'affermazione delle organizzazioni
e di altre entità sociali, ma anche per quella delle regole e degli standard. Pertanto, il
grado e le dimensioni di legittimazione istituzionale di uno standard (pragmatica, mo-
rale, cognitiva) potrebbero risultare determinanti per il suo successo e possono essere
163
Accanto alla logica strumentale e a quella dell'appropriatezza, potremmo forse individuare
anche una logica affettiva, che si manifesta quando ad esempio si parteggia
incondizionatamente per i propri o familiari e amici, si fa il tifo per la propria squadra anche se
essa continua a dare risultati deludenti, o si supporta il proprio partito politico anche se fa una
scelta sbagliata. Non è escluso che un meccanismo affettivo simile possa valere in qualche
misura anche per l’adozione di uno standard. Questi aspetti restano però tuttora largamente
inesplorati in questo campo.
Analisi della letteratura 163

oggetto di indagine empirica. Gli studi neoistituzionali più recenti cominciano infatti
ad impiegare metodi e tecniche per l'operazionalizzazione, la raccolta e l'analisi delle
164
evidenze empiriche .

Come si forma la legittimazione


In che modo una entità (un'organizzazione, una regola/norma, uno standard) ac-
quisisce legittimazione? Si tratta di un processo che varia considerevolmente sia nella
durata che nelle modalità e nelle tappe fondamentali, che è stato a lungo studiato e
165
prende il nome di "istituzionalizzazione" . Tra i meccanismi di istituzionalizzazione
più noti, DiMaggio e Powell hanno sottolineato quelli che spingono le organizzazioni
a convergere verso modelli simili di azione routinaria legittimati istituzionalmente
(isomorfismo istituzionale):

I primi contributi [del neoistituzionalismo] hanno identificato gli effetti istituzionali come
principalmente orientati alla stabilità sociale, concentrando l'attenzione su processi di ripro-
duzione che assumono la funzione di modelli stabili per sequenze di attività poste in essere
in modo routinario (Jepperson, 1991:144-45). L'istituzionalizzazione veniva dunque defini-
ta in termini di processi attraverso i quali questi modelli di azione si stabilizzano dal punto
di vista cognitivo e normativo, fino a venire dati per scontati. In particolare, DiMaggio e
Powell nel 1983 hanno sottolineato processi di riproduzione coercitivi, normativi e mimetici
(DiMaggio & Powell, 1983). I fattori coercitivi tenevano in considerazione le pressioni poli-
tiche e la forza dello stato, che mette in atto forme di supervisione e controllo; i fattori nor-
mativi nascevano dalla forte influenza delle professioni e dal ruolo dei sistemi di istruzione;
le forze mimetiche, infine, erano originate da reazioni abituali e date per scontate a circo-
stanze di incertezza. (In retrospettiva, DiMaggio e Powell hanno omesso le forze cosiddette
"di evangelizzazione", in cui alcuni pionieri istituzionali sperimentano o influenzano l'ado-
zione di pratiche specifiche) (Powell, 2008:2).

Nella prospettiva neoistituzionale, dunque, durante un processo di istituzionalizza-


zione ci sono forze in gioco (coercitive, normative, mimetiche, di evangelizzazione)
che fanno sì che particolari sequenze di azione vengano gradualmente assimilate fino
a venir date per scontate, facendo convergere le organizzazioni verso forme isomor-
166
fe .

164
Questa osservazione è dello stesso Powell: «I ricercatori hanno cominciato a esplorare delle
modalità di misurazione diretta della legittimazione, usando tracce e documenti delle
organizzazioni per catturare le forme di significato associate ai processi organizzativi chiave»
(Powell, 2008:5).
165
Zucker propone, con uno dei primi contributi neoistituzionali, un'analisi accurata e
dell'istituzionalizzazione, prendendo in considerazione l'evoluzione e i molteplici significati
che questo concetto ha assunto nel tempo. In particolare, con questo termine si può indicare
non solo il processo di acquisizione della legittimazione, ma anche una parte dei suoi risultati,
considerando ad esempio il grado di istituzionalizzazione di una norma:
«L'istituzionalizzazione è sia un processo che una variabile che indica una proprietà» (Zucker,
1977:728).
166
La spiegazione neoistituzionale dei processi di formazione della legittimazione, che si basa
sull'isomorfismo e sulle sue determinanti coercitive, normative e mimetiche non è l'unica
possibile. Essa ad esempio non tiene conto di possibili fenomeni diversi dall'isomorfismo che
possono originare le varie forme di legittimazione, come la scelta razionale e l'azione
collettiva. Per un'analisi più estensiva dei processi di istituzionalizzazione cfr. (Scott, 1998),
capitolo 4: "Spiegare le istituzioni".
164 Capitolo 3

Il livello di analisi istituzionale: campo organizzativo


L'idea di "campo organizzativo" rappresenta un altro elemento centrale del nuovo
istituzionalismo. Il campo non definisce soltanto il livello dell'analisi istituzionale,
che viene applicata a gruppi di organizzazioni: esso è caratterizzato da confini più o
meno permeabili, ma con logiche di appartenenza definite e caratterizzabili empiri-
camente:

La nozione di campo denota l'esistenza di una comunità di organizzazioni che condivide un


comune sistema di significati, e i cui membri interagiscono gli uni con gli altri più frequen-
temente ed in modo più intenso e significativo di quanto non facciano con attori esterni al
campo (Scott, 199883).

È fondamentalmente l'interazione nella condivisione e nella negoziazione di attività e


significati a definire l'appartenenza al campo organizzativo:

Un campo organizzativo è una comunità di organizzazioni di vario ordine e grado, come


produttori, consumatori, osservatori, consulenti, che svolgono attività in comune soggette a
simili pressioni di tutela della reputazione e di rispetto delle norme (Powell, 2008:2).

Nelle sue formulazione più recenti, questa nozione comprende non soltanto l'idea di
reti organizzative intorno a prodotti o mercati comuni, ma anche quella di comunità
di soggetti organizzativi che si confrontano e competono intorno ad un argomento ri-
tenuto rilevante e controverso, come ad esempio le questioni sociali o ambientali
(Hoffman, 1999). In questo senso si parla anche di "arena di relazioni di potere"
(Brint & Karabel, 1991:355), in cui alcuni attori maggiormente dotati di risorse pos-
sono occupare posizioni di privilegio per influenzare il corso degli eventi. Ciò sembra
poter descrivere bene quanto avviene comunemente in molti processi di standardizza-
zione.
Pertanto, i concetti di campo organizzativo e di legittimazione istituzionale sem-
brano poter contribuire a spiegare come nasce uno standard. L'analisi empirica potrà
dunque utilmente essere impiegata per individuare gli attori principali e le caratteri-
stiche delle interazioni e delle negoziazioni che ne individuano il campo organizzati-
vo, mostrando in che modo le forme di influenza e regolamentazione già illustrate in
Figura 3.15 possano conferire diversi gradi e diverse dimensioni di legittimazione
istituzionale ai processi di standardizzazione in competizione tra loro, contribuendo
in diverso modo a determinarne il successo finale.
Nelle prossime sezioni verranno prese in considerazione alcune indagini empiri-
che recenti che potranno qui servire come punto di riferimento, mettendo in luce con
tecniche di analisi testuali aspetti come il ruolo degli evangelizzatori e dei media
(Rao et al., 2003), i vocabolari istituzionali e le argomentazioni retoriche (Suddaby &
Greenwood, 2005), le fasi del processo di legittimazione e i loro indicatori (Colyvas
167
& Powell, 2006) .

167
Questi tre lavori sono stati selezionati per il loro particolare interesse teorico e
metodologico; Per ulteriori contributi di analisi empirica neoistituzionale si vedano ad esempio
(Hoffman, 1999) e (Mohr & Guerra-Pearson, 2005). Nello studio di Hoffman la nascita dei
movimenti ambientali viene documentata dallo studio delle cause giuridiche ambientaliste e dei
resoconti della stampa specializzata. Nel contributo di Mohr e Guerra-Pearson l'evolvere delle
Analisi della letteratura 165

Copertura dei media e ruolo degli evangelizzatori


Uno dei primi contributi a far uso dei metodi di ricerca ed analisi testuale portati al-
l'attenzione degli istituzionalisti da (Ventresca & Mohr, 2002) è apparso nel 2003,
proponendo l'esame dei processi di istituzionalizzazione associati all'emergere del
movimento della Nouvelle Cuisine nella gastronomia francese (Rao et al., 2003). Gli
autori osservano il campo organizzativo della gastronomia francese, i cui gli attori
principali sono gli chef, i ristoratori, i critici, i media del settore e la clientela. Negli
ultimi trent'anni del secolo scorso, questo campo organizzativo ha assistito alla nasci-
ta e all'affermazione della Nouvelle Cuisine, che ha messo in discussione molti prin-
cipi e pratiche istituzionali della tradizione, con la progressiva e controversa introdu-
zione di una diversa espressione della cucina francese. Così gli autori descrivono in
sintesi i tratti essenziali dei due movimenti in competizione:

Il movimento della nouvelle cuisine si originò in opposizione alla cucina classica incarnata
dall'accademismo di Escoffier, con un decalogo costruito sui valori di verità, leggerezza,
semplicità e immaginazione. La cucina classica dava enfasi al potere del ristoratore, lunghi
menù che richiedevano più preparazione e scorte a disposizione che freschezza e improvvi-
sazione, rituali fuori del piatto, preparazioni flambee' ed un lungo processo di consumo. In
contrasto, la nouvelle cuisine enfatizzava l'autonomia dello chef, con menù ridotti che ri-
chiedevano prodotti freschi e poche scorte, servizio al piatto ed un processo di consumo
breve (Rao et al., 2003:797).

In che modo la Nouvelle Cuisine ha messo in discussione i valori della tradizione fino
ad acquisire legittimazione istituzionale? L'indagine degli autori si basa in essenza su
un'idea molto semplice, sviluppata in sintonia con la self-categorization theory e con
la social judgement theory: la persuasione sociale alla base dei processi di deistitu-
zionalizzazione della cucina classica e della istituzionalizzazione della Nouvelle
Cuisine è un processo graduale, che avviene attraverso l'accumulazione di "segnali
identitari discrepanti" (identity-discrepant cues: p. 814) rispetto al sistema istituziona-
le vigente. La social judgement theory prevede che la ampiezza della "zona di accet-
tazione" del nuovo tenda ad aumentare per segnali provenienti da "oratori credibili"
ed anche per l'effetto di "azioni di altri simili" (p. 814). Di conseguenza, gli autori
hanno impostato l'analisi empirica sulle seguenti basi.
Hanno individuato una variabile che misurasse per ciascuna diade chef/ristorante
il grado di accettazione e diffusione del nuovo sistema istituzionale: la presenza rela-
tiva di piatti di Novelle Cuisine tra i tre "piatti firma" pubblicati nella Guida Michelin,
che segnalano in un certo senso i tratti distintivi di ciascuno chef. Questo indicatore
ha evidenziato una progressiva e marcata progressione negli anni del grado di istitu-
zionalizzazione della Novelle Cuisine in Francia.
Per ciascuno degli anni di osservazione hanno individuato quattro tipi di "segnali
identitari discrepanti", misurati nell'anno precedente: il numero di chef colleghi pas-
168 169
sati al nuovo sistema ; i benefici loro derivati in seguito alla defezione ; il numero

forme istituzionali associate alle attività di beneficienza viene caratterizzato attraverso lo studio
delle inserzioni apparse nel corso degli anni sulle "New York City Charity Directories" che
descrivono, per così dire, diversi modi di concepire e comunicare il modello di azione delle
istituzioni stesse.
168
Nel senso che inserivano almeno due piatti di Nouvelle Cuisine tra i tre piatti firma.
166 Capitolo 3

170
di attivisti ad elevata credibilità ; la copertura dei media specializzati teorizzatori del
171
nuovo movimento .
Hanno infine verificato attraverso un modello di regressione logistica multinomia-
le la relazione statistica tra i quattro tipi di segnali e il grado di accettazione e diffu-
sione della Nouvelle Cuisine in Francia.
In sostanza, i risultati dello studio confermano tutte le aspettative: ogni anno l'a-
vanzare del processo di istituzionalizzazione della Nouvelle Cuisine risulta essere in
relazione con il numero di attivisti di elevata reputazione, con il grado di teorizzazio-
ne e diffusione delle nuove idee da parte dei media specializzati, con il numero di e-
sponenti (chef) passati al nuovo sistema nell'anno precedente.
Se dunque dal punto di vista empirico lo studio di Rao, Monin e Durand fornisce
un utile punto di riferimento per la misurazione e l'analisi dei processi di legittima-
zione, dal punto di vista teorico fornisce almeno tre indicazioni rilevanti ai nostri fini.
Primo, conferma l'importanza delle forze di tipo mimetiche (misurate ponendo in re-
lazione il numero di altri chef innovatori con il procedere dell'innovazione istituzio-
nale) e normative/valoriali (indirettamente collegate al ruolo dei media come "teoriz-
zatori" e divulgatori di nuovi valori e alla sua rilevazione empirica in termini di nu-
mero di articoli pubblicati). Secondo, sottolinea il ruolo dei soggetti che svolgono una
funzione di propaganda attiva delle idee e dei valori del nuovo movimento, che Po-
well chiamerebbe oggi di "evangelizzazione", come si è già accennato sopra (Powell,
2008:2). Terzo, attraverso il riferimento esplicito alla self-categorization theory sotto-
linea come i processi di istituzionalizzazione possano essere collegati alla definizione
di nuove identità condivise e legate a nuovi valori che ciascun individuo può decidere
di abbracciare, abbandonando o ridefinendo identità sociali preesistenti. La social ju-
dgement theory contribuisce a spiegare come nel proporre nuovi valori e nuove iden-
tità sociali gli "attivisti" giocano un ruolo considerevole, in cui fattori chiave sono la
loro elevata reputazione, la loro visibilità e l'esposizione dei media ("teorizzazione").
Un discorso analogo, ed una analoga impostazione di analisi empirica, può essere ef-
fettuato ai nostri fini: la nascita di un nuovo standard può essere legata a quella di
nuove identità sociali, che per affermarsi hanno bisogno di evangelizzatori di elevata
reputazione che ne diffondano i valori ad esse collegati, guadagnando la copertura dei
media e innescando quelle forze di tipo normativo/valoriale, mimetico, ed anche co-
ercitivo che spingono verso l'istituzionalizzazione.

169
In termini di ranking (numero di stelle) nella Guida Michelin.
170
Gli autori hanno individuato un attivista di elevata reputazione come uno chef che
presentava nella Guida Michelin tutti e tre i suoi "piatti firma" come piatti di Nouvelle Cuisine,
e che inoltre faceva parte dell'executive committee della Maitres Cuisiniers de France (MCF),
l'associazione degli chef di Francia, in cui la nomina è tradizionalmente riservata agli chef
prestigiosi e influenti che hanno ottenuto il riconoscimento di tre stelle nella guida Michelin.
171
La copertura complessiva è stata rilevata sommando per ogni anno il numero di articoli sulla
Nouvelle Cuisine in Francia pubblicati nei periodici coperti da un primario database
bibliografico (Myriade), standardizzato dividendo il totale annuo degli articoli sulla Nouvelle
Cuisine in ogni periodico presa in esame per il numero di edizioni annue del periodico.
Analisi della letteratura 167

Vocabolari istituzionali e argomentazioni retoriche


L'analisi documentale dei processi di istituzionalizzazione può spingersi anche oltre
la rilevazione del numero di articoli apparsi nella stampa specializzata: in (Suddaby
& Greenwood, 2005) il contenuto stesso dei testi delle discussioni tra fautori di oppo-
sti movimenti istituzionali viene posto sotto osservazione, distinguendo due elementi
fondamentali che li differenziano: da un lato i vocabolari istituzionali, dall'altro le
logiche di argomentazione.
Gli autori hanno analizzato il recente acceso dibattito sull'opportunità dell'aboli-
zione di alcune delle prerogative di esclusiva attribuite alla professione degli avvocati
negli USA, che vede contrapposti da un lato il movimento a tutela della professione e
dell'esclusività delle sue attribuzioni, dall'altro la forte spinta all'innovazione alimen-
tata dalle grandi società di consulenza che propongono un modello di fornitura inte-
grata di servizi legali, amministrativi, di revisione e certificazione contabile, di consu-
lenza strategica e manageriale, forniti da un soggetto giuridico unico in forma appun-
to di società. Questo nuovo modello viene correntemente denominato MDP: Multi
Disciplinary Practices.
L'idea fondamentale su cui si basa l'indagine è che i processi di istituzionalizza-
zione, attraverso i quali una nuova forma istituzionale (MDP: modello societario a-
perto e integrato per la fornitura di assistenza legale) acquisisce legittimità e sostitui-
sce un modello preesistente (modello esclusivo riservato alla professione degli avvo-
cati), siano determinati da cambiamenti cognitivi che da un lato avanzano nuove for-
me di conoscenza e diversi punti di vista su un fenomeno; dall'altro propongono nuo-
ve logiche di verifica della legittimazione. Una proposta innovativa finché non acqui-
sisce legittimazione può essere percepita come non desiderabile, propria o appropria-
ta indipendentemente dal suo merito "tecnico": gli autori menzionano tra gli altri il
caso dell'introduzione del sistema di illuminazione elettrico, ad opera di Edison, che
dovette dimostrare la propria superiorità rispetto a quello a gas incontrando notevoli
difficoltà, nonostante il merito della nuova proposta appaia oggi a noi del tutto evi-
172
dente .
Secondo gli autori, per conquistare legittimazione sono dunque importanti anche
la struttura e le modalità espressive del discorso che si snoda tra le opposte fazioni,
riscontrate attraverso il vocabolario istituzionale e le logiche di argomentazione.
Il vocabolario istituzionale consiste in gruppi di parole ed espressioni usate per ar-
ticolare significati e logiche di interpretazione della realtà; l'analisi empirica dei testi
è stata pertanto effettuata con il metodo della "grounded theory" (Strauss & Corbin,
1998) e il software NUDIST (Richards & Richards, 1991). Si tratta dello stesso me-
todo che verrà impiegato per l'analisi offerta nel capitolo 5: esso consiste essenzial-
172
Nell'analisi del processo di introduzione dell'illuminazione elettrica, Hargadon e Douglas
evidenziano una strategia di legittimazione di cui Edison fece ampio uso, incentrata sulla
"robustezza" della progettazione del nuovo sistema, concepito in modo da essere abbastanza
simile al modello che tendeva a soppiantare (illuminazione a gas) ma anche abbastanza
flessibile da poter evolvere facilmente sfruttando nuove possibilità (Hargadon & Douglas,
2001:479). Questo scopo viene oggi ottenuto nel settore IT progettando sistemi con elevata
backward compatibility. Dal caso Edison emerge anche chiaramente che l'inerzia istituzionale è
spesso legata a interessi e giochi di potere: le società per la distribuzione del gas osteggiarono
fortemente l'introduzione del sistema di illuminazione ad energia elettrica.
168 Capitolo 3

mente nell'attribuire etichette a parole e frasi individuate nei documenti, costruendo


gradualmente un sistema gerarchico di categorie (open coding) che vengono poi con-
nesse da relazioni logiche (axial coding). L'analisi condotta dagli autori ha evidenzia-
to due distinti vocabolari istituzionali, empiricamente distinti in base alla frequenze
dei termini e dei gruppi semantici.

I proponenti usavano parole e testi che valorizzavano i benefici economici di MDP per i
consumatori. Gli oppositori, invece, usavano parole e testi che enfatizzavano il particolare
processo di produzione dei servizi professionali come il mezzo primario per determinare la
legittimazione. Per meglio comprendere queste differenze, è opportuno riferirsi ai significa-
ti sottostanti. Gli oppositori avevano sviluppato un vocabolario basato su una legittimazione
normativa e morale che faceva appello ai "miti" culturali di identità professionale come ad
un "richiamo di ordine superiore". Il riferimento ai "valori centrali" era un tentativo di raf-
forzare la separazione costruita con cura tra le professioni e le attività commerciali aperte a
tutti. In contrasto, i proponenti del modello MDP impiegavano la logica del mercato per sot-
tolineare la loro identità di ruolo come quella di un professional, che è essenzialmente fon-
data sulle conoscenze tecniche. Il loro linguaggio rifiutava le nozioni idealistiche di profes-
sionalità al servizio di scopi sociali di ordine superiore. I testi di riferimento dei proponenti
sottolineavano gli elementi economici e di mercato della professionalità e rifiutavano espli-
citamente le nozioni romantiche o idealizzate dei valori professionali come tentativi storici
di giustificare la protezione monopolistica di interessi di parte. In altre parole, dai vocabola-
ri istituzionali è possibile distinguere l'impostazione strutturale di due logiche istituzionali,
che implicano diverse identità di ruolo professionale e diverse forme organizzative
(Suddaby & Greenwood, 2005:48-49).

I diversi vocabolari istituzionali sono insomma uno dei mezzi di espressione di valori
e convinzioni che caratterizzano due diverse identità e ruoli sociali, in sintonia con
quanto rilevato nell'analisi empirica precedente nel campo della gastronomia france-
se. Accanto ai due diversi vocabolari istituzionali, gli autori hanno individuato diver-
se logiche di argomentazione. In particolare, le prerogative esclusive degli avvocati
venivano difese con le stesse strategie di argomentazione teorica che i teologi impie-
gano tradizionalmente per la dimostrazione dell'esistenza di Dio: la necessità logica
derivante dall'essenza stessa dell'oggetto (argomento ontologico); la necessità cosmo-
logica derivante dall'ordine dell'universo (argomento cosmologico); la necessità col-
legata all'esistenza di un fine ultimo superiore (argomento teleologico). Esse inoltre
prendevano in considerazione ulteriori argomenti di tipo storico e valoria-
173
le/normativo .
L'analisi testuale che ha fatto emergere i vocabolari istituzionali e le logiche di ar-
gomentazione si è sviluppata in due fasi. In primo luogo si è proceduto a selezionare
il contenuto nei documenti in esame. In questa fase sono stati individuati gli attori
principali nel dibattito, focalizzando i brani di testo in cui le loro logiche di argomen-
tazione erano più evidenti. Tra i proponenti c'erano le "Big Five" società di consulen-
za e le associazioni di consumatori; tra gli oppositori la SEC statunitense e le associa-
zioni professionali di avvocati.
Sono stati selezionati 547 segmenti di dati di dimensioni variabili da poche parole
a qualche riga di testo, che sono stati etichettati assegnando a ciascun attore e a cia-

173
Nel complesso, queste strategie argomentative sembrano mostrare affinità con le dimensioni
della legittimazione cognitiva/culturale (argomenti ontologico, storico); normativa/morale
(argomento valoriale/normativo); regolativa/razionale (argomenti teleologico, cosmologico).
Analisi della letteratura 169

scun segmento testuale un attributo sulla loro posizione nel dibattito ( pro, contro o
non definito) e una riga di descrizione sul razionale della scelta. In questa prima fase
sono emerse parole ed espressioni ricorrenti che hanno permesso di distinguere i due
vocabolari istituzionali.
In una seconda fase è stata effettuata una ulteriore codifica dei brani, dapprima se-
condo le categorie della retorica classica, che hanno evidenziato un prevalere della
categoria "Kairos" (sensibilità al tempo) che pone l'enfasi sul cambiamento, in ben
470 brani, quasi l'86% del totale. Questi brani sono stati dunque nuovamente codifi-
cati nel tentativo di individuare distinte logiche di argomentazione del cambiamento,
giungendo infine alla distinzione delle cinque modalità di argomentazione già trat-
teggiate in precedenza: ontologica, cosmologica, teleologica, storica, normati-
va/valoriale.
Simili forme di analisi testuale dettagliata possono dunque essere utilmente im-
piegate anche per evidenziare vocabolari e logiche di argomentazione nell'analisi dei
processi di standardizzazione.

Fasi e indicatori di legittimazione


L'analisi del discorso che accompagna e documenta i processi di legittimazione istitu-
zionale può essere impiegata, oltre che per tratteggiare i diversi vocabolari istituzio-
nali e le diverse logiche di argomentazione retorica degli attori, anche per individuare
le successive fasi del processo e caratterizzarle attraverso una serie di variabili che
possono dare un'indicazione empirica dello stato di avanzamento. L'idea alla base di
questo tipo di analisi è che la legittimazione istituzionale proceda gradualmente, at-
traverso successivi stadi che possono essere osservati e descritti. E' quanto viene di-
scusso in (Colyvas & Powell, 2006), uno studio in cui è coinvolto lo stesso Powell in
veste di coautore di una sua studentessa di dottorato a Stanford, Jeannette Colyvas.
Colyvas e Powell prendono in esame il processo di legittimazione delle pratiche di
trasferimento tecnologico dall'università all'industria per lo sfruttamento commerciale
di prodotti della ricerca. Si tratta di un settore che ha visto nel passato il mondo del-
l'accademia in posizioni di forte scetticismo e diffidenza, mirate a salvaguardare l'in-
dipendenza della ricerca e a prevenire posizioni di conflitto di interesse tra gli acca-
demici, il cui interessamento in iniziative di sfruttamento commerciale era vietato.
Con il trascorrere del tempo, questa visione si è gradualmente trasformata, lasciando
spazio all'istituzionalizzazione graduale di pratiche di trasferimento tecnologico. Il
caso dell'Università di Stanford è emblematico e ben documentato dall'archivio del-
l'Office of Technology Licensing, a cui gli autori hanno avuto libero accesso per l'ana-
lisi documentale.
La Tabella 3.5 che segue illustra sinteticamente la consistenza delle tracce docu-
174
mentali del processo di istituzionalizzazione per il campione considerato .

174
Il campione documentale consiste in 218 licenze di trasferimento tecnologico concesse
all'esterno dagli affiliati a un dipartimento di scienze biologiche dell'Università di Stanford nel
periodo tra il 1970 e il 2000. L'ufficio organizza e archivia i documenti in pratiche con la storia
completa di ciascun procedimento. Per ulteriori dettagli, vedi (Colyvas & Powell, 2006).
170 Capitolo 3

Tabella 3.5 Fasi principali e tracce documentali del processo di istituzionalizzazione delle
pratiche di trasferimento tecnologico dell'Office of Technology Licensing del-
l'Università di Stanford. Fonte: (Colyvas & Powell, 2006), Table 1.

Periodo Stadio di avan- Pratiche ricorrenti Numero di in- Numero


zamento venzioni con- di inven-
cesse su licenza tori
1970-1980 Introduzione Idiosincratiche 31 47

1981-1993 Implementazione Standardizzate 64 85

1994-2000 Espansione Istituzionalizzate 123 150

E' possibile individuare tre stadi di avanzamento del processo di istituzionalizzazione


del trasferimento tecnologico: una prima fase che ha inizio negli anni '70, con una
generale cautela verso queste nuove pratiche, che sono in numero limitato e vengono
discusse e considerate singolarmente in modo idiosincratico, sviluppando gradual-
mente esperienza in proposito. Una seconda fase, dal 1981 al 1993, in cui lo sviluppo
di procedure amministrative standardizzate si accompagna ad una maggiore accetta-
zione del trasferimento tecnologico, con un aumento del volume di casi gestiti dall'uf-
ficio. Vi è infine una terza fase, dal 1994 al 2000, in cui la assimilazione delle best
practices amministrative si accompagna ad un ulteriore notevole aumento del volume
di pratiche gestite e ad una accettazione generalizzata del trasferimento tecnologico
per lo sfruttamento commerciale, insieme ad un consolidato sistema di valori, convin-
zioni e pratiche istituzionalizzate che ne definiscono e delimitano ambito e contenuti.
Gli autori caratterizzano empiricamente il processo con una analisi illustrativa (e non
esaustiva) dei testi presenti nel campione: dopo aver scelto alcuni tra i documenti e i
passi ritenuti più rappresentativi, essi vengono parzialmente riportati in forma anoni-
ma e illustrati come prova dell'esistenza delle caratteristiche e dei processi che si in-
tende analizzare. L'approccio analitico da un lato ricalca esplicitamente quello già vi-
sto in precedenza in (Suddaby & Greenwood, 2005), con l'evidenziazione dei vocabo-
lari istituzionali e delle logiche argomentative del dibattito; dall'altro si pone anche
l'obiettivo di esplorare come avviene lo sviluppo delle pratiche istituzionali, indivi-
duandone motivi e significati ricorrenti. I risultati dell'analisi evidenziano con un'am-
pia e dettagliata discussione che le tre fasi del processo di istituzionalizzazione pre-
sentano nel caso in esame livelli crescenti di legittimazione sia normativa che cogni-
tiva. Essi vengono illustrati empiricamente attraverso gli indicatori riportati nelle ta-
belle che seguono.
La Tabella 3.6 mostra come livelli crescenti di legittimazione normativa/morale pos-
sano essere evidenziati dal progressivo sviluppo di un nuovo vocabolario istituziona-
le, dalla graduale accettazione di un sistema valoriale sempre più chiaro e indiscusso,
dalla progressiva ridefinizione dei confini tra università e industria, inizialmente rigi-
di e poi sempre più sfumati e integrati.
Analisi della letteratura 171

Tabella 3.6 Indicatori e livelli di legittimità normativa. Fonte: (Colyvas & Powell, 2006), a-
dattamento dalla Figure 1.

Livello di legittimazione normativa


BASSO MEDIO ALTO

Linguaggio Simboli e vocabolari Vengono sviluppati Ricco linguaggio loca-


istituzionale importati dall'esterno vocabolari istituzio- le ampiamente accet-
per ottenere supporto nali tato ed emulato
Norme di ap- La ricerca di un'adozio- I valori divengono più Norme e valori vene-
propriatezza e ne incerta richiede giu- chiari ma possono rati e resi oggettivi
valori di rife- stificazioni notevol- provocare opposizio-
rimento mente articolate ne
Confini esistenti ben Confini che si sfuma- Confini ridefiniti e in-
Confini tra definiti, il cui attraver- no, attraversamento tegrati in una comuni-
università e samento richiede ap- più tollerato tà con interessi co-
industria provazione esplicita muni

La Tabella 3.7 evidenzia altresì la progressione dei livelli di legittimità cognitiva,


come indicati dal consolidamento di pratiche che assumo un grado sempre maggiore
di accordo implicito, dalla graduale definizione dei ruoli e delle identità degli attori
coinvolti, dalla formazione di categorie di classificazione sempre più definite e con-
divise.

Tabella 3.7 Indicatori e livelli di legittimità cognitiva. Fonte: (Colyvas & Powell, 2006), adat-
tamento dalla Figure 1.

Livello di legittimazione cognitiva


BASSO MEDIO ALTO

Pratiche Idiosincratiche e Pratiche ricorrenti in Sperimentate e fuori di-


sviluppate caso per fase di consolidamento scussione
caso
Ruoli Ambigui Che acquistano defini- Ben scolpiti nelle aspet-
zione, ma in alcuni casi tative generali
suscitano dibattito
Categorie Diffuse e non chia- Che emergono gra- Ben definite e valorizzate
re dualmente

Questi indicatori sono chiaramente riconoscibili nei brani riportati dagli autori di let-
tere e documenti rappresentativi dello scambio di corrispondenza in ciascuna delle
tre fasi del trasferimento tecnologico, dimostrando come l'analisi testuale dei proces-
172 Capitolo 3

si di istituzionalizzazione possa evidenziare e caratterizzare le diverse fasi del proces-


175
so con gradi crescenti di legittimazione normativa e cognitiva .

Nel complesso, i tre studi empirici qui passati in rassegna mostrano come sia possibi-
le raccogliere concrete evidenze dai documenti e dalle "tracce" dei dibattiti e delle
negoziazioni che accompagnano l'avanzare dei fenomeni di formazione della legitti-
mità. In base al tipo di documenti e di evidenze disponibili, è possibile effettuare ana-
lisi basate su rilevazioni diverse: ricordiamo le interviste agli esponenti di rilievo, l'a-
nalisi dei ranking di settore e il conteggio degli articoli apparsi sui media, impiegati
dallo studio sulla diffusione della Nouvelle Cuisine (Rao et al., 2003); l'analisi detta-
gliata di brani tratti da un campione documentale illustrativo, impiegata nello studio
sulla istituzionalizzazione delle pratiche di trasferimento tecnologico all'Università di
Stanford (Colyvas & Powell, 2006); l'analisi testuale di ampi repertori documentali,
basata su metodi ispirati alla Grounded Theory che prevedono l'"etichettatura" dei
brani, la loro categorizzazione e lo studio delle relazioni logiche tra le categorie te-
stuali (Suddaby & Greenwood, 2005).
Come abbiamo visto, questo tipo di rilevazioni empiriche possono consentire di:
176
9 individuare gli attori rilevanti nel campo organizzativo , e le funzioni da
essi svolte con particolare riferimento alle figure o istituzioni più influen-
ti;
9 individuare le fasi del processo di legittimazione e fornire indicatori su
come le varie forme di legittimazione (pragmatica, normativa, cogniti-
177
va) procedano nelle varie fase del processo;
9 evidenziare empiricamente il contributo di forze mimetiche, normative,
cognitive e di evangelizzazione, anche in relazione ai diversi attori coin-
volti e alle diverse forme di legittimità che esse contribuiscono a determi-
nare;
9 porre in luce i diversi vocabolari istituzionali e le diverse logiche di ar-
gomentazione retorica impiegate.

175
Gli autori usano il termine legitimacy ad indicare la legittimazione normativo/morale e
quello di taken-for-grantedness ad indicare la legittimazione cognitivo/culturale. Essi rilevano
inoltre che il procedere di pari passo di legitimacy e taken-for-grantedness nelle tre fasi del
processo di istituzionalizzazione osservato nel caso in esame potrebbe non verificarsi in
situazioni diverse.
176
Ad esempio in (Rao et al., 2003) il campo organizzativo è quello della gastronomia francese
e gli attori principali sono gli chef, i ristoratori, i critici, i media del settore e la clientela.
177
Ad esempio in (Colyvas & Powell, 2006) vengono presi in esame, come abbiamo visto, il
procedere della legittimazione normativa/morale e cognitiva/culturale; è possibile considerare
esplicitamente anche l'avanzare di forme di legittimazione pragmatica/regolativa/razionale.
Analisi della letteratura 173

3.3.3 Ecologia organizzativa e polimorfismo

Nel 1959 la bio-ecologa Evelyn Hutchinson formulò una semplice domanda che die-
de l'avvio ad un importante serie di studi e ricerche nel suo campo: perché ci sono co-
sì tanti tipi di animali?. Diciotto anni dopo, una simile domanda ha ispirato il famoso
articolo di Michael Hannan e John Freeman sull'ecologia delle popolazioni organiz-
zative (Hannan & Freeman, 1977): perché ci sono così tanti tipi di organizzazioni?
Questa linea di investigazione si è presto rivelata una delle più fertili e vivaci del
pensiero organizzativo. Recentemente Hannan si è fermato a riflettere in retrospettiva
sull'impostazione e sugli apporti dell'approccio ecologista (Hannan, 2005). Hannan da
un lato prende in esame le caratteristiche distintive dell'approccio ecologista: il punto
di vista (ricerca delle cause della varietà organizzativa), l'unità di analisi (popolazioni
organizzative), i metodi di indagine (analisi empiriche dettagliate della selezione de-
mografica di forme organizzative); dall'altro lato, il fondatore degli studi organizzati-
vi ecologisti illustra e discute i principali risultati ottenuti in quasi trent'anni di ricer-
che, che hanno offerto nuove intuizioni e caratterizzazioni sulla varietà, sul cambia-
mento, sull'invecchiamento, sulle nicchie ambientali e sull'identità organizzativa delle
popolazioni organizzative.

Caratteristiche distintive
Il punto di vista dell'investigazione ecologista è per alcuni versi opposto a quello
dei neoistituzionalisti, che si chiedono invece che cosa rende simili le organizzazioni:

I sociologi neoistituzionalisti generalmente mettono in dubbio che vi sia una notevole varie-
tà nelle aggregazioni sociali contemporanee. Essi evidenziano l'esistenza di forti spinte a
conformarsi alle convenzioni vigenti nella progettazione delle organizzazioni. […] In un
saggio influente, Di Maggio e Powell si spingono ad argomentare che la questione rilevante
per la sociologia non è chiedersi perché esistono più tipi diversi di organizzazioni, ma «per-
ché c'è una così sorprendente omogeneità di forme e pratiche organizzative» (DiMaggio &
Powell, 1983:148). Se queste affermazioni sono corrette, allora la strategia di ricerca dell'e-
cologia organizzativa è senza futuro (Hannan, 2005:54-55).

In effetti entrambi i punti di vista, quello neoistituzionale che indaga sui fenomeni di
omologazione e quello ecologista che è interessato invece all'origine della varietà,
hanno prodotto significativi apporti alla conoscenza dei fenomeni organizzativi com-
plessi, e stanno inoltre sempre più convergendo verso posizioni condivise o almeno
178
complementari . Pertanto, al di là della rassegna delle pur legittime posizioni di con-
trasto nel dibattito accademico, l'indagine su come nasce uno standard può forse tro-
vare utili strumenti nell'approccio dell'ecologia organizzativa, i cui tratti essenziali
sono qui descritti dallo stesso Hannan:

La strategia di ricerca empirica dell'ecologia organizzativa ha quattro caratteristiche distin-


tive: 1) seleziona popolazioni di organizzazioni e ne esamina tutta la storia; 2) prende in
considerazione i dati storici di tutte le organizzazioni nelle popolazioni, includendo sia quel-
le grandi e famose che quelle piccole e insignificanti; 3) registra informazioni di dettaglio
sul tipo di ingresso (per esempio, fondazione, ingresso da un altro settore, fusione, scissio-
ne) e uscita (liquidazione, acquisizione, trasformazione) per ciascuna organizzazione; 4)

178
Vedi nota 181.
174 Capitolo 3

stima gli effetti delle caratteristiche di organizzazione, popolazione e ambiente sui fenomeni
che danno luogo a ingresso e uscita (Hannan, 2005:52)
179
Con un livello di analisi sostanzialmente simile a quello neoistituzionale , l'interesse
si accentra per gli ecologisti sullo studio demografico delle popolazioni organizzati-
ve. Le popolazioni organizzative sono state oggetto fin dalle origini di studi empirici
molto dettagliati, che ne prendono in esame innanzi tutto, per così dire, i flussi demo-
180
grafici, a partire dalle diverse tipologie di nascita e morte organizzativa .
L'attenzione alla demografia organizzativa ha evidenziato chiaramente un feno-
meno per alcuni versi sorprendente: le organizzazioni che hanno successo e si impon-
gono all'attenzione generale sono spesso solo una parte infinitesima di un universo
popoloso e dinamico, con continue e numerose nascite e morti di imprese anche mol-
to piccole:

Raccogliere informazioni su intere popolazioni di solito rivela l'esistenza di molte più orga-
nizzazioni di quante il ricercatore si aspetti. In aggiunta, ricerche attente di archivio spesso
portano alla luce informazioni su centinaia di organizzazioni che sono assenti anche dalle
statistiche ufficiali ritenute più esaustive. Per esempio uno studio del settore automobilistico
nel primo secolo del suo sviluppo, 1885-1985, ha identificato 2.197 imprese che hanno pro-
dotto una o più automobili per le vendita e 3.845 ulteriori imprese che hanno comunque ten-
tato di fare ingresso nel settore (sono state fondate e registrate come produttori di automobili
o hanno annunciato l'intenzione di produrre e vendere automobili) ma non sono poi riuscite
a vendere alcuna automobile ((Carroll & Hannan, 2000), capitolo 15).
Il settore telefonico americano ha visto più di 30.000 imprese tra la sua nascita nel 1887 e
l'inizio della regolamentazione della Federal Communications Commissions nel 1933
(Barnett, 1995). Il settore della produzione di birra in America ha visto l'apparizione di
7.709 imprese nel periodo 1633–1988 (Carroll & Swaminathan, 1991). E' comune incontra-
re la reazione che questi conteggi includono prevalentemente organizzazioni "marginali"
che possono tranquillamente essere ignorate perché contribuiscono complessivamente in
modo insignificante al prodotto o all'occupazione di un settore. Comunque, la maggior parte
delle organizzazioni oggi dominanti hanno cominciato come imprese marginali—pensiamo
a Anheuser Busch, Cisco Systems, Honda, Microsoft, Sony e Wal-Mart. Se si presta atten-
zione solo a quelle organizzazioni che sono state in grado di muoversi dai margini al centro,
insorgono gravi problemi di selezione campionaria nello spiegare come specifiche caratteri-
stiche delle organizzazioni influenzano il successo o il fallimento. Un tale orientamento non
tiene conto della maggiore fonte di varietà organizzativa: la creazione di nuove organizza-
zioni ai "margini" (Hannan, 2005:52-53).

Il processo continuo di creazione e selezione di sempre nuove forme di organizzazio-


ni inizialmente "marginali" costituisce dunque uno degli interessi primari degli eco-
logisti, che recentemente hanno cominciato a prendere in considerazione, tra i fattori

179
Vengono infatti presi in esame interi gruppi di organizzazioni in relazione tra loro, anche se
la definizione e la natura del campo organizzativo (neoistituzionale) non coincide
necessariamente con quella della popolazione organizzativa (ecologista). Hannan stesso
afferma che la definizione specifica di forme e limiti delle popolazioni organizzative ha risvolti
importanti e controversi, specie per l'analisi empirica: in (Hannan, 2005:52-53) ne affronta
alcuni aspetti, ponendo a confronto il punto di vista degli ecologisti con quello degli
economisti.
180
Al contrario, come abbiamo visto nella sezione precedente dedicata alle teorie istituzionali,
solo negli ultimi anni i neoistituzionalisti hanno dato il via ad un significativo sviluppo di
indagini empiriche basate sulla raccolta e l'analisi sistematica di evidenze misurabili.
Analisi della letteratura 175

di selezione, non soltanto quelli tradizionali dell'efficienza economica, ma anche


181
quelli culturali/cognitivi, politici e regolativi tipici delle analisi istituzionali .
Non è certo questa la sede per una panoramica dei numerosi e importanti contribu-
ti ecologisti nelle varie discipline, per la quale un utile punto di partenza potrà essere
proprio la rassegna retrospettiva in (Hannan, 2005) e i numerosi riferimenti ivi ospita-
182
ti. Tra gli apporti più importanti degli ecologisti ricordati da Hannan , gli studi su
varietà, inerzia e cambiamento, specializzazione e nicchie organizzative appaiono qui
particolarmente utili ai nostri fini.

Varietà
La varietà è spesso più presente nelle popolazioni di quanto ci aspetteremmo. Se
infatti appare logico che popolazioni molto ampie e generiche (per esempio, tutte le
società di capitali o tutte le organizzazioni nonprofit) presentino una elevata varietà di
forme organizzative, sembrerebbe altrettanto naturale che popolazioni più specifiche
e ristrette ad attività, prodotti e clientele ben definite possano risultare molto più o-
mogenee. Uno recente studio ecologista, lo Stanford Project on Emerging Companies
(Baron et al., 1999), ha mostrato il contrario con un'analisi approfondita di un cam-
183
pione di circa 150 nuove imprese high-tech in Silicon Valley . Le organizzazioni di

181
A questo proposito Hannan rileva: «Gli economisti potrebbere naturalmente assumere che
studiare la dinamica delle popolazioni organizzative significhi concentrarsi sulle dinamiche
competitive dei mercati di prodotti. Sebben la competizione tra popolazioni e al loro interno
riceva una considerevole attenzione nella loro ricerca, gli ecologisti organizzativi non
assumono che la selezione favorisca sistematicamente le organizzazioni economicamente più
efficienti. Essi assumono che la selezione opera su dimensioni multiple, che includono fattori
culturali e politici e che sono caratterizzate da una forte dipendenza dal percorso (Carroll &
Harrison, 1994). Anche i sociologi prestano notevole attenzione alle interazioni all'interno e
all'esterno delle popolazioni organizzative che—al contrario della competizione—aumentano le
probabilità di sopravvivenza delle organizzazioni. Molta ricerca si concentra sulla
legittimazione. Questo termine, che è molto impiegato in sociologia, si riferisce a due processi
distinti. La legittimazione sociopolitica ha il significato dell'acquisire il sostegno delle autorità:
per esempio, ricevere approvazione ufficiale, acquisire forniture, riconoscimento legale, e così
via. La legittimazione costitutiva si riferisce al processo più sottile di guadagnare la posizione
di un elemento dato per scontato in una struttura sociale (Meyer & Rowan, 1977). La ricerca
ecologista sulle organizzazioni si è interessata alla legittimazione costitutiva, perché questa
scelta permette la formulazione di modelli generali che mettono in relazione la struttura delle
popolazioni con la legittimazione. Le nuove forme organizzative di solito mancano di
legittimazione costitutiva; la legittimazione si sviluppa con il trascorrere degli anni, con la
crescita numerica e con la nascita di movimenti sociali. Una delle più significative linee di
indagine, la teoria della legittimazione e della competizione dipendente dalla densità (Hannan
& Carroll, 1992), esplora queste questioni» (Hannan, 2005:53-54).
182
Tali apporti comprendono almeno un altro fondamentale filone di ricerca ecologista: gli
studi sugli effetti della mortalità organizzativa di vari fattori anagrafici, tra cui l'età delle
organizzazioni, le loro dimensioni e la loro numerosità (densità). Un utile punto di riferimento
per una panoramica selettiva è la tabella 1 di (Hannan, 2005), che elenca alcuni degli studi
ecologisti più significativi, indicando le popolazioni oggetto di analisi e i principali risultati
ottenuti.
183
Si volevano prendere in esame imprese giovani ma non troppo piccole, dato che al di sotto di
una dimensione minima si tende a fare a meno della maggior parte dei sistemi di
organizzazione formale. Per questo sono state selezionate imprese con oltre 10 dipendenti
fondate nei 10 anni precedenti, in base alla data di costituzione. Il campione considerato
176 Capitolo 3

questa popolazione ristretta e specifica presentano infatti una considerevole e inaspet-


184
tata varietà di diversi "DNA" (blueprint) organizzativi . Eppure questa varietà tende
a sfuggire agli studi convenzionali:

Le differenze tra blueprint identificate in questo studio sono sottili, perché hanno a che ve-
dere con le premesse dell'azione piuttosto che con scelte facilmente osservabili. Esse non
verrebbero certo rilevate negli studi convenzionali delle popolazioni e dei settori in sociolo-
gia o in economia, che tenderebbero a considerare le imprese high-tech in una stessa regione
e periodo di tempo come un gruppo omogeneo da mettere a confronto con un altri gruppi.
Riconoscere che queste popolazioni potrebbero effettivamente essere caratterizzate da un
considerevole ammontare di varietà rilevante ha portato a una riconsiderazione delle strate-
gie standard di progettazione delle ricerche (Hannan, 2005:58-59).

Non solo gli ecologisti evidenziano in forme sempre più sottili la varietà di forme e
blueprint, ma anche le forti resistenze inerziali delle organizzazioni all'omologazione
verso modelli organizzativi comuni.

Inerzia e cambiamento
Uno degli assunti centrali degli studi ecologisti è infatti proprio quello dell'inerzia
strutturale, che si contrappone a quello della convergenza istituzionale:

Questo argomento [convergenza istituzionale] prevede che, anche se le organizzazioni fos-


sero inizialmente diverse, l'esposizione a pressioni competitive comuni e a domande istitu-
zionali le porti a convergere ad una struttura standard. Questa vista si basa anche sull'assun-
to spesso implicito che i cambiamenti organizzativi possano essere ottenuti ad un rischio ed
un costo relativamente contenuto. L'ecologia organizzativa si basa su un assunto diverso,
cioè che le strutture core delle organizzazioni siano soggette a forti pressioni inerziali e che
gli sforzi di cambiare queste strutture aumentino sostanzialmente le probabilità di fallimento
(Hannan & Freeman, 1977); (Hannan & Freeman, 1984). Questa affermazione fu inizial-
mente accolta con grande scetticismo. Comunque, man mano che si accumula evidenza da
studi rilevanti, essa non suona più così eretica (Hannan, 2005:59).

Perché le organizzazioni resisterebbero all'omologazione, opponendosi al cambia-


mento strutturale? Una prima spiegazione ecologista si basa su un noto argomento di
Max Weber, che mette il luce la tendenza a favorire nella nostra società le organizza-
zioni che mostrano stabilità, prevedibilità e un comportamento calcolabile; in
(Hannan & Freeman, 1984) si osserva come il possesso di queste proprietà desidera-
bili possa dipendere dalla riproduzione fedele di strutture organizzative nel tempo,
che implica una resistenza al cambiamento. Un secondo argomento più recente si ba-

rappresenta una porzione di circa 1/6 dell'universo, selezionata con tecniche di campionamento
stratificato (Baron et al., 1999).
184
Ciò è emerso in particolare dalle risposte fornite dai fondatori e dai manager a domande
aperte sui modelli organizzativi adottati, sulle relazioni con i dipendenti e sulla loro visione
organizzativa. Le risposte divergevano in particolare riguardo ai meccanismi di coordinamento
e controllo e alla gestione del personale, con particolare enfasi sui sistemi usati per l'attrazione,
la motivazione e la ritenzione dei collaboratori. Sono stati individuati cinque diversi "DNA"
(blueprint) organizzativi: ingegneristico (31%), della motivazione personale (14%), a stella
(9%), burocratico (7%), autocratico (7%) (Baron et al., 1999).
Analisi della letteratura 177

sa sull'idea che il rischio di mortalità tenda ad aumentare quando l'organizzazione


185
mette in discussione i suoi tratti essenziali, quelli legati alla sua stessa identità .

Specializzazione e nicchie organizzative


Lo studio dell'ampiezza delle nicchie organizzative e dei diversi gradi di specia-
lizzazione ad esse associati costituisce un altro degli apporti fondamentali degli eco-
logisti. Esso ha visto fiorire numerose indagini empiriche:

Le popolazioni studiate includono compagnie aeree, produttori di automobili, birrerie, ban-


che di investimento, produttori di microprocessori, editori di quotidiani, società telefoniche
e produttori di vino ((Carroll & Hannan, 2000), cap. 12). La varietà in questi mercati sale a
valori elevati in una fase iniziale in cui specialisti di vario genere si rivolgono a nicchie lo-
calizzate, poi la varietà tende a scendere per un certo periodo, mentre i generalisti aumenta-
no il grado di copertura del mercato e il settore generalista si concentra, quindi la varietà
torna a manifestarsi quando gli specialisti cominciano a contendersi le zone marginali del
mercato (Hannan, 2005:65).

Questa osservazione degli ecologisti si apre ad una importante domanda: che cosa
ferma l'espansione e la concentrazione di poche grandi imprese generaliste, evitando
che il mercato venga completamente monopolizzato e favorendo invece il proliferare
ai margini di una moltitudine di piccole imprese specialiste? Si tratta di una domanda
186
importante e impegnativa . Secondo Hannan «Molti fattori limitano presumibilmente

185
Hannan ricorda come il concetto di identità organizzativa per gli ecologisti si sia evoluto nel
tempo: inizialmente essa veniva collegata a determinate caratteristiche come ad esempio la
mission, la forma di autorità, la tecnologia, e la strategia di mercato dell'organizzazione
(Hannan & Freeman, 1984). In seguito si è affermata l'idea che l'identità organizzativa venga
conferita dai soggetti con cui l'organizzazione interagisce, in base alle loro aspettative. Hannan
interpreta in senso identitario anche le blueprint organizzative rilevate nello Stanford Project
on Emerging Companies già menzionato: il cambiamento delle blueprint tende infatti a
destabilizzare l'organizzazione aumentandone sostanzialmente la mortalità, e ciò potrebbe
essere dovuto al fatto che esso altera l'identità organizzativa (Hannan, 2005:60-61).
186
Vale la pena di ricordare che questa stessa questione è al centro di uno degli studi più noti di
Ronald Coase, che risale al 1937 ed è oggi un punto di riferimento centrale per la teoria dei
costi di transazione (vedi nota n. 41) e la teoria dell'impresa. In "The Nature of the Firm",
Coase, dopo essersi chiesto perché esistono le organizzazioni, si domanda: «Perché, se
attraverso l'organizzare si possono eliminare determinati costi e si giunge effettivamente a
ridurre il costo della produzione, le transazioni di mercato non vengono eliminate del tutto?
Perché non esiste una sola grande impresa per tutta la produzione?» (Coase, 1937:394).
Nell'impossibilità di riportare qui la magistrale ed elegante argomentazione originale di Coase,
a cui si rinvia il lettore, si annoterà soltanto come il crescere delle dimensioni dell'impresa
comporti tipicamente una maggiore distanza/sparsità, varietà e inerzia delle attività di
produzione. Il mercato costituisce una buona alternativa ad una produzione unificata perché
permette di decomporre il sistema di attività in tante unità locali pressoché indipendenti,
ciascuna con un grado più ridotto di sparsità spaziale e di varietà interna. L'inerzia viene ridotta
non soltanto dalla maggiore facilità di cambiamento locale (dovuta alle dimensioni più ridotte
dei sottosistemi), ma anche dalla possibilità di sostituire e scambiare le unità locali (imprese)
nel sistema complessivo. Per dimensioni complessive elevate, un sistema composto di tante
piccole organizzazioni autonome coordinate con un meccanismo di prezzi (mercato) è dunque
preferibile ad uno di produzione accentrata e unificata, coordinato attraverso meccanismi
gerarchici (organizzazione). Questa osservazione appare oggi in sintonia con i principi base
delle teorie su complessità e modularità, qui discussi nella sezione 3.3.1. A proposito
dell'effetto distanza, Coase vede ben oltre il prossimo futuro, quando annota «Invenzioni che
178 Capitolo 3

questa espansione, incluse le normative per la prevenzione dei monopoli e la possibi-


lità che i costi di acquisizione del resto del mercato possano eccedere i ricavi attesi,
perché i consumatori sono distribuiti troppo sottilmente» (Hannan, 2005: 65). Hannan
annota anche come gli studi ecologisti più recenti tendano a dare una ulteriore spie-
gazione: l'espansione delle grandi imprese generaliste potrebbe trovare un limite an-
che nella tendenza all'affermazione di una pluralità di identità organizzative distinte.
Questo processo è stato documentato da una serie di studi sulla segmentazione del
mercato della birra negli USA (Carroll & Swaminathan, 2000), un settore in cui il
processo di concentrazione delle quote di mercato verso poche imprese di dimensioni
crescenti è apparso ben evidente nel secolo scorso per quasi 50 anni, in cui il numero
di imprese è sceso da 926 nel 1934 a 43 nel 1983. Negli anni '80 hanno cominciato ad
apparire sul mercato nuovi soggetti, tra cui le microbirrerie, che producono birra arti-
gianalmente in quantità limitata, e i pub-birreria, che producono e servono birra arti-
gianale. Questo ha fatto nuovamente aumentare il numero di produttori: negli anni '90
una miriade di prodotti più o meno artigianali hanno conquistato complessivamente il
187
10% del mercato . Dunque,

I grandi produttori industriali non sono ancora riusciti a imporsi anche come produttori au-
tentici di birra artigianale. Le ragioni non hanno nulla a che fare con le capacità: esse riflet-
tono l'identità. La comunità delle microbirrerie ha avuto successo nel proporre una sua iden-
tità opposta e distinta: secondo la cultura dominante, un'impresa che produce birra industria-
le non può anche assumere l'identità di un piccolo artigiano. Il risultato è che il settore della
birra ne risulta partizionato in senso identitario. Finché prevalgono le convinzioni sottostanti
questa identità alternativa, la nicchia specialistica resta al sicuro dall'invasione da parte di
chi domina il resto del mercato (Hannan, 2005:66).

La varietà delle identità finisce dunque per alimentare ulteriormente la varietà delle
forme organizzative, che conferma il suo ruolo centrale nell'interesse degli studi eco-
logisti.
In definitiva, per riprendere nel suo insieme quanto qui tratteggiato finora, le for-
me organizzative che osserviamo sul campo sono, in modo molto più accentuato di
quanto non si ritenga comunemente, il risultato di un processo demografico che, spe-
cie nelle fasi iniziali del ciclo di vita di un prodotto/mercato, procede in modo tumul-
tuoso con numerose nascite e morti. La morte e la sostituzione di un'impresa da parte

tendono ad aumentare la prossimità dei fattori di produzione, riducendone la distribuzione


spaziale, tenderanno anche accrescere la dimensione dell'impresa. Cambiamenti come il
telefono e il telegrafo che tendono a ridurre il costo dell'organizzazione spaziale tenderanno ad
accrescere le dimensioni dell'impresa. Tutti i cambiamenti che rendono più efficace la tecnica
manageriale tenderanno ad accrescere la dimensione dell'impresa» (Coase, 1937: 397). Il
progresso delle tecnologie dell'informazione e della comunicazione, insieme ai fenomeni di
globalizzazione, ha decisamente confermato queste lungimiranti osservazioni. Nel mondo
"piatto" contemporaneo (Friedman, 2005); (Friedman, 2006), la dimensione delle
organizzazioni sembra poter crescere molto al di là dei limiti che Coase poteva osservare negli
anni '30 del secolo scorso.
187
Una terza categoria di imprese ha fatto ingresso nel mercato, i produttori "a contratto", che
progettano birre "speciali" espressamente pensate per fare concorrenza alle "vere" birre
artigianali per poi farle produrre a basso costo con contratti di outsourcing. Questo ingresso ha
danneggiato i veri produttori artigianali con una serie di conseguenze discusse estensivamente
in (Carroll & Swaminathan, 2000).
Analisi della letteratura 179

di una nuova rappresenta infatti a livello di sistema un meccanismo di innovazione


spesso più efficace del cambiamento e dell'adattamento organizzativo, che deve fare i
conti con l'esistenza di "DNA" e "blueprint"che non possono essere facilmente modi-
ficati. In una popolazione organizzativa il trascorrere del tempo vede da un lato una
tendenza all'espansione di poche organizzazioni dominanti, che hanno mostrato una
migliore capacità di "fit" con l'ambiente circostante a spese delle concorrenti, e dal-
l'altro la tendenza all'affermazione di identità distinte che tendono ad occupare nic-
chie ambientali marginali e protette.
Lo studio della competizione, della mortalità e della selezione "demografica" rap-
presenta un importante contributo che gli studi ecologisti possono dare alla compren-
sione di come nasce uno standard. In particolare, per potersi affermare, uno standard
deve confrontarsi con un numero di possibili alternative, di cui spesso solo una mini-
ma parte viene adottata stabilmente e pubblicata. Le idee e le metodologie di ricerca
empirica degli ecologisti possono dunque far luce in particolare sul processo di sele-
zione di uno standard tra i possibili candidati, permettendo di verificarne la demogra-
fia (nascite, morti e adozioni dei candidati standard), mettendola in relazione con le
caratteristiche dei candidati emergenti.

3.3.4 Dall'organizzazione allo standard

Alcuni degli studi presi in esame fino ad ora in questo capitolo, come quelli della
network economics e quelli sulle tecnologie dominanti, sono stati direttamente conce-
piti per spiegare i processi di diffusione degli standard e/o delle innovazioni tecnolo-
giche. Altri studi, come quelli istituzionali sulla legittimazione, sono invece nati per
spiegare la nascita e la diffusione di forme organizzative e sociali, ma sono stati in
seguito applicati anche alle innovazioni tecnologiche, come suggerito nella prima
parte della sezione 3.3.2. Anche le idee ecologiste sono state di recente prese in con-
siderazione per l'analisi dei processi di standardizzazione, come abbiamo notato nel
commento a (Nickerson & Zur Muehlen, 2006) nella sezione 3.1.2. E' però opportuno
chiedersi esplicitamente in che misura concetti utili per spiegare la nascita e l'evolu-
zione delle organizzazioni, come quelli neoistituzionali ed ecologisti, possono appli-
carsi ai processi di standardizzazione. Fino a che punto si può procedere per analo-
gia?
Si eviterà in questa sede una completa analisi comparativa di tutti i caratteri cha
accomunano e differenziano i concetti di "organizzazione" e "standard", che sono en-
trambi molto ampi e complessi. Uno standard, come si è visto nel capitolo 1, è in es-
senza una regola formale ad applicazione volontaria: esso trova impiego, secondo
quanto già discusso nel capitolo 2, come strumento di coordinamento e comunicazio-
ne a tutti i livelli: tra individui, tra gruppi, organizzazioni e nella società. In quanto
regola e meccanismo di coordinamento, lo standard è uno degli aspetti centrali del-
l'organizzare, per cui ci si può aspettare che molti dei fenomeni e dei concetti che
spiegano la nascita e l'evoluzione delle organizzazioni possano essere applicabili per
analogia anche agli standard. Si procederà dunque in questo senso, applicando per
analogia ai processi di standardizzazione vari concetti e teorie dell'organizzare. Lad-
180 Capitolo 3

dove però risultino necessarie sostanziali distinzioni nell'applicazione analogica, si


cercherà di porle di volta in volta in evidenza.
I numerosi concetti e strumenti di indagine finora messi in campo, provenienti so-
prattutto dalla network economics, dalle teorie del dominant design, dalle teorie isti-
tuzionali e dall'ecologia organizzativa, possono in effetti essere impiegati per tentare
di costruire un quadro unico di interpretazione e analisi dei processi di standardizza-
zione.
La network economics e le teorie dell'azione collettiva hanno evidenziato come
alcuni tipi di standard (information goods) possano ingenerare benefici per gli utenti
che crescono con la dimensione della rete di utenti (effetti rete), con fenomeni (swi-
tching costs, lock-in, effetti pinguino, free riding e dilemmi della partecipazione) che
rendono convenienti particolari strategie di investimento per la loro produzione e dif-
fusione (prezzi predatori, marketing, sviluppo della massa critica, politiche di gestio-
ne dei diritti intellettuali) e che possono dar luogo a forme di dipendenza dal percor-
so, in cui le caratteristiche di uno standard influenzano e vincolano lo sviluppo degli
standard futuri, favorendo lo sviluppo di quelli progettati per la compatibilità con la
"base installata" preesistente.
Attraverso gli strumenti concettuali impiegati nelle teorie più recenti del dominant
design, è stato possibile rilevare come alcune forme di standardizzazione siano orga-
nizzate in sistemi complessi a struttura modulare, in cui i numerosi standard del si-
stema hanno diversi gradi di importanza relativa e diverse modalità di interconnes-
sione e influenza reciproca: si tratta anche in questo caso di aspetti che possono esse-
re per alcuni versi misurati e confrontati.
Dal punto di vista delle teorie istituzionali la nascita di uno standard può essere
vista come un fenomeno di convergenza collettiva verso una forma comune, in cui
rileva particolarmente la costruzione delle varie dimensioni di legittimazione: prag-
matica/razionale, morale/normativa, cognitiva/culturale. In tale processo entrano in
gioco forze coercitive, normative, mimetiche e di evangelizzazione, che possono es-
sere oggetto di analisi empirica.
Con gli ecologisti possiamo invece vedere la standardizzazione come un processo
di selezione naturale nel quale è importante rilevare le nascite, le morti e i livelli di
adozione di ciascuno dei candidati standard.
Se dal punto di vista istituzionale la nascita di uno standard è un fenomeno di o-
mologazione e di convergenza verso forme comuni, dal punto di vista ecologista essa
invece è un processo che genera continuamente varietà, la seleziona in forme domi-
nanti ma poi la rinnova al margine e la protegge in nicchie ambientali. Per poter com-
porre un quadro unitario e coerente è innanzi tutto necessario affrontare questa appa-
rente contraddizione tra varietà e omologazione, che verrà presa in esame nel seguito.

3.3.5 Verso l'uniformità o la varietà?

La nascita di uno standard è un fenomeno di convergenza verso l'uniformità e l'o-


mologazione oppure serve a produrre varietà attraverso l'affermazione di nuove forme
dominanti localmente? Si pensi ai sistemi manageriali di gestione della qualità e del-
Analisi della letteratura 181

188
l'ambiente : essi sono tra gli standard più rilevanti e diffusi nel mondo (ISO, 2008),
eppure il loro straordinario successo, lungi dall'affermare un vero e proprio modello
manageriale unico, tende piuttosto ad aumentare la varietà di pratiche manageriali e
ha anzi stimolato la nascita nuovi standard "locali", per adattarsi ai diversi settori e
189
alle diverse tipologie di attività . Per chiarire in che senso la nascita di uno standard
può essere considerata un fenomeno di riduzione piuttosto che di aumento della varie-
tà, è opportuno analizzare la relazione tra il concetto di legittimazione, che secondo
gli istituzionalisti riduce la varietà e spinge all'isomorfismo (vedi sezione 3.3.2), e
quello di identità, che i più recenti apporti ecologisti impiegano per spiegare la varie-
tà e il polimorfismo (vedi sezione precedente, 3.3.3). Secondo uno studio recente, «la
formazione dell'identità attraverso l'unicità e la costruzione di legittimazione attraver-
190
so l'uniformità sono due facce della stessa moneta» (Pedersen & Dobbin, 2006:897) .
In sostanza i due processi di convergenza verso l'uniformità e di divergenza verso la
varietà avvengono simultaneamente ma a livelli diversi: le organizzazioni convergo-
no verso forme comuni a livello di campo organizzativo, spinte dalla ricerca della le-
gittimazione; esse però divergono verso forme distinte a livello della singola organiz-
zazione, spinte dalla necessità di affermare ciascuna una propria identità organizzati-
va. Il risultato complessivo è che le forme organizzative hanno tratti comuni, condivi-
si a livello di campo (o di popolazione) e tratti distinti, condivisi a livello di singola
organizzazione. I processi di convergenza verso la costruzione di tratti comuni (iso-
morfismo) e quelli di divergenza verso la costruzione di tratti distinti (polimorfismo)
avvengono dunque a livelli diversi, ma non sono del tutto separati; ad esempio alcuni
tratti dell'identità organizzativa possono essere importati da quelli del campo, mentre
altri possono essere costruiti in contrapposizione ad essi. Pedersen e Dobbin osserva-
no come isomorfismo di campo e polimorfismo organizzativo si influenzano recipro-
camente attraverso l'imitazione, la contrapposizione (immunization), l'ibridazione
(cioè la adozione parziale e la ricombinazione dei tratti originari) e la trasmutazione

188
Gli standard ISO 9000 e ISO 14000 (ISO, 2008) sono stati già ricordati nella sezione 2.1.3,
pag. 46, a proposito della standardizzazione dei processi come meccanismo di coordinamento.
189
Esistono oggi adattamenti e specializzazioni degli standard manageriali ISO per i settori
alimentazione (ISO 22000:2005); sicurezza dell'informazione (ISO/IEC 27001:2005);
sicurezza della catena di fornitura (ISO 28000:2007); automobilistico (ISO/TS 16949:2002);
petrolifero (ISO 29001:2003); della produzione di apparecchiature medicali (ISO 13485:2003);
dell'istruzione (IWA 2:2007); della sanità (IWA 1:2005); dell'amministrazione locale (IWA
4:2005); cfr. (ISO, 2008). Appare utile rilevare che la varietà negli standard manageriali si
manifesta anche attraverso il tempo. Ad esempio, ISO 9000 ha avuto le seguenti versioni: ISO
8402:1986; ISO 8402:1994; ISO 9000:2000; ISO 9000:2005; con il trascorrere degli anni si
sono introdotte innovazioni sostanziali nelle nuove formulazioni, che hanno soppiantato le
vecchie e che possiamo considerare ai nostri fini come veri e propri nuovi standard, secondo
quanto discusso a proposito della stabilità nel tempo nel capitolo 1, sezione 1.2.3.
190
Lo studio di Pedersen e Dobbin mette a confronto la prospettiva neoistituzionale
(legittimazione e isomorfismo), a quella tipica degli studi sulla cultura organizzativa (identità e
polimorfismo) (Pedersen & Dobbin, 2006). Sembra qui di poter applicare questa stessa linea di
ragionamento (senza modificarne i contenuti essenziali) anche agli studi recenti su identità e
varietà/polimorfismo degli ecologisti evidenziati nella sezione precedente, come (Hannan,
2005).
182 Capitolo 3

(cioè la trasformazione dei tratti originari attraverso la reinterpretazione e l'adatta-


mento), come illustrato dalla Figura 3.16 che segue.

Legittimazione

campo
organizzativo
Isomorfismo

Imitazione
Contrapposizione
Ibridazione
Trasmutazione

Polimorfismo Polimorfismo

organizzazione organizzazione

Identità Identità

Figura 3.16 Coesistenza di processi di isomorfismo a livello di campo organizzativo e di po-


limorfismo a livello organizzativo. Fonte: elaborazione da (Pedersen & Dobbin,
2006:903), Figure 1.

I punti di vista apparentemente contrastanti degli studiosi che indagano sulla conver-
genza verso la legittimazione, piuttosto che sulla divergenza identitaria, appaiono
dunque riferirsi ad un unico fenomeno complesso, in cui entrambi questi opposti pro-
cessi di convergenza e divergenza possono essere presenti, manifestandosi a diversi
livelli e interagendo continuamente tra di loro.
Appare peraltro naturale pensare che l'interazione tra identità e legittimazione, tra
diversità e varietà possa avvenire anche a livello del singolo individuo, che afferma la
propria unicità ma nello stesso tempo condivide con altri individui in gruppi e orga-
nizzazioni alcuni tratti peculiari, spesso distinti, che contribuiscono a formare un'i-
dentità complessa (Roccas & Brewer, 2002): una persona può infatti essere nello
stesso tempo un meccanico della Ferrari, un membro del circolo degli scacchi, un at-
tivista di partito, un emiliano amante delle proprie tradizioni regionali e un europeista
Analisi della letteratura 183

convinto, mediando aspetti della propria individualità complessa da tutte queste iden-
tità collettive. Peraltro, studi specifici hanno già mostrato come la costruzione dell'i-
dentità individuale sia profondamente collegata alle scelte di appartenenza collettiva
e sociale (Brewer & Gardner, 1996), e come una teoria generale del sé possa tenere
conto non solo del livello individuale ma anche di quelli collettivi (Stets & Burke,
2000).
Dunque è possibile immaginare come la tensione tra uniformità e varietà possa
manifestarsi non solo a livello organizzativo e di campo organizzativo, ma su molti
livelli diversi: identità e legittimazione possono esistere a livello individuale, di grup-
po, organizzativo, sociale: i processi sembrano interagire tra i diversi livelli secondo
dinamiche simili a quelle evidenziate in Figura 3.16, spingendo verso l'uniformità
nelle interazioni verso l'alto e verso la molteplicità nelle interazioni verso il basso. Ad
esempio, convinzioni e valori comuni tra partiti diversi possono contribuire ad un li-
vello più alto alla definizione di uno schieramento comune con una identità e una le-
gittimazione collettiva condivisa, con processi di isomorfismo (convergenza verso
l'alto); dall'altra parte, nell'ambito di ciascun partito potranno formarsi ad un livello
più basso sottogruppi locali con identità distinte, con un processo che genera polimor-
fismo e varietà, moltiplicando le diverse identità locali (divergenza verso il basso).
Analogamente, appare naturale pensare che i fenomeni di standardizzazione pos-
sano agire a diversi livelli, con gruppi di riferimento di dimensioni diverse. Uno stan-
dard di base internazionale e globale potrebbe essere accompagnato e completato da
più standard diversi che lo integrano e adattano alle specificità locali, agendo a livelli
inferiori: ad esempio in Italia vi è un unico standard per il voltaggio e la frequenza
della corrente elettrica (220 Volts, 50 Hz), che è anche largamente condiviso in molte
parti di Europa e del mondo; nello stesso tempo, però, convivono in Italia diversi tipi
di prese e spine standard che si adattano alle caratteristiche di classi diverse di appa-
191
recchi utilizzatori . In effetti il sistema infrastrutturale complessivo per la distribu-
zione domestica dell'energia elettrica è costituito da diversi tipi di standard, che com-
prendono quelli menzionati ed altri, che sono in relazione tra loro e che hanno un di-
verso livello di "località".
Un altro importante sistema infrastrutturale in cui esistono molti livelli diversi di
standard interconnessi tra loro, con diversi gradi di generalità/località ed estensione è
192
quello della comunicazione tra computer effettuata attraverso Internet . I processi di
comunicazione tra computer interconnessi attraverso un'infrastruttura di comunica-
zione (internetworking) sono influenzati da un numero enorme di variabili, che ri-
guardano ad esempio i diversi tipi di computer, di programmi applicativi, di regole di
codifica dei dati, i dispositivi di comunicazione, i canali impiegati, le modalità di
scambio delle informazioni, quelle di indirizzamento e gestione delle trasmissioni e
191
Ad esempio, tipicamente una spina italiana standard per una lavatrice o un forno è più
robusta e ha una maggiore capacità (16 Ampere) di quella per una lampada da tavolo (10
Ampere).
192
Internet è un'infrastruttura molto complessa con molti livelli gerarchici e decine di standard
che interagiscono tra loro. Una buona introduzione godibile e non tecnica, con una particolare
attenzione agli aspetti organizzativi, istituzionali e di governance è in (Zuckerman &
McLaughlin, 2003).
184 Capitolo 3

moltissimi altri aspetti. Non è nemmeno ipotizzabile uniformare ad un unico standard


globale tutte queste variabili: dovrebbe esistere nel mondo un solo identico tipo di
computer, di interfaccia di rete, di canale di comunicazione, di protocollo di comuni-
cazione, di programma applicativo e così via.
L'evoluzione e l'affermazione dell'infrastruttura Internet come la conosciamo oggi
è stata possibile grazie ad una molteplicità di processi di innovazione e standardizza-
zione che si sono succeduti nel tempo, agendo su molti livelli diversi: accanto ai due
193
fondamentali protocolli standard IP e TCP , numerose ulteriori specifiche tecniche
standardizzate sono infatti necessarie perché il sistema Internet nel suo complesso
possa oggi fornire servizi di comunicazione a milioni di utenti e di computer distri-
buiti nel mondo.
E' importante sottolineare come, in base alla definizione di standard discussa nel
primo capitolo, TCP e IP sono degli standard a tutti gli effetti, in quanto regole ad
adozione volontaria pubblicate in forma scritta. Internet nel suo complesso, invece, è
194
un'infrastruttura di comunicazione ma non può essere qui considerata uno standard
vero e proprio, in quanto manca di una formulazione univoca, completa, stabile e
195
formale .
Le due opposte tendenze all'isomorfismo e al polimorfismo possono dunque trova-
re composizione in un sistema infrastrutturale complesso e multi-livello, come quello
di Internet, in cui sono presenti ai livelli più alti degli standard generali, come il pro-
tocollo IP, che rappresentano un po' la spina dorsale del sistema e che sono molto dif-
fusi; ai livelli più bassi dell'infrastruttura è invece possibile avere numerosi diversi
193
IP (Internet Protocol) è lo standard fondamentale di Internet, che definisce le regole di
indirizzamento e smistamento dei dati attraverso i nodi della rete. TCP (Transfer Control
Protocol) si occupa invece del controllo della trasmissione, comprese le modalità di
suddivisione al punto di partenza in tanti "pacchetti" degli archivi dati (file) da inviare e della
loro ricomposizione al punto di arrivo. Per un'introduzione generale non tecnica, si veda il già
menzionato (Zuckerman & McLaughlin, 2003) e i riferimenti ivi ospitati.
194
I concetti di "standard" e "infrastruttura" vanno considerati distintamente, anche se hanno
alcuni tratti in comune. Per una definizione ragionata del concetto di infrastruttura cfr. (Star &
Ruhleder, 1996); vedi anche l'analisi del concetto di infrastruttura informativa nel noto studio
sui sistemi standard di classificazione (Bowker & Star, 1999), cap. 1.
195
Che cosa è Internet? Definita come una "rete di reti" (network of networks) o più
propriamente come una architettura di sistema per l'interconnessione di reti di computer
(Encyclopaedia Britannica), Internet sfugge ad una descrizione formale, univoca e stabile, in
quanto una connessione Internet può essere effettuata facendo uso di decine di standard diversi,
a cui se ne aggiungono continuamente di nuovi, facendo evolvere continuamente e rapidamente
il sistema complessivo. Se la Internet degli anni '70 comprendeva soltanto alcuni rudimentali
servizi base (i primi sistemi di posta elettronica e di trasferimento file), quella attuale abilita tra
l'altro servizi web avanzati, applicazioni evolute di e-commerce e forme di comunicazione
sempre più sofisticate. In questa sede non si parlerà dunque di Internet come di uno standard,
ma come di una infrastruttura composta di un numero imprecisato di standard. Qualche tempo
fa alcuni dei "pionieri" di Internet hanno partecipato alla stesura di un famoso resoconto storico
che ne traccia sinteticamente le tappe essenziali: (Leiner et al., 1997). Da esso appare chiaro
come l'infrastruttura Internet possa essere caratterizzata, dal punto di vista tecnico, dall'uso di
almeno uno standard che ne è un po' il denominatore comune: il protocollo IP (vedi nota
precedente). Tutte le reti e i sistemi interconnessi che fanno uso del protocollo IP per
comunicare tra loro (tipicamente quelle TCP/IP e quelle UDP/IP) fanno dunque parte
dell'infrastruttura Internet.
Analisi della letteratura 185

standard locali, che si rivolgono a specifici usi e ad un numero più ristretto di utenti,
come ad esempio una specifica tecnica del sistema di posta elettronica di un partico-
lare telefono cellulare. Appare evidente che la nascita di uno standard generale come
il protocollo IP possa avere caratteristiche e modalità diverse dalla nascita di uno
standard locale e di limitata applicazione come un particolare programma per un par-
ticolare dispositivo. Una delle caratteristiche che possono rivelare cruciali ai fini della
selezione e del successo di uno standard, a seconda del livello e dell'estensione di uti-
lizzo, è quella della flessibilità, che verrà presa in considerazione nel seguito.

3.3.6 Flessibilità e interpretazione

Nella sua nota classificazione degli standard come meccanismi di coordinamento,


Mintzberg nota come a seconda del tipo di standard adottato, gli attori possano gode-
re di diversi spazi di discrezionalità. Ad esempio la standardizzazione dei processi
produttivi pone agli attori maggiori vincoli operativi rispetto a quella dei soli obiettivi
e output (capitolo 2, sezione 2.1.3.). Se ne potrebbe desumere che alcuni tipi di stan-
dard siano intrinsecamente più "rigidi" di altri, vincolando maggiormente gli utenti
entro più ristretti spazi di azione predefiniti. Che cosa è e da che cosa dipende il gra-
do di rigidità o di flessibilità di uno standard? E' possibile che la flessibilità di uno
standard sia importante per la sua nascita, influenzandone la selezione, il successo e
la diffusione?
Il concetto di flessibilità è stato variamente riferito alle organizzazioni, con studi
sulla flessibilità organizzativa (Feldman & Pentland, 2003), sulla flessibilità dell'In-
formation Technology (Byrd & Turner, 2000), ma soprattutto con numerose indagini
sulla flessibilità nei processi produttivi, tra cui in particolare (Sanchez & Mahoney,
1996); (Adler et al., 1999); (MacCormack et al., 2001).
Studi specifici sulla flessibilità degli standard sono invece piuttosto rari: una note-
196
vole eccezione è rappresentata da (Hanseth et al., 1996) , che prende in considera-
zione gli effetti che lo sviluppo e la diffusione degli standard tecnologici può avere
sulle infrastrutture informative come Internet.

196
I lavori di Hanseth e del suo gruppo di ricerca hanno generato ad un certo volume di studi,
tra cui (Hanseth et al., 2006), già preso in esame nella rassegna introduttiva del capitolo, in cui
si affrontano i temi della flessibilità, del drifting, degli effetti imprevisti e della complessità dei
processi di standardizzazione delle infrastrutture informative. Su un particolare aspetto di
flessibilità reso possibile dagli standard appare utile menzionare anche (Krechmer & Baskin,
2006), che prende in esame i cosiddetti adaptability standards, che «permettono ad elementi
autonomi di una rete di identificare negoziare e selezionare tra diverse possibilità per
implementare il grado preferito di compatibilità» (pag. 148). Esempi classici sono alcuni
standard recenti per i fax, per i modem e per le connessioni DSL, che al momento della
trasmissione permettono ai dispositivi di negoziare il tipo e la velocità di trasmissione più
adatta alle condizioni di impiego. Gli adaptability standards consentono di realizzare
infrastrutture ibride anche dal punto di vista dei diritti di proprietà, in cui possono essere
impiegate in alternativa (e in competizione tra loro) tecnologie "aperte" e tecnologie
proprietarie.
186 Capitolo 3

Flessibilità delle infrastrutture informative


Hanseth e i suoi coautori analizzano la tensione tra standardizzazione e flessibilità
che caratterizza la nascita e l'evoluzione delle infrastrutture informative come
Internet. Da un lato c'è infatti una tendenza alla ricerca della stabilità del sistema
complessivo attraverso la standardizzazione delle sue parti: data la elevata diffusione
e interconnessione dell'infrastruttura, l'innovazione può comportare costi di switching
per una grande massa di utenti, con significative resistenze al cambiamento. Dall'altro
lato, esiste però la necessità di adeguare continuamente l'infrastruttura alle nuove op-
portunità rese possibili dal progresso tecnologico, introducendo nuove modalità di
impiego da parte degli utenti che non erano immaginabili in precedenza. A questa e-
sigenza di apertura all'innovazione, che Hanseth e i suoi coautori chiamano "flessibi-
lità al cambiamento" (change flexibility) si affianca un'esigenza di apertura all'adat-
tamento e alla localizzazione degli impieghi: la stessa infrastruttura deve infatti poter
essere adattata a multiformi esigenze di utenti spesso molto distanti e diversi tra loro,
denotando quindi un grado elevato di "flessibilità d'uso" (use flexibility).
Questa ricerca congiunta di stabilità (standardization), innovazione (change flexi-
bility) e adattamento (use flexibility) ingenera una tensione che si risolve in equilibrio
con un meccanismo molto simile a quello già osservato a proposito degli studi sulle
tecnologie dominanti (sezione 3.3.1): tendono infatti ad emergere e a diffondersi
maggiormente le architetture tecniche complesse e modulari, basate su un numero e-
levato di standard organizzati gerarchicamente e in relazione tra loro. L'infrastruttura
complessiva può essere infatti composta da una sorta di spina dorsale architetturale
costituita da pochi standard molto semplici e ad ampia diffusione (es. protocollo IP di
Internet), a cui si affiancano una serie più numerosa di standard locali a diffusione più
limitata ed intercambiabili tra loro (es. diversi protocolli e diverse applicazioni di po-
sta elettronica). La flessibilità al cambiamento è garantita dalla possibilità di concepi-
re e mettere in uso sempre nuovi standard "locali" mantenendo inalterata la struttura
di base del sistema che lo rende stabile e coerente; la flessibilità d'uso è garantita dal-
la varietà di opzioni di impiego dei numerosi standard locali variamente selezionati e
combinati tra loro a seconda delle esigenze dei diversi utenti.
La tensione tra standardizzazione e flessibilità si risolve dunque in un sistema
complesso e modulare di standard che emergono con un processo di competizione e
selezione ecologica, per essere individuati e collegati nel sistema secondo i principi
già discussi in precedenza. Come si è già visto, la spina dorsale di un sistema com-
plesso è costituita dai suoi componenti core, che ne definiscono il principio di funzio-
namento. Tali componenti (es. il protocollo IP del sistema Internet) sono tipicamente
caratterizzati da elevata pleiotropia e dipendenza inter-componente: essi cioè influen-
zano un numero elevato di funzioni del sistema e sono collegati con un numero eleva-
to di altri componenti. Essi danno stabilità al sistema e di solito non vengono cambia-
ti per lunghi periodi di tempo.
L'analisi della flessibilità permette anche di offrire una possibile risposta ad una
delle domande più impegnative sui processi di standardizzazione: quali caratteristiche
permettono ad uno standard di emergere e dominare sugli altri possibili candidati? E'
possibile che, in generale, il grado di flessibilità di uno standard possa influenzarne la
selezione, il successo e la diffusione?
Analisi della letteratura 187

La distinzione del grado di "località" dei diversi standard che compongono un si-
stema complesso permette di fornire un primo elemento di analisi: appare infatti plau-
sibile che le caratteristiche richieste in uno standard "core" destinato a costituire la
spina dorsale e identificare il principio di funzionamento di un sistema infrastrutturale
complesso e di ampia diffusione debbano essere diverse da quelle richieste per uno
standard locale da impiegare per un numero limitato di impieghi specifici.
Un potente strumento di indagine sull'ampiezza, la varietà e l'evoluzione dei pos-
sibili usi di una tecnologia o di uno standard viene fornito dai cosiddetti studi sulla
costruzione sociale della tecnologia (SCOT: Social Construction of Technology), ini-
ziati da (AAVV, 1987), che sono incentrati sul concetto di flessibilità interpretativa,
cioè in essenza sull'idea che uno stesso artefatto, originariamente progettato e costrui-
to per uno scopo specifico, possa in seguito essere interpretato e utilizzato per scopi
diversi e non originariamente previsti, che ne espandono il raggio di possibile utiliz-
zo. In uno studio SCOT ormai molto noto, Trevor Pinch e Wiebe Bijker mostrano
come il concetto di flessibilità interpretativa possa venire utilmente applicato alla tec-
nologia (Pinch & Bijker, 1987), pur essendo stato originariamente proposto e svilup-
197
pato in altri ambiti .

Gruppi sociali, problemi, soluzioni


Pinch e Bijker spiegano l'affermazione di una tecnologia come un processo di
convergenza da una iniziale molteplicità di artefatti, ciascuno con un suo gruppo so-
ciale di riferimento che ha interessi e obiettivi diversi. La storia dell'evoluzione tecno-
logica della bicicletta illustra bene questa prospettiva: la Figura 3.17 mostra come
gruppi sociali diversi percepiscano diversi problemi nell'uso dell'artefatto, influen-
zandone l'evoluzioni in direzioni diverse e parallele. La figura mostra una delle prime
biciclette che ha avuto una diffusione commerciale verso la fine dell'800, la Penny
198
Farthing, con la sua caratteristica ruota anteriore molto grande a trazione diretta . In
rapporto a questo artefatto è possibile individuare diversi gruppi sociali, caratterizzati
197
In effetti il concetto di flessibilità interpretativa nasce in Sociologia della Scienza per
l'analisi delle dispute scientifiche, nell'ambito di un programma di ricerca noto come Empirical
Programme of Relativism. Il programma di ricerca empirica relativista, ben rappresentato nel
numero speciale di Social Studies of Science introdotto in (Collins, 1981), prende in esame il
processo di formazione della conoscenza scientifica, con l'obiettivo di mostrare come le nuove
idee scientifiche si affermino, indipendentemente dalla loro verità o falsità, con un processo di
costruzione sociale le cui ragioni e determinanti vanno ricercate non tanto nelle scienze naturali
quanto in quelle sociali. In essenza, secondo l'approccio relativista la conoscenza scientifica è
semplicemente una tra le tante forme possibili, che includono ad esempio anche le conoscenze
e le credenze etniche e tribali. Essa pertanto si forma attraverso processi che hanno carattere
relativo e culturale, piuttosto che oggettivo e assoluto; tali processi di costruzione sociale della
conoscenza scientifica possono dunque essere indagati come tutti gli altri fenomeni sociali. La
storia delle dispute scientifiche rappresenta un fertile campo di investigazione empirica per i
sociologi della scienza di scuola relativista, dimostrando l'elevato grado di "flessibilità
interpretativa" dei risultati della ricerca scientifica che sono spesso ben lungi dall'avere
carattere oggettivo ed assoluto. Da qui nasce dunque il termine "flessibilità interpretativa",
impiegato proprio in (Collins, 1981).
198
Il farthing era una monetina da un quarto di penny, molto più piccola di quella da un penny.
L'appellativo "penny farthing" si riferisce perciò alla diversa dimensione delle ruote. Per una
godibile storia illustrata della bicicletta vedi (Armstrong, 2003).
188 Capitolo 3

da peculiari interessi, finalità, modalità d'uso della bicicletta. La figura ne individua


alcuni: gli sportivi, alla ricerca della velocità e della prestazione; i turisti, più interes-
sati alla sicurezza del mezzo; le donne, che alla fine dell'800 avevano considerevoli
vincoli nell'uso del mezzo dovuti non solo alla sicurezza e al confort ma anche all'ab-
bigliamento dell'epoca. Pinch e Bijker osservano come i gruppi sociali abbiano diver-
se percezioni legate all'uso della bicicletta: gli sportivi hanno il problema principale
di massimizzare la velocità; per i turisti la sicurezza del mezzo assume un rilievo
prioritario; le donne infine sono condizionate in modo determinante anche dall'abbi-
gliamento femminile dell'epoca. Ciascun gruppo sociale tende ad accogliere e incen-
tivare l'evoluzione tecnologica innanzi tutto verso la soluzione dei problemi percepiti
come più rilevanti. Le diverse innovazioni appaiono dunque sul mercato e vengono
sperimentate in modo parallelo e spesso casuale, offrendo soluzioni ai problemi per-
cepiti dai gruppi sociali. La figura ne illustra alcune: il problema della stabilità e della
velocità era originariamente affrontato attraverso la grande ruota anteriore, che forni-
va un rapporto favorevole di pedalata (velocità) e assorbiva le vibrazioni e le asperità
del terreno (stabilità). La bicicletta di Lawson, che ha sperimentato la trasmissione
posteriore attraverso il meccanismo a catena e ruota dentata, era ancora troppo insta-
bile e non ebbe successo; parallelamente, l'introduzione di un sistema di frenata sulla
Penny Farthing attraverso la Extraordinary di Singer forniva una prima soluzione al
problema sicurezza, ma non eliminava il rischio di caduta in avanti del ciclista, che
poteva causare al conducente danni molto ingenti. Pinch e Bijker osservano come fu
solo dopo l'introduzione delle gomme ad aria (e il miglioramento della qualità delle
strade) che si affermò la bicicletta moderna, con trazione posteriore a catena, ruote di
199
pari dimensioni, pneumatici e freni al manubrio . La bicicletta moderna incorpora
infatti tecniche e soluzioni che danno molteplici risposte ai principali problemi perce-
piti da diversi gruppi sociali rilevanti, a seconda delle esigenze: essa ha dunque dimo-
strato una elevata flessibilità interpretativa, portando ad una chiusura relativamente
stabile il processo di evoluzione tecnologica.
Il quadro di analisi introdotto da Pinch e Bijker (Pinch & Bijker, 1984) ha un paralle-
lo evidente con le teorie sul ciclo di evoluzione che porta all'affermazione di una tec-
nologia dominante, qui discusso nella sezione 3.3.1: (Tushman & Anderson, 1986);
(Anderson & Tushman, 1990). In termini di dominant design theory, il periodo di
competizione tra modelli che precede l'affermazione della bicicletta moderna può es-

199
Questo resoconto è necessariamente semplificato e non menziona, ad esempio, il ruolo delle
nuove tecniche di lavorazione dei metalli (Pedaling History Bicycle Museum, 2008), sezione
"The hard tired safety". L'analisi riccamente documentata in (Pinch & Bijker, 1987) fornisce
comunque significativi elementi di riflessione, ponendo attenzione, tra l'altro, a come
l'introduzione del pneumatico causò una ridefinizione del problema "velocità" per gli sportivi,
contribuendo in modo determinante alla "chiusura" (vedi nota 200) . E' inoltre possibile far
riferimento allo studio in (van Nierop et al., 1997), in cui si analizza l'evoluzione complessiva
dei mezzi a trazione umana (biciclette, tri e quadri-cicli) come un processo dinamico e non
lineare. Al di là della completa ricostruzione di tutti i fattori che hanno determinato
l'affermazione della bicicletta moderna, ciò che soprattutto qui rileva ai nostri fini è l'uso del
concetto di flessibilità interpretativa come fondamentale strumento di analisi e
generalizzazione teorica.
Analisi della letteratura 189

sere infatti considerato come la fase di fermento che ha prodotto una rilevante discon-
tinuità tecnologica.

donne sportivi

Penny
? Farthing, 1878
problema
vestito

turisti
Quadriciclo,
1886 4 ruote
Singer’s
Extraordinary,
grande 1879
ruota ant.
?
problemi
sicurezza
e stabilità

freni

trasmissione
Lawson’s bike,
posteriore 1879
?
problema
pneumatici velocità

Bicicletta moderna, ?
1892- problema
vibrazioni,
confort

Figura 3.17 Alcuni dei gruppi sociali, problemi percepiti e soluzioni che hanno influenzato
l'evoluzione della bicicletta. Elaborazione da (Pinch & Bijker, 1987), Figure 11.

Pinch e Bijker forniscono però un potenziale strumento di analisi teorica che non è
200
presente nelle teorie del dominant design : l'idea di flessibilità interpretativa, che

200
Pinch e Bijker avanzano anche un quadro di analisi esplicita del fenomeno della "chiusura".
Attingendo al vocabolario e ai concetti impiegati in filosofia della scienza per lo studio delle
controversie scientifiche, Pinch e Bijker distinguono un punto di chiusura nel momento in cui
la bicicletta moderna si afferma definitivamente. La domanda che si pongono è: quali sono i
"meccanismi di chiusura"? Oltre alla chiusura di tipo tecnico, con la quale il problema viene
sostanzialmente risolto, può esservi una chiusura di tipo retorico, che agisce sulla percezione
del problema, ridimensionandola. Il problema della sicurezza, ad esempio, viene
ridimensionato (senza però raggiungere una chiusura retorica) quando si pubblicizzano i
modelli "Facile" del 1888, come "assolutamente sicuri"; si trattava in effetti di una sorta di
Penny Farthing più sicura ma ancora considerevolmente rischiosa per la posizione di guida
sulla ruota anteriore (Pinch & Bijker, 1987:44). In alternativa, la chiusura può avvenire per
ridefinizione del problema: ad esempio, con l'affermazione di nuovi ruoli sociali per la donna
190 Capitolo 3

spiega come mai diversi gruppi sociali con diversi problemi percepiti possano alla fi-
ne convergere verso un unico artefatto che ne costituisce la soluzione (anzi, le solu-
zioni): lo stesso oggetto fisico viene interpretato come tanti oggetti distinti socialmen-
te costruiti, uno per ciascun gruppo sociale rilevante.

Il concetto di flessibilità interpretativa è centrale per il progetto sociale costruttivista ed an-


che, peraltro, per la maggior parte degli studi sociali e storici recenti della tecnologia. La
dimostrazione della flessibilità interpretativa di un artefatto consiste nell'osservare che una
"cosa" apparentemente non ambigua (un processo tecnico o un qualche artefatto composto
di metallo, legno e gomma come nel caso della bicicletta) può essere meglio compresa come
una molteplicità di artefatti diversi. Ciascuno dei diversi artefatti nascosto all'interno di
quella "cosa" apparentemente unica può essere rintracciato attraverso l'identificazione dei
significati attribuiti dai gruppi sociali rilevanti (Bijker, 1993:118).

La flessibilità interpretativa di una "cosa" come la bicicletta è dunque la caratteristica


che la rende in un certo senso molteplice, cioè interessante ed utile a gruppi sociali
diversi per motivi diversi, con diversi problemi percepiti e diverse soluzioni. Tanto
più numerosi e diversi sono gli artefatti socialmente costruiti "nascosti all'interno di
quella 'cosa' apparentemente unica" tanto più elevata è la sua flessibilità interpretati-
va.
201
Gli studi SCOT , evidenziano dunque che alcune tecnologie (quelle che si stabiliz-
zano e si diffondono) dimostrano una più elevata flessibilità interpretativa delle altre,
cioè di quelle che non sopravvivono alla fase di fermento (come la bicicletta di La-
wson), o di quelle che finiscono per occupare piccole nicchie del settore (come la
Penny Farthing, ancora oggi costruita e utilizzata da alcuni amatori).
La flessibilità interpretativa di un artefatto può dunque essere una delle chiavi del-
la sua affermazione. Come si può massimizzare? Da quali fattori è influenzata? Essa
dipende solo dalla soggettività degli attori o dipende anche dalle caratteristiche in-
trinseche, tecniche e in un certo senso oggettive dell'artefatto?
Su questo punto importante una utile chiave di lettura proviene da un noto studio
di Wanda Orlikowski sulla tecnologia:

Laddove la nozione di flessibilità interpretativa riconosce che c'è flessibilità nella progetta-
zione, uso e interpretazione di una tecnologia, l'osservazione dei fattori che la influenzano ci
suggerisce che la flessibilità interpretativa non è infinita. Da un lato, essa è vincolata dalle
caratteristiche materiali di quella tecnologia: la tecnologia è ad un certo livello fisica in na-
tura e pertanto limitata dallo stato dell'arte nei materiali, nell'energia e così via. Dall'altro la-
to, essa è vincolata dai contesti istituzionali (strutture di significato, legittimazione e potere)
e dai differenti livelli di conoscenza e potere che interessano gli attori durante la progetta-
zione e l'uso della tecnologia (Orlikowski, 1992:409).

Rispetto a Pinch e Bijker, la Orlikowski opera un passaggio analitico sottile ma fon-


damentale: l'indagine sul grado di flessibilità interpretativa e sui fattori che lo deter-
minano.

moderna, anche il problema dell'abbigliamento femminile trova una naturale ridefinizione,


contribuendo a diffondere l'uso della bicicletta tra le donne.
201
Per ulteriori studi SCOT, oltre a quelli di origine già menzionati, vedi anche l'approfondita
analisi dei casi della bachelite e della lampadina in (Bijker, 1997) e i numerosi riferimenti ivi
ospitati.
Analisi della letteratura 191

Secondo questo approccio, la flessibilità interpretativa non è qualcosa che è sem-


plicemente osservabile con lo studio della rete di significati che gli attori attribuisco-
no alla tecnologia. Essa può avere gradi diversi e confrontabili per artefatti diversi, a
parità di altre condizioni: ad esempio, la bicicletta moderna ha tipicamente un grado
di flessibilità interpretativa superiore rispetto alla Penny Farthing, in quanto può for-
nire soluzioni a un maggior numero di problemi percepiti da più gruppi rilevanti, con-
siderando tutti i possibili gruppi sociali, problemi e soluzioni potenziali
Il grado di flessibilità interpretativa non solo varia da artefatto ad artefatto ma può
essere modificato, agendo sui vincoli che lo determinano: vincoli materiali e vincoli
sociali. Ad esempio, la più bassa flessibilità interpretativa della Penny Farthing del
tardo '800 rispetto alla bicicletta moderna diffusa oggi è determinata anche da vincoli
sociali e istituzionali, che tendevano nel passato ad escludere le donne dall'uso di un
mezzo percepito come pericoloso, scomodo e inadatto ad una donna, indipendente-
mente dalla effettiva capacità fisica della potenziale ciclista.
Accanto ai vincoli sociali appaiono però particolarmente evidenti i vincoli tecnici
e fisici: la presenza della grande ruota anteriore era necessaria nella Penny Farthing
per ottenere sufficiente stabilità e velocità, in assenza di soluzioni tecniche non anco-
ra disponibili come gli pneumatici e la trasmissione posteriore a catena metallica.
Questo vincolo puramente tecnico rendeva più probabili le cadute in avanti (data la
posizione elevata del ciclista) e la possibilità di perdere il controllo in discesa (data
l'assenza di freni), rendendo la Penny Farthing oggettivamente molto più pericolosa
della attuale bicicletta moderna ed elevando il livello di destrezza minimo richiesto
per guidare il mezzo. In termini di flessibilità interpretativa, questi vincoli tecnici fa-
cevano sì che i problemi percepiti della sicurezza e della stabilità non trovassero so-
luzione adeguata con la Penny Farthing per ampi gruppi sociali rilevanti di utenti (i
"turisti"), riducendone la flessibilità interpretativa rispetto alla bicicletta moderna.
Non si tratta solo dunque di diversi significati attribuiti, ma anche di fattori ogget-
tivi come la stabilità del mezzo, la probabilità di caduta, il livello di destrezza richie-
sto, la gravità degli incidenti medi, che sono determinati da aspetti e vincoli tecnici
come la trazione posteriore a catena metallica, i freni e gli pneumatici.
E' dunque forse possibile individuare due componenti della flessibilità interpreta-
tiva: la prima di tipo tecnico e oggettivo, che corrisponde al grado di specificità della
risorsa/artefatto/standard rispetto ad un determinato utilizzo o attività (cfr. sez. 2.2.1).
Tanto più elevata è la specificità, tanto più bassa è la componente tecnica della flessi-
bilità interpretativa. La seconda componente è invece soggettiva e dipende unicamen-
te dalle percezioni e dalle interpretazioni degli utenti.
Questo fornisce una prima risposta alla domanda di partenza di questa sezione:
nella competizione tra standard, appare plausibile che un fattore determinante per l'af-
fermazione e la diffusione di un particolare standard sugli altri possa essere il suo
grado di flessibilità interpretativa, a confronto con quello dei concorrenti. Come si è
visto, la flessibilità interpretativa non è infinita, ma può essere aumentata rimuovendo
i vincoli tecnici e sociali che la limitano, da un lato facendo leva sull'innovazione per
dare nuove soluzioni ai problemi percepiti dai gruppi rilevanti riducendo il grado di
specificità dell'artefatto, dall'altro favorendo l'istituzionalizzazione di nuove pratiche
e convenzioni condivise che contribuiscano a ridefinire i problemi percepiti. Uno dei
192 Capitolo 3

fattori che può rivelarsi determinante a questo fine è la possibilità di ottenere acquie-
scenza, non solo a livello individuale, ma anche di gruppo e sociale: in altre parole, la
possibilità di esercitare un potere. Questo aspetto verrà considerato nella prossima
sezione.

3.3.7 Potere

Non tutti gli attori hanno necessariamente la stessa influenza nei processi di stan-
dardizzazione. Lo studio del potere, sia a livello individuale che collettivo, appare po-
tenzialmente utile ai nostri fini; esso è stato peraltro intrapreso anche in uno dei lavori
presi in esame in apertura di capitolo (Backouse et al., 2006). Tra i contributi più im-
portanti ed estensivi sul tema del potere si rilevano gli studi di Jeffrey Pfeffer, che ne
discute la natura, il ruolo nelle organizzazioni, i fattori costitutivi (condizioni, fonti),
le caratteristiche (strategie e tattiche, linguaggio e simboli, strumenti) e le dinamiche
in (Pfeffer, 1981), per poi ulteriormente chiarire ed esemplificare questi aspetti dal
punto di vista manageriale in (Pfeffer, 1992). A livello collettivo, il potere ha impor-
tanti implicazioni organizzative, che lo stesso Pfeffer ha preso in esame, insieme a
Gerald Salancik, nella cosiddetta "teoria della dipendenza dalle risorse" (Pfeffer &
Salancik, 1978). Tre sono i temi centrali presi in considerazione: in primo luogo, le
organizzazioni, proprio come gli individui, dipendono da risorse ambientali critiche
202
per la sopravvivenza ed il successo ; il controllo delle risorse critiche dà quindi luo-
go a forme di influenza organizzativa che possono essere esercitate dall'esterno; in
secondo luogo, vi sono forme di intervento che le organizzazioni stesse possono met-
tere in atto per migliorare la loro capacità di controllo delle risorse critiche, che per-
mettono loro di influenzare consapevolmente le altre organizzazioni e l'ambiente e-
203
sterno ; in terzo luogo, ambo i fenomeni di influenza possono essere considerati e

202
Per risorse ambientali Pfeffer e Salancik intendono non soltanto quelle naturali (come i siti e
i corsi d'acqua) ma anche quelle infrastrutturali e ogni forma di materia prima, semilavorato o
servizio di cui l'organizzazione necessita per lo svolgimento delle sue attività; tali risorse
possono essere scarse o di difficile reperimento. Ad esempio l'esistenza di un fornitore
esclusivo per un'importante materia prima, o di un unico canale di distribuzione per un
prodotto altamente specifico, configurano una scarsità di risorse vitali in assenza delle quali
verrebbe compromessa la sopravvivenza stessa di un'impresa. Esse determinano dunque una
situazione di dipendenza che riduce l'autonomia decisionale e operativa dell'organizzazione e la
espone al rischio di eventi non controllabili (si pensi ad esempio agli "effetti domino" di
scioperi di categoria, danni infrastrutturali, atti terroristici e simili) riducendone inoltre la
capacità negoziale nei confronti dei soggetti che le controllano.
203
Gli autori individuano due forme principali di intervento per ridurre la dipendenza e
migliorare la capacità di controllo delle risorse critiche: la prima è quella di stabilire
collegamenti interorganizzativi favorevoli; la seconda è quella tentare di influenzare a proprio
vantaggio la propria sfera ambientale. Tra i collegamenti favorevoli, menzioniamo
l'acquisizione di quote di proprietà, la stipula di alleanza strategiche formali attraverso contratti
e joint ventures, le politiche di nomina di soggetti influenti nei propri consigli di
amministrazione, le scelte dei dirigenti, gli investimenti in comunicazione, sponsorizzazioni,
pubblicità e pubbliche relazioni. Dall'altro lato, vari possono essere i mezzi per influenzare la
propria sfera ambientale: tra questi menzioniamo l'influsso sull'attività politica e di
regolamentazione attraverso la partecipazione dei dirigenti ad attività di lobbying e di rilievo
politico-sociale; la partecipazione alle associazioni di settore e il loro utilizzo per la difesa
Analisi della letteratura 193

analizzati esplicitamente come forme di potere a livello organizzativo, inter-


organizzativo e sociale, che hanno dunque caratteristiche e dinamiche in parte comu-
204
ni a quelle del potere individuale .
Il fatto che le organizzazioni ricerchino da un lato di stabilire collegamenti favo-
revoli, dall'altro di estendere il proprio potere sulla sfera ambientale, può aiutare a
spiegare anche alcune delle modalità che possono venire impiegate per indirizzare a
proprio vantaggio i processi di standardizzazione usando le leve del potere.
In definitiva, quindi, gli aspetti di potere possono giocare un ruolo importante sia
a livello individuale che a livello collettivo, e per questo le teorie organizzative che
hanno analizzato e messo in luce questi aspetti potrebbero trovare utile impiego per
contribuire a spiegare come nasce uno standard.

3.4 Il quadro complessivo


Nell'insieme, le teorie prese in considerazione in questo capitolo suggeriscono che la
nascita di uno standard comprende diverse dimensioni sia tecniche che sociali su più
livelli di analisi, in un processo che può avere una struttura e un'articolazione anche
molto complessa.
Uno standard che emerge e si afferma è spesso il risultato di qualche forma di se-
lezione ecologica tra più candidati, con la contemporanea azione di forze istituzionali.
Tale selezione può essere influenzata ed indirizzata a più livelli da fattori numerosi e
multiformi tra i quali ricordiamo i vari tipi di effetti rete e di dipendenza dal percorso,
le strategie e le tattiche degli sponsor, l'eterogeneità dei partecipanti (interessi, risor-
se), i vari gradi e tipologie di legittimazione, i fattori identitari, la flessibilità interpre-
tativa, il potere. Alcuni standard di grande rilievo economico e sociale, come gli
standard infrastrutturali di Internet o quelli di prodotti complessi come i computer e le
auto sono inoltre in stretta relazione tra loro, costituendo nell'insieme un'architettura
unica complessa e modulare all'interno della quale il percorso di selezione, afferma-
zione, impiego e sostituzione di ogni standard viene ulteriormente influenzato dai re-
quisiti architetturali come il livello gerarchico occupato all'interno dell'architettura, le
caratteristiche delle interfacce, il grado di pleiotropia e di dipendenza inter-
componente.
In questo quadro la nascita di uno standard avviene nella ricerca di un equilibrio
di tensioni determinate da più fattori che tendono ad orientare il processo in direzioni
diverse e a volte contrapposte: è il caso della tensione tra isomorfismo e polimorfi-

degli interessi comuni; l'estensione della propria area di influenza attraverso la partecipazione,
diretta o indiretta, nelle varie aree di interesse in cui opera l'organizzazione: il proprio settore
industriale, le materie prime, le risorse umane, le risorse finanziarie, il mercato, la tecnologia,
le relazioni internazionali.
204
I tre temi centrali della teoria vengono enunciati e spiegati nella nuova introduzione alla
recente "Classic Edition" del libro ad opera di Jeffrey Pfeffer, in cui l'autore discute anche in
retrospettiva il contributo dell'opera ponendolo a contrasto con le teorie neoistituzionali e con
quelle dell'ecologia delle popolazioni, formulate nello stesso periodo: (Pfeffer & Salancik,
2003:xi-xxix).
194 Capitolo 3

smo, esaminata nella sezione 3.3.5, o di quella tra stabilità e flessibilità, esaminata
nella sezione 3.3.6. Queste tensioni possono a volte trovare motivo di soluzione in
una direzione unica, oppure, in casi di particolare rilievo economico e sociale, origi-
nare sistemi di standard complessi e modulari come le infrastrutture Internet che ri-
spondano contemporaneamente a più esigenze contrapposte.
Nel prossimo capitolo si cercherà di costruire, sulla base di quanto rilevato finora,
un unico quadro di riferimento sistematico e generale, che sarà poi messo alla prova
impiegandolo per spiegare e interpretare alcune delle storie e dei casi di standardizza-
zione introdotti finora.
4
Elementi per una teoria

In questo capitolo i concetti discussi fino ad ora troveranno una sistematizzazione te-
orica integrata. Verranno percio introdotti in via preliminare i principi metodologici
della teorizzazione nell'ambito delle scienze sociali, per poi passare alla costruzione
di un quadro teorico complessivo articolato in 10 proposizioni. Le proposizioni offri-
ranno dapprima una definizione sistematica dei concetti "standard" e di "standardiz-
zazione" fondata sull'analisi estensiva dei primi due capitoli, per poi giungere a for-
mulare una spiegazione di "come nasce uno standard" basata sul terzo capitolo, par-
tendo da casi più semplici e assunzioni più restrittive per poi gradualmente aprire il
campo di analisi alle situazioni più complesse. Il quadro verrà illustrato con i nume-
rosi casi ed esempi discussi fino ad ora, integrandolo con ulteriori esemplificazioni
ove necessario.

4.1 Che cosa è una teoria


Il ruolo e il significato della teoria nelle scienze umane è da sempre oggetto d’ampie
e approfondite discussioni, con posizioni spesso vivacemente contrastanti. Un utile
punto di riferimento in Organizzazione è rappresentato dal forum della rivista Aca-
demy of Management Review dedicato al tema "theory building" (d’ora in poi chia-
mato forum AMR 89, editoriale: (Van de Ven, 1989)).
Il contributo di Weick nel forum (Weick, 1989) accoglie una nozione molto ampia
di teoria, traendola da alcuni studi di teoria dei sistemi applicata alle scienze sociali:
«Un insieme ordinato di asserzioni su un comportamento generico o una struttura, che
si assumono validi per un raggio significativamente ampio di istanze specifiche»
((Sutherland, 1975:9) citato in (Weick, 1989:517)). Su questa base, il processo di co-
struzione di una teoria può essere visto come un esercizio di immaginazione discipli-
nata. L’immaginazione consiste nella generazione intenzionale di vari e diversi pro-
blem statements, a cui applicare diverse idee e congetture (thought trials) da valutare
impiegando vari possibili criteri di selezione (selection criteria). La disciplina consi-
ste nell’applicazione di criteri di selezione coerenti e consistenti.
Esistono approcci alla teorizzazione nelle scienze sociali più strutturati e specifici,
come quello proposto da Bacharac nel forum AMR 89: (Bacharach, 1989), secondo il
196 Capitolo 4

quale una teoria è uno statement di relazioni tra concetti nell’ambito di un set di vin-
coli e di assunzioni. I concetti possono essere espressi attraverso unità approssimate
(costrutti) o attraverso unità osservate (variabili). I costrutti per loro natura non pos-
sono essere osservati direttamente (es. accentramento decisionale, soddisfazione, cul-
tura, …) mentre le variabili sono operazionalizzate attraverso la misurazione diretta.
Dunque una teoria può essere vista come un sistema di costrutti e variabili nel quale i
costrutti sono posti in relazione tra loro da proposizioni e le variabili sono poste in
relazione tra loro da ipotesi. L’intero sistema è delimitato dalle assunzioni, come in-
dicato in Figura 4.1.

CONFINE = ASSUNZIONI SUI VALORI, IL TEMPO E LO SPAZIO

G
E
N
E PROPOSIZIONI
R
A COSTRUTTI COSTRUTTI
L
I
Z
Z
A
B
I
L IPOTESI
I VARIABILI VARIABILI
T
À

Figura 4.1 Componenti di una teoria. Da (Bacharach, 1989), figura 1, pag. 499.

Tra le due diverse concezioni di teoria come esercizio disciplinato


dell’immaginazione (Weick, 1989) e di teoria come sistema formale di costrutti e va-
riabili (Bacharach, 1989), è possibile individuare posizioni intermedie, che propon-
gono e raccomandano teorie più o meno basate sulla narrazione piuttosto che su vari
gradi e metodi di formalizzazione logico-matematica. Un contributo molto noto di
questo tipo, che si posiziona ad un livello intermedio, è anch’esso apparso nel forum
AMR 89, illustrando criticamente il processo di teorizzazione basato su case studies
(Eisenhardt, 1989). Nell’ottica di Eisenhardt il processo di teorizzazione basato
sull’analisi di case studies comprende varie fasi, eseguite iterativamente, che vanno
dalla selezione dei casi di studio alla definizione di variabili, costrutti e ipotesi fino
alla "chiusura" della teoria. Questo approccio parzialmente formale e parzialmente
Elementi per una teoria 197

narrativo ha suscitato molto interesse ma anche molte discussioni. Ad esempio, due


anni dopo, Dyer e Wilkins si schierano a favore di teorie più narrative e meno forma-
lizzate ("Better stories, not better constructs"), preferendo l’analisi più ricca di un
singolo caso a quella più sintetica di più casi comparati (Dyer & Wilkins, 1991). La
stessa Eisenhardt replica però rifiutando la dicotomia tra storie e costrutti e illustran-
do come la narrativa possa auspicabilmente rappresentare un primo passo verso la te-
orizzazione formale (Eisenhardt, 1991), e come si possano costruire buone teorie sia a
partire da casi singoli che da casi multipli comparati.
Questa disputa è solo un esempio della varietà di posizioni sui temi delle teorie e
dei metodi nelle scienze sociali, in alcuni casi fondate su diverse posizioni epistemo-
logiche e "visioni del mondo" (Burrell & Morgan, 1979); (Hirschheim, 1985).
In assenza di una convergenza univoca su che cosa rappresenti una teoria, anche il
tentativo di offrire alcuni indicazioni chiare su che cosa non sia una teoria ha aperto
un dibattito con posizioni piuttosto articolate, ospitato nel 1995 in un forum della ri-
vista Administrative Science Quarterly (forum ASQ 95: (DiMaggio, 1995); (Sutton &
Staw, 1995); (Weick, 1995b)). La posizione iniziale di Sutton e Staw è piuttosto netta
e ispirata da una lunga esperienza di valutazione e revisione di articoli nell’Editorial
Board di ASQ. In essenza, gli autori sostengono che non si possa chiamare teoria nes-
suno di questi cinque componenti preso singolarmente: 1) riferimenti bibliografici; 2)
205
dati; 3) variabili; 4) diagrammi; 5) ipotesi .
I commentari di Weick e di DiMaggio aggiungono profondità all’osservazione, di
per sé apparentemente semplice, di Sutton e Staw che riferimenti bibliografici, dati,
variabili, diagrammi e ipotesi non sono da soli sufficienti a costituire una teoria.
Weick punta l’attenzione sul processo del teorizzare piuttosto che sul prodotto finale:

205
Secondo Sutton e Staw, molti tra gli articoli inviati ad Administrative Science Quarterly
(ASQ) vengono respinti dai reviewer perché ciascune delle cinque componenti illustrate sopra
(ad esempio, le citazioni bibliografiche, o una raccolta di dati o di variabili), da sola, pur
avendo un suo proprio valore, non potrebbe costituire una teoria. L’analisi di Sutton e Staw,
dopo aver preso in considerazione nel dettaglio i motivi per cui ciascuna di queste componenti
è di per sé insufficiente a costituire un apporto teorico significativo per ASQ, prende anche in
considerazione le differenti posizioni a riguardo di alcune note riviste scientifiche, che possono
essere idealmente collocate lungo un continuum tra l’interesse prevalente per il theory testing e
quello per il theory building. Ad un estremo ci sono riviste come il Journal of Applied
Psychology e Personnel Psychology, che accolgono contributi prevalentemente empirici in cui
una teoria già esistente viene sottoposta alla verifica dei dati. All’altro estremo dello spettro ci
sono riviste come Research in Organizational Behavior e Academy of Management Review,
dove l’interesse primario è rivolto allo sviluppo di nuova teoria; i dati, quando presenti, sono
spesso usati più per illustrare che per sottoporre a verifica empirica. Le riviste come ASQ,
Academy of Management Journal e Organization Science occupano lo spazio intermedio tra
questi estremi, accogliendo contributi orientati sia allo sviluppo che alla verifica empirica della
teoria. Come sostengono gli autori, «ci sono inevitabili trade-off tra teoria e ricerca empirica.
Da un lato, ASQ chiede agli autori di impegnarsi in atti di creazione immaginativa. Dall’altro,
ASQ vuole che questi stessi autori siano precisi, sistematici, e seguano procedure consolidate
per l’analisi quantitativa o qualitativa» (Sutton & Staw, 1995:379). Il grado di formalizzazione
logico-matematica tende dunque ad essere maggiore nei contributi di pura verifica empirica,
spesso radicati in una prospettiva positivistica. I contributi di pura teoria, d’altro lato, in alcuni
casi possono essere basati su prospettive soggettive e interpretative, con analisi di tipo
narrativo. Lo spazio intermedio, che è aperto ad una pluralità di approcci e prospettive, pare
essere uno dei più promettenti ma anche dei più difficili da coprire.
198 Capitolo 4

se queste cinque componenti sono infatti un prodotto intermedio di un processo che


ha un passato e un futuro, allora possono avere un significativo valore teorico
(Weick, 1995b). Tra l’altro l’autore invita i ricercatori a usare il termine "teoria" an-
che per gli interim struggles, i risultati parziali di un processo ancora incompiuto:

Auspichiamo che gli autori non tengano da conto il termine "teoria" solo per etichettare il
loro trionfo finale, ma che ne facciano uso anche come etichetta dei loro tentativi intermedi
[orig. interim struggles] (Weick, 1995b:386).

Paul DiMaggio, infine, arricchisce ulteriormente il quadro di Sutton e Staw con


due importanti osservazioni: la prima è che la "bontà" di una teoria è spesso multidi-
mensionale. Possono infatti essere individuati almeno tre distinti approcci alla teoriz-
zazione nelle scienze sociali, che sono parzialmente contrastanti tra loro. I tre approc-
ci a cui fa riferimento DiMaggio sono: 1) theory as covering laws; 2) theory as enli-
ghtment; 3) theory as narrative. Il primo e il terzo corrispondono sostanzialmente alle
prospettive già discusse in precedenza, mentre il secondo (theory as enlightment) ve-
de la teoria non come uno strumento di chiarezza concettuale, ma piuttosto come una
"surprise machine" di stampo postmoderno, orientata a spazzar vie le nozioni con-
venzionali per far spazio a sorprendenti e brillanti intuizioni, piuttosto che a ricercare
generalizzazioni spesso scontate e noiose. La bontà di una teoria si manifesta dunque
in queste tre diverse e contrastanti dimensioni, la cui padronanza richiede all’autore
una notevole dose di esperienza, di sensibilità e di talento. Pur se diverse e contra-
stanti, queste tre dimensioni vengono infatti a volte combinate tra loro nei contributi
più avanzati. La seconda osservazione di DiMaggio è che le teorie vengono spesso
recepite dalla audience in modo inatteso e non sempre correlato unicamente al loro
potenziale scientifico. Nel breve periodo, teorie molto citate possono venir banalizza-
te al rango di semplici slogan perdendo spesso gran parte del loro contenuto essenzia-
le; nel lungo periodo può avvenire anche il contrario, cioè che lavori in origine piut-
tosto oscuri e di scarso rigore scientifico possano essere resi noti e famosi per aver
ispirato teorie di rango superiore. Mentre il primo punto (cioè la tensione multidi-
mensionale di una "buona" teoria) deve spingere il ricercatore ad esercitare grande
attenzione e giudizio, il secondo (cioè l’evoluzione spesso imprevedibile del ricevi-
mento della teoria) sottolinea l’importanza dell’ambiente e della fortuna.
Un recente studio apparso su MIS Quarterly (Gregor, 2006) propone una classifi-
cazione critica delle diverse concezioni di teoria che può essere utilmente impiegata
per tracciare una vista d’insieme sull’argomento. Il lavoro di Gregor, pur riferendosi a
teorie in ambito Sistemi Informativi, risulta comunque un utile riferimento generale,
accogliendo tra l’altro il già menzionato invito di Weick a usare il termine "teoria" in
modo ampio ed estensivo (Weick, 1995b). L’analisi di Gregor è ampia, profonda e
convincente, prendendo in considerazione, accanto alle differenze epistemologiche e
di visioni del mondo, anche quelle teleologiche, formali e strutturali nelle diverse
formulazioni del concetto di teoria.
Elementi per una teoria 199

Secondo l’analisi di Gregor, le diverse concezioni di teoria possono farsi risalire al


loro primary goal (analysis, explanation, prediction, prescription), come illustrato
206
nella Tabella 4.1 che segue .

Tabella 4.1 Tipi di teoria classificati in base a finalità e attributi distintivi (Gregor, 2006:620)

Tipo di teoria Finalità e attributi distintivi

Analisi Spiega che cosa è.


La teoria non si spinge oltre l'analisi e la descrizione. Non viene
individuata nessuna relazione causale tra i fenomeni. Nessuna
previsione.
Spiegazione Spiega che cosa è, come, perché, quando e dove.
La teoria fornisce spiegazioni ma non si spinge a fornire previsioni.
Non ci sono proposizioni verificabili.
Previsione Spiega che cosa è e che cosa sarà.
La teoria fornisce previsioni e proposizioni verificabili ma non
spiegazioni causali ben sviluppate.
Spiegazione e previ- Spiega che cosa è, come, perché, quando, dove e che cosa sarà.
sione Fornisce previsioni, proposizioni verificabili ed anche complete
spiegazioni causali.
Progettazione e azio- Spiega come fare qualcosa.
ne La teoria fornisce prescrizioni esplicite (es. metodi, tecniche, prin-
cipi di forma e di funzione) per costruire un artefatto.

Dal punto di vista strutturale, Gregor mostra come tutte le teorie abbiano in comune
alcuni componenti essenziali, illustrati nella Tabella 4.2 che segue: dei mezzi di rap-
presentazione; dei costrutti; degli statement di relazione e un raggio di azione. Inoltre,
a seconda del primary goal, alcune classi di teoria possono essere composte anche da
relazioni causali, ipotesi e statement prescrittivi, come illustrato in Tabella 4.3.
La duplice analisi teleologica e strutturale di Gregor sembra individuare
un’accezione di teoria abbastanza ampia e articolata da riconciliare e includere le di-
verse e spesso contrastanti trattazioni sul tema qui finora prese in esame, producendo
anche una definizione omnicomprensiva di che cosa debba intendersi con il termine
"teoria". «La discussione di diverse prospettive sulla teoria ad un livello generale mo-
stra le teorie come entità astratte che mirano a descrivere, spiegare e migliorare la

206
In alcuni casi (ma non necessariamente in modo sistematico) diverse concezioni della
conoscenza e del mondo (es. visioni oggettive/soggettive) possono riflettersi in diversi
"primary goals"; ad esempio approcci previsivi e prescrittivi sono spesso associati a visioni di
tipo deterministico/oggettivo, mentre approcci di pura analisi e spiegazione sono spesso
associati a visioni di tipo soggettivo/interpretativo.
200 Capitolo 4

comprensione del mondo, oltre, in alcuni casi, a fornire previsioni di che cosa acca-
drà nel futuro e a dare una base per l’intervento e l’azione» (Gregor, 2006:616, cor-
sivo aggiunto).
Proporre una teoria significa quindi caratterizzarla in termini di rilevanza, finalità
e struttura: innanzi tutto è necessario individuare una "parte del mondo" sconosciuta
evidenziando le ragioni per cui tale conoscenza sia desiderabile (rilevanza della teo-
207
ria ). E’ poi necessario specificare la finalità individuando i primary goals della teo-
ria (analysis, explanation, prediction, prescription) e la prospettiva epistemologica
complessiva. La struttura della teoria sarà in relazione alle sua finalità e al grado di
formalizzazione ritenuto appropriato anche in base alla prospettiva epistemologica
esplicitamente o implicitamente adottata.

Tabella 4.2 Componenti strutturali comuni a tutte le teorie (Gregor, 2006:620).

COMPONENTI STRUTTURALI (comuni a tutte le teorie)


Componenti Definizione
Mezzi di rappre- La teoria deve essere rappresentata fisicamente in qualche
sentazione modo: con parole, termini matematici, logica simbolica, dia-
grammi, tabelle o graficamente. Ulteriori mezzi di rappresenta-
zione comprendono le figure, modelli e prototipi.
Costrutti I costrutti si riferiscono ai fenomeni di interesse nella teoria (le
"unità" di Dubin). Tutti i costrutti primari nella teoria dovreb-
bero essere ben definiti. Sono possibili molti diversi tipi di co-
strutti: ad esempio, termini osservabili (reali), termini teorici
(nominali) e termini collettivi.
Relazioni Statement di relazione tra i costrutti. Anch'essi possono essere
di molti tipi: associative, composizionali, unidirezionali, bidire-
zionali, condizionali, o causali. La natura delle relazioni specifi-
cate dipende dallo scopo della teoria. Possono darsi relazioni
molto semplici: per esempio, "x è membro della classe A".
Raggio d'azione Il raggio d'azione è specificato dal grado di generalità degli
statement di relazione (caratterizzato da qualificatori modali
come "alcuni", "molti", "tutti", e "mai") e degli statement di
delimitazione che specificano il grado di generalizzabilità della
teoria stessa.

Gli elementi strutturali di una teoria sono dunque quelli illustrati nella Tabella 4.2 e
Tabella 4.3: i mezzi di rappresentazione, i costrutti fondamentali, gli statement di re-
lazioni, il raggio di azione (scope), ed eventualmente anche le spiegazioni causali, le
ipotesi e gli statement prescrittivi.

207
Sul tema della rilevanza vedi ad esempio (Benbasat & Zmud, 1999) e i commentari della
relativa special issue di MIS Quarterly 1999, introdotti in (Applegate, 1999).
Elementi per una teoria 201

Tabella 4.3 Componenti strutturali presenti solo in teorie con finalità specifiche(Gregor,
2006:620).

COMPONENTI STRUTTURALI (per finalità specifiche)


Componenti Definizione
Spiegazioni causali La teoria fornisce statement di relazione tra i fenomeni che
mostrano un ragionamento causale.
Proposizioni verificabili La teoria fornisce statement di relazione tra costrutti in una
forma tale da poter essere verificata empiricamente.
Statements prescrittivi Statements nella teoria che specificano come è possibile con-
seguire determinati risultati pratici (es. costruire un artefatto
o sviluppare una strategia).

Al fine di proporre alcuni elementi per una teoria dello standard, è dunque necessario
specificare un tema di fondo rilevante, per poi definire le finalità e la struttura della
teoria. Il primo degli obiettivi essenziali di un contributo teorico è dunque quello di
spiegare il "che cosa", cioè nel nostro caso di analizzare che cosa debba intendersi per
standard e per processo di standardizzazione. Gli obiettivi di spiegazione e di previ-
sione completano il quadro teorico complessivo.

4.2 Elementi teorici di base


Per quanto già discusso, le finalità essenziali di questo tentativo di riflessione teorica
sono quelle di definizione/analisi (che cosa è uno standard? Che cosa è la nascita di
uno standard?) e di spiegazione (quali sono gli attori, le forze in gioco, le fasi e le at-
tività che determinano la nascita di uno standard, e che influiscono sul suo esito fina-
le? Come, quando, dove e perché avviene tutto ciò?). Alle finalità essenziali di defi-
nizione e spiegazione è auspicabile affiancare progressivamente ulteriori finalità di
previsione, individuando testable propositions che permettano analisi what-if e di
scenario: che cosa può accadere quando si interviene sulle variabili in gioco? Questo
richiederebbe di affrontare in modo ampio ed approfondito l'operazionalizzazione, le
tecniche di raccolta di analisi dei dati, in modo di permettere analisi empiriche rigoro-
se e replicabili, un obiettivo estremamente ambizioso che si riserva eventualmente a
contributi successivi.

4.2.1 Analisi e definizione: che cosa è uno standard

Sintetizzando e traendo le conclusioni dell'analisi di significato, della rassegna della


letteratura e della successiva discussione ospitate nel capitolo 1, viene qui offerta una
definizione del concetto di standard che risponde ad un duplice obiettivo. Da un lato
202 Capitolo 4

essa costituisce infatti il primo elemento risponde alla finalità di analisi teorica: "che
cosa è?". Dall'altro la definizione qui accolta, lungi dal voler assumere valore assolu-
to o dall'escludere altri possibili approcci, serve anche come primo passo per delinea-
re il raggio di azione della teoria stessa, individuando in modo chiaro a quali specifi-
che entità essa possa essere riferita. Secondo quanto discusso finora (sez. 1.2), quindi:

1) Definizione. Uno standard è una regola concordata ad adesione volontaria


in forma scritta e pubblica. Esso ha dunque i seguenti elementi costitutivi: a)
un atto negoziale con cui due o più soggetti concordano il contenuto della
regola e la sua libera adesione; b) la forma scritta e pubblica.

L'atto negoziale rivela la natura collettiva dello standard, il quale si applica al gruppo
208
di coloro che scelgono di aderire . La pubblicazione in forma scritta (che riguarda la
regola stessa, non l'atto negoziale) garantisce a chiunque la possibilità di aderire suc-
cessivamente allo standard stesso, entrando dunque a far parte del gruppo di riferi-
mento.
Come abbiamo visto, uno standard può essere caratterizzato sotto il profilo della
stabilità nel tempo, dei diritti di proprietà e quindi del grado di "apertura", dei diversi
livelli di volontarietà dell'adesione, delle caratteristiche del gruppo di riferimento e
dei corrispondenti meccanismi di identificazione ed adesione.
Gli standard, in quanto regole, possono avere diversi scopi: esistono standard sul-
l'essere qualcosa, sull'avere qualcosa o sul fare qualcosa. Essi possono essere classi-
ficati secondo vari criteri.
Innanzi tutto essi possono distinguersi in standard comportamentali e standard
tecnici. Questi ultimi, i più studiati in letteratura, comprendono gli standard di riferi-
mento, di qualità minima e di compatibilità.
Quanto al processo di creazione e ai soggetti coinvolti distinguiamo standard de
facto, che si originano tipicamente da prodotti o pratiche diffuse sul mercato, e stan-
dard de jure, che vengono creati ex novo da istituzioni riconosciute. La Figura 1.4
del capitolo 1 specifica in modo più dettagliato questa ripartizione.
Qualora si riferiscano a prodotti e applicazioni non ancora sul mercato, guidando-
ne la compatibilità e l’interoperabilità futura, essi prendono il nome di anticipatory
standards.
Come abbiamo visto, il significato corrente della parola "standard" di modello,
base, norma, è pienamente espresso dall'idea di una regola ad adesione volontaria. Il
senso etimologico originario di stendardo/bandiera, come segno di appartenenza ad
un gruppo e simbolo di identità condivisa, appare pienamente in sintonia con quanto
affermato finora con riferimento ai meccanismi di identità e legittimazione (capitolo
3, sezione 3.3.5).

208
In questo senso una regola istituita e pubblicata da un solo soggetto non è uno standard
finché non si costituisce un gruppo di riferimento, cioè finché non si registra almeno un'altra
adesione.
Elementi per una teoria 203

Sono effettivamente standard?


Tornando agli esempi e alle storie gia passate in rassegna nel capitolo 1 (sez. 1.1), po-
tremmo ora verificare se essi possano essere considerati propriamente degli standard
secondo la definizione qui proposta.
Il linguaggio ha molte delle caratteristiche di uno standard: esso può essere visto
come un insieme complesso di regole di espressione e comunicazione; vi è certamen-
te un gruppo di riferimento che vi aderisce ed ha anche alcune "versioni" stabili pub-
blicate in forma scritta (come ad esempio grammatiche e vocabolari). Tuttavia, data la
sua natura complessa, multiforme e in continua evoluzione, esso non può essere inte-
ramente e stabilmente racchiuso in un unico documento scritto e pubblico, che abbia i
connotati di unicità e stabilità. Non possiamo quindi in questa sede considerarlo uno
standard in senso proprio, anche se ne condivide alcuni dei tratti più rilevanti.
Le filettature Sellers hanno tutti i connotati di uno standard tecnico di riferimento,
inclusa la documentazione pubblica e scritta, che è senz'altro in qualche forma pre-
sente anche per standard di riferimento immediatamente evidenti come lo scartamen-
to dei binari ferroviari e il sistema di guida a destra/sinistra, che sono dunque tutti
standard tecnici di riferimento e misurazione, insieme ovviamente al sistema metrico
decimale internazionale e ai sistemi di misurazione del tempo. Lo stesso dicasi per le
spine e prese di corrente universali, standard di compatibilità (ed anche di qualità
minima) le cui specifiche tecniche sono, come abbiamo visto, pubblicamente dispo-
nibili (IEC, 2007). La regola dei 28 secondi, pur avendo molti tratti in comune con
uno standard, presenta forse più il carattere di normativa di diritto sportivo (ad appli-
cazione ed adesione quindi obbligatoria nel suo ambito di riferimento) piuttosto che
di uno standard vero e proprio. Infine la cravatta, o meglio i criteri che si impiegano
nella decisione di indossare una particolare cravatta, non presentando il requisito del-
la forma scritta, non costituiscono propriamente uno standard, ma piuttosto una serie
di norme comportamentali che illustrano particolarmente bene l'aspetto identitario e
la logica dell'appropriatezza tipiche di alcuni standard veri e propri.

4.2.2 La nascita di uno standard

Nel quadro analitico qui adottato, appare utile individuare chiaramente il momento
della nascita di uno standard.

2) Nascita. Uno standard comincia ad esistere nel momento della sua prima
pubblicazione formale definitiva.

Secondo questa impostazione, la diffusione e l'utilizzo di una regola non scritta, di un


prodotto o di un'applicazione non è dunque sufficiente di per sé ad originare uno stan-
dard, finché esso non viene pubblicato in forma definitiva. Questo vale anche per gli
standard de facto, che possono avere periodi di incubazione come prodotti, sistemi o
pratiche diffuse prima di venire ufficialmente e formalmente descritti in forma univo-
ca in un documento pubblico. Come abbiamo già visto questa impostazione non è
sempre condivisa nella letteratura, ma essa è giustificabile dalla semplicità e chiarez-
za di analisi che consegue ad una netta e non ambigua delimitazione concettuale; i-
204 Capitolo 4

noltre essa appare fortemente coerente con gli assunti base e i fondamenti costitutivi
del concetto di "standard" qui discusso.
La chiarezza concettuale nasce dalla possibilità di poter più facilmente distinguere
in modo netto ciò che è standard da ciò che non lo è, grazie alla necessaria presenza
di un documento scritto ben identificabile. Inoltre la data di prima pubblicazione per-
mette di stabilire in modo netto il momento della "nascita" dello standard.
La coerenza con gli assunti base è spiegata dal fatto che uno standard si differen-
zia dagli altri tipi di regole e leggi perché l'adesione volontaria di nuovi soggetti è
sempre aperta e possibile (salvo le eccezioni già discusse nel capitolo 1). A questo
fine, dunque, la necessità di pubblicazione appare fortemente giustificata come requi-
sito essenziale: senza una pubblicazione non sarebbe sempre facile estendere a chiun-
que, anche al di fuori del gruppo di adozione, la consapevolezza e la certezza dell'esi-
stenza e del contenuto dello standard stesso.
La nascita di uno standard coincide dunque con il momento della sua prima pubblica-
zione formale e definitiva: essa avviene di solito in competizione con altri "candidati"
standard. Non c'è coincidenza diretta tra nascita e diffusione: un prodotto o una rego-
la informale possono essere molto diffusi e imitati senza costituire uno standard; uno
standard può invece raccogliere scarso consenso e restare inutilizzato pur essendo sta-
to regolarmente pubblicato. La diffusione di uno standard non è l'unica dimensione
del suo successo: standard di nicchia rivolti a gruppi ben definiti possono trovare a-
deguata giustificazione e consenso economico e sociale anche con limitata diffusione.
Per capire come nasce uno standard, cioè come si giunge alla definizione negozia-
le e alla pubblicazione formale di una regola aperta all'adozione volontaria di chiun-
que, è necessario individuare quali sono gli attori, le forze in gioco, le fasi e le attività
che determinano l’esito finale del processo, facendo emergere uno standard tra diversi
candidati possibili. Come, quando, dove e perché avviene tutto ciò?
Cominciamo dal perché. Gli impieghi dello standard e i fini della standardizzazio-
ne sono stati discussi nel capitolo 3, da cui si ricorda che uno standard nasce per ap-
portare una serie di vantaggi al gruppo di riferimento, siano essi in termini di coordi-
namento, di relazione, di comunicazione, di economie di scala, di improvvisazione o
dei numerosi altri aspetti finora considerati.

4.3 Il processo di standardizzazione


Quando dunque si diffonde in un gruppo di soggetti la consapevolezza dei vantaggi
che un possibile nuovo standard potrebbe apportare al gruppo, il processo di standar-
dizzazione ha inizio. Varie categorie di attori possono esservi coinvolte.

4.3.1 Gli attori

Nel caso più semplice coloro che concordano e pubblicano la regola sono anche i de-
stinatari. Nei processi di standardizzazione più complessi possono distinguersi diver-
se tipologie di attori su più livelli: a livello individuale gli utenti, i progettisti e coloro
che diffondono informazioni e conoscenza (evangelists). A livello collettivo le impre-
Elementi per una teoria 205

se, spesso con interessi diversi, assieme a vari tipi di istituzioni come i consorzi di
standardizzazione, le SDO (Standard Development Organizations), i governi.

4.3.2 Le fasi: negoziazione e pubblicazione

La nascita di uno standard può essere vista come un processo in due fasi, in sostanzia-
le accordo con le prime teorie del dominant design (sez. 3.3.1) che osservano nell'e-
voluzione delle innovazioni un'era di fermento in cui diverse possibili specifiche si
contendono il mercato e un'era successiva in cui si afferma l'innovazione dominante.
La natura stessa dello standard come atto negoziale in forma scritta e pubblica sugge-
risce questi due passaggi essenziali: la negoziazione e la pubblicazione. Attraverso la
negoziazione coloro che decidono di scrivere una regola per renderla aperta e pubbli-
ca ne concordano il contenuto, selezionandolo tra tutti quelli possibili. Come tutte le
negoziazioni, anche questa può essere effettuata in vari modi, ivi compresa la sempli-
ce adesione ad una proposta o il comportamento concludente di conformarsi alle ca-
ratteristiche tecniche di un prodotto immesso sul mercato, che vengono dunque pub-
blicate come standard. Il gruppo che concorda e pubblica uno standard non necessa-
riamente coincide con quello di tutti coloro che potrebbero essere interessati all'ado-
zione.
La pubblicazione è l'atto formale che pone la regola a disposizione di tutti e la sta-
bilizza, segnandone l'inizio della vita utile che avrà termine eventualmente se e quan-
do lo standard verrà in seguito dismesso e cancellato perché superato o desueto.

4.3.3 Le attività e le forze in gioco

Come avvengono la negoziazione e la pubblicazione? Quali sono le forze in gioco


che ne determinano l'esito?

I casi più semplici: utilità economica


Nel caso più semplice esiste un solo gruppo definito ed omogeneo di individui che
deve selezionare, per un impiego specifico, la regola migliore tra tutte le alternative
conosciute. Sembra qui appropriato considerare come migliore quella che massimizza
l'utilità del gruppo per quel determinato impiego in senso paretiano: non si può accre-
scere l'utilità di un soggetto del gruppo senza diminuire quella di un altro. La nego-
ziazione prevede dunque un processo di selezione tra diversi possibili "candidati" (o
specifiche) standard per scegliere quello più vicino all'ottimo paretiano. Su quali basi
avviene questa selezione? La risposta sembra dipendere dal tipo di utilità considerata.
E' opportuno, per semplicità, considerare innanzi tutto un'utilità misurabile in ter-
mini economici: dato un impiego specifico, ciascun candidato standard sarà in grado
di produrre economie misurabili per ciascuno dei membri del gruppo. L'ottimo pare-
tiano è dunque quello che massimizza le economie complessive.
Si pensi alla determinazione della distanza tra le ruote di un carro trainato da ca-
valli, considerata nel capitolo 1, sezione 1.1.3: il livello ottimale è naturalmente de-
terminato dalla larghezza media dei cavalli da traino e dal loro numero e posiziona-
206 Capitolo 4

209
mento, che condizionano le dimensioni ottimali dei carri e la distanza delle ruote .
Quindi:

3) Utilità economica. La selezione tra gli standard possibili da parte di un


gruppo definito ed omogeneo di individui per un impiego specifico, in pre-
senza di utilità economica diretta tecnicamente misurabile, tende a indiriz-
zarsi verso l'ottimo paretiano, privilegiando la specifica che massimizza l'u-
tilità economica complessiva.

In alcuni casi però l'utilità economica è ignota, incerta o indifferente per più alternati-
ve possibili. Si pensi alla questione della determinazione dello scartamento ferrovia-
rio ottimale verso la fine dell'800: come già ricordato, alcuni dei primi carrelli su ro-
taie per il trasporto merci furono realizzati in Inghilterra con la stessa distanza tra ruo-
te dei carri merci a cavalli: questo scartamento fu poi adottato nelle prime ferrovie
inglesi. La determinazione dello scartamento ottimale dal punto di vista tecnico è
molto complessa: la storia riportata nel capitolo 1 mostra come il dibattito tra specia-
listi sia durato oltre un secolo e non abbia ancora trovato una risposta definitiva. Lo
standard oggi più diffuso (denominato appunto "scartamento standard") non è proba-
bilmente quello ottimale in senso assoluto dal punto di vista tecnico. Misure legger-
mente superiori sarebbero altrettanto accettabili o persino preferibili. Lo stesso dicasi
per la disposizione di tastiera QWERTY, la cui storia è stata già analizzata nel detta-
glio (sez. 3.2.4 ): nell'incertezza, è stata fatta una scelta abbastanza buona, tra tante
altre alternative accettabili o forse persino preferibili. Un ulteriore caso già visto di
sostanziale indifferenza tecnica è quello della guida a destra/sinistra (sez. 1.1.4).
Che cosa avviene quando i benefici di una standardizzazione eventuale sono evi-
denti ma non è possibile selezionare una soluzione "migliore" delle altre dal punto di
vista dell'utilità economica?

Oltre l'utilità economica: legittimazione e identità


In condizioni di indifferenza dal punto di vista dell'utilità economica misurabile la
selezione del candidato da standardizzare potrebbe essere più o meno dettata dal caso.
I numerosi studi presi in esame nei capitoli precedenti suggeriscono però che altri fat-
tori possano giocare un ruolo. Tali fattori possono influenzare non soltanto il proces-
so di negoziazione e selezione prima della pubblicazione, ma anche quello di succes-
siva diffusione dello standard, anche in competizione con altri standard, cioè le co-
210
siddette standard wars (Shapiro & Varian, 1999) .

209
Un carro normale sarà dunque all'incirca della larghezza di due cavalli affiancati. Altre
soluzioni, dato l'impiego normale dello standard "distanza tra le ruote dei carri" per il gruppo di
adozione, possono comportare diseconomie: carri con ruote più distanti sarebbero più
ingombranti dello stretto necessario, affaticherebbero i cavalli e renderebbero più difficile la
circolazione. Carri più stretti con ruote più vicine porterebbero ad una sottoutilizzazione della
capacità di carico a sostanziale parità di ingombro sulla strada. Questo naturalmente non toglie
che per usi diversi da quello normale si siano diffusi anche carri di dimensioni diverse con
diverse distanze tra le ruote.
210
Come già ricordato, anche se il focus principale di questa analisi è sulla nascita, cioè sulle
fasi che precedono la pubblicazione di uno standard, vengono qui presi in considerazione
Elementi per una teoria 207

Come si è già visto (sez. 3.3.2) la legittimazione istituzionale può risultare essen-
ziale per la nascita e per la diffusione di uno standard: l'adozione di una particolare
specifica piuttosto che un'altra può infatti conferire un diverso grado di legittimazione
al gruppo che seleziona e pubblica lo standard. L'affermazione di una specifica può
essere favorita da varie forme di influenza e regolamentazione istituzionale sia dal
lato della domanda che da quello dell'offerta, come già evidenziato per l'innovazione
IT in Figura 3.15. Le forze in gioco che contribuiscono a formare la legittimazione
istituzionale possono essere coercitive, normative, mimetiche e di evangelizzazione.
Si è già visto come la loro presenza e i loro effetti comincino ad essere oggetto di mi-
surazione empirica negli studi neoistituzionali più recenti: simili indagini potrebbero
essere applicate anche al processo di selezione di uno standard. Tra i casi già incon-
trati in cui i processi di istituzionalizzazione hanno particolare rilievo, specie per la
diffusione, si ricordano gli standard manageriali delle famiglie ISO 9000 (gestione
della qualità) e ISO 14000 (gestione ambientale), già richiamati nella sezione 2.1.3.
Anche le pressioni istituzionali che da anni si rilevano negli USA a favore dell'ado-
zione del sistema metrico decimale (sez. 1.1.6) rientrano in questo ambito. Quindi:

4) Legittimazione. A parità di altre condizioni, la selezione tra gli standard


possibili da parte di un gruppo definito ed omogeneo di individui per un im-
piego specifico, tende a indirizzarsi verso la specifica che conferisce più ele-
vata legittimazione istituzionale al gruppo.

L'affermazione dell'identità rappresenta un altro degli aspetti che sono emersi nell'a-
nalisi della letteratura, specie con riferimento agli studi ecologisti più recenti (sez.
3.3.3). La selezione, pubblicazione ed adozione di una particolare specifica come
standard può servire ad affermare e rafforzare l'identità del gruppo che adotta lo stan-
dard rispetto ad altri gruppi che adottano standard diversi. Per uno stesso impiego
possono dunque aversi due standard diversi, due gruppi diversi, due identità diverse:
si pensi alla scelta della Namibia di passare, in controtendenza rispetto al resto del
mondo, dalla guida a destra alla guida a sinistra, sottolineando l'avversità all'odiato
ex-colonialismo tedesco che aveva introdotto la guida a destra (sez. 1.1.4). Altri casi
di questo tipo già incontrati sono il rifiuto dell'accettazione del calendario gregoriano
da parte dei protestanti luterani tedeschi alla fine del '500 (sez. 1.1.5) e la stessa ribel-
lione degli stati secessionisti americani allo scartamento standard ferroviario ormai
prevalente negli stati del Nord (sez. 1.1.3). Quindi:

5) Identità. A parità di altre condizioni, la selezione tra gli standard possibili


da parte di un gruppo definito ed omogeneo di individui per un impiego spe-
cifico, tende a indirizzarsi verso la specifica che rafforza e sottolinea l'iden-
tità del gruppo in contrapposizione ad altri gruppi.

anche i processi di successiva diffusione e le guerre tra standard, nella misura in cui essi
possano contribuire a spiegarne la nascita.
208 Capitolo 4

Dunque, se si restringe l'analisi ad un solo gruppo omogeneo di utenti per un solo im-
piego ben definito, la selezione di una tra le tante specifiche possibili potrebbe avere
l'obiettivo di massimizzare l'utilità economica diretta, la legittimazione e l'identità del
gruppo stesso nel futuro impiego dello standard.
Nella realtà però un caso così semplice non è molto frequente. L'omogeneità del
gruppo di riferimento, sia prima che dopo la pubblicazione, non è affatto garantita.
Nella maggior parte dei casi infatti uno standard deve essere impiegato da categorie
di utenti ampie e diverse, niente affatto omogenee. E' quindi necessario considerare
che possano esserci più (sotto)gruppi distinti, con identità distinte, che si accordano
per uno standard comune. Questo rende anche improbabile che vi sia un impiego fu-
turo altamente specifico e completamente definito a priori: diversi utenti potranno mi-
rare ad impieghi diversi per diverse finalità del futuro standard. Inoltre, per sua natura
lo standard è aperto a nuove adesioni da parte di chiunque, quindi la numerosità dei
gruppi di adozione non è definita a priori: lo standard potrà nascere con un numero
limitato di utenti e trovare in seguito una diffusione molto più ampia.
Queste considerazioni rendono molto più complessa l'analisi delle forze in gioco,
che si affronterà nelle prossime sezioni.

Utenti in crescita ed effetti rete


Cominciamo dal considerare separatamente la possibilità che la base di utenti pos-
sa ampliarsi dopo la pubblicazione dello standard, e che questo fatto sia a conoscenza
del gruppo di adozione, che sarà dunque ancora omogeneo, ma di dimensione esatta
indefinita, aperta alla crescita futura. Si è già visto ampiamente in precedenza (sez.
3.2) come una notevole mole di studi nell'ambito della cosiddetta network economics
abbia preso in considerazione la possibilità che la crescita della base (o rete) degli u-
tenti possa apportare significativi benefici, accrescendo l'utilità di tutto il gruppo. La
presenza di esternalità di rete e di effetti rete è particolarmente probabile nei settori
dei cosiddetti information goods e knowledge goods, beni e servizi ad elevato conte-
nuto di informazione e conoscenza; in tali settori (tra cui IT, media, education, hi-
tech, bio-tech, società di servizi professionali, ecc.) varie forme di standardizzazione
sono ampiamente impiegate. Come abbiamo visto, la letteratura economica ha rileva-
to come in questi settori gli effetti rete possano fortemente influenzare la diffusione di
uno standard, privilegiando gli standard con reti di utenti più ampie rispetto a quelle
con reti di utenti più ristrette. Attraverso il gioco delle aspettative questo può influen-
zare anche la selezione delle specifiche durante la fase di negoziazione, privilegiando
quelle per le quali si ritiene più probabile una forte espansione della rete di utenti. In
sintesi:

6) Effetti rete. Per alcune tipologie di standard (information goods), a parità


di altre condizioni, la selezione tra gli standard possibili da parte di un
gruppo omogeneo e aperto di individui per un impiego specifico, tende a in-
dirizzarsi verso la specifica su cui vi sono aspettative di maggiore diffusione
futura, per effetto dei benefici attesi dall'espansione della rete di utenti.
Elementi per una teoria 209

Gruppi e interessi in competizione

Gli effetti rete associati ad uno standard si possono trasferire anche sui prodot-
ti/servizi che ne fanno uso, aumentandone il valore commerciale man mano che lo
standard si diffonde. Si ricordino tra gli altri il famoso caso VCR-Betamax (sezz.
3.2.3 e 3.2.4), la competizione attuale tra sistemi PC/Windows, PC/Linux e Macin-
tosh/OS (sez. 3.2.2), ed anche la storica "battaglia dei browser" tra Netscape e
Microsoft in cui i due prodotti concorrenti (il browser Microsoft Internet Explorer
contro Netscape Navigator) adottavano diversi standard tecnologici (Afuah et al.,
2001:253-272).
Come si è visto, le cosiddette imprese "sponsor" tendono a favorire la diffusione
di uno standard per estrarne valore grazie anche agli effetti rete. Per tali scopi gli
sponsor pongono in essere una serie di tattiche, che comprendono da un lato la ge-
stione strategica dei complementi e dei diritti di proprietà intellettuale (cfr. sez. 1.2.3,
"La proprietà e l'apertura"); dall'altro le politiche di prezzi aggressive, i preannunci di
prezzo/prodotto, gli investimenti in marchi e reputazione e altre per influenzare le a-
spettative a favore dello standard sponsorizzato (sez. 3.2.2). Tutto ciò fraziona il
gruppo di riferimento in diverse fazioni con interessi spesso nettamente opposti. I
rapporti di potere (sez. 3.3.7) potrebbero dunque giocare un ruolo determinante per
favorire una determinata specifica rispetto alle altre in fase di negoziazione. Quindi:

7) Potere. In presenza di effetti rete, in tutti i casi in cui il gruppo di riferimen-


to sia frazionato in diverse fazioni con interessi contrapposti, a parità di al-
tre condizioni, la selezione tra gli standard possibili per un impiego specifi-
co può essere influenzata dal potere contrattuale degli sponsor e dalla loro
capacità di porre in essere tattiche che influenzino le aspettative di diffusio-
ne futura dello standard.

Impieghi diversi e flessibilità interpretativa


Quando il gruppo che istituisce uno standard si compone di più sottogruppi diso-
mogenei e in espansione, è anche probabile che i vari sottogruppi comprendano non
solo sponsor con interessi contrapposti, ma anche utenti interessati a diverse modalità
di impiego dello standard. E' evidente che, a parità di altre condizioni, la disomoge-
neità degli impieghi previsti riduca l'utilità di uno standard, rispetto ad una perfetta
omogeneità. Ad esempio, un sistema standard di spina/presa pensato per i telefoni
non è altrettanto adatto alla corrente elettrica, o per trasmettere dati ad una stampante.
E' possibile immaginare un sistema standard unico per queste tre tipologie di impie-
go, ma l'utilità complessiva che se ne trarrebbe in termini, ad esempio, di economie di
scala e di semplificazione, sarebbe più che compensata dalla drastica subottimalità
del miglior sistema generico concepibile per ciascuno di questi utilizzi specifici. E' il
motivo per cui ad esempio alcuni utensili generici multiuso (come il coltello svizzero
o la chiave inglese) non riescono a soppiantare quelli specifici: la flessibilità interpre-
tativa si paga in termini di subottimalità per gli impieghi specifici
210 Capitolo 4

Per la nascita di uno standard questo comporta due conseguenze essenziali: la


prima conseguenza è che c'è una relazione inversa tra l'omogeneità degli impieghi
previsti e la specificità "tecnica" del candidato standard che rappresenta l'ottimo pare-
tiano: in altre parole, più diminuisce l'omogeneità degli usi, tanto più conveniente ri-
sulta selezionare uno standard a più bassa specificità tecnica e, dunque, elevata fles-
sibilità interpretativa. Quindi:

8) Flessibilità interpretativa. A parità di altre condizioni, tanto più la diso-


mogenità del gruppo tende ad aumentare la varietà di impieghi diversi pos-
sibili, quanto più la selezione tenderà ad indirizzarsi verso il candidato stan-
dard a più bassa specificità tecnica e dunque più elevata flessibilità inter-
pretativa.

La seconda conseguenza è per livelli elevati di disomogenità, diviene più conveniente


impiegare una pluralità di standard specifici piuttosto che un unico standard generico.
Quindi:

9) Pluralità di standard. A parità di altre condizioni, in corrispondenza di li-


velli abbastanza elevati della varietà di impieghi diversi possibili, l'utilità
complessiva per il gruppo del candidato standard a più elevata flessibilità
interpretativa tra quelli conosciuti, sarà comunque inferiore a quella com-
plessiva ottenibile con l'impiego di una pluralità di standard più specifici
per più sottogruppi di utenti e più categorie di impiego.

Dunque all'aumentare della numerosità e varietà degli utenti tende naturalmente


ad aumentare la varietà di impieghi possibili di uno standard, fino a renderlo subotti-
male e a stimolare la nascita di un nuovo standard.

Standard di architetture complesse


Laddove però la molteplicità e varietà degli usi possibili si abbina alla ricerca di
una unica struttura di base, come ad esempio per i prodotti complessi o per le infra-
strutture informative, è possibile che il sistema complessivo dei molteplici standard in
relazione tra loro assuma un'architettura complessa e modulare con le caratteristiche
che sono state oggetto di analisi nella sezione 3.3.1 del capitolo 3. Tali caratteristiche
assicurano che il sistema complesso nel suo insieme possa soddisfare sia requisiti di
stabilità e coerenza a livello globale che forti capacità di adattamento e variazione a
livello locale. Gli standard della "spina dorsale", che si trovano ai livelli superiori del-
la gerarchia di Figura 3.11, saranno caratterizzati da livelli elevati di pleiotropia e
dipendenza inter-componente; quelli locali ai livelli più bassi della gerarchia, saranno
caratterizzati da un grado più elevato di specificità d'uso.
Una siffatta architettura complessa di standard è nello stesso tempo stabile e fles-
sibile, dando una soluzione al trade-off tra i benefici della standardizzazione e la con-
seguente perdita di flessibilità.
I meccanismi che permettono la selezione e la nascita di uno standard in un siste-
ma complesso di questo tipo sono ulteriormente sofisticati non solo dall'influenza dei
Elementi per una teoria 211

parametri "tecnici" che caratterizzano gli standard ottimi a ciascun livello gerarchico,
ma anche dal ruolo che i fattori istituzionali e identitari possono giocare nella deter-
minazione dell'equilibrio tra isomorfismo centrale (stabilità e unicità degli standard
che costituiscono la spina dorsale del sistema) e polimorfismo locale (varietà e mol-
teplicità degli standard periferici e locali del sistema), discussi nella sezione 3.3.5 e
raffigurati in Figura 3.16. Pertanto:

10) Sistemi complessi. Nei sistemi complessi, la selezione dei componenti


"core" è influenzata da fattori architetturali come pleiotropia e dipendenza
intercomponente. Il fattore identitario ha maggiore rilievo nella selezione
dei candidati standard locali ai livelli più bassi della gerarchia, mentre le
pressioni istituzionali tendono a stimolare la formazione di standard più ge-
nerali di livello più elevato.
5
Analisi empirica: i Web services

211
In questo capitolo verrà offerta l’analisi di un recente caso di standardizzazione
IT: la nascita dello standard “Web services Architecture”. Tale standard è stato defi-
nito da un gruppo di lavoro che rappresenta tutte le principali organizzazioni nel set-
tore IT, nell’ambito del consorzio di standardizzazione “World Wide Web Consor-
tium”. La particolarità di questo processo è che esso ha lasciato tracce dettagliate e
facilmente reperibili on line. L’analisi di queste ricche e complete tracce documentali,
descritte nelle sezioni 5.3 e 5.4, è stata effettuata con la metodologia “grounded the-
ory” (illustrata in sezione 5.2), che ha portato alla comprensione degli attori e dei
gruppi di potere (sezione 5.4) e alla stesura di una articolata gerarchia di concetti che
descrivono le attività principali del processo (sezione 5.5). Oltre all’analisi delle atti-
vità principali, la sezione 5.5 illustra infine alcune evidenze empiriche a supporto
dell’ipotesi che l’intero processo tenda alla massimizzazione della flessibilità
dell’artefatto.

5.1 Aspetti metodologici: grounded theory analysis


Il caso in esame è caratterizzato da un estensivo patrimonio di documenti disponibili
per l’analisi empirica, illustrato nelle sezioni che seguono. Questo ricco patrimonio
documentale rappresenta dunque una significativa opportunità per l’analisi del pro-
cesso di standardizzazione, finalizzata a individuare gli attori e le attività principali
che lo hanno caratterizzato.
Con queste premesse, la metodologia di analisi grounded theory qui impiegata
((Glaser & Strauss, 1967); (Strauss & Corbin, 1998)) appare particolarmente appro-
priata. Questa metodologia, originariamente proposta in Psicologia Sociale, è stata in
seguito variamente applicata nelle scienze sociali.
Fondamentalmente la grounded theory si basa sull’analisi sistematica ed estensiva
dei testi al fine di individuare i concetti espressi dai soggetti sotto osservazione. Man

211
Una versione preliminare del lavoro esposto in questo capitolo è stata presentata e discussa
dall'autore al VII workshop dei docenti e ricercatori di Organizzazione Aziendale - Salerno
2006.
214 Capitolo 5

mano che l’analisi dei testi procede e nuova evidenza viene raccolta e analizzata, le
definizioni dei concetti vengono arricchite specificandone gli attributi (proprietà e
dimensioni) secondo quanto dichiarato dai soggetti nei testi in esame. I concetti ven-
gono quindi raggruppati in categorie e collegati da relazioni. Una caratteristica unica
della grounded theory è che ogni costrutto è associato ai brani di testo da cui provie-
ne. Non è possibile generare o individuare nuovi concetti o relazioni se non in base a
dichiarazioni specifiche esplicitamente riportate dai soggetti in osservazione nei do-
cumenti esaminati. In questo senso le mappe concettuali che sono il frutto dell’analisi
sono quindi “grounded”: concetti, attributi e relazioni sono tutti documentati e legati
esplicitamente a brani di testo. E’ possibile individuare il numero di citazioni testuali
“sottostanti” a ciascuno dei concetti in esame (groundedness) e la numerosità delle
relazioni con altri concetti (density). Per un’applicazione cfr. (Orlikowski, 1993).
In accordo proprio con (Orlikowski, 1993), è possibile caratterizzare la grounded
theory analysis con la sua triplice natura induttiva, contestuale e processuale. Indutti-
va, perché la teoria viene generata “dal basso” partendo dall’analisi dei dati e mante-
nendo sempre un legame esplicito tra testi analizzati e concetti teorici generati. Con-
testuale, perché, al contrario di altri metodi, permette di tenere esplicitamente conto
della complessità del contesto organizzativo e sociale. Processuale, perché il rapporto
tra struttura e processo viene esplicitamente preso in considerazione: «La codifica del
processo avviene simultaneamente alla codifica delle proprietà/dimensioni e delle
relazioni tra i concetti»(Strauss & Corbin, 1998:167).
Secondo quanto fin qui rilevato, il processo di standardizzazione “Web services
Architecture” si distingue proprio per la ricca e sistematica documentazione testuale,
per la complessità degli aspetti contestuali, per l’evoluzione temporale delle attività.
Di conseguenza la natura induttiva, contestuale e processuale della grounded theory
appare particolarmente appropriata per procedere all’analisi del caso, che verrà ora
sommariamente introdotto nella sezione che segue.

5.2 Gli standard “Web services” e il consorzio W3C


Immaginiamo che un giorno le principali organizzazioni che operano nel settore
dell'Information Technology decidano di incontrarsi, invitando anche alcuni dei
clienti "chiave" (i cosiddetti power users). Supponiamo, ad esempio, che le società
siano 52 (includendo IBM, Microsoft, Sun, HP, SAP, Computer Associates, Oracle,
Cisco, Novell, Adobe, Nokia, Ericsson, Fujitsu e molte altre; includendo inoltre tra i
power users Boeing, Chevron, Reuters, Charles Schwab e altri) fortemente intenzio-
nate a concordare la definizione comune di una nuova tecnologia, dopo aver redatto
64 "position papers". Perché un tale scenario si realizzi, ci devono essere interessi
molto forti in gioco.
Ebbene, tutto questo è avvenuto davvero, il giorno 11 aprile 2001, a San Jose, in
California. Quel giorno ha segnato l'avvio ufficiale del processo di standardizzazione
Analisi empirica: i Web services 215

212
dei cosiddetti "Web services" . Il workshop è completamente documentato in tutti i
suoi dettagli sul sito Web http://www.w3.org/2001/01/WSW . L'architettura dei Web
services si basa su un sistema di specifiche tecniche straordinariamente complesso e
ambizioso, sul quale società come Microsoft e Sun Microsystems hanno posto una
assoluta priorità strategica e hanno effettuato consistenti investimenti (Sullivan &
213
Scannell, 2001) .
Ma che cosa sono i Web services e perché suscitano tanto interesse? In sintesi essi
si basano su due principi fondamentali:
1) la decomposizione funzionale delle applicazioni software in tanti componenti
indipendenti, come un puzzle;
2) la comunicazione tra applicazioni software diverse attraverso il Web per
l’utilizzo di componenti software remoti.
Notiamo come prima dei Web services il Web fosse utilizzato per la comunica-
zione tra uomo e macchina (l'uomo da un lato interroga gli ipertesti, la macchina dal-
l'altro fornisce le pagine Web richieste); con i Web services esso viene invece usato
per la comunicazione tra macchina e macchina (un'applicazione da un lato interroga
un'altra applicazione dall'altro per utilizzarne un componente software). Il consorzio
W3C (l'acronimo sta per WWWC, cioè World Wide Web Consortium) è stato fondato
nel 1994 (ed è tuttora diretto) da Tim Berners Lee, l'inventore del Web:

[…] per permettere al World Wide Web di sviluppare il suo pieno potenziale attraverso la
creazione di protocolli comuni che ne promuovano l'evoluzione e ne garantiscano l'interope-
rabilità. Il W3C ha quasi 450 organizzazioni consorziate da tutto il mondo e il suo contribu-
to determinante alla crescita del Web è riconosciuto a livello internazionale.
(da http://www.w3.org/Consortium/#background).

La struttura organizzativa del W3C è illustrata nel cosiddetto process document


(http://www.w3.org/Consortium/Process/), che descrive nel dettaglio gli organi del con-
sorzio (Members, Advisory Committee, Team, Advisory Board, Technical Architectu-
re Group), le activities e i gruppi di lavoro in seno a ciascuna attività. Esiste una atti-
vità per ogni nuova tecnologia standard in corso di sviluppo.
Ciascuna attività ha la sua struttura organizzativa che di solito include working
groups, interest groups e coordination groups.
L'activity "Web services" (http://www.w3.org/2002/ws/) si compone attualmente di
un gruppo di coordinamento e di vari gruppi di lavoro, tra cui ad esempio:
9 Web services Architecture (WSA) Working Group.
9 XML Protocol Working Group.
9 Web services Description Working Group.

212
Il nome ufficiale va scritto con la "W" maiuscola e la "s" minuscola, secondo le specifiche
dello standard pubblicate dal W3C.
213
Ad esempio, la vision del "software come servizio" sottostante la attuale architettura
Microsoft ".Net", (formulata e resa nota già nel 2000 e ora adottata in tutti i prodotti principali
della Microsoft), è interamente dipendente dal successo di questa nuova tecnologia, tanto da
aver suscitato inizialmente perplessità e scetticismo tra gli osservatori (Deckmyn, 2000).
216 Capitolo 5

Ciascuno dei gruppi di lavoro ha un obiettivo ben preciso definito in un documen-


to detto "charter" che specifica anche la tempificazione e le modalità di lavoro, gli
obiettivi intermedi, i deliverables ecc.
Come avviene il lavoro all'interno del working group WSA (Web services Architectu-
re)? Tale gruppo di lavoro ha operato per due anni, dal febbraio 2002 al febbraio
2004. Nella prima parte del charter vengono definiti gli obiettivi e la struttura di base
dell'Architecture Document (il documento con le specifiche da produrre), insieme con
una chiara ripartizione di obiettivi e competenze con gli altri gruppi dell'attività, con
gli organi W3C e con gli enti esterni che possono avere un ruolo nel processo di stan-
dardizzazione (es. il consorzio OASIS). Si delinea inoltre una schedulazione di base
delle fasi del progetto, per poi passare alla definizione delle modalità di lavoro, che
vengono stabilite nella parte finale del charter. L'accesso al gruppo avviene su richie-
sta di un componente di una organizzazione consorziata al W3C. Ogni organizzazio-
ne può avere un massimo di due partecipanti ad ogni riunione del working group.
Ogni gruppo ha uno o più responsabili che guidano e coordinano i lavori. Nelle vota-
zioni ogni organizzazione può comunque esprimere un solo voto.
La Figura 5.1 illustra i soggetti che hanno partecipato e gli strumenti di comuni-
cazione adottati: il gruppo di lavoro si riuniva in teleconferenza audio e testo (confe-
rence call + chat) con cadenza settimanale, con una partecipazione variabile di 10-30
componenti. La comunicazione attraverso la chat testuale avviene per iscritto: essa
dunque lascia una traccia molto importante, il teleconference script, che testimonia
nel dettaglio il contenuto delle discussioni. Anche tutte le discussioni avvenute attra-
verso la mailing list sono archiviate e disponibili per l’analisi. Le discussioni via e-
mail erano spesso coordinate e stimolate da un champion che partecipava anche al
working group ed era incaricato di raccogliere e riportare in teleconferenza i pareri
dei partecipanti alla mailing list. I champion erano tipicamente i responsabili di speci-
fiche task force o questioni da approfondire: ad esempio c’era un champion per Web
services security; uno per Web services orchestration, uno per Web services glossary
ecc.
A intervalli di alcuni mesi, il working group organizzava periodicamente un
workshop di tipo tradizionale, (F2F: face to face), aperto non solo a tutti i partecipanti
al working group, ma anche ai rappresentanti ed esperti delle organizzazioni interes-
sate e al management del consorzio W3C. I workshop F2F prevedevano comunque il
canale teleconferenza+chat, attraverso il quale ci si collegava in tempo reale con al-
cuni partecipanti in remoto, lasciando dunque ancora una volta una documentazione
scritta completa e attendibile dei dialoghi e delle discussioni avvenute nelle sessioni,
arricchita anche dalla pubblicazione delle slides e dei documenti presentati.
Questa ricca documentazione, integrata con fonti esterne, come le pubblicazioni
della stampa specializzata, ci offre molto materiale per la grounded theory analysis.

5.3 Campione documentale


L’analisi è avvenuta innanzi tutto selezionando un campione dei documenti disponi-
bili. In Figura 5.1 l’icona che rappresenta gli archivi della mailing list è raffigurata
Analisi empirica: i Web services 217

più in grande di quella che rappresenta i verbali delle teleconferenze perché i primi
sono molto più consistenti dei secondi: nei due anni di attività del working group
(2002-03) sono state scritte e archiviate oltre 7000 email.

Open mailing list discussions


hundreds of participants

cham- cham-
pion cham- cham-
pion
pioncham- pion
pion
Mailing lists
archives

Working Group
Discussions
10-30
participants
Weekly
teleconferences
Teleconferences
scripts

Figura 5.1 I documenti oggetto di analisi completa e sistematica sono i verbali delle tele-
conferenze settimanali (teleconference scripts) del gruppo di lavoro.

Ad esempio nel mese di agosto 2002 (che registra un livello di attività intorno alla
media annuale) sono state scritte 317 email con 72 diversi “subjects”. In confronto,
gli archivi con i verbali delle teleconferenze settimanali sono molto più ridotti: nello
stesso mese di agosto 2002 sono infatti state tenute 4 teleconferenze, in cui sono stati
registrati complessivamente 375 brevi interventi (vedi Figura 5.2 qui di seguito: i
quattro meeting “virtuali” del mese di agosto contano 152+44+102+77 interventi) per
un totale di circa 38.000 caratteri. Un intervento tipico in teleconferenza è lungo circa
100 caratteri, mentre una singola mail può raggiungere facilmente dimensioni di al-
cune migliaia di caratteri. Anche se non si dispone di statistiche precise, la dimensio-
ne totale dell’archivio delle email è senz’altro almeno di un ordine di grandezza supe-
riore a quella dei verbali delle teleconferenze; l’analisi estensiva e sistematica degli
archivi della mailing list risultava dunque impraticabile con le risorse a disposizione.
D’altro canto, proprio per la configurazione a piramide rovesciata delle discussio-
ni, raffigurata anch’essa in Figura 5.1, ogni discussione importante avvenuta nella
mailing list è stata sinteticamente affrontata o almeno ratificata anche nelle teleconfe-
renze e nei workshop F2F. Nel corso del processo di standardizzazione sono altresì
218 Capitolo 5

previste importanti fasi di votazioni, in corrispondenza delle decisioni più critiche e a


conclusione dei lavori. Tali votazioni risultano tutte per esteso nei verbali delle tele-
conferenze e dei workshop F2F. Quindi l’archivio dei verbali di telcon e F2F rappre-
senta un campione più ristretto ma fortemente significativo e rappresentativo di tutto
l’archivio documentale.
I dati qui di seguito analizzati si riferiscono al primo anno di attività del working
group. Si tratta di 45 verbali, datati da febbraio a dicembre 2002, che rappresentano
una parte significativa dell’intero archivio (circa il 50%) e che raccolgono le fasi di
tumultuosa e incerta attività iniziale che hanno portato alla redazione dei primi 4 draft
dello standard. Alla fine del periodo di osservazione lo standard era già in fase avan-
zata di realizzazione.
Per produrre le tabelle e i grafici riportati qui di seguito è stato necessario proce-
dere alla marcatura dei 4663 brani di testo dei verbali con l’individuazione degli auto-
ri di ogni intervento e delle organizzazioni di appartenenza. La struttura dei verbali
permette infatti di individuare facilmente gli autori: i brani di testo relativi ad ogni
intervento sono infatti generalmente preceduti dall’identificativo dell’autore. Inoltre,
in testa o in calce a ciascun verbale appare la lista dei partecipanti delle relative orga-
nizzazioni. L’analisi dei testi dei verbali è stata effettuata utilizzando il software
“Nvivo” versione 2.0 (Gibbs, 2002).

Number of text passages


(Meetings in year 2002)

500

450
436

400 395

350

300 306

250

200

150 152
141
125 119 124
110 116
100 99 102
91
81 77
69 66 73 71 72
62
50 47
57 53 61 49 51
59
44 45
37
28 24 25
19 16 17
8 9 11 9 10
0
b

v
r

t
ag

ag

ag

c
ar

ar

se

se

ot

ot

ot
ap

ap

no

no

di
fe

fe

gi

gi

lu

lu

ag

ag
m

02

16

30

11
12

26

10

24

04

18
06

20

03

17

13

27
07

21
06

20

01

15

29
Analisi empirica: i Web services 219

Figura 5.2 Numero di interventi (text passages) relativi alle teleconferenze settimanali e ai
workshop face to face (F2F) dell’anno 2002.

La Figura 5.2 qui sopra illustra l’andamento nel tempo del numero di interventi ri-
portati nei verbali delle conference call settimanali e dei quattro workshop F2F del
periodo di osservazione. Appaiono subito evidenti i quattro picchi in aprile, giugno,
settembre e novembre, che si riferiscono ai verbali dei workshop face to face. Il nu-
mero di interventi è molto maggiore non solo per il tipo di interazione faccia a faccia
ma anche per il maggior numero di partecipanti e per la durata (2-3 giorni di un
workshop F2F contro poche ore di una conference call).

Tabella 5.1 Classifica del numero di interventi in teleconferenza relativi all’anno 2002 pro-
dotti dai primi 11 delegati. E’ riportata per confronto anche l’ampiezza com-
plessiva dei testi.

Num.
Ampiezza
Organizzazione Delegato inter- % %
(car.)
venti
Sun Chris Ferris 755 16,2% 87.046 15,4%
BEA David Orchard 345 7,4% 49.277 8,7%
WW Grainger Daniel Austin 329 7,1% 42.787 7,6%
Contivo Dave Hollander 314 6,7% 36.164 6,4%
IBM Heather Kreger 312 6,7% 26.341 4,7%
Software AG Mike Champion 286 6,1% 35.884 6,4%
W3C David Booth 249 5,3% 27.683 4,9%
W3C Hugo Haas 242 5,2% 34.905 6,2%
Chevron Roger Cutler 163 3,5% 26.196 4,6%
Jujitsu Frank Mc Cabe 159 3,4% 12.180 2,2%
Sun Doug Buntig 158 3,4% 18.552 3,3%

La Tabella 5.1 riporta qui sopra la classifica dei primi 11 delegati per numero di in-
terventi registrati nel corso dell’anno 2002. Si è scelto di ospitare 11 nomi per evi-
denziare come la “Sun Microsystem” abbia ben due delegati tra i primi 11. Il totale
complessivo degli interventi nel 2002 è di 4663, suddiviso tra 46 organizzazioni e 65
delegati. Gli interventi risultano distribuiti in modo piuttosto omogeneo, con un grup-
po di otto leader che hanno superato il 5% e con una forte impronta della Sun
214
Microsystem e del consorzio W3C, gli unici ad avere due delegati tra i primi 11 .
Notiamo anche come alcuni soggetti abbiano effettuato pochi interventi lunghi ri-
spetto ad altri con molti interventi brevi; ad esempio Hugo Haas passerebbe

214
Tutte le organizzazioni coinvolte hanno fornito al gruppo di lavoro uno o al massimo due
delegati. Le uniche eccezioni sono state la Sun Microsystem con quattro delegati e il W3C con
tre delegati.
220 Capitolo 5

dall’ottavo al quinto posto se considerassimo la lunghezza complessiva del testo in-


vece del numero di interventi.

Total number of text passages


per Company (num; %)

Somma di All meetings WW Grainger; 409; 11%

ChevronTexaco; 163; 5% BEA; 345; 10%

Contivo; 314; 9% W3C; 493; 14%

Company name
Fujitsu; 159; 4%

IBM; 312; 9%

Oracle; 161; 4% Sun; 943; 26%

SoftwareAG; 286; 8%

Figura 5.3 Numero complessivo di interventi (text passages) relativi all’anno 2002 per le
prime 10 organizzazioni partecipanti (su 46). Le percentuali riportate si riferi-
scono al totale della top ten (3585 interventi) e non a quello complessivo
(4663).

Per avere un’idea delle forze in gioco, nella Figura 5.3 qui sopra gli interventi del
2002 sono stati raggruppati per organizzazione. Ciascun settore riporta il numero
complessivo di interventi riconducibili alla società; ad esempio la Sun Microsystem
con i suoi quattro delegati ha effettuato complessivamente 943 interventi. Per chia-
rezza sono state riportate solo le prime 10 organizzazioni, che assommano a 3585 in-
terventi, il 77% dei 4663 interventi del 2002. Tra le prime 10, la Sun ha prodotto oltre
un quarto delle discussioni complessive; il consorzio W3C quasi il 15%.
Il quadro complessivo sembrerebbe evidenziare un predominio di Sun, mentre la
Microsoft appare stranamente assente (ha totalizzato solo 69 interventi nel 2002, cir-
Analisi empirica: i Web services 221

ca il 2%). In realtà potremmo individuare (cfr. Figura 5.4) due raggruppamenti di in-
teressi di grandezza abbastanza omogenea: da un lato l’alleanza Microsoft-IBM-BEA
con 726 interventi; dall’altra la Sun Microsystems con 943 interventi; tra i due rag-
gruppamenti di potere si trova il consorzio W3C, quasi a fungere “da arbitro”, con
493 interventi.

Power groups presence


(text passages: num; %)

Microsoft
69; 3%
IBM
W3C
312; 14%
493; 23%

BEA
345; 16%

Sun
943; 44%

Figura 5.4 Partecipazione alla creazione dello standard dei principali gruppi di potere.

Nella prossima sezione illustreremo i primi risultati della grounded theory analysis e
in particolare le attività principali che caratterizzano il processo di standardizzazione
sotto esame.

5.4 Grounded theory analysis del contenuto dei verbali


Dopo aver delineato i “protagonisti” e le forze in gioco, una ulteriore fase di ana-
lisi è necessariamente finalizzata a rispondere alla domanda: “Come nasce lo standard
222 Capitolo 5

Web services Architecture”? In particolare tale domanda può essere declinata in due
modi:
1) Attività. Quali sono le attività principali che caratterizzano il processo di crea-
zione dello standard oggetto di studio?
2) Fattori Critici. Quali sono i fattori e le forze in gioco che fanno emergere tra
tutti gli standard possibili il risultato finale?

5.5 Analisi delle attività


Dopo una prima lettura esplorativa dei verbali, si è proceduto a scandire sistemati-
camente i testi evidenziando ogni frase, per dare un senso e un nome a ciascuna atti-
vità. Secondo le indicazioni di (Strass & Corbin 1998), inizialmente grande attenzio-
ne è stata posta alla comprensione del quadro di riferimento, dei molteplici significati
e interpretazioni possibile di singole frasi e persino parole (microanalisi). In seguito si
è proceduto a costruire gradatamente una gerarchia di concetti che descrivono le atti-
vità.
Al livello più alto le attività sono state suddivise in due macrocategorie denomina-
te “Attività di organizzazione” e “Attività di progettazione”. Con la macrocategoria
“Organizing” sono state denominate tutte le attività di organizzazione in senso lato,
che includono quelle di pianificazione, coordinamento, controllo, definizione di a-
genda, scelta degli argomenti da discutere, logistica degli incontri, amministrazione e
simili. Nella macrocategoria “Design” sono invece racchiuse tutte le attività che han-
no portato alla produzione delle successive versioni dei documenti di cui si compone
lo standard “Web services Architecture”. La tabella 1.2 qui sotto riporta un quadro
complessivo da cui si evince che i testi dei verbali si riferiscono per quasi 4/5 (circa
416K su 565K di testo codificato) ad attività di progettazione e per poco più della
metà (321K su 565K) ad attività di organizzazione. In fase di analisi sono stati indi-
viduati 63 nodi concettuali per le attività di organizzazione e 151 per le attività di
progettazione. Pur nella difficoltà di mettere ordine e illustrare una codificazione che
è in parte ancora in corso di revisione, le figure che seguono forniranno alcuni ele-
menti di maggiore dettaglio sulla gerarchia dei nodi concettuali.

Tabella 5.2 Ripartizione in due macrocategorie delle attività di standardizzazione. Per cia-
scun raggruppamento vengono evidenziati il numero di nodi concettuali che
individuano le attività, il numero di brani di testo da cui sono stati estratti i
concetti e la loro ampiezza complessiva.

Attività di organizzazione Attività di progettazione


Concetti Brani Caratteri Concetti Brani Caratteri
63 203 321.226 151 305 416.462

La Figura 5.5 illustra sinteticamente la composizione delle attività di organizza-


zione. Le icone sono di dimensione proporzionale alla dimensione complessiva dei
Analisi empirica: i Web services 223

passaggi di testo codificati e riportano il nome della categoria di attività corrispon-


dente.

Attività di organizzazione
(321K caratteri)

Definizione agenda
(9K caratteri)
Interazioni con altri gruppi
(263K caratteri)
Interazioni con mailing list
(10K caratteri)

Preparazione incontri F2F


(29K caratteri)

Figura 5.5 Mappa delle attività di tipo "organizzazione". La sfera in alto rappresenta il to-
tale del testo mappato (321mila caratteri) che si scompone nelle quattro cate-
gorie concettuali sottostanti. Le sfere sono di dimensione (area) proporzionale
alla quantità di testo codificata per quella categoria.

Appare evidente che le attività “Interazioni con altri gruppi” siano largamente pre-
dominanti, seguite da quelle di preparazione dei 4 workshop face to face e dalle inte-
razioni con la mailing list. Per chiarezza solo le categorie concettuali più rilevanti so-
no riportate nel grafico.
224 Capitolo 5

3-2-6 WSA usage scenarios


(32K caratteri)

3-2 Attività di progettazione


(416K caratteri)

3-2-9 WSA document


(107K caratteri)

3-2-1 WSA goals


(182K caratteri)
3-2-4 WSA issues list
(17K caratteri)
3-2-5 WSA glossary
(24K caratteri)
3-2-2 WSA design method
(23K caratteri)

Figura 5.6 Mappa delle attività di tipo "progettazione"

La Figura 5.6 qui sopra illustra le principali categorie di attività relative alla proget-
tazione dello standard WSA (Web services Architecture), oggetto dell’analisi. Nella
parte sinistra sono evidenziate le macroattività relative all’attribuzione di significato e
alla definizione delle modalità di progettazione della WSA: WSA usage scenarios;
WSA goals; WSA design method. Nella parte destra sono invece le attività di elabora-
zione e redazione dei documenti di cui si compone la WSA (glossary; issues list; ar-
chitectural document). Dalla dimensione delle icone (la cui area è proporzionale al-
l'ampiezza complessiva del testo codificato in ogni categoria) risulta che le attività di
produzione del documento WSA goals sono largamente predominanti. In questo dia-
gramma sono riportati i codici delle categorie concettuali, ad esempio (3 2 1) WSA
goals. Tali codici sono utili per individuare nelle figure che seguono il dettaglio della
gerarchia dei concetti associato a ciascuna categoria.
Analisi empirica: i Web services 225

Design activites: (3 2 1) - (3 2 2)
(3 2 1) WSA goals-requirements (3 2 2) Discussion on how to design WSA
(3 2 1 1) 03 goals 12-14 inclusion (3 2 2 1) How to define design objectives
(3 2 1 2) 04 first reqrmts document (3 2 2 1 1) focussing on what is needed
(3 2 1 3) 03 goal 1 ensure vs enable (3 2 2 1 2) not focussing on present status
(3 2 1 4) 02 initial WSA goals gathering (3 2 2 1 8) first approximation
(3 2 1 5) 03 goals 1-14 initial list (3 2 2 2) Group responsibilities
(3 2 1 6) 06 assigning goal champions (3 2 2 2 1) overall design - requirements coord
(3 2 1 7) 06 goal 1 assure too strong (3 2 2 2 3) Recommendations to W3C
(3 2 1 8) 06 goal 5 simplicity (3 2 2 2 3 4) for creating new groups if necessary
(3 2 1 9) 06 goal 6 security (3 2 2 2 3 5) for activities to fill in gaps
(3 2 1 10) two req doc updates before april F2F (3 2 2 2 4) Activities coordination in-out W3C
(3 2 1 11) 07 goals 1-3 (3 2 2 2 5) Evangelization of Web services
(3 2 1 12) 07 goal 4 (3 2 2 3) avoiding show-stoppers
(3 2 1 13) 07 goal 5 simplicity (3 2 2 4) design the framework
(3 2 1 14) 07 goal 6 security (3 2 2 5) do not design the solution
(3 2 1 15) 07 goals 7-16 (3 2 2 6) find technology gaps
(3 2 1 16) 07 add new goals 17-19 (3 2 2 7) do not design missing technologies
(3 2 1 17) 08 goal 7 (3 2 2 8) Goals-use cases-requirements-CSF
(3 2 1 18) 08 goal 3 (3 2 2 9) allowing change flexibility
(3 2 1 19) 08 goal 8 (3 2 2 10) being minimalist to get consensus
… (3 2 2 11) Critical Success Factor method
… (3 2 2 11 1) CSF method discussed
(3 2 1 76) 32 final F2F cleanup (3 2 2 11 10) CSF method temporarily
(3 2 1 77) 32 AC001 (3 2 2 12) how to get closure on reqrmnts doc
(3 2 1 78) 32 AC2 6 8 11 16 17 19 AR 19 23 (3 2 2 13) how to raise proposals from ballotin
(3 2 1 79) 32 new choreography goal (3 2 2 14) how to finalize balloting
(3 2 1 80) 32 AR33 (3 2 2 15) identify tasks and players

215
Figura 5.7 Dettaglio parziale della gerarchia dei concetti .

Come il lettore può intuire, la gerarchia dei nodi concettuali qui sopra può suscitare
una pluralità di possibili interpretazioni.

215
I nodi concettuali dal (3.2.20) al (3 2 1 76) non sono riportati per mancanza di spazio.
226 Capitolo 5

Design activites: (3 2 3) - (3 2 12)


(3 2 3) Definition of WSA (3 2 9) WSA ARCH document
(3 2 3 1) what is WSA (3 2 9 1) nominating editors
(3 2 3 2) trade-off stability growth (3 2 9 2) F2F outline of arch
(3 2 3 3) intentional ambiguity (3 2 9 3) F2F specifics go to the list
(3 2 3 6) needing requirements and framework (3 2 9 4) Issue on URI addressing
(3 2 3 6 1) requirements (3 2 9 5) harvesting
(3 2 3 6 2) framework (3 2 9 5 1) SOAP vs REST proc model
(3 2 3 6 2 1) addressing how parts fit together (3 2 9 5 5) what sources - code vs existing spec
(3 2 4) WSA issues list (3 2 9 6) discussing if publishing
(3 2 4 1) Issues list document revision (3 2 9 7) F2F32 arch doc discussion
(3 2 4 2) defining issues list content (3 2 9 7 1) merging arch diagrams proposals
(3 2 4 3) reliable messaging (3 2 9 8) F2F40 arch doc disc-revis
(3 2 5) WSA glossary (3 2 9 9) Management Task Force
(3 2 5 1) What is a Web service (3 2 9 9 1) HP pushing towards its interest
(3 2 5 2) F2F review glossary draft (3 2 9 9 4) proposing Management Task Force
(3 2 7) WSA usage scenarios (3 2 10) WSA vision_strategy
(3 2 7 1) forming a scenario task force (3 2 10 1) WSA business visions
(3 2 7 2) scenarios draft doc editing (3 2 10 1 1) extensible framework
(3 2 7 2 1) discussing terminology (3 2 10 3) scenario strategy vs harvesting spec
(3 2 7 6) WSA use cases (3 2 11) WSA extended - brainst F2F40
(3 2 7 6 1) use cases vs scenarios (3 2 12) First evaluation of impact
(3 2 7 6 2) use cases organization
(3 2 7 6 3) use cases glossary
(3 2 7 6 4) target audience
(3 2 7 6 5) time horizon
(3 2 7 6 6) use cases granularity
(3 2 7 6 6 1) supporting different level use cases

Figura 5.8 Dettaglio parziale della gerarchia dei concetti dalla categoria (3 2 3) alla cate-
goria (3 2 12).

La sua complessità e la ricchezza dei contenuti riflette la complessità e la ricchez-


za delle attività del processo di standardizzazione. E’ tuttavia possibile fornire un ri-
sposta preliminare alla prima domanda:
1) Attività Quali sono le attività principali che caratterizzano il processo di creazione
dello standard oggetto di studio?
con le seguenti osservazioni:
a) le attività principali risultanti dall’analisi sono quelle di organizzazione e pro-
gettazione, come definite qui sopra; sorprendentemente, una parte consistente (oltre la
metà) dei testi codificati e analizzati si riferisce ad attività di organizzazione.
Analisi empirica: i Web services 227

b) nel corso della progettazione, è possibile rintracciare nei testi dei verbali attivi-
tà di attribuzione di senso (es. definizioni di concetti e discussioni di come procede-
re); tali attività risultano (nell’ambito delle design activities) in oltre il 20% degli in-
terventi, per un’ampiezza complessiva pari a circa l’8% del testo relativo.
c) le attività di progettazione largamente predominanti sono state quelle relative
alla produzione e all’editing dei documenti della Web services Architecture. Tra que-
sti, quello che è stato oggetto di maggiore attività è stato quello degli obiettivi e dei
requisiti della WSA (Web services Architecture goals-requirements).
La risposta alla seconda domanda:
2) Fattori Critici Quali sono i fattori e le forze in gioco che fanno emergere tra
tutti gli standard possibili il risultato finale?
è basata sulla verifica di una particolare ipotesi di lavoro, collegata con la propo-
sizione n. 8 (Flessibilità interpretativa) enunciata nel capitolo precedente e basata sui
lavori SCOT (Social Construction of Technology) presi in esame alla fine del capitolo
3 (sezione 3.3.6). Tale ipotesi, come ben sappiamo dal capitolo precedente, vede il
processo di standardizzazione come un processo di massimizzazione dell’utilità col-
lettiva degli attori coinvolti. Si ipotizza che lo standard selezionato tra i possibili can-
didati sia quello che massimizza l’utilità dei gruppi adottanti. Tale utilità è a sua volta
collegata con la flessibilità dello standard nelle sue due forme di interpretative/use
flexibility e change flexibility.
In estrema sintesi, l’ipotesi di lavoro è che tra i diversi possibili artefatti “candida-
ti standard” che vengono considerati e scartati nel corso del processo di standardizza-
zione, quello che viene effettivamente prescelto e diviene alla fine uno standard è
quello che ha il livello più elevato di change flexibility e di interpretive flexibility,
cioè quello che può essere modificato e adattato più facilmente (change flexibility),
nonché utilizzato in più modi diversi (interpretive/use flexibility).
Per la verifica dell’ipotesi di lavoro, gli attributi affecting interpretive flexibility e
affecting use flexibility sono stati associati ad alcuni dei concetti emersi dall’analisi e
ai brani di testo ad essi collegati. Sono stati così individuati 29 passaggi di testo con
attività direttamente orientate alla massimizzazione della flessibilità interpretativa e
19 passaggi in cui l’obiettivo di aumentare la flessibilità d’uso era espresso.
Le indicazioni emerse allo stato attuale dello studio tendono dunque a confermare
la nostra ipotesi di lavoro per il caso in esame: la massimizzazione della flessibilità
risulta essere uno dei fattori guida dell’intero processo.

5.6 Conclusioni
Dall’analisi qui illustrata emerge come il processo di standardizzazione qui ana-
lizzato sia fortemente caratterizzato da due ordini di attività: progettazione e organiz-
zazione. Sorprendentemente, una parte consistente (oltre la metà) dei testi codificati
si riferisce ad attività di organizzazione. Le attività di progettazione presentano una
componente significativa, ma minoritaria di sensemaking; i documenti evidenziano
peraltro come la maggioranza dell’impegno di progettazione sia profuso nella elabo-
razione e redazione dei documenti di specifica e che tra questi il documento dei re-
228 Capitolo 5

quisiti architetturali sia risultato il più impegnativo. Questo appare in linea con le in-
dicazioni della letteratura classica sulla progettazione razionale (Simon 1981) che ve-
dono nella definizione dei requisiti una componente essenziale del design.
L’indicazione che lo stato attuale dell’analisi pare suggerire è dunque quella di una
sorta di “progettazione negoziale” che comprende al suo interno attività di sensema-
king, di definizione di requisiti, di elaborazione di specifiche, il tutto in un contesto
negoziale e collaborativo. L’intero processo appare orientato alla massimizzazione
della flessibilità di adattamento e di molteplice uso dell’artefatto in corso di standar-
dizzazione, confermando alcune delle indicazioni teoriche offerte nel capitolo prece-
dente.
Conclusioni

In conclusione, l'idea centrale che si è qui gradualmente delineata è quella dello stan-
dard come una regola formale che emerge e si afferma "sul mercato" (proposizioni 1
e 2). Ma che cosa aggiunge questa prospettiva alla cosiddetta "teoria delle regole", a
cominciare dai classici contributi weberiani per giungere fino ai recenti lavori di Ja-
mes March e dei suoi collaboratori (March et al., 2000); (March et al., 2003)?
Il fatto che una regola emerga in concorrenza con altre in un libero mercato sem-
bra porre in particolare evidenza alcuni processi già in parte presi in considerazione
nella teoria delle regole, come l'esistenza di un ciclo ecologico di selezione naturale
in cui le regole nascono, muoiono e si sostituiscono le une alle altre.
L'adozione volontaria in un libero mercato rende però il ciclo di vita degli stan-
dard estremamente più competitivo e dinamico di quanto avvenga per le regole for-
mali classiche. March e i suoi coautori potevano ben limitarsi a registrare la demogra-
fia delle regole osservandone le regolarità e i tratti generali senza chiedersi come fun-
zioni il sistema di selezione, quali siano le forze in gioco e i fattori che ne determina-
no i risultati. Nel caso degli standard, invece, in presenza di un mercato, appare ne-
cessario chiedersi come esso funzioni effettivamente. In questa ottica la domanda
"Come nasce uno standard?" può anche essere letta così: "Come funziona il mercato
delle regole?" L'indagine in questa direzione non solo contribuisce ad ampliare la no-
stra conoscenza degli standard, ma rappresenta anche un tentativo nuovo, anche se
certo soltanto iniziale, di avviare un contributo in una direzione di cui si sente ancora
oggi il bisogno anche nella teoria delle regole: la comprensione dei meccanismi di
216
selezione dei sistemi regolativi efficienti .
Per comprendere come avviene la selezione dello standard "migliore"sul mercato
è innanzi tutto necessario capire quali siano i vantaggi che esso può apportare agli u-
tenti: questa indagine è stata qui avanzata nel secondo capitolo, sulla base di varie
fonti della letteratura organizzativa che comprendono il filone contingentista, quello
dell'economia dei costi di transazione e quello sull'improvvisazione organizzativa.
Questi contributi fanno luce sui diversi benefici che uno standard può apportare al
suo gruppo di riferimento: essi investono non solo il coordinamento e la comunica-

216
In questo senso anche la postfazione di Anna Grandori all'edizione italiana del libro di
March, (March et al., 2003:223-25).
230 Conclusioni

zione a tutti i livelli, ma anche la qualità e quantità di relazioni inter-organizzative e


la capacità di improvvisazione e innovazione.
Questi molteplici benefici caratterizzano pertanto una nozione articolata e multi-
forme di utilità dello standard: è proprio intorno alle diverse dimensioni di questa uti-
lità che si può tentare di spiegare come funzionano i meccanismi di selezione del
mercato. Il criterio generale è estremamente semplice: il "migliore" tra i possibili
candidati standard è quello più utile al sistema nel suo complesso.
Le diverse manifestazione di questa utilità complessiva sono oggetto di possibile
indagine sotto numerosi aspetti, per comprendere i quali ci si è qui basati su una va-
rietà di fonti diverse. Esse non si limitano ai pur fondamentali apporti dell'economia
classica e della network economics, ma comprendono anche gli studi neoistituzionali
più recenti, la demografia delle organizzazioni, le teorie del dominant design, incluse
le loro più recenti evoluzioni in tema di complessità e modularità, i lavori sul potere
organizzativo e quelli sulla costruzione sociale della tecnologia.
L'economia classica è il punto di partenza fondamentale per spiegare i meccanismi
di selezione di mercato anche nel caso delle regole. In presenza di diverse economie
misurabili associate a ciascuno dei possibili "candidati standard", la mano invisibile
del mercato tenderà a indirizzare il processo di selezione verso lo standard che mas-
simizza la somma delle economie che ciascuno degli utenti potrà trarre dal suo im-
piego: la selezione si indirizzerà cioè verso un ottimo paretiano (proposizione 3).
Questa spiegazione assume implicitamente la presenza di un gruppo di utenti uni-
co e stabile, l'unicità di impiego dello standard, nonché la presenza di differenze evi-
denti tra i "candidati" in termini di economie di impiego misurabili. Rilassando que-
st'ultima assunzione, si è osservato sulla base dei contributi istituzionalisti ed ecologi-
sti che lo standard "migliore" è anche quello che rafforza la legittimazione (proposi-
zione 4) e l'identità del gruppo di adozione (proposizione 5): il gruppo lo preferisce
non solo per massimizzare le economie misurabili, ma anche per affermare se stesso o
per rispondere alle pressioni istituzionali.
La network economics, con l'analisi estensiva dei benefici legati all'espansione dei
gruppi di adozione di uno standard, permette di considerare una più ricca nozione di
utilità, particolarmente cruciale per gli standard nei settori information intensive: lo
standard "migliore" è quello per il quale il gruppo di utenti è più ampio o che ha mag-
giori aspettative di crescita (proposizione 6). Su questo punto assume rilievo anche la
possibilità di un certo grado di dipendenza dalla storia passata (path dependence), che
privilegia gli standard con ampia base di utenti e indirizza gli "sponsor" verso stan-
dard compatibili con quelli preesistenti e già affermati.
Il gruppo degli utenti potenziali degli standard che si contendono il mercato delle
regole può essere frazionato in fazioni contrapposte: la possibilità di effettuare inve-
stimenti per porre in atto tattiche mirate a espandere la base di utenti e influenzare il
gioco delle aspettative privilegia dunque gli standard sponsorizzati dagli attori a più
elevato potere contrattuale, che hanno la possibilità, come spiegano i numerosi studi
organizzativi in proposito, di ottenere acquiescenza dagli altri attori in senso a loro
favorevole (proposizione 7).
Quando poi alla molteplicità degli interessi degli sponsor si affianca una moltepli-
cità di usi e obiettivi possibili, è la flessibilità interpretativa dello standard ad acquisi-
Conclusioni 231

re un ruolo determinante: lo standard "migliore" è dunque non solo quello che mas-
simizza le economie complessive, non solo quello che rafforza identità e legittima-
zione del gruppo di adozione, non solo quello sponsorizzato dal (sotto)gruppo più
forte e con maggiori aspettative di diffusione, ma anche quello che si presta meglio
degli altri ad una molteplicità di usi diversi (proposizione 8), come ben spiegato dagli
studi sulla costruzione sociale della tecnologia. Questa prospettiva mostra anche co-
me in presenza di molteplici usi diversi possa verificarsi un frazionamento del pro-
cesso di selezione e diffusione su più standard separati, ciascuno adatto ad un uso più
specifico (proposizione 9).
Infine, gli sviluppi più recenti delle teorie del dominant design hanno mostrato
come anche una molteplicità di standard può peraltro nascere in modo per così dire
organizzato (proposizione 10): le architetture complesse e modulari composte di mol-
ti standard tra loro interconnessi (come la rete Internet) rappresentano un elemento di
ulteriore arricchimento del quadro, che richiede di tenere in conto per la selezione
degli standard "migliori" dei requisiti tecnici architetturali secondo i principi della
complessità e delle tensioni contrapposte verso il polimorfismo ai livelli locali e verso
l'isomorfismo ai livelli più elevati della gerarchia architetturale.
Numerose sono certo le osservazioni critiche che possono essere sollevate su mol-
ti aspetti del contributo qui offerto: l'attenzione qui riposta alla motivazione attenta
degli assunti teorici, alla scrupolosa analisi della letteratura e delle fonti, alla ricerca
di una buona coerenza logica complessiva, per giungere fino alla integrazione della
letteratura secondaria con rilevazioni e analisi documentali sul campo, non esclude
certo la perfettibilità di quanto prodotto finora.
Se ampio è il campo di indagine di questo lavoro, notevoli sembrano anche gli
spazi di ricerca che esso potenzialmente apre. L'estensione più naturale e immediata
appare ovviamente quella empirica, di cui il caso di studio del capitolo 5 rappresenta
soltanto un primo passo. In che modo operazionalizzare tutti vari aspetti qui conside-
rati per la formazione dell'utilità complessiva (economie, legittimazione, identità, e-
sternalità, flessibilità interpretativa…)? Non a caso nell'analisi della letteratura, specie
nella parte dedicata all'istituzionalismo, si è posta particolare attenzione ai lavori più
recenti che avanzano metodi e misure concrete per la verifica empirica sul campo dei
processi di legittimazione. Un intero programma di ricerca potrebbe essere avviato in
questa direzione, a cui potrebbero contribuire approcci e metodi di analisi empirica
derivanti da visioni tradizionalmente contrapposte, come neoistituzionalismo e de-
mografia delle popolazioni, oppure chiuse alle influenze reciproche, come gli studi
sulla costruzione sociale della tecnologia e quelli sulla modularità.
Più realisticamente, appare però consigliabile restare con i piedi ben saldi sul ter-
reno delle modeste e faticose conquiste ottenute finora.
Eppure, guardando avanti non senza un pizzico di autoironia, è bello a questo
punto poter sognare un po' con James March: si tratta, ovviamente, di una fantasia
ottimista, ma, avendo scoperto la bellezza della realtà quotidiana delle regole scritte,
ci prendiamo il diritto di provare una certa ingiustificata euforia nel contemplare le
possibilità future della ricerca (March et al., 2003:217).
Riferimenti bibliografici

AAVV, 1985, Organizzazione e Mercato. Nacamulli, R. C. D. & Rugiadini, A. Il Mu-


lino.

AAVV, 1987, The Social construction of technological systems - new directions in the
sociology and history of technology. Bijker, W. E., Hughes, T. P., & Pinch, T. J. Cam-
bridge, Mass, MIT Press.

AAVV, 1991, The New Institutionalism in Organizational Analysis. Powell, W. W. &


DiMaggio, P. J. Chicago, University of Chicago Press.

AAVV, 2000a, Il Neoistituzionalismo nell'Analisi Organizzativa. Powell, W. W. & Di-


Maggio, P. J. Einaudi.

AAVV, 2000b, The Language from Chaucer to Shakespeare. In A. W. Ward, A. R.


Waller, W. P. Trent, J. Erskine, S. P. Sherman, & C. Van Doren (Eds.), The Cambridge
History of English and American Literature in 18 Volumes: Cambridge, UK: University
Press.

AAVV, Does IT matter? an HBR Debate (Web exclusive).


http://www.johnseelybrown.com/Web_Letters.pdf 4-6-2007.

AAVV, Il protocollo di Kyoto. http://it.wikipedia.org/wiki/Protocollo_di_Ky%C5%8Dto


17-12-2007.

Abbott, D., 2004, PCI Bus Demystified. Elsevier.

Abernathy, W. J. & Utterback, J. M., 1978, Patterns of industrial innovation. Technology


Review, 50: 41-47.
234 Riferimenti bibliografici

Abernathy, W. J., 1978, The productivity dilemma - Roadblock to innovation in the auto-
mobile industry. Baltimore: Johns Hopkins University Press.

Accademia Della Crusca, Archivio della Bibliografia Essenziale.


http://www.accademiadellacrusca.it/bibl_essenz.shtml 27-2-2007.

Adler, K., 2002, La misura di tutte le cose. Milano: Rizzoli.

Adler, P. S., Goldoftas, B., & Levine, D. I., 1999, Flexibility versus efficiency? A case
study of model changeovers in the Toyota production system. Organization Science,
10(1): 43-68.

Afuah, A., Tucci, C., & Virili, F., 2001, Modelli di e-business - Acquisire vantaggi com-
petitivi con organizzazioni Internet-based. McGraw Hill.

Afuah, N. & Utterback, M., 1997, Responding to structural industry changes: a techno-
logical evolution perspective. Industrial and Corporate Change, 6(1): 183-202.

Alchian, A. A. & Demsetz, H., 1972, Production, Information Costs, and Economic Or-
ganization. The American Economic Review, 62(5): 777-795.

Altenberg, L., 1994, Evolving better representations through selective genome growth.
IEEE World Congress on Computational Intelligence. Proceedings of the IEEE World
Congress on Computational Intelligence. 182-187.

Altenberg, L., 1995, Genome growth and the evolution of the genotype-phenotype map.
In W. Banzhaf & F. H. Eckman (Eds.), Evolution and Biocomputation - Computational
Models of Evolution: 205-259. Springer.

Anderson, P. & Tushman, M. L., 1990, Technological Discontinuities and Dominant De-
signs: A Cyclical Model of Technological Change. Administrative Science Quarterly,
35(4).

ANSI (American National Standards Association), Through History with Standards.


http://www.ansi.org/consumer_affairs/history_standards.aspx 7-6-2007.

Applegate, L. M., 1999, Rigor and Relevance in MIS Research: Introduction. MIS Quar-
terly, 23(1): 1-2.

Armstrong, L., 2003, The noblest invention - an illustrated history of the bicycle. Em-
maus, PA: Rodale.

Arthur, W. B., 1983, On Competing Technologies and Historical Small Events: The Dy-
namics of Choice under Increasing Returns. WP-83-90. IIASA. IIASA working papers.
Riferimenti bibliografici 235

Arthur, W. B., 1989, Competing Technologies, Increasing Returns, and Lock-In by His-
torical Events. The Economic Journal, 99(394): 116-131.

Arthur, W. B., 1990, Positive Feedbacks in the Economy. Scientific American, 262: 92-
99.

Arthur, W. B., 1994, Increasing returns and path dependence in the economy. Ann Ar-
bor: University of Michigan Press.

Arthur, W. B., 1996, Increasing returns and the new world of business. Harvard Business
Review, 74(4): 100-109.

Axelrod, R. M., 1984, The evolution of cooperation. New York: Basic Books.

Axelrod, R. M., 1997, The complexity of cooperation - agent-based models of competition


and collaboration. Princeton, N.J: Princeton University Press.

Axelrod, R. M., Mitchell, W., Thomas, R. E., Bennett, D. S., & Bruderer, E., 1995, Coali-
tion Formation in Standard-Setting Alliances. Management Science, 41(9): 1493-1508.

Bacharach, S. B., 1989, Organizational Theories: Some Criteria for Evaluation. Academy
of Management Review, 14(4): 496-515.

Backouse, J., Hsu, C. W., & Silva, L., 2006, Circuits of Power in Creating De Jure Stan-
dards: Shaping an International Information Systems Security Standard. MIS Quarterly,
30(SI): 413-438.

Baldwin, C. Y. & Clark, K. B., 2000, Design rules - The power of modularity. Cam-
bridge, Mass: MIT Press.

Barley, S. R. & Tolbert, P. S., 1997, Institutionalization and Structuration: Studying the
Links between Action and Institution. Organization Studies, 18(1): 93.

Barnett, W. P., 1995, Telephone companies. In G. Carroll & M. T. Hannan (Eds.), Or-
ganizations in industry - strategy, structure, and selection: 277-289. New York: Oxford
University Press.

Baron, J. N., Hannan, M. T., & Burton, M. D., 1999, Building the Iron Cage: Determi-
nants of Managerial Intensity in the Early Years of Organizations. American Sociological
Review, 64(4): 527-547.

Baskerville, R. & Dulipovici, A., 2006, The theoretical foundations of knowledge man-
agement. Knowledge Management Research & Practice,(4): 83-105.
236 Riferimenti bibliografici

Baskerville, R. & Truex, D. P., 1998, Deep structure or emergence theory: contrasting
theoretical foundations for information systems development. Information Systems Jour-
nal,(8): 99-118.

Bassanini, A. P. & Dosi, G., 2001, When and How Chance and Hurnan Will Can Twist
the Arms of Clio: An Essay on Path Dependence in a World of Irreversibilites. In R. Ga-
rud & P. Karnøe (Eds.), Path Dependence and Creation: 41-68. Mahwah, NJ: Lawrence
Erlbaum Associates.

Baum, J. A. C., Korn, H., & Kotha, S., 1995, Dominant Designs And Population Dynam-
ics In Telecommunications Services: Founding And Failure Of Facsimile Service Organi-
zations 1965-1992. Social Science Research, 24: 97-135.

Beck, R. & Weitzel, T., 2005, Some Economics of Vertical Standards: Integrating SMEs
in EDI Supply Chains. Electronic Markets, 15(4): 313-322.

Beck, U., Bonss, W., & Lau, C., 2003, The Theory of Reflexive Modernization: Problem-
atic, Hypotheses and Research Programme. Theory, Culture & Society, 20(2): 1-33.

Beer, S., Adobe yet to explain why no PDF in Microsoft Office.


http://www.itwire.com.au/content/view/4509/53/ 8-5-2007.

Bekkers, R., Duysters, G., & Verspagen, B., 2002, Intellectual property rights, strategic
technology agreements and market structure - The case of GSM. Telecommunications
Policy,(31): 1141-1161.

Benbasat, I. & Zmud, R. W., 1999, Empirical Research in Information Systems: The
Practice of Relevance. MIS Quarterly, 23(1): 3-16.

Berliner, P. F., 1994, Thinking in jazz: the infinite art of improvisation. Chicago (IL):
University of Chicago Press.

Besen, S. M. & Farrell, J., 1994, Choosing How to Compete: Strategies and Tactics in
Standardization. The Journal of Economic Perspectives, 8(2): 117-131.

Bijker, W. E., 1987, The Social construction of Bakelite: Toward a theory of invention. In
W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of technological
systems - New directions in the sociology and history of technology: 159-187. Cambridge,
Mass.: MIT Press.

Bijker, W. E., 1993, Do Not Despair: There Is Life after Constructivism. Science, Tech-
nology, & Human Values, 18(1): 113-138.

Bijker, W. E., 1997, Of Bicycles, Bakelites, and Bulbs: Toward a Theory of Sociotechni-
cal Change. MIT Press.
Riferimenti bibliografici 237

Boje, D. M., 1995, Stories of the Storytelling Organization: A Postmodern Analysis of


Disney as "Tamara-Land". Academy of Management Journal, 38(4): 997-1035.

Bolici, F., 2007, Coordinamento e Apprendimento Organizzativo - Gestione delle inter-


dipendenze in domini ad elevata complessità cognitiva. Aracne.

Bonino, M. J. & Spring, M. B., 1999, Standards as change agents in the information tech-
nology market. Computer Standards & Interfaces, 20(4-5): 279-289.

Bowker, G. C. & Star, S. L., 1999, Sorting Things Out: Classification and Its Conse-
quences. MIT Press.

Bresnahan, T. F., 2001, Network Effects and Microsoft. 00-51, 1-32. Stanford Institute
for Economic Policy Research. SIEPR Discussion Papers.

Brewer, M. B. & Gardner, W., 1996, Who is this we? Levels of collective identity and
self representations. Journal of Personality and Social Psychology, 71(1): 83-93.

Brint, S. & Karabel, J., 1991, Institutional origins and transformations: The case of
American community colleges. In W. W. Powell & P. DiMaggio (Eds.), The new institu-
tionalism in organizational analysis: 337-360. Chicago: The University of Chicago Press.

Broersma, M., Microsoft releases PDF add-on.


http://news.zdnet.co.uk/software/0,1000000121,39283260,00.htm 8-5-2007.

Brunsson, N., Jacobsson, B., & Associates, 2000, A World of Standards. Oxford: Oxford
University Press.

Budruk, R., 2003, Pci Express System Architecture. Addison-Wesley.

Burrell, G. & Morgan, G., 1979, Sociological Paradigms and Organizational Analysis.
London: Heinemann.

Butcher, K. S., According to the NIST Laws and Metric Group Leader.
http://lamar.colostate.edu/~hillger/fpla-update.html 23-4-2007.

Byrd, T. A. & Turner, D. E., 2000, Measuring the Flexibility of Information Technology
Infrastructure: Exploratory Analysis of a Construct. Journal of Management Information
Systems, 17(1): 167-208.

Callon, M., 1986, Some elements of a sociology of translation: domestication of the scal-
lops and the fishermen of St. Brieuc Bay. In J. Law (Ed.), Power, Action and Belief: A
New Sociology of Knowledge: 196-233. London: Routledge.
238 Riferimenti bibliografici

Campagnolo, D. & Camuffo, A., 2007, The concept of modularity within the management
studies: a literature review. Doing Well by Doing Good. Academy of Management An-
nual Meeting Proceedings [2007].

Camuffo, A., 1997, Le interdipendenze. In G. Costa & R. C. D. Nacamulli (Eds.), Manu-


ale di Organizzazione Aziendale - La progettazione organizzativa: 454-477. Torino:
UTET.

Camuffo, A. & Cappellari, R., 1996, L'economia dei costi di transazione. In G. Costa &
R. C. D. Nacamulli (Eds.), Manuale di Organizzazione Aziendale - Le teorie dell'organiz-
zazione: 250-278. Torino: UTET.

Carbone, L., 2007, Capire l'accettazione tecnologica - Analisi degli effetti rete attraverso
la simulazione. Università degli Studi di Cassino.

Cargill, C. F., 1989, Information technology standardization: theory, process, and or-
ganizations. Bedford, MA: Digital Press.

Carr, N. G., 2003, IT doesn't matter. Harvard Business Review, 81(5): 41-49.

Carr, N. G., 2004, Does IT matter? Information technology and the corrosion of competi-
tive advantage. Boston: Harvard Business School Press.

Carr, N. G., Does IT matter? Reviews and responses.


http://www.nicholasgcarr.com/doesITmatter/reviews.shtml.

Carroll, G. R. & Swaminathan, A., 2000, Why the Microbrewery Movement? Organiza-
tional Dynamics of Resource Partitioning in the US Brewing Industry. American Journal
of Sociology, 106(3): 715-762.

Carroll, G. R. & Hannan, M. T., 2000, The demography of corporations and industries.
Princeton, N.J: Princeton University Press.

Carroll, G. R. & Harrison, J. R., 1994, On the Historical Efficiency of Competition Be-
tween Organizational Populations. The American Journal of Sociology, 100(3): 720-749.

Carroll, G. R. & Swaminathan, A., 1991, Density Dependent Organizational Evolution in


the American Brewing Industry from 1633 to 1988. Acta Sociologica, 34(3): 155.

Casanovas, J., 2007, Tentativo di Riforma del Calendario Gregoriano nel 700. Atti del
XXII Congresso Nazionale Storia della Fisica e dell'Astronomia .

Castells, M., 1996, The rise of the network society. Cambridge, Mass: Blackwell Publish-
ers.
Riferimenti bibliografici 239

Chapelin, P., Il calendario repubblicano. http://www.gefrance.com/calrep/calrepit.htm


29-3-2007.

Chen, P. Y. & Forman, C., 2006, Can vendors influence switching costs and compatibility
in an environment with open standards? MIS Quarterly, 30: 541-562.

Chesbrough, H. W., 2003, Open innovation - the new imperative for creating and profit-
ing from technology. Boston, Mass: Harvard Business School Press.

Chia, R. C. H., 1996, Organizational analysis as deconstructive practice. Berlin: Walter


de Gruyter.

Christensen, C. M., Suarez, F. F., & Utterback, J. M., 1998, Strategies for Survival in
Fast-Changing Industries. Management Science, 44(12): 207-220.

Ciborra, C., 1991, From Thinking to Tinkering: The grassroots of Strategic Information
Systems. DeGross, J. I., Benbasat, I., Desanctis, G., & Beath, C. M. International Confer-
ence on Information Systems 1991 . New York.

Ciborra, C., 2002, The labyrinths of Information - Challenging the wisdom of systems.
Oxford: Oxford University Press.

Ciborra, C., Braa, K., Cordella, A., Dahlbom, B., Failla, A., Hanseth, O., Hepso, V.,
Ljungberg, J., Monteiro, E., & Simon, K. A., 2000, From Control to Drift. New York:
Oxford University Press.

Cicha, F., Revolutionary Time.


http://www.antiquorum.com/html/vox/vox2004/revolutionary.htm 23-4-2007.

Clark, K. B., 1985, The interaction of design hierarchies and market concepts in techno-
logical evolution. Research Policy, 14: 235-251.

Clegg, S., 1989, Frameworks of power. London: Sage Publications.

Coase, R. H., 1937, The Nature of the Firm. Economica, 4(16): 386-405.

Coase, R. H., 1960, The Problem of Social Cost. Journal of Law and Economics, 3: 1-44.

Coase, R. H., 1974, The Lighthouse in Economics. Journal of Law and Economics, 17(2):
357-376.

Collins, H. M., 1981, Introduction: Stages in the Empirical Programme of Relativism. So-
cial Studies of Science, 11(1): 3-10.
240 Riferimenti bibliografici

Colyvas, J. & Powell, W. W., 2006, Roads to Institutionalization: The Remaking of


Boundaries between Public and Private Science. Research in Organizational Behavior,
27: 305-353.

Commons, J. R., 1934, Institutional economics: its place in political economy. New York:
The MacMillan Company.

Crowston, K., 1997, A Coordination Theory Approach to Organizational Process Design.


Organization Science, 8: 157-175.

Cusumano, M. A. & Gawer, A., 2002, The Elements of Platform Leadership. MIT Sloan
Management Review, 43(3): 51-58.

Cusumano, M. A., Mylonadis, Y., & Rosenbloom, R. S., 1992, Strategic Maneuvering
and Mass-Market Dynamics: The Triumph of VHS over Beta. The Business History Re-
view, 66(1): 51-94.

Daft, R. L., 2004, Organization theory and design. Mason, Ohio: Thomson/South-
Western.

Damsgaard, J., 2001, The Role of Intermediating Institutions in the Diffusion of Elec-
tronic Data Interchange (EDI): How Industry Associations Intervened in Denmark,
Finland, and Hong Kong. The Information Society, 17(3): 195-210.

Damsgaard, J. & Truex, D. P., 2000, Binary trading relations and the limits of EDI stan-
dards: the Procrustean bed of standards. European Journal of Information Systems, 9(3):
173-188.

David, P. A., 1985, Clio and the Economics of QWERTY. The American Economic Re-
view, 75(2): 332-337.

David, P. A., 1986, Understanding the Economics of QWERTY: The Necessity of His-
tory. In W. N. Parker (Ed.), Economic History and the Modern Economist: 30-49. Basil
Blackwell.

David, P. A., 1987, Some New Standards for the Economics of Standardization in the In-
formation Age. In P. Dasgupta & P. Stoneman (Eds.), Economic Policy and Technologi-
cal Performance: 206-239. Cambridge: Cambridge University Press.

David, P. A., Path dependence and the quest for historical economics: one more chorus of
the ballad of QWERTY. http://eh.net/Clio/Publications/pathdepend.html.

David, P. A., 2007, Path dependence: a foundational concept for historical social science.
Cliometrica, 1(2): 91-114.
Riferimenti bibliografici 241

David, P. A. & Greenstein, S., 1990, The Economics of Compatibility Standards: An In-
troduction to Recent Research. The Economics of Innovations and New Technology,
1(SI): 3-41.

David, P. A. & Steinmueller, E. W., 1994, Economics of compatibility standards and


competition in telecommunication networks. Information Economics and Policy,(6): 217-
241.

De Marco, M., Bruschi, G., Manna, E., Giustiniani, G., & Rossignoli, C., 1987, Sistemi
informativi ed elaboratori elettronici.

De Marco, M., 1991, Di diritto e di fatto. SF - Rivista di Sistemi Finanziari 1[3], 84-91.

De Marco, M., Sorrentino, M., & Virili, F., 2003, Organizzazioni e Cambiamento Tec-
nologico. Milano: CUESP.

de Vries, H., 1999, Standardization - A Business Approach to the Role of National Stan-
dardization Organizations. Dordrecht, The Netherlands: Kluwer Academic Publishers.

Decastri, M., 1997, Il coordinamento e l'integrazione. In G. Costa & R. C. D. Nacamulli


(Eds.), Manuale di Organizzazione Aziendale - I processi, i sistemi e le funzioni aziendali:
257-280. Torino: UTET.

Deckmyn, D., Nothing but. Net? Nope. http://www.pcworld.com/article/id,17409-


page,1/article.html 28-3-2008.

Delmestri, G., 1996, Le teorie contingenti. In G. Costa & R. C. D. Nacamulli (Eds.),


Manuale di Organizzazione Aziendale - Le teorie dell'organizzazione: 149-180. Torino:
UTET.

Derrida, J. & Caputo, J. D., 1997, Deconstruction in a nutshell - A conversation with


Jacques Derrida. New York: Fordham University Press.

Diamond, J., 1997, The Curse of QWERTY. DISCOVER 18[04].

DiMaggio, P., 1995, Comments on 'What Theory Is Not'. Administrative Science Quar-
terly, 3(40): 391-397.

DiMaggio, P. & Powell, W. W., 1991, Introduction. In W. W. Powell & P. J. DiMaggio


(Eds.), The New Institutionalism in Organizational Analysis: 1-38. Chicago: University of
Chicago Press.

DiMaggio, P. J. & Powell, W. W., 1983, The Iron Cage Revisited: Institutional Isomor-
phism and Collective Rationality. American Sociological Review, 48(2): 147-160.
242 Riferimenti bibliografici

DiMario, M. F., On GPO use of ISO metric paper size.


http://www.cl.cam.ac.uk/~mgk25/gpo-letter.pdf 23-4-2007.

Dosi, G., 1982, Technological Paradigms and Technological Trajectories: A Suggested


Interpretation of the Determinants and Directions of Technical Change. Research Policy,
11(3): 147-162.

Doty, D. H. & Glick, W. H., 1994, Typologies as a Unique Form of Theory Building:
Toward Improved Understanding and Modeling. Academy of Management Review, 19(2):
230-251.

Doty, D. H., Glick, W. H., & Hubert, G. P., 1993, Fit, Equifinality, and Organizational
Effectiveness: A Test of Two Configurational Theories. Academy of Management Jour-
nal, 36(6): 1196-1250.

Dyer, G., 1999, Is driving on the right right or wrong? The Telegram . St. John - Canada.

Dyer, W. G. JR. & Wilkins, A. L., 1991, Better Stories, not Better Constructs, to Generate
Better Theory: A Rejoinder to Heisenhardt. Academy of Management Review, 16(3): 613-
619.

Eco, U., 1962, Opera aperta


Forma e indeterminazione nelle poetiche contemporanee. Milano: Bompiani.

Eco, U., 1993, La ricerca della lingua perfetta nella cultura europea.

Economides, N., 1996, The Economics of networks. International Journal of Industrial


Organization, 14: 673-699.

Eisenhardt, K. M., 1989, Building Theories from Case Study Research. Academy of Man-
agement Review, 14(4): 532-550.

Eisenhardt, K. M., 1991, Better Stories and Better constructs: The Case for Rigor and
Comparative Logic. Academy of Management Review, 16(3): 620-627.

Emigh, J., 2007, Eight Financial Reasons Why You Should Use Mac OS. CIO
[1Aug2007].

Emmelhainz, M. A., 1993, EDI - a total management guide. New York: Van Nostrand
Reinhold.

Farrell, J. & Klemperer, P., 2007, Coordination and Lock-In: Competition with Switching
Costs and Network Effects. In M. Armstrong & R. Porter (Eds.), Handbook of Industrial
Organization, Vol 3: North Holland.
Riferimenti bibliografici 243

Farrell, J. & Saloner, G., 1985, Standardization, Compatibility, and Innovation. The
RAND Journal of Economics, 16(1): 70-83.

Farrell, J. & Saloner, G., 1986a, Installed Base and Compatibility: Innovation, Product
Preannouncements, and Predation. The American Economic Review, 76(5): 940-955.

Farrell, J. & Saloner, G., 1986b, Standardization and variety. Economics Letters, 20(1):
71-74.

Federazione Esperantista Italiana, Pagine informative sull'Esperanto.


http://www.esperanto.it/html/scopo.htm 27-2-2007.

Feldman, M. S., 2000, Organizational Routines as a Source of Continuous Change. Or-


ganization Science, 11(6): 611-629.

Feldman, M. S. & Pentland, B. T., 2003, Reconceptualizing Organizational Routines as a


Source of Flexibility and Change. Administrative Science Quarterly, 48(1): 94-121.

Fellner, W., 1951, The Influence of Market Structure on Technological Progress. The
Quarterly Journal of Economics, 65(4): 556-577.

Fisher, S., 1977, 'Long-term contracting, sticky prices, and monetary policies': A com-
ment. Journal of Monetary Economics,(3): 317-323.

Fontana, J., 2007, Windows Vista sales hit 60 million. NetworkWorld [26lug2007].

Foray, D., 1994, Users, standards and the economics of coalitions and committees. Infor-
mation Economics and Policy, 6(3-4): 269-293.

Friedman, T. L., 2005, The world is flat - A brief history of the twenty-first century. New
York: Farrar, Straus and Giroux.

Friedman, T. L., 2006, Il mondo è piatto - Breve storia del ventunesimo secolo. Milano:
Mondadori.

Galbraith, J. R., 1973, Designing complex organizations. Addison-Wesley.

Gawer, A. & Cusumano, M. A., 2002, Platform leadership - how Intel, Microsoft, and
Cisco drive industry innovation. Boston, Mass: Harvard Business School Press.

Gelinas, U. J. Jr. & Markus, M. L., 2005, The Standards Lens on IS Innovations—The
Case of CPFR. Proceedings of the 38th Hawaii International Conference on System Sci-
ences .
244 Riferimenti bibliografici

Gherardi, S., 1998, Presentazione. Scott, R. W. Istituzioni e Organizzazioni. 7-10. Bolo-


gna, Il Mulino.

Gibbs, G., 2002, Qualitative data analysis - explorations with NVivo. Buckingham Eng,
Open University.

Gilbert, R. J., 1992, Symposium on Compatibility: Incentives and Market Structure. The
Journal of Industrial Economics, 40(1): 1-8.

Glaser, B. G. & Strauss, A. L., 1967, The discovery of grounded theory - strategies for
qualitative research. Chicago: Aldine Pub. Co.

Gould, S. J., 1987, The Panda's Thumb of Technology. Natural History, 1: 14-23.

Gould, S. J., 1992, Bravo Brontosauro. Milano: Feltrinelli.

Gould, S. J., 1991, Bully for brontosaurus - Reflections in natural history. New York:
Norton.

Grandori, A., 1988, Analisi dei costi per la progettazione organizzativa. Sviluppo e Or-
ganizzazione, 105: 27-37.

Grandori, A., 1995, Organizzazione e comportamento economico. Il Mulino.

Greenstein, S., 1992, Invisible Hands and Visible Advisors: An Economic Interpretation
of Standardization. Journal of the American Society for Information Science, 43(8): 538-
549.

Gregor, S., 2006, The Nature of Theory in Information Systems. MIS Quarterly, 30(3):
611-642.

Grindley, P., 1995, Standards, Stretegy and Policy - Cases and Stories. Oxford University
Press.

Hannan, M. T., 2005, Ecologies of Organizations: Diversity and Identity. Journal of Eco-
nomic Perspectives, 19(1): 51-70.

Hannan, M. T. & Carroll, G., 1992, Dynamics of organizational populations - density,


legitimation, and competition. New York: Oxford University Press.

Hannan, M. T. & Freeman, J., 1977, The Population Ecology of Organizations. The
American Journal of Sociology, 82(5): 929-964.

Hannan, M. T. & Freeman, J., 1984, Structural Inertia and Organizational Change. Ameri-
can Sociological Review, 49(2): 149-164.
Riferimenti bibliografici 245

Hannan, M. T. & Freeman, J., 1989, Organizational ecology. Cambridge, Mass: Harvard
University Press.

Hanseth, O., 2001, Gateways - Just as Important as Standards: How the Internet Won the
'Religious War' over Standards in Scandinavia. Knowledge, Technology, and Policy,
14(3): 71-89.

Hanseth, O., Jacucci, E., Grisot, M., & Aanestad, M., 2006, Reflexive standardization:
Side effects and complexity in standard making. MIS Quarterly, 30(SI): 563-581.

Hanseth, O., Monteiro, E., & Hatling, M., 1996, Developing information infrastructure:
the tension between standardisation and flexibility. Science, Technology and Human Val-
ues, 11(4): 407-426.

happyjack.it, La cravatta. http://www.happyjack.it/italiano/curiosita/frame_basso.htm 24-


4-2007.

Hardin, R., 1982, Collective action. Baltimore: Published for Resources for the Future by
the Johns Hopkins University Press.

Hardin, R., The Free Rider Problem.


http://plato.stanford.edu/archives/sum2003/entries/free-rider/ 26-6-2007.

Hargadon, A. B. & Douglas, Y., 2001, When Innovations Meet Institutions: Edison and
the Design of the Electric Light. Administrative Science Quarterly, 46(3): 476-501.

Hatch, M. J., 1997, Organization Theory - Modern, Symbolic and Postmodern Perspec-
tives. Oxford University Press.

Hemenway, D., 1975, Industrywide Voluntary Product Standards. Cambridge, MA, Bal-
linger.

Henderson, R., 1995, Of life cycles real and imaginary: The unexpectedly long old age of
optical lithography. Research Policy, 24(4): 631-643.

Henderson, R. M. & Clark, K. B., 1990, Architectural Innovation: The Reconfiguration of


Existing Product Technologies and the Failure of Established Firms. Administrative Sci-
ence Quarterly, 35(1).

Hickson, D., Aldrich, H., Child, J., Clegg, S., Donaldson, L., & Karpik, L., 1998, Offence
and Defence: A Symposium with Hinings, Clegg, Child, Aldrich, Karpik, and Donaldson.
Organization Studies 9[1], 1-32.

Hidefjall, P., 1997, The pace of innovation: patterns of innovation in the cardiac pace-
maker industry. Linköping University.
246 Riferimenti bibliografici

Hill, M. F., 1973, The world of EDP standards. Control Data [Corp.].

Hills, B., 2000, Common Message Standards for Electronic Commerce in Wholesale Fi-
nancial Markets. Bank of England Quarterly Bulletin, 40(3): 274-285.

Hilton, G. W., 1994, American Narrow Gauge Railroads. Stanford University Press.

Hilton, G. W., 2006, A history of track gauge. TRAINS Magazine 5[May 2006].

Hirschheim, R. A., 1985, Information systems epistemology: an historical perspective. In


E. Mumford, R. A. Hirschheim, G. Fitzgerald, & T. and Wood Harper (Eds.), 13-36. Am-
sterdam: North-Holland.

Hoffman, A. J., 1999, Institutional evolution and change: Environmentalism and the US
chemical industry. Academy of Management Journal, 42(4): 351-371.

Hynes, J. D., Decimal Time - History. http://www.decimaltime.hynes.net/history.html.

Hynes, J. D., Decimal Time - Proposals.


http://www.decimaltime.hynes.net/proposals.html 29-3-2007b.

Iansiti, M. & Khanna, T., 1995, Technological Evolution, System Architecture and the
Obsolescence of Firm Capabilities. Industrial and Corporate Change, 4(2): 333-361.

IEC, International standardization of electrical plugs and sockets for domestic use.
http://www.iec.ch/zone/plugsocket/ps_history.htm 23-4-2007.

ilnodo.it, Storia della cravatta.


http://www.ilnodo.it/curiositadisp.asp?D=STORIADELLACRAVATTA 24-4-2007.

ISO, ISO 9000 and ISO 14000.


http://www.iso.org/iso/iso_catalogue/management_standards/iso_9000_iso_14000.htm
24-5-2007.

Jacucci, E., Hanseth, O., & Lyytinen, K., 2006, Introduction: Taking complexity seriously
in IS research. Information Technology & People, 19(1): 5-11.

Jepperson, R. L., 1991, Institutions, Institutional Effects, and Institutionalism. In W. W.


Powell & P. DiMaggio (Eds.), The new institutionalism in organizational analysis: 143-
163. Chicago: The University of Chicago Press.

Katz, M. L. & Shapiro, C., 1985, Network Externalities, Competition, and Compatibility.
The American Economic Review, 75(3): 424-440.
Riferimenti bibliografici 247

Katz, M. L. & Shapiro, C., 1986, Technology Adoption in the Presence of Network Ex-
ternalities. The Journal of Political Economy, 94(4): 822-841.

Katz, M. L. & Shapiro, C., 1994, Systems Competition and Network Effects. The Journal
of Economic Perspectives, 8(2): 93-115.

Keil, T., 2002, De-facto standardization through alliances - lessons from Bluetooth. Tele-
communications Policy,(26): 205-213.

Kelly, K., 1997, New rules for the New Economy. Wired Magazine 5[9].

Kelly, K., 1998, New rules for the new economy - 10 radical strategies for a connected
world. New York, N.Y: Viking.

Kelly, K., 1999, Nuove regole per un nuovo mondo. Ponte Alle Grazie.

Kincaid, P., 1986, The Rule of the Road: An International Guide to History and Practice.
Greenwood Press.

Kindleberger, C. P., 1983, Standards as Public, Collective and Private Goods. Kyklos,
36(3): 377-396.

King, J. L., Gurbaxani, V., Kraemer, K. L., McFarlan, F. W., Raman, K. S., & Yap, C. S.,
1994, Institutional Factors in Information Technology Innovation. Information Systems
Research, 5(2): 139-169.

Kollock, P., 1998, Social Dilemmas: The Anatomy of Cooperation. Annual Review of So-
ciology, 24: 183-214.

Krechmer, K. & Baskin, E. J., 2006, The Entrepreneur and Standards. IEC Centenary
Challenge 2006. International Standardization as a Strategic Tool , 143-152. IEC.

Kuhn, M., International standard paper sizes. http://www.cl.cam.ac.uk/~mgk25/iso-


paper.html 23-4-2007.

LaMonica, M., Adobe seeks formal standardisation for PDF.


http://news.zdnet.co.uk/software/0,1000000121,39285663,00.htm 8-5-2007.

Langlois, R. N. & Savage, D. A., 1997, Standards, Modularity, and Innovation: the Case
of Medical Practice. Garud, R. & Karnøe, P. Conference on Path Dependence and Path
Creation. Path Dependence and Path Creation , 149-168. Hillsdale, Lawrence Erlbaum.

Latour, B., 2005, Reassembling the Social: An Introduction to Actor-Network-Theory.


Oxford University Press, USA.
248 Riferimenti bibliografici

Law, J., 1987, Technology and Heterogeneous Engineering: The Case of Portuguese Ex-
pansion. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of
technological systems - New directions in the sociology and history of technology: 311-
328. Cambridge, Mass.: MIT Press.

Law, J., 1992, Notes on the theory of the actor-network: Ordering, strategy, and hetero-
geneity. Systemic Practice and Action Research, 5(4): 379-393.

Law, J., 1994, Organizing modernity. Oxford, UK: Blackwell.

Lawrence, P. R. & Lorsch, J. W., 1969, Organization and environment


managing differentiation and integration. Homewood, Ill: R. D. Irwin.

Leiner, B. M., Cerf, V. G., Clark, D. D., Kahn, R. E., Kleinrock, L., Lynch, D. C., Postel,
J., Roberts, L. G., & Wolff, S. S., 1997, Past and future history of the INTERNET. Com-
munications of the ACM, 40(2): 102-108.

Lewin, P., 2001, The Market Process and the Economics of QWERTY: Two Views. The
Review of Austrian Economics, 14(1): 65-96.

Liebowitz, S. J. & Margolis, S. E., 1990, The Fable of the Keys. Journal of Law and Eco-
nomics, 33(1): 1-25.

Liebowitz, S. J. & Margolis, S. E., 1994, Network Externality: An Uncommon Tragedy.


The Journal of Economic Perspectives, 8(2): 133-150.

Liebowitz, S. J. & Margolis, S. E., Network Externality (Effect).


http://www.utdallas.edu/~liebowit/palgrave/network.html.

Liebowitz, S. J., 2002, Re-thinking the network economy - the true forces that drive the
digital marketplace. AMACOM: New York.

Liebowitz, S. J. & Margolis, S., 1999, Winners, losers & Microsoft - Competition and an-
titrust in high technology. Oakland, Calif: Independent Institute.

Lucas, B., Which side of the road do they drive on? http://www.brianlucas.ca/roadside/
17-3-2007.

Lyytinen, K. & King, J. L., 2006, Standard Making: A Critical Research Frontier for In-
formation Systems Research. MIS Quarterly, 30: 405-411.

MacCormack, A., Verganti, R., & IANSITI, M., 2001, Developing Products on Internet
Time: The Anatomy of a Flexible Development Process. Management Science, 47(1):
133-150.
Riferimenti bibliografici 249

Malone, T. W. & Crowston, K., 1994, The Interdisciplinary Study of Coordination. Com-
puting Surveys, 26(1): 87-119.

Malone, T. W., Crowston, K., Lee, J., Pentland, B., Dellarocas, C., Wyner, G., Quimby,
J., Osborn, C. S., Bernstein, A., Herman, G., Klein, M., & O'Donnell, E., 1999, Tools for
Inventing Organizations: Toward a Handbook of Organizational Processes. Management
Science, 45(3): 425-443.

Malone, T. W., Yates, J., & Benjamin, R. I., 1987, Electronic markets and electronic hier-
archies. Communications of the ACM, 30(6): 484-497.

March, J. G., 1994, A primer on Decision Making - How Decisions Happen. Free Press.

March, J. G., Schulz, M., & Zhou, X., 2000, The dynamics of rules - change in written
organizational codes. Stanford, CA: Stanford University Press.

March, J. G., Schulz, M., & Zhou, X., 2003, Per una teoria delle regole - nascita, cam-
biamento e strutturazione delle regole. Milano: EGEA.

Markus, M. L., Steinfield, C., Wigand, R. T., & Minton, G., 2006, Industry-wide Infor-
mation Systems Standardization as Collective Action: The Case of the U.S. Residential
Mortgage Industry. MIS Quarterly, 30(SI): 439-465.

Marschak, J., 1968, Economics of Inquiring, Communicating, Deciding. American Eco-


nomic Review, 58(2): 1-18.

Martinez, M., 2005, Organizzazione, informazioni e tecnologie. Bologna: Il Mulino.

Marwell, G. & Oliver, P., 1993, The critical mass in collective action: a micro-social the-
ory. New York: Cambridge University Press.

Marwell, G., Oliver, P. E., & Prahl, R., 1988, Social Networks and Collective Action: A
Theory of the Critical Mass. III. The American Journal of Sociology, 94(3): 502-534.

McCloskey, D. N., 1976, Does the Past Have Useful Economics? Journal of Economic
Literature, 14(2): 434-461.

McGregor, C., Why do some countries drive on the right and others on the left?
http://users.pandora.be/worldstandards/driving%20on%20the%20left.htm.

Meyer, A. D., 1998, Organizing for Improvisation: The Backstage Story of the Vancouver
Jazz Concert and Symposium. Organization Science, 9(5): 569-576.
250 Riferimenti bibliografici

Meyer, A. D., Frost, P. J., & Weick, K. E., 1998, The Organization Science Jazz Festival:
Improvisation as a Metaphor for Organizing: Overture. Organization Science, 9(5): 540-
542.

Meyer, A. D., Tsui, A. S., & Hinings, C. R., 1993, Configurational Approaches to Organ-
izational Analysis. Academy of Management Journal 36[6], 1175-1195.

Meyer, J. W. & Rowan, B., 1977, Institutionalized Organizations: Formal Structure as


Myth and Ceremony. The American Journal of Sociology, 83(2): 340-363.

Meyer, J. W. & Scott, W. R., 1983, Organizational environments - ritual and rationality.
Beverly Hills: Sage.

Meyer, M. H. & Lehnerd, A. P., 1997, The power of product platforms - building value
and cost leadership. Free Press.

Mignoli, S., 2001, Storia di un'istituzione al maschile. Moda.it .

Miller, D., 1996, Configuration Revisited. Strategic Management Journal 17, 505-512.

Miller, R., Hobday, M., Leroux-Demers, T., & Olleros, X., 1995, Innovation in complex
systems industries: the case of flight simulation. Industrial and Corporate Change, 4(2):
363-400.

Mintzberg, H., 1979, The Structuring of Organizations: A Synthesis of the Research.


Englewood Cliffs: Prentice-Hall.

Mintzberg, H., 1983, Structure in Fives - Designing Effective Organizations. Englewood


Cliffs: Prentice-Hall.

Mohr, J. W. & Guerra-Pearson, F., 2005, The Differentiation of Institutional Space: Or-
ganizational Forms in the New York Social Welfare Sector, 1888-1917. Powell, W. W. &
Jones, D. How Institutions Change. Chicago, IL, University of Chicago Press (forthcom-
ing).

Mokyr, J., 1990, The lever of riches - Technological creativity and economic progress.
New York: Oxford University Press.

Monge, P. R., Fulk, J., Kalman, M. E., Flanagin, A. J., Parnassa, C., & Rumsey, S., 1998,
Production of Collective Action in Alliance-Based Interorganizational Communication
and Information Systems. Organization Science, 9(3): 411-433.

Moorman, C. & Miner, A. S., 1998, Organizational Improvisation and Organizational


Memory. The Academy of Management Review, 23(4): 698-723.
Riferimenti bibliografici 251

Morris, C. R. & Ferguson, C. H., 1993, How Architecture Wins Technology Wars. Har-
vard Business Review, 71(2): 86-96.

Murmann, J. P. & Frenken, K., 2006, Toward a systematic framework for research on
dominant designs, technological innovations, and industrial change. Research Policy,
35(7): 925-952.

Nair, H., Chintagunta, P., & Dube', J. P., 2004, Empirical Analysis of Indirect Network
Effects in the Market for Personal Digital Assistants. Quantitative Marketing and Eco-
nomics, 2(1): 23-58.

National Instruments, 2006, PCI Express- An Overview of the PCI Express standard. 1-
8.

Nesmith, A., 1985, A Long, Arduous March Towards Standardization. Smithsonian, 176-
194.

Nickerson, J. V. & Zur Muehlen, M., 2006, The ecology of standards processes: Insights
from Internet standard making. MIS Quarterly, 30: 467-488.

Nosengo, N., 2003, L'estinzione dei tecnosauri - Storie di tecnologie che non ce l'hanno
fatta. Sironi Editore.

of Hexham, R., The Battle of the Standard.


http://www.deremilitari.org/resources/sources/hexham.htm 27-4-2007.

Ohashi, H., 2003, The Role of Network Effects in the US VCR Market, 1978-1986. Jour-
nal of Economics & Management Strategy, 12(4): 447-494.

Oliver, P., Marwell, G., & Teixeira, R., 1985, A Theory of the Critical Mass. I. Interde-
pendence, Group Heterogeneity, and the Production of Collective Action. The American
Journal of Sociology, 91(3): 522-556.

Oliver, P. E. & Marwell, G., 1988, The Paradox of Group Size in Collective Action: A
Theory of the Critical Mass. II. American Sociological Review, 53(1): 1-8.

Oliver, P. E. & Marwell, G., 2001, Whatever Happened to Critical Mass Theory? A Ret-
rospective and Assessment. Sociological Theory, 19(3): 292-311.

Olson, M., 1965, The logic of collective action - Public goods and the theory of groups.
Cambridge, Mass: Harvard University Press.

Orlikowski, W. J., 1992, The Duality of Technology: Rethinking the Concept of Technol-
ogy in Organizations. Organization Science, 3(3): 398-427.
252 Riferimenti bibliografici

Orlikowski, W. J., 1993, CASE Tools as Organizational Change: Investigating Incre-


mental and Radical Changes in Systems Development. MIS Quarterly, 17(3): 309-340.

Orton, J. D. & Weick, K. E., 1990, Loosely Coupled Systems: A Reconceptualization.


The Academy of Management Review, 15(2): 203-223.

Parkinson, R., 1972, The Dvorak Simplified Keyboard: Forty Years of Frustration. Com-
puters and Automation, 21(11): 18-25.

Parsons, T., 1951, The social system. Glencoe (ILL): Free Press.

Pedaling History Bicycle Museum, A quick history of bicycle.


http://www.pedalinghistory.com/PHhistory.html.

Pedersen, J. S. & Dobbin, F., 2006, In Search of Identity and Legitimation: Bridging Or-
ganizational Culture and Neoinstitutionalism. American Behavioral Scientist, 49(7): 897.

Peltz, C., 2003, Web services orchestration and choreography. Computer, 36(10): 46-52.

Perrow, C., 1984, Normal accidents


living with high-risk technologies. New York: Basic Books.

Pfeffer, J., 1981, Power in organizations. Marshfield, Mass: Pitman Pub.

Pfeffer, J., 1992, Managing with power - politics and influence in organizations. Boston,
Mass: Harvard Business School Press.

Pfeffer, J. & Salancik, G. R., 1978, The external control of organizations - a resource de-
pendence perspective. New York: Harper & Row.

Pfeffer, J. & Salancik, G. R., 2003, The external control of organizations - a resource de-
pendence perspective. Stanford, Calif: Stanford Business Books.

Pinch, T. J. & Bijker, W. E., 1984, The Social Construction of Facts and Artefacts: or
How the Sociology of Science and the Sociology of Technology might Benefit Each
Other. Social Studies of Science, 14(3): 399.

Pinch, T. J. & Bijker, W. E., 1987, The Social Construction of Facts and Artifacts - Or
How the Sociology of Science and the Sociology of Technology Might Benefit Each
Other. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of
technological systems - New directions in the sociology and history of technology: 17-50.
Cambridge, Mass.: MIT Press.

Pontiggia, A., 1997, Organizzazione dei Sistemi Informativi - Modelli per l'Analisi e per
la Progettazione. ETAS.
Riferimenti bibliografici 253

Pontiggia, A., 2002, Organizzare risorse e competenze. Aracne.

Pontiggia, A. & Virili, F., 2005, Effetti Rete e Accettazione Tecnologica. VII Workshop
dei Docenti e dei Ricercatori di Organizzazione Aziendale. Atti del VII Workshop dei
Docenti e dei Ricercatori di Organizzazione Aziendale [VII]. Milano.

Powell, W. W., 2008, The New Institutionalism. In S. Clegg & J. R. Bailey (Eds.), Inter-
national encyclopedia of organization studies: Thousand Oaks: Sage Publications.

Prahalad, C. K. & Hamel, G., 1990, The Core Competence of the Corporation. Harvard
Business Review,(May-June 1990): 79-91.

Puhiera, M., La cravatta nella storia della Croazia.


http://www.webmoda.net/articoli/zin_64.htm 24-4-2007.

Rao, H., Monin, P., & Durand, R., 2003, Institutional change in toque ville: Nouvelle cui-
sine as an identity movement in French gastronomy. American Journal of Sociology,
108(4): 795-843.

Richards, T. & Richards, L., 1991, The NUDIST qualitative data analysis system. Quali-
tative Sociology, 14(4): 307-324.

Roccas, S. & Brewer, M. B., 2002, Social Identity Complexity. Personality and Social
Psychology Review, 6(2): 88.

Rohlfs, J. H., 1974, A Theory of Interdependent Demand for a Communications Service.


The Bell Journal of Economics and Management Science, 5(1): 16-37.

Rohlfs, J. H., 2001, Bandwagon Effects in High-Technology Industries. MIT Press.

Rosenberg, E., 1979, Standards and Industry Self-Regulation. California Management


Review, XIX(1): 79-90.

Rosenberg, N., 1976, Marx as a Student of Technology. Monthly Review, 28(3): 56-77.

Rosenberg, N., 1982, Inside the black box - technology and economics. Cambridge Cam-
bridgeshire: Cambridge University Press.

Rosenkopf, L. & Tushman, M. L., 1998, The coevolution of community networks and
technology: Lessons from the flight simulation industry. Industrial and Corporate
Change, 7(2): 311-346.

Rysman, M., 2004, Competition Between Networks: A Study of the Market for Yellow
Pages. Review of Economic Studies, 71(2): 483-512.
254 Riferimenti bibliografici

Sahal, D., 1982, Patterns of technological innovation. Readings, MA: Addison-Wesley.

Sanchez, R. & Mahoney, J. T., 1996, Modularity, Flexibility, and Knowledge Manage-
ment in Product and Organization Design. Strategic Management Journal, 17: 63-76.

Sanders, T. R. B. & International Organization for Standardization, 1972, The aims and
principles of standardization. Geneva: International Organization for Standardization.

Sanderson, S. & Uzumeri, M., 1995, Product platforms and dominant designs: The case
of Sony's Walkman. Research Policy, 24: 583-607.

Schneberger, S. L. & McLean, E. R., 2003, The complexity cross: implications for prac-
tice. Communications of the ACM, 46(9): 216-225.

Schumpeter, J. A., 1935, The Analysis of Economic Change. The Review of Economics
and Statistics, 17(4): 2-10.

Scott, W. R., 1994, Le Organizzazioni. Il Mulino.

Scott, W. R., 1995, Institutions and Organizations. Sage Publications.

Scott, W. R., 1998, Istituzioni e Organizzazioni. Bologna: il Mulino.

Selznick, P., 1949, TVA and the Grass Roots: A Study in the Sociology of Formal Organi-
zation. Berkeley: University of California Press.

Shankar, V. & Bayus, B. L., 2003, Network effects and competition: An empirical analy-
sis of the home video game industry. Strategic Management Journal, 24(4): 375-384.

Shapiro, C. & Varian, H. R., 1998, Information Rules - A strategic Guide to the Network
Economy. Boston (MA).

Shapiro, C. & Varian, H. R., 1999, The Art of Standards Wars. California Management
Review, 41(2): 8-32.

Shipman, J. W., A 2003 perspective on Parkinson's article.


http://infohost.nmt.edu/~shipman/ergo/parkinson.html.

Simon, H. A., 1962, The Architecture of Complexity. Proceedings of the American Phi-
losophical Society, 106(6): 467-482.

Solow, R. E., 1986, Economics: Is Something Missing? In W. N. Parker (Ed.), Economic


History and the Modern Economist: 21-29. London: Basil Blackwell.
Riferimenti bibliografici 255

Spivak, S. M. & Brenner, C. F., 2001, Standardization Essentials - Principles and Prac-
tice. New York: Marcel Dekker.

Stango, V., 2004, The Economics of Standards Wars. Review of Network Economics,
3(1): 1-19.

Star, S. L. & Ruhleder, K., 1996, Steps Toward an Ecology of Infrastructure: Design and
Access for Large Information Spaces. Information Systems Research, 7(1): 111-134.

Stets, J. E. & Burke, P. J., 2000, Identity Theory and Social Identity Theory. Social Psy-
chology Quarterly, 63(3): 224-237.

Strauss, A. L. & Corbin, J. M., 1998, Basics of Qualitative Research: Techniques and
Procedures for Developing Grounded Theory. Sage Publications.

Suarez, F. F., 2004, Battles for technological dominance: an integrative framework. Re-
search Policy, 33(2): 271-286.

Suarez, F. F. & Utterback, J. M., 1995, Dominant Designs and the Survival of Firms.
Strategic Management Journal, 16(6): 415-430.

Suchman, M. C., 1995, Managing Legitimacy: Strategic and Institutional Approaches.


The Academy of Management Review, 20(3): 571-610.

Suddaby, R. & Greenwood, R., 2005, Rhetorical strategies of legitimacy. Administrative


Science Quarterly, 50(1): 35-67.

Sullivan, T. & Scannell, E., Microsoft, Sun Vie for Web Services.
http://www.pcworld.com/article/id,67566-page,1/article.html 28-3-2008.

Surowiecki, J., 2002, Turn of the century. Wired Magazine 10[1].

Sutherland, J. W., 1975, Systems: Analysis, Administration, and Architecture. New York:
Van Nostrand.

Sutton, R. L. & Staw, B. M., 1995, What Theory Is Not. Administrative Science Quar-
terly, 3(40): 371-384.

Thompson, J. D., 1967, Organizations in Action. Transaction Publishers.

Timmermans, S. & Berg, M., 1997, Standardization in Action: Achieving Local Univer-
sality through Medical Protocols. Social Studies of Science, 27(2): 273-305.

Toth, R. B., 1996, Putting the US standardization system into perspective: new insights.
StandardView, 4(4): 169-178.
256 Riferimenti bibliografici

Toth, R. B., 2001, The US Standardization System: A New Perspective. In S. M. Spivak


& C. F. Brenner (Eds.), Standardization Essentials - Principles and Practice: 131-147.
New York: Marcel Dekker.

Tothova, M. & Oehmke, J. F., 2003, Harmonizing Standards as Institutions. Institutions


in Transitions.

Truex, D. P., Baskerville, R., & Klein, H., 1999, Growing Systems in Emergent Organiza-
tions. Communications of the ACM, 42(8): 117-123.

Tuomi, I., 2002, Networks of innovation


change and meaning in the age of the Internet. Oxford, England: Oxford University
Press.

Tushman, M. L. & Anderson, P., 1986, Technological Discontinuities and Organizational


Environments. Administrative Science Quarterly, 31(3): 439-465.

Tushman, M. L. & Murmann, J. P., 1998, Dominant designs, technology cycles, and or-
ganizational outcomes. Research in Organizational Behavior, 20: 231-266.

Tushman, M. L. & Murmann, J. P., 2002, Dominant Designs, Technology Cycles, and
Organizational Outcomes. In R. Garud, A. Kumaraswamy, & R. N. Langlois (Eds.),
Managing in the Modular Age: Architectures, Networks, and Organizations: 316-348.
Blackwell Publishers.

Ulman, E., 1996, The Music of Sylvano Bussotti. Perspectives of New Music, 34(2): 186-
201.

Ulrich, K., 1995, The role of product architecture in the manufacturing firm. Research
Policy, 24(3): 419-440.

Utterback, J. M. & Abernathy, W. J., 1975, A dynamic model of product and process in-
novation. Omega, 3(6): 639-656.

Utterback, J. M. & Suarez, F., 1993, Technology, competition and industry structure. Re-
search Policy, 22: 1-21.

Valerio, A., 2003, Standard e improvvisazione organizzativa. Università degli Studi di


Cassino.

Van de Ven, A. H. & Garud, R., 1994, The coevolution of technical and institutional
events in the development of an innovation. In J. Baum & J. Singh (Eds.), Evolutionary
Dynamics of Organizations: 425-443. New York: Oxford University Press.
Riferimenti bibliografici 257

Van de Ven, A. H., 1989, Nothing Is Quite so Practical as a Good Theory. Academy of
Management Review, 14(4): 486-489.

Van de Ven, A. H., Delbecq, A. L., & Koenig, R., Jr., 1976, Determinants of Coordina-
tion Modes within Organizations. American Sociological Review, 41(2): 322-338.

van Nierop, O. A., Blankendaal, A. C. M., & Overbeeke, C. J., 1997, The Evolution of
the Bicycle: A Dynamic Systems Approach. Journal of Design History, 10(3): 253-267.

Varian, H. R., Farrell, J., & Shapiro, C., 2004, The economics of information technology -
An introduction. Cambridge: Cambridge University Press.

Ventresca, M. J. & Mohr, J. W., 2002, Archival Research Methods. In J. A. C. Baum


(Ed.), The Blackwell Companion to Organizations: 805-828. Oxford: Blackwell Publish-
ers.

vetrineaperte.it, Chi ha inventato la cravatta?


http://www.vetrineaperte.it/unosguardoalmondo/cravatta/chihainventato.htm 24-4-2007.

Victor, B. & Blackburn, R. S., 1987, Interdependence: An Alternative Conceptualization.


The Academy of Management Review, 12(3): 486-498.

Virdell, M., Business processes and workflow in the Web services world.
http://www.ibm.com/developerworks/webservices/library/ws-work.html.

Virili, F., 2007, Gli assetti organizzativi. In F. Favotto (Ed.), Economia Aziendale - Mod-
elli, misure e casi: 103-154. Mc Graw-Hill.

Virili, F. & Sorrentino, M., 2008, The enabling role of Web services in Information Sys-
tem Development practices: a Grounded Theory Study. Information Systems and eBusi-
ness Management .

Wade, J., 1995, Dynamics of Organizational Communities and Technological Bandwag-


ons: An Empirical Investigation of Community Evolution in the Microprocessor Market.
Strategic Management Journal, 16: 111-133.

Weick, K. E., 1969, The social psychology of organizing. Reading, Mass: Addison
Wesley.

Weick, K. E., 1989, Theory Construction as Disciplined Imagination. Academy of Man-


agement Review, 14(4): 516-531.

Weick, K. E., 1995a, Sensemaking in organizations. Sage Publications.


258 Riferimenti bibliografici

Weick, K. E., 1995b, What Theory Is Not, Theorizing Is. Administrative Science Quar-
terly, 3(40): 385-390.

Weick, K. E., 1998, Introductory Essay: Improvisation as a Mindset for Organizational


Analysis. Organization Science, 9(5): 543-555.

Weiss, M. & Cargill, C., 1992, Consortia in the Standards Development Process. Journal
of the American Society for Information Science, 43(8): 559-565.

Weisstein, E. W. & Mercado, A., Gregorian Calendar.


http://scienceworld.wolfram.com/astronomy/GregorianCalendar.html 28-3-2007.

Weitzel, T., Beimborn, D., & Konig, W., 2006, A unified economic model of standard
diffusion: The impact of standardization cost, network effects, and network topology. MIS
Quarterly, 30: 489-514.

West, J., 2006, The Economic Realities of Open Standards: Black, White and Many
Shades of Gray. In S. Greenstein & V. Stango (Eds.), Standards and Public Policy: Cam-
bridge University Press.

West, L. J., 1998, The Standard and Dvorak Keyboards Revisited: Direct Measures of
Speed. Technical report, Santa Fe Institute.

Wigand, R. T., Markus, M. L., & Steinfield, C., 2005, Preface to the Focus Theme Sec-
tion: 'Vertical Industry Information Technology Standards and Standardization'. Elec-
tronic Markets, 15(4): 285-288.

Wikipedia, Calendario rivoluzionario francese.


http://it.wikipedia.org/wiki/Calendario_rivoluzionario_francese 29-3-2007a.

Wikipedia, Driving on the left or right.


http://en.wikipedia.org/wiki/Driving_on_the_left_or_right 20-3-2007b.

Wikipedia, Driving on the left or right - History.


http://en.wikipedia.org/wiki/Image:Driving_standards_historic.png 20-3-2007c.

Williamson, O. E., 1971, The vertical integration of production: market failure considera-
tions. American Economic Review, 61(5): 112-123.

Williamson, O. E., 1975, Markets and Hierarchies: Analysis and Antitrust Implications.
New York: Free Press.

Williamson, O. E., 1979, Transaction-Cost Economics: The Governance of Contractual


Relations. Journal of Law and Economics, 22(2): 233-261.
Riferimenti bibliografici 259

Williamson, O. E., 1981, The Economics of Organization: The Transaction Cost Ap-
proach. The American Journal of Sociology, 87(3): 548-577.

Williamson, O. E., 1985, The Economic Institutions of Capitalism. New York: Free Press.

Williamson, O. E., 1995, Transaction Cost Economics and Organization Theory. In O. E.


Williamson (Ed.), Organization Theory: From Chester Barnard to the Present and Be-
yond: 207-256. New York: Oxford University Press.

Zack, M. H., 2000, Jazz Improvisation and Organizing: Once More from the Top. Or-
ganization Science, 11(2): 227-234.

Zhu, K., Kraemer, K. L., Gurbaxani, V., & Xu, S. X., 2006, Migration to open-standard
interorganizational systems: Network effects, switching costs, and path dependency. MIS
Quarterly, 30: 515-539.

Zucker, L. G., 1977, The Role of Institutionalization in Cultural Persistence. American


Sociological Review, 42(5): 726-743.

Zuckerman, E. & McLaughlin, A., Introduction to Internet Architecture and Institutions.


http://cyber.law.harvard.edu/digitaldemocracy/internetarchitecture.html 29-1-2008.

Zur Muehlen, M., Nickerson, J. V., & Swenson, K. D., 2005, Developing Web Services
Choreography Standards -The Case of REST vs. SOAP. Decision Support Systems, 40(1):
9-29.

Potrebbero piacerti anche