Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Prefazione IX
Ringraziamenti XI
Introduzione XIII
Capitolo 1 Che cosa è uno standard 1
1.1 Esempi e storie di standard 1
1.1.1 Il linguaggio: uno "standard" antico e misterioso 1
1.1.2 Le filettature di Sellers: anche il caso ha la sua importanza 5
1.1.3 Lo scartamento dei binari ferroviari: i vinti si adeguano 7
1.1.4 Guida a destra: siamo ancora lontani dall'uniformità 11
1.1.5 Calendario e misura del tempo: cambiare standard è difficile 14
1.1.6 L'adozione del sistema metrico in USA: un processo in atto 19
1.1.7 Standardizzare spine e prese: la ricerca della compatibilità 20
1.1.8 La regola dei 24 secondi: la leadership statunitense 21
1.2 Che cosa è uno standard 23
1.2.1 Il significato corrente: modello, base, norma 25
1.2.2 Le definizioni in letteratura 26
1.2.3 Discussione 31
Capitolo 2 A che cosa serve uno standard 39
2.1 Standard per il coordinamento 39
2.1.1 Coordinamento e interdipendenze 40
2.1.2 Meccanismi di coordinamento 42
2.1.3 La funzione degli standard secondo l'approccio contingente 44
2.2 Standard per le relazioni 49
2.2.1 La specificità degli investimenti 51
2.2.2 Contrapposizione tra standardizzazione e specificità 54
2.2.3 Standardizzazione, specificità e lock-in 57
2.3 Standard per l'improvvisazione 62
2.3.1 Le premesse: i processi di interpretazione 63
2.3.2 Spunti di analisi postmoderna 63
VIII Indice
Andrea Pontiggia
Università Ca’ Foscari Venezia
Ringraziamenti
Vorrei esprimere la mia gratitudine ad Andrea Pontiggia per la sua guida a tutto
tondo, che ha contribuito in questi anni a tracciare per me un fondamentale e impe-
gnativo percorso di maturazione non solo scientifica, ma anche umana. Molte delle
idee iniziali sono nate discutendone con lui, inclusa la struttura base delle prime ver-
sioni del lavoro, l'enfasi sull'analisi empirica, l'uso del concetto di specificità degli
investimenti e molti altri. Ricordo le molteplici discussioni avute insieme nella fase di
progettazione iniziale, e la spinta a "volare alto" e autonomamente che mi ha fornito
in mille modi diversi. Mi è capitato più volte di scoprire solo più tardi la portata e i
benefici di alcune sue indicazioni che inizialmente non capivo. Grazie! La sua revi-
sione finale mi ha aiutato molto a identificare e cercare di affrontare alcuni dei punti
più critici, anche se da parte mia in modo certo parziale e imperfetto.
In questi anni di lavoro sono stato supportato (e sopportato!) dagli amici e colle-
ghi che collaborano in OrgLab a Cassino. Grazie quindi a Francesco Bolici, con le
tante accese discussioni e i suggerimenti e contributi in corso d’opera, inclusa la sua
storia in riquadro; a Francesca Colarullo che ha scritto alcune delle storie in riquadro;
a Roberta Di Mascio che ha partecipato alla prima fase di analisi dei dati.
Sono molto riconoscente a Marco De Marco, che mi ha aiutato più volte nel corso
del lavoro, in tanti modi diversi, molto graditi ed efficaci. Grazie di cuore anche a
Maddalena Sorrentino con cui ho collaborato a lungo e con piacere in questo periodo,
inclusa la fase iniziale dell'indagine sui Web services, insieme anche a Marco Caval-
lari e Mauro Bello.
Ringrazio gli editor, i reviewer e i partecipanti del workshop della special issue di
MISQ “Standard making”, Seattle dicembre 2003. Un ringraziamento anche ai track
chair Arnaldo Camuffo, Roberto D'Anna e Anna Comacchio, e ai partecipanti alla
quarta, alla settima e alla nona edizione del Workshop Nazionale di Organizzazione
Aziendale, per i suggerimenti forniti in queste occasioni nella discussione di versioni
preliminari dello studio empirico e di parti dell'analisi teorica. Tra essi, ringrazio in
particolare Anna Grandori per i suggerimenti bibliografici sulla teoria della dipen-
denza dal percorso. L'inclusione della parte sulle teorie del dominant design nasce da
una indicazione di Enzo Perrone, che ringrazio per avermela fornita durante una pro-
va di valutazione comparativa. Grazie a Theodor Barth per i suggerimenti forniti in
occasione del workshop “ALP-IS 2005”. Ringrazio anche Vladislav Fomin, Edoardo
XII Ringraziamenti
Jacucci e Ole Hanseth per i commenti e i suggerimenti forniti nel corso della ricerca,
in occasione dei nostri incontri alla Copenhagen Business School e all’Università di
Oslo. Un grazie infine ai partecipanti al “Terracina Research Week-end” 2005.
Sono molto grato a Richard Baskerville a Jan Pries-Heje per avermi introdotto al-
l'uso della Grounded Theory Analysis, che ho impiegato per il caso del capitolo 5,
fornendomi non solo riferimenti teorici ma anche una fondamentale guida pratica,
con suggerimenti ed esempi di analisi dei dati; uno dei software che ho impiegato mi
è stato suggerito da loro, insieme ad una demo e a indicazioni di utilizzo. Grazie an-
che a Riccardo Camuffo per aver suggerito l'impiego di metodi di riscontro sull'atten-
dibilità dell'analisi empirica.
Tra quelli che hanno avuto parte attiva in questa storia ci sono anche i parenti e gli
amici che hanno condiviso con me il periodo della ricerca, che si sono inevitabilmen-
te ritrovati a parlare (anche loro malgrado) di argomenti più o meno esotici come la
flessibilità interpretativa, la pleiotropia o la path dependence durante il jogging a
Monte Stella o piuttosto che a cena o nei week-end. Grazie dunque a Giacomo Di
Gennaro, Gabriele Chiarillo, Salvatore Sollima e Roberto Pierantoni, non solo per la
pazienza che hanno dimostrato con me ma anche per il loro contributo attivo e critico
che spero ritroveranno in questo testo. In particolare, la scelta di esempi e storie di
standardizzazione usati del primo capitolo ha tratto a piene mani dai graditi e utili
suggerimenti di parenti, amici e colleghi: Maddalena Sorrentino per la filettatura Sel-
lers, Francesca Colarullo per la cravatta e il sistema metrico decimale, Francesco Bo-
lici per la regola dei 24 secondi. Ringrazio particolarmente mio fratello Andrea, da
cui è nata l'idea di impiegare il linguaggio manzoniano e l'introduzione dei Promessi
Sposi in apertura. Andrea mi ha anche suggerito l'impiego dell'analisi di "Opera Aper-
ta" di Umberto Eco nel capitolo 2.
Nel corso di questa ricerca Elena è diventata mia moglie: oltre agli altri aspetti
della vita, ha quindi preso a condividere con me anche le vicende di questo mio lavo-
ro, vitalizzandolo e plasmandolo in modo determinante. Motivo in più per dedicarlo a
lei. Grazie.
Introduzione
fluenza della storia passata (dipendenza dal percorso). Esso risulta caratterizzato da
modalità di selezione ecologica che stimolano il continuo proliferare di nuove regole,
promosse da gruppi spesso in competizione tra loro per l'affermazione delle proprie
identità collettive, favorendo così la varietà e il polimorfismo. Nello stesso tempo, il
mercato delle regole presenta aspetti che sono ben spiegati dai contributi neoistitu-
zionali con la presenza di forze che spingono all'isomorfismo e alla convergenza ver-
so standard comuni, originate dalla necessità di acquisire maggiore legittimazione so-
ciale da parte dei gruppi di adozione. Le tensioni e gli equilibri che caratterizzano la
nascita e la diffusione di uno standard sono spesso condizionati dalla distribuzione
del potere, che trova anche esso una sua spiegazione negli studi organizzativi. L'ac-
cento sui meccanismi di selezione ecologica, legittimazione, identità e potere non to-
glie però spazio al ruolo di primo piano che gli aspetti di razionalità tecnica ed eco-
nomica tendono a ricoprire, dando a volte luogo a fenomeni particolarmente articolati
e difficili da analizzare compiutamente. In alcuni casi il mercato delle regole si strut-
tura infatti secondo le logiche dei sistemi complessi e modulari, che trovano in parte
spiegazione con i più recenti sviluppi delle teorie del dominant design. L'infrastruttu-
ra informativa Internet rappresenta l'esempio più evidente e paradigmatico del suc-
cesso delle architetture standard complesse e modulari, che hanno oggi impiego in
diversi settori industriali come quello automobilistico, quello aerospaziale, quello in-
formatico e molti altri. Il perché di questa crescente diffusione delle architetture com-
plesse e modulari può essere almeno in parte spiegato ricorrendo agli studi sulla co-
struzione sociale della tecnologia, i quali mostrano come i sistemi complessi possano
conseguire un equilibrio ottimale tra varietà e flessibilità interpretativa, tra stabilità ed
innovazione, e con esso dunque un'altra particolare forma di espressione di quella uti-
lità complessiva che il mercato delle regole tende ad ottimizzare.
E' dunque sulle diverse nozioni di utilità, sui diversi meccanismi atti a produrla e
sui diversi tipi di attori in gioco e che si realizza il passaggio da una spiegazione pu-
ramente economica di come nasce uno standard ad una più articolata e complessa che
tiene conto dei fattori organizzativi. E' in questo senso che le dieci proposizioni offer-
te nel capitolo 4 possono essere lette: non certo una vera e propria "teoria dello stan-
dard", che questo studio non vuole e non può certo aspirare a produrre in senso com-
piuto, quanto un esercizio di immaginazione disciplinata. Esso è orientato ad offrire
elementi di riflessione teorica alla comunità scientifica che possano spiegare in modo
generalizzato le osservazioni sul campo. Per questo si prende avvio proprio da esempi
e storie di standard scelti per la loro varietà e diversità, che vengono continuamente
ripresi ed integrati con nuovi apporti in tutto il corso dell'analisi. Il capitolo finale del
libro, con l'indagine empirica del caso "Web services", ha lo scopo non tanto di dimo-
strare compiutamente quanto ipotizzato in precedenza, quanto di porre in campo un
esempio di indagine empirica, basato sull'analisi delle tracce documentali di un pro-
cesso di standardizzazione, che sembra potenzialmente adatto a questo campo di ri-
cerca.
Il libro è strutturato secondo il percorso qui delineato: la domanda "che cosa è uno
standard" è affrontata nel primo capitolo, ove alla raccolta iniziale di esempi e storie
si fa seguito con una discussione della radice etimologica del termine e con un'analisi
delle definizioni in letteratura: sulla base di tutti questi elementi viene infine svilup-
Introduzione XV
pata l'idea dello standard come regola ad adesione volontaria in forma scritta e pub-
blica.
Il secondo capitolo mostra "a che cosa serve" uno standard, partendo dai contribu-
ti organizzativi più noti che classificano lo standard come strumento di coordinamen-
to, per poi prospettare un ruolo dello standard per le relazioni interorganizzative in
base alla teoria dei costi di transazione, proponendo infine alcuni spunti di analisi di
stampo postmoderno che vede lo standard come piattaforma di improvvisazione e in-
novazione organizzativa. Sul finale di capitolo la prospettiva si estende ai vantaggi
degli standard rispetto alle regole coercitive specificamente legati alla volontarietà
dell'adozione, che costituisce uno degli elementi caratterizzanti del "mercato delle re-
gole" che emergerà in seguito.
Il terzo capitolo è dedicato ai numerosi lavori in letteratura che contribuiscono a
spiegare "come nasce uno standard". Il percorso critico è introdotto dalla discussione
di un recente numero speciale di MIS Quarterly dedicato ai processi di standardizza-
zione in ambito Information Technology, da cui emerge la varietà degli approcci teo-
rici e la complessità del tema. Su questa base si individuano due filoni di indagine te-
orica: da un lato i lavori della cosiddetta network economics; dall'altro i contributi
delle scienze sociali. Entrambi contribuiscono, per aspetti diversi, a formare il quadro
di riferimento complessivo che viene costruito in seguito.
Il quarto capitolo si apre con una breve discussione di metodo atta a porre in luce i
requisiti essenziali di un contributo teorico nelle scienze sociali, per poi specificare,
in dieci proposizioni, che cosa è, a che cosa serve e come nasce uno standard, deline-
ando una serie di ipotesi teoriche sulle caratteristiche principali del "mercato delle re-
gole": attori, fasi, attività e forze in gioco. Le proposizioni sono presentate per livelli
di complessità crescente, a partire da assunzioni iniziali molto restrittive per poi
giungere gradualmente a situazioni sempre più complesse.
Il quinto capitolo offre l'analisi empirica del processo di standardizzazione dei
"Web services", che evidenzia la presenza nel processo di standardizzazione in esame
di alcuni degli elementi rilevanti già prospettati in teoria, che includono la tendenza
alla massimizzazione della flessibilità interpretativa, i giochi delle alleanze, le attività
di negoziazione progettuale tipiche degli standard anticipatory.
Il capitolo conclusivo riassume gli apporti essenziali del lavoro, dedicando qual-
che spazio alla discussione dei limiti, delle implicazioni e dei possibili sviluppi della
ricerca.
1
Che cosa è uno standard
L'Historia si può veramente deffinire una guerra illustre contro il tempo, perché togliendoli
di mano gli anni suoi prigionieri, anzi già fatti cadaueri, li richiama in vita, li passa in ras-
segna, e li schiera di nuovo in battaglia. Ma gli illustri Campioni che in tal Arringo fanno
messe di Palme e d'Allori, rapiscono solo che le sole spoglie più sfarzose e brillanti, imbal-
samando co' loro inchiostri le imprese de Prencipi e Potentati, e qualificati Personaggi, e
1
Le storie e gli esempi di standard si devono in buona parte alle idee ed ai suggerimenti di
coloro che ho menzionato nei ringraziamenti. Inoltre ho fatto riferimento ad alcuni dei brillanti
esempi illustrati in (Kindleberger, 1983), tra cui la guida a destra, lo scartamento dei binari, il
calendario e la misura del tempo. Per una raccolta più ampia e sistematica di casi, cfr.
(Grindley, 1995), che analizza la storia degli standard nei mercati dei videoregistratori, in
quelli dei supporti audio (CD vs DAT), dei personal computers e dei sistemi aperti, della TV
ad alta definizione e dei telefoni cordless. Si veda anche (Rohlfs, 2001) che prende in esame,
attraverso otto casi di studio, la nascita e l'evoluzione degli standard tecnologici nei mercati di
fax, telefono, del "picturephone", del CD, del videoregistratore, del PC, della televisione e di
Internet. Un simpatico racconto sull'evoluzione storica degli standard è apparso in (Nesmith,
1985). Per una vivace e documentata analisi divulgativa di tecnologie e standard "che non ce
l'hanno fatta", come la posta pneumatica, il fonografo e le macchine elettriche, si consiglia
infine la lettura di (Nosengo, 2003).
2 Capitolo 1
trapontando coll'ago finissimo dell'ingegno i fili d'oro e di seta, [...] Imperciocché, essendo
cosa evidente e da verun negata non essere i nomi se non puri purissimi accidenti…
«Ma quando io avrò durata l'eroica fatica di trascriver questa storia da questo dilavato e
graffiato autografo e l'avrò data, come si suol dire, alla luce, si troverà poi chi duri la fatica
di leggerla?» Questa riflessione dubitativa, nata nel travaglio di decifrare uno scarabocchio
che veniva dopo accidenti, mi fece sospender la copia, e pensar più seriamente a quello che
convenisse di fare. [...] «Meno male, che il buon pensiero m'è venuto sul principio di questo
sciagurato lavoro: e me ne lavo le mani». Nell'atto però di richiudere lo scartafaccio, per ri-
porlo, mi sapeva male che una storia così bella dovesse rimanersi tuttavia sconosciuta; per-
ché, in quanto storia, può essere che al lettore ne paia altrimenti, ma a me era parsa bella,
come dico; molto bella. «Perché non si potrebbe, pensai, prender la serie de' fatti da questo
manoscritto, e rifarne la dicitura?» Non essendosi presentato alcuna obiezion ragionevole, il
partito fu subito abbracciato. Ed ecco l'origine del presente libro, esposta con un'ingenuità
pari all'importanza del libro medesimo.
Il pezzo che precede è tratto dall’introduzione de I Promessi Sposi. Subito dopo c’è il
famosissimo incipit del primo capitolo: «Quel ramo del lago di Como, che volge a
mezzogiorno, tra due catene non interrotte di monti…».
I Promessi Sposi, riconosciuto come opera fondativa del romanzo italiano moderno,
2
segna anche la nascita di una sorta di nuovo standard di linguaggio narrativo . La fin-
zione usata dal Manzoni di "rifare la dicitura" della "bella storia" trovata nell'antico
"scartafaccio", originariamente scritta nell'ampolloso, retorico, spagnoleggiante lin-
guaggio di matrice secentesca allora in uso nelle opere letterarie, gli permette di pro-
3
porre l'adozione generalizzata di un nuovo linguaggio letterario . Questa decisione
potrebbe essere vista come una scelta determinante nella nascita di uno standard.
Dai Promessi Sposi in poi, la "dicitura" proposta dal Manzoni si è infatti affermata
come il linguaggio d'elezione per la narrativa e come la base fondante della lingua
italiana moderna. Atti negoziali come questo costituiscono fasi fondamentali dei pro-
cessi di allineamento degli interessi e possono generare conseguenze apparentemente
2
Scrive il Caretti: «Poco più di quattro anni [1821-1825], ma un periodo intensissimo e quasi
frenetico di lavoro durante il quale il Manzoni fu preliminarmente tratto a credere di doversi
addirittura creare, ai fini del romanzo vagheggiato, una lingua artificiale, di laboratorio,
quasi si trattasse di partire da un degré zéro de l'écriture e spettasse esclusivamente allo
scrittore di costituire per via analogica (tenendo come punto di riferimento il francese) la
nuova lingua del romanzo italiano, e quindi si indusse a quella provvisoria e laboriosa
conversione del dialetto milanese nel toscano, tramite fondamentale il Cherubini, che costituì
il primo riconoscimento consapevole della lingua toscana come insostituibile istituto, e che
precluse alla successiva esperienza diretta del fiorentino parlato come ultimo grado di una
ricerca coerente di un mezzo linguistico duttile e vivo, di base nazionale, e tuttavia
moderatamente aperto, sul pieno dell'espressività, anche a forme e innesti non toscani. Il
Manzoni creava così in Italia, si può dire dal nulla, il romanzo moderno, e impostava
pragmaticamente la questione della lingua come problema stilistico dell'adeguamento della
forma espressiva alla natura intima dell'opera d'arte, facendo confluire nei Promessi Sposi
tutte le sue esperienze di storico, di moralista, e di scrittore». Dalla Presentazione a I Promessi
Sposi nell'edizione a cura di Lanfranco Caretti, Mursia 1966 -Classici gum, pag. 10. La stessa
edizione riporta un'accurata bibliografia critica (pagg. 16-17).
3
Nella parte finale dell'introduzione de I Promessi Sposi, il Manzoni si erge esplicitamente a
difensore della nuova "dicitura", pronto a rispondere in maniera così convincente ed esaustiva a
tutte le possibili obiezioni, tanto da poterci scrivere un libro intero, però «abbiam messo da
parte il pensiero, per due ragioni che il lettore troverà certamente buone: la prima, che un libro
impiegato a giustificarne un altro, anzi lo stile d'un altro, potrebbe parer cosa ridicola: la
seconda, che di libri basta uno per volta, quando non è d'avanzo»
Che cosa è uno standard 3
irreversibili per l'evoluzione successiva della lingua, un fenomeno che gli economisti
chiamano "dipendenza dal percorso" e che sarà oggetto di analisi nei prossimi capito-
li.
Il linguaggio potrebbe dunque essere considerato come un esempio straordinario
(pur se piuttosto peculiare) di standard, uno dei più antichi, pervasivi e importanti
nella storia dell'umanità. In Italia, in particolare, la cosiddetta "questione della lingua
italiana" ha una storia nobile e antica, che ha visto nascere e svilupparsi, molto prima
del romanzo moderno ottocentesco, la letteratura in volgare del XIII secolo di scuola
siciliana e quella toscana del dolce stil novo. Già ai tempi di Dante l'affermazione in
letteratura del volgare sull'antico standard del latino aulico avvenne non senza diffi-
coltà e contese: Dante stesso sentì infatti il bisogno di pubblicare un'opera come il De
Vulgari Eloquentia a sostegno della nobiltà e dell’espressività letteraria del volgare,
scrivendolo in latino perché rivolto ad un pubblico dotto. Verso la fine del 1500, la
fondazione dell'Accademia della Crusca acquisì rapidamente un ruolo di primo piano
per la diffusione e la difesa dell’italiano, attraverso il contributo decisivo di Lionardo
Salviati, "l'infarinato", che fissò l’uso della simbologia relativa alla farina, conferendo
all’Accademia lo scopo di separare il fior di farina (la buona lingua) dalla crusca, se-
condo il modello di lingua già promulgato dal Bembo (1525), che prevedeva il prima-
to del volgare fiorentino, modellato sugli autori del Trecento. Per una bibliografia es-
senziale sulla storia e sulla questione della lingua italiana cfr. (Accademia Della Cru-
sca, 2007).
Anche altri linguaggi, come l'inglese, hanno avuto una storia di progressiva affer-
mazione e trasformazione simile a quella dell'italiano: basti pensare al ruolo e all'in-
fluenza dell'opera di autori come Geoffrey Chaucer e di William Shakespeare sulla la
nascita dell'inglese moderno (cfr.(AAVV, 2000b)). In ambo le situazioni, pur con im-
portanti differenze contestuali e culturali, opere importanti come la Divina Commedia
di Dante o i Canterbury Tales di Chaucer hanno contribuito in modo determinante,
con il loro successo e la loro diffusione, all'affermazione di uno "standard" nazionale.
Come vedremo in seguito, il successo di uno standard sembra essere collegato non
solo alla sua effettiva validità tecnica, ma anche ad altri fattori più difficilmente valu-
tabili, come la creazione di un senso di identità nella comunità di riferimento, o come
il raggiungimento di una certa "massa critica" di utenti attivi. Questi ed altri fattori
potrebbero aver giocato a sfavore, ad esempio, dei i tentativi di affermare linguaggi
universali come l'esperanto e lo stesso latino, che è ancora oggi la lingua ufficiale del-
la Chiesa Cattolica. L'esperanto, in particolare, fu ideato artificialmente proprio per
avere una superiorità "tecnica" sulle lingue native, risultando molto più facile da ap-
prendere come seconda lingua, (Federazione Esperantista Italiana, 2007). Cionono-
stante, pur avendo riscontrato un certo successo, l'esperanto resta ancora oggi uno tra
i moltissimi tentativi non riusciti nella storia dell'umanità di raggiungere la chimera di
uno standard linguistico universale e perfetto, le cui origini si perdono nel mito della
Torre di Babele. Per un'analisi magistrale della ricerca di una lingua perfetta nella
cultura europea, cfr. (Eco, 1993).
Ai fini della scelta di uno standard il senso di identità può avere rilievo non solo a
livello collettivo, come senso di appartenenza a una comunità, ma anche a livello in-
dividuale, come espressione del proprio io. Il riquadro che segue si riferisce ad uno
4 Capitolo 1
"standard" che rappresenta un po’ il simbolo del senso di identità maschile: la cravat-
ta.
LA CRAVATTA
di Francesca Colarullo
Se nella scelta di indossare una cravatta gli elementi identitari hanno la prevalenza
su quelli strettamente tecnici, ciò non è altrettanto vero per quanto riguarda le filetta-
ture di dadi e bulloni. La validità tecnica dello standard gioca in questo caso un ruolo
altrettanto importante di quello della sponsorizzazione dell'individuo o della comunità
che si identifica nello standard. I due elementi spesso si intrecciano tra loro, come ap-
pare evidente nella storia che segue.
mente, la reperibilità di dadi e bulloni compatibili in ogni parte degli USA era un re-
quisito importante, ma il fatto che il primo passo verso lo standard Sellers sia stato
fatto proprio dalle ferrovie della Pennsylvania, dove Sellers faceva parte del comitato
direttivo, non è probabilmente casuale. Tre anni dopo anche l'associazione dei mastri
carrozzieri e quella dei mastri meccanici furono coinvolte, finché nel 1883 le filetta-
ture Sellers erano ormai impiegate in tutte le ferrovie del paese, che costringevano
anche tutti i loro fornitori ad adeguarsi. Lo standard Sellers non soltanto conquistò
completamente l'America nel giro di una trentina d'anni: nel 1901, con la Conferenza
Generale di Pesi e Misure, esso venne ufficialmente adottato anche in Europa. E' inte-
ressante notare come invece la Gran Bretagna resistesse ancora ancorata al vecchio
standard Withworth, e come soltanto una serie di eventi molto gravi la convinsero ad
abbandonarlo. Fu la seconda guerra mondiale a determinare la crisi: nell'inverno
1941-42 durante il conflitto nordafricano, le forze dell'Ottava Armata britannica af-
frontavano i carri armati dell'Afrika Korps tedesco. Ovviamente i mezzi pesanti bri-
tannici in guerra nel deserto erano sottoposti a danneggiamenti, usure e avarie di ogni
genere. Con le prime forniture di veicoli e pezzi di ricambio statunitensi gli addetti
britannici alla manutenzione si resero conto che i dadi americani non si avvitavano
sui bulloni inglesi! La soluzione adottata dall'industria bellica statunitense fu quella
di creare due distinte linee di produzione a standard diversi, con conseguenti difficol-
tà e inefficienze generalizzate. In seguito gli Inglesi si resero conto che era stato piut-
tosto idiota rischiare di compromettere una battaglia per colpa delle filettature incom-
patibili, e decisero, nel 1948, di abbandonare lo standard Withworth abbracciando
quello americano, che da quel momento in poi venne chiamato standard USA. Lo
standard USA dilagò anche in Inghilterra nel giro di pochi anni, rendendo finalmente
completa l'affermazione nel mondo occidentale dell'idea di William Sellers, che era
morto nel 1905.
Che cosa ha determinato l'affermazione dello standard Sellers nel mondo e che co-
sa ha invece costituito un ostacolo? Perché, nonostante la superiorità tecnica e l'abili-
tà politica e negoziale di Sellers ci è voluto tanto tempo? Come vedremo nel seguito
di questo lavoro, a volte anche gli eventi casuali e imponderabili, come un episodio di
guerra in Africa del Nord, possono giocare un ruolo molto importante.
Bretagna, nel Nord America e in gran parte dell'Europa occidentale (Italia inclusa),
con l'eccezione di Spagna, Portogallo e Irlanda. Come mai questa misura apparente-
mente eccentrica è divenuta uno standard? Quando George Stephenson progettò la
ferrovia Stockon & Darlington nell'Inghilterra del nord nel 1825, adottò uno scarta-
mento di 4 piedi e 8 pollici semplicemente perché era quello della linea ferrata di una
miniera chiamata Willington Way, nei pressi di Newcastle, con cui Stephenson aveva
già familiarità. A sua volta, la Willington Way era stata costruita con questo scarta-
mento perché esso era comune nelle strade in quell'area. Dopo la Stockon & Darlin-
gton, Stephenson usò la stessa misura per la Liverpool & Manchester, la prima ferro-
via del mondo tra due grandi città. In quell'occasione ampliò di mezzo pollice lo scar-
tamento, probabilmente per dare maggiore possibilità di aggiustamento laterale alle
ruote. In effetti la scelta di 4 piedi e 8,5 pollici sembrerebbe del tutto arbitraria. Le vie
tramviarie nell'area di Newcastle presentavano una varietà di scartamenti, sia maggio-
ri che minori, ciascuno dei quali avrebbe potuto essere preso in considerazione da
Stephenson. Intorno al 1870 gli scavi archeologici presso Pompei e in altre aree co-
minciarono a rivelare che lo scartamento adottato da Stephenson avrebbe potuto cor-
rispondere approssimativamente a quello degli antichi carri di epoca romana. In un
famoso episodio, Walton W. Evans, un ingegnere americano, cercò di verificare que-
sta ipotesi misurando con il sistema metrico, in modo da evitare distorsioni, le tracce
lasciate da carri e carrozze a Pompei. Egli convertì le sue misurazioni in pollici e sco-
prì che le tracce, da centro a centro, distavano all'incirca 4 piedi e 9 pollici, e dunque
lo scartamento effettivo doveva essere di poco inferiore. Rilevazioni archeologiche
successive confermarono che questa era la misura dello scartamento comune al tempo
dei Romani. La sopravvivenza di questo scartamento tra i veicoli da strada nell'Euro-
pa Occidentale, Gran Bretagna compresa, finì per determinare il suo trasferimento
anche alle prime ferrovie. Secondo una tradizione non scritta, sembrerebbe che lo
stesso Giulio Cesare abbia fissato lo scartamento dei carri romani nella misura di due
passi di un soldato, ma in assenza di documentazione questa versione non viene gene-
ralmente accreditata. Come attestato da uno studioso inglese di storia delle ferrovie,
Charles E. Lee, tale misura rappresenta probabilmente l'ampiezza ottimale di un carro
relativa alla misura di un cavallo. Un valore inferiore avrebbe sottoutilizzato il caval-
lo, uno superiore lo avrebbe probabilmente sottoposto a sforzo eccessivo. Lo scarta-
mento si è poi trasferito anche nel trasporto autostradale. Nelle ferrovie, l'ampiezza
ottimale con riferimento ad un cavallo è irrilevante. Piuttosto, la misura che conta è
quella di un essere umano. Ogni processo tecnologico deve tenere conto del fatto che
gli esseri umani sono "prodotti" in una sola misura con un ambito di variazione limi-
tato: ad esempio l'altezza va da circa 5 piedi (1 metro e 52) a circa 6 piedi e 6 pollici
(circa 1 metro e 98). Certamente, lo scartamento di 4 piedi e 8,5 pollici non era pale-
semente fuori misura. Permetteva di costruire vetture in grado di ospitare conforte-
volmente due persone una accanto all'altra lasciando spazio sufficiente per il passag-
gio. Per il trasporto di merci, c'era spazio per le tipiche dimensioni dei pacchi che le
persone potevano caricare e impilare. Con questo scartamento standard, il grado di
sporgenza della carrozzeria rispetto alle ruote sembrava appropriato: scartamenti più
elevati furono sperimentati senza successo in Inghilterra.
Che cosa è uno standard 9
L'esperienza americana
L'esperienza americana fu simile. La guerra civile evidenziò tutti gli svantaggi delle
4
numerose differenze di scartamento che si erano inizialmente determinate . Sia gli sta-
4
Lo scartamento standard di 4 piedi e 8,5 pollici si affermò anche qui principalmente perché gli
ingegneri americani si aspettavano, erroneamente, che avrebbero fatto un grande uso di
locomotive di fabbricazione britannica. Dato che le prime ferrovie americane avevano la
funzione principale di connettere specchi d'acqua che non potevano essere collegati attraverso
dei canali, non c'era ragione inizialmente per aspettarsi una grande uniformità di scartamenti.
Le singole linee ferroviarie non erano state progettate pensando ad una loro possibile futura
interconnessione. Ma dato che Baltimora-Ohio e Boston-Albany usavano il 4 piedi e 8,5
pollici, lo standard cominciò a diffondersi. La Pennsylvania impiegava un 4 piedi e 9 pollici
che era compatibile. Il 6 piedi della Erie-Lackawanna era il più importante scartamento largo al
nord. Le ferrovie canadesi usavano un 5 piedi e 6 pollici, almeno in parte, per motivi militari.
Al sud, gli scartamenti aumentati erano dominanti. Se c'era uno standard in quella zona, era
quello dei 5 piedi. Intorno al 1861, binari con questo scartamento si estendevano da Norfolk e
Richmond fino a Memphis e New Orleans, anche se la mancanza di connessioni e scambi fisici
ostacolava la creazione di una rete vera e propria.
10 Capitolo 1
Nel 1862, quando il Congresso adottò ufficialmente lo scartamento standard per le ferrovie
a lunga percorrenza, era già avvenuta la secessione degli stati meridionali, per cui non c'era
nessuno al Congresso a spingere per lo scartamento da 5 piedi. Dopo la guerra, le ferrovie
meridionali si trovarono sempre più in minoranza. Per i successivi vent'anni si fece affida-
mento su vari tipi di interconnessioni tra il Nord e il West: carrelli con una base estensibile,
sistemi per spostare il carico su una diversa base, e, più comunemente, la costruzione di una
terza rotaia. Alla fine, gli interessi delle ferrovie meridionali dovettero capitolare e adottare
lo scartamento standard nel 1886. (Shapiro & Varian, 1999:9).
Le linee canadesi si erano già conformate nel 1872-73; le ferrovie meridionali avvia-
rono un processo che finì con un blitz di conversione massiccia nel week-end del
memorial day del 1886. I vinti si adeguano.
guadagno che avrebbe potuto essere conseguito con il cambiamento. Senza dubbio
oggi le tecniche ingegneristiche moderne potrebbero servire ad identificare uno scar-
tamento ottimale, ma in assenza di una convincente dimostrazione del contrario, il
punto di vista di Forney del 1870 resta il giudizio più valido. La storia degli scarta-
menti ha molto da dire sul ruolo della superiorità tecnica in uno standard, sui rapporti
di potere tra i gruppi sociali coinvolti, sulle dinamiche dei processi di adeguamento
allo standard dominante, aspetti che verranno analizzati, tra gli altri, nel resto di que-
sto lavoro.
Figura 1.1 Mappa dello standard di guida nel mondo. In nero i Paesi con guida a destra;
in grigio quelli con guida a sinistra. Fonte: (Wikipedia, 2007b).
La guida a sinistra (grigio chiaro) è invece lo standard in Oceania. Gli altri continenti
vedono una prevalenza della guida a destra, con significative eccezioni tra cui l'India,
il Giappone una vasta zona dell'Africa centro-meridionale. Circa 2/3 della popolazio-
ne mondiale oggi vive in Paesi con guida a destra (Lucas, 2005).
La situazione odierna è il risultato di numerosi cambiamenti nel tempo: negli ultimi
150 anni molti Paesi si sono convertiti alla guida a destra, mentre sembrerebbe che un
solo Paese (la Namibia, in Africa sud-occidentale) sia invece passato alla guida a si-
7
Per "a destra" si intende qui sul lato destro della strada.
12 Capitolo 1
8
nistra . La storia e l'evoluzione dello standard di guida nei paesi del mondo sono det-
tagliatamente documentate in (Kincaid, 1986), un libro oggi difficilmente reperibile,
su cui è ampiamente basato l'aggiornato e approfondito resoconto in (Lucas, 2005).
Oggi sappiamo con ragionevole certezza che in epoca romana si viaggiava sul lato
sinistro della strada. Nel 1999 si è infatti scoperta una strada usata per l'accesso ad
una cava di pietre da costruzione di epoca romana, a Blunsdon Ridge, nel Wiltshire.
Le tracce ivi lasciate dai carri sono molto più profonde sul lato sinistro, nel verso di
ritorno, piuttosto che sul lato destro. Dato che i carri dovevano arrivare scarichi per
tornare carichi di pietre, questo proverebbe che i Romani viaggiavano a sinistra
(Dyer, 1999).
Da sinistra a destra
Come si è passati da una predominanza della guida a sinistra alla situazione opposta?
In assenza di documentazione certa e comprovata, molte spiegazioni sono state forni-
te sui fattori che avrebbero influito sulla scelta del lato della strada. Una delle storie
più comuni è quella basata sull'uso della spada nel periodo feudale:
Nel passato, quasi tutti viaggiavano sul lato sinistro della strada perché questa era l'opzione
più sensata nella violenta società feudale. Dal momento che la maggior parte delle persone
sono destre, preferivano tenere la sinistra in modo di avere la mano destra dal lato del po-
tenziale avversario e il fodero (indossato a sinistra) al lato opposto. In tal modo si evitava
anche di colpire i passanti con il fodero (dalla sezione "History and origin" di (McGregor,
2007)).
Invero, come riporta Lucas, il ruolo della spada potrebbe essere stato esagerato da
una certa moderna concezione romanzesca del passato.
E' invece ragionevole pensare, sulla base delle evidenze disponibili, che il traffico nelle
strade medioevali fosse in predominanza formato da persone comuni a piedi, senza titoli
nobiliari e senza spada, e dal trasporto di merci su carri. Erano soltanto gli aristocratici e i
loro uomini che giravano sistematicamente armati di spada, e quando questi passavano, il
loro diritto di precedenza era determinato dal rango, per cui probabilmente tutti gli altri do-
vevano liberare la strada scostandosi ai lati. I cavalieri medioevali erano relativamente pochi
e non si incontravano spesso lungo le strade, e anche se preferivano passare uno accanto al-
l'altro in un certo modo (probabilmente più per cerimonia e per mostrare rispetto che per
una effettiva percezione di pericolo), i loro protocolli non necessariamente dovevano venire
estesi all'intera popolazione. (dalla sezione "Historical questions" in (Lucas, 2005)).
10
rozze e i mezzi guidati stando sul veicolo o al suo interno sarebbe preferibile la sini-
stra (Lucas, 2005). La situazione attuale di predominanza della guida a destra potreb-
be essere stata dunque influenzata dal periodo di introduzione dei diversi mezzi di
trasporto e dalla loro proporzione relativa lungo le strade, oltre che da fattori di in-
fluenza politica, sociale e militare, come l'abitudine degli invasori di imporre le pro-
prie usanze alle popolazioni conquistate. Le invasioni napoleoniche, che estesero la
guida a destra a tutto l'impero francese, ne sono l'esempio più evidente (Dyer, 1999).
destra. Da quella posizione si ha una visibilità migliore se il mezzo tiene la destra (Lucas,
2005).
10
I cocchieri avrebbero un certo vantaggio, se non mancini, a sedersi sul lato destro della
carrozza, per tenere la frusta, maneggiata con la destra, lontana dagli altri passeggeri. Sedendo
sul lato destro, si ha pertanto una migliore visibilità quando il mezzo tiene la parte sinistra della
strada (Lucas, 2005). Secondo alcuni, a causa della cosiddetta "dominanza oculare" destra della
maggior parte degli individui, la guida a sinistra sarebbe oggi preferibile anche in automobile.
Si congettura, senza però fornire chiare evidenze empiriche, che questo potrebbe spiegare un
supposto aumento di incidenti occorsi nelle nazioni (tra cui la Svezia) passate di recente alla
guida a destra (Wikipedia, 2007c).
14 Capitolo 1
dali, i semafori, ecc. Quindi furono imposte velocità massime molto moderate, che
furono poi gradualmente riportate alla normalità. L'intero processo, se ricordo bene,
durò circa un mese» (dalla sezione "Changing from one side to the other - Sweden
1967" in (Lucas, 2005)). Oggi i costi di passaggio da un sistema all'altro vengono
chiamati dagli economisti "switching costs" e sono considerati uno dei fattori deter-
minanti per la diffusione degli standard nel tempo. Affronteremo questo aspetto
nell’analisi che seguirà nei prossimi capitoli.
Non è facile cambiare le abitudini della gente, soprattutto quelle in relazione al tem-
po. Le storie che seguono illustrano le difficoltà di introduzione delle riforme di ca-
lendario e i tentativi falliti di ottimizzare i metodi di misurazione del tempo.
Con la pubblicazione della bolla Inter Gravissimas il nuovo calendario [...] fu rifiutato nei
paesi di confessione protestante, malgrado le voci di eminenti astronomi a favore, come per
esempio Keplero. Il rifiuto era causato più per opposizione politico-religiosa che non per le
critiche alle piccole riforme introdotte. Sarebbe stato una ammissione dell’autorità del Papa.
Si può capire la confusione che ne derivò nei Paesi germanici, dove la popolazione era in
11
Oggi sappiamo che il cosiddetto "anno tropico" (cioè la distanza media tra due equinozi
d'inverno, che dovrebbero cadere il 21 di marzo) è di circa 365,2422 giorni.
12
Con il calendario gregoriano, adottato ancora oggi, gli anni divisibili per 100 non sono
bisestili, ad eccezione di quelli divisibili per 400. Ad esempio il 1900 non è bisestile, il 2000 si,
il 2100, il 2200 e il 2300 no.
Che cosa è uno standard 15
parte cattolica ed in parte protestante. [...] Ognuno usava il suo calendario. Per passare da un
calendario all’altro si dovevano sopprimere 10 giorni che diventarono 11 nel settecento. Per
fortuna, il ciclo di sette giorni della settimana è rimasto sempre intatto! (da (Casanovas,
2007), pag. 4).
Stesso dicasi per la protestante e autonoma Inghilterra, che fu una delle ultime a capi-
tolare:
Le nazioni protestanti tedesche adottarono la riforma gregoriana nel 1700. A quel punto, il
calendario era avanti di 11 giorni rispetto alle stagioni. L'Inghilterra (e le colonie americane)
aspettarono fino al 1752: il giorno dopo mercoledì 2 settembre 1752 fu giovedì 14 settembre
1752. Questo traumatico cambiamento provocò ampie proteste popolari, con la popolazione
manifestava al grido "Ridateci gli 11 giorni!". La Svezia seguì l'Inghilterra nel 1753. La
Russia, comunque, non si adeguò fino al 1918, quando il giorno dopo il 31 gennaio 1918 fu
direttamente il 14 Febbraio. (Weisstein & Mercado, 2007).
September 1752
1 2 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
Al contrario delle convenzioni per la guida a destra o a sinistra, che si basano su si-
stemi sostanzialmente equivalenti fra loro, le riforme di calendario hanno proposto un
cambiamento scientificamente giustificato e di fatto ineludibile, una sorta di corre-
zione di un antico errore. Eppure in entrambi i casi quello che davvero conta sono le
scelte collettive: si cambia non solo e non tanto perché il nuovo metodo sia migliore,
ma soprattutto per potersi meglio coordinare con coloro che lo hanno già adottato.
zionale che, come il sistema metrico, tendeva a riformare la società perfino nei rife-
rimenti temporali e spaziali. Contro le superstizioni e il fanatismo, in nome della Ra-
gione e di scienza, natura, poesia, ideologia e utopia, vennero abolite le domeniche, i
santi e le feste cristiane. Nel calendario repubblicano è possibile riconoscere l'opera
dei matematici soprattutto nel sistema decimale delle decadi e delle ore. L'anno re-
pubblicano inizia con il giorno dell'equinozio d'autunno ed è composto di dodici mesi
di 30 giorni, più un periodo aggiuntivo di 5 giorni (6 per i bisestili). Ogni mese re-
pubblicano è diviso in 3 decadi di 10 giorni; ogni giorno è diviso in 10 ore decimali
di 100 minuti decimali, ciascuno di 100 secondi decimali. Un'ora repubblicana ha
dunque la durata di 2 ore e 24 minuti. Nel calendario è riconoscibile anche l'opera dei
poeti e dei pittori, nei nomi conferiti ai mesi e ai giorni e nelle illustrazioni. I mesi di
ogni stagione sono in rima, e ne ricordano la sonorità, il clima e l'aspetto: ad esempio
i mesi primaverili (marzo, aprile e maggio) sono rispettivamente germinal, floréal e
prairial. I giorni assumono nomi di piante, di animali domestici e di attrezzi
(Chapelin, 2007) (Wikipedia, 2007a).
L'ora repubblicana fu fortemente voluta dal governo centrale: essa fu resa obbliga-
toria negli atti pubblici il 24 novembre del 1793. Il 22 Agosto 1794 fu indetto un con-
corso pubblico per la progettazione di nuovi modelli e fogge di orologi repubblicani,
che vennero anche concepiti con doppi quadranti per facilitare la conversione dal
vecchio al nuovo sistema (Cicha, 2007). Ciononostante, il cambiamento dell'orario
non ebbe successo: la legge di attuazione fu sospesa indefinitamente il 7 aprile 1795 e
non fu mai più ripristinata. Il calendario repubblicano ebbe invece una vita un po' più
lunga: esso fu utilizzato in Francia dal 24 ottobre 1793 fino al 1 gennaio 1806, e poi
reintrodotto per alcuni anni durante la Comune di Parigi del 1871; nel 1897 si fece
anche un secondo tentativo di riforma dell'orario, quando la cosiddetta Commission
de décimalisation du temps, coordinata dal matematico Henri Poincaré, propose un
sistema basato su un giorno di 24 ore "standard", ciascuna divisa in 100 minuti di 100
secondi (Hynes, 2007a). Anche questo sistema non riuscì a soppiantare quello tradi-
zionale e fu ben presto dimenticato.
In definitiva, sia la storia delle riforme del calendario che quella dei sistemi di mi-
surazione decimale del tempo mostrano come cambiare alcuni standard, anche quan-
do le ragioni tecniche sono evidenti e c’è una forte convinzione collettiva a favore del
cambiamento, risulti particolarmente difficile, se non impossibile. Una teoria dello
standard dovrebbe dunque rendere conto della difficoltà di generalizzare questi aspet-
ti. Similmente a quanto già visto, nelle diverse reazioni alle riforme di calendario e
del tempo possiamo leggere non soltanto il pesante retaggio della storia e delle abitu-
dini, che rende il cambiamento costoso o persino impossibile, ma anche l’influenza
dei fattori identitari come nazionalità e religione, che possono facilitare o ulterior-
mente ostacolare il processo di riforma, come era già successo ad esempio per
l’adozione dei diversi sistemi di guida in Paesi come la Namibia. Tutti questi elemen-
ti, che comprendono la razionalità ottimizzante e tecnica dello standard, gli effetti re-
te e di raggiungimento della massa critica, la path dependence e i costi di switching, i
fenomeni di "bandwagon" e l’influenza in essi dei fattori identitari e imitativi, sono
stati analizzati in vari studi specifici che prenderemo in rassegna più oltre; essi po-
tranno trovare adeguata collocazione come elementi di una teoria dello standard.
Che cosa è uno standard 17
parire magici agli occhi di chi li osservava, i due, affiancati dai loro assistenti, parti-
rono procedendo in direzioni opposte, Méchain verso Sud e Delambre verso Nord.
Il loro piano di lavoro iniziale (che era precedente all'incarico ufficiale del 1790)
prevedeva il ritorno entro sette mesi con tutte le misure necessarie per determi-
nare la lunghezza del metro. In realtà ci vollero oltre sette anni! Furono arrestati,
picchiati, calunniati, rincorsi da contadini sospettosi, e nel frattempo eseguirono
le loro misurazioni arrampicandosi su campanili, torri, castelli (il metodo delle
triangolazioni da loro utilizzato prevedeva che le stazioni di rilevamento fossero
poste in luoghi elevati), passando attraverso luoghi aspri e combattendo conti-
nuamente contro la diffidenza. Ma alla fine riuscirono a raggiungere il loro obiet-
tivo, calcolarono la misura di un quarto di meridiano terrestre (la distanza tra il
Polo Nord e l’Equatore) in 5130740 tese. Fu così che il 7 aprile 1795 venne pro-
mulgato il Sistema Metrico Decimale fondato sul metro (in greco metron significa
misura) pari alla quarantamilionesima parte del meridiano terrestre, con esso
vennero inoltre definiti il kilogrammo (corrispondente alla massa di un litro di ac-
qua distillata a 4° C) e il secondo.
Il nuovo sistema aveva tre attributi:
- le unità di misura erano basate su quantità immutabili presenti in natura;
- tutte le unità diverse dalle unità fondamentali derivavano dalle unità base;
- tutti i multipli e sottomultipli delle unità erano decimali.
Ma la storia non termina qui, la grande avventura nasconde un misfatto: nono-
stante la meticolosità del lavoro svolto dai due scienziati, Mechain commise un
errore nelle sue rilevazioni e lo nascose a tutti. I rimorsi per quanto fatto, però, lo
portarono sull’orlo della follia e della morte.
In base a successive misure il valore del metro fu così leggermente modificato ed
un decreto del 24 aprile 1799 stabilì la costruzione di due esemplari in platino,
uno per l’Archivio e uno per l’Osservatorio, accuratamente conservati in condizio-
ni di stabilità ambientale.
Il nuovo sistema di misura non venne subito ben accolto; lo stesso Napoleone, che
aveva dichiarato «Le conquiste militari vanno e vengono, ma questo lavoro durerà
per sempre» fu costretto a ristabilire le vecchie unità di misura. Solo nella secon-
da metà dell’Ottocento il Sistema Metrico Decimale cominciò ad essere adottato
prima dalla Francia e poi via via dal resto della comunità internazionale, compresa
l’Italia, con l’eccezione di alcuni paesi anglosassoni che introdussero il nuovo si-
stema solo molto più tardi. Nel 1875, a Parigi, fu approvata da 17 paesi la "Con-
venzione del Metro" con la quale si adottava tale unità per la misura della lun-
ghezza e contemporaneamente fu istituito l’organismo internazionale della me-
trologia (CGPM). Ma anche in questo caso non mancarono alcuni aspetti avventu-
rosi, infatti la leggenda narra che gli scienziati che erano stati chiamati ad illustra-
re agli USA i vantaggi del nuovo sistema furono assaliti dai pirati e derubati pro-
prio degli esemplari del metro.
Nel 1902 nacque il sistema MKS (metro, kilogrammo, secondo) che dopo varie
modifiche è divenuto nel 1960, durante l’11a Conferenza Generale dei Pesi e delle
Misure, il Sistema Internazionale (SI).
La prima ad aderire al SI fu la Francia nel 1961, poi la Germania e l’Australia nel
1969 e l’Inghilterra nel 1975. La CEE impose l’adozione ai suoi stati membri entro
il 1977; nel 1974 gli stati aderenti al SI erano 49. Oggi possiamo dire che il SI ha
una diffusione praticamente universale: oltre alla Birmania e alla Liberia, solo gli
USA non lo hanno ancora completamente adottato, ma lo utilizzano ampiamente
in campo tecnico-scientifico.
Non che oggi i problemi di misura siano del tutto scomparsi: in molti Paesi, accan-
to ai sistemi di misura ufficiali, resistono ancora le vecchie unità di misura con no-
Che cosa è uno standard 19
tevoli danni potenziali. La vittima più illustre di questo scontro tra vecchio e nuo-
vo è la sonda Mars Climate Orbiter schiantatasi sulla superficie di Marte. La com-
missione d’inchiesta istituita dalla NASA per scoprire le cause del fallimento è
giunta alla conclusione che la perdita è stata causata dall’immissione di dati e-
spressi nel sistema metrico decimale in un computer programmato invece per ac-
cettare dati nel sistema anglosassone; questo ha provocato un avvicinamento del
veicolo alla superficie del pianeta rosso ad una quota troppo bassa (57 km invece
dei 186 km previsti).
Le unità campione vengono oggi definite con metodi molto più sofisticati e precisi,
il metro viene attualmente definito come un multiplo (1.650.763,73 volte) della
lunghezza d’onda di una radiazione elettromagnetica.
Come spiegato nel riquadro, gli Stati Uniti sono sostanzialmente l'unico Paese del
mondo ancora riluttante a far uso del sistema metrico internazionale, anche se è in
corso da anni un graduale processo di adozione: nel 1975 il Metric Conversion Act
istituì il US Metric Board per promuovere e coordinare il passaggio su base volonta-
ria al nuovo sistema. Nel 1988 il Omnibus Trade and Competitiveness Act indicò il
sistema metrico come quello preferito e stabilì che entro il 1992 tutte le agenzie fede-
rali dovessero conformarvisi. Nel 1996 è stata costituita la US Metric Association
(USMA: www.metric.org) che ha il compito di promuovere e diffondere l’impiego del
sistema metrico non solo a livello governativo ma anche nella pratica quotidiana. Uno
degli slogan adottati da USMA nella campagna a favore del nuovo sistema è: «Come
l'Inglese è divenuto il linguaggio globale del commercio, il sistema metrico è divenu-
to il linguaggio globale di misura. Quindi: "parla in inglese e misura in metri"».
Le opposizioni sono comunque ancora forti. Un esempio è rappresentato dall'ade-
guamento delle norme sull'imballaggio e l'etichettatura, Fair Packaging and Labeling
Act (FPLA). Si è a lungo discusso se imporre l'uso esclusivo del sistema metrico in-
ternazionale sulle etichette, come richiesto dalle norme europee a partire dal 2010. In
una nota resa pubblica il 25 agosto 2005, il responsabile del Metric Group del NIST
(National Institute of Standards and Technology) rendeva noto che:
La proposta di adeguare il FPLA non è stata introdotta attraverso il Dipartimento del Com-
mercio perché non siamo stati in grado di persuadere il Food Marketing Institute […]. Dato
che il FMI è adamantino nella sua opposizione (e molto influente nelle sedi governative), è
improbabile che avremo successo nell'ottenere la presentazione di una proposta di legge in
questo senso al Congresso nel prossimo futuro. Devo anche aggiungere che non abbiamo
avuto successo nell'ottenere supporto per tale proposta nemmeno da altre organizzazioni in-
dustriali. (Butcher, 2007).
sono in grado di fornire la carta A4. Il passaggio al nuovo sistema porrebbe i fornitori
in condizioni di sostanziale oligopolio, alterando il processo competitivo di fornitura.
La storia e i vantaggi del formato metrico standard A4 sono egregiamente documen-
tati da Markus Kuhn in (Kuhn, 2006).
Ancora una volta, dunque, il peso della storia incide sulle scelte di accettazione di
uno standard, e ciò avviene anche se il resto del mondo ha già adottato il sistema in-
ternazionale, che è scientificamente e indubitabilmente dimostrato come più razionale
e più economico del vecchio. Ancora una volta, insieme ai fattori economici e ai costi
di passaggio, gli elementi identitari giocano un ruolo sottile ma importante: rinunciare
alle proprie misure per adottare quelle di altri può sembrare una sconfitta, che può es-
sere mitigata pensando che in cambio si è riusciti a imporre il proprio linguaggio,
come lo standard "parla inglese e misura in metri" sembra discretamente sottolineare.
Molti si chiedono se sarà mai possibile avere un sistema uniforme di spine e prese di
corrente nel mondo, che ridurrebbe enormemente i costi di produzione, quelli di co-
ordinamento e gli inconvenienti dovuti all’incompatibilità di spine e prese diverse.
Effettivamente uno standard a questo fine già esiste, ed è stato approvato nel 1986
nell’ambito della IEC (International Electrotechnical Commission), la principale or-
ganizzazione mondiale per gli standard in campo elettrotecnico ed elettronico.
Il cosiddetto "universal plug and socket system" (standard IEC 60906) ha avuto
una storia travagliata, che ha origine nei primi anni trenta (IEC, 2007), e che risultò
soltanto nel 1970 alla creazione di un’apposita sottocommissione, la SC 23C:
Le prime bozze di un sistema universale considerate dalla SC 23C proponevano spine con
steli metallici piatti, come negli USA e in UK, e questo fu accettato per diversi anni. Quan-
do però si giunse alla fase di voto, si cominciarono a sollevare obiezioni crescenti: molte
commissioni nazionali si espressero in favore di una soluzione con steli arrotondati […].
Dopo lunghe e spesso aspre discussioni, la sottocommissione giunse ad una soluzione accet-
tabile, che impiegava il sistema a steli arrotondati per le installazioni a 250 Volts (IEC
60906-1) e un sistema a steli piatti per le installazioni a 125 Volts (IEC 60906-2) (IEC,
2007).
Figura 1.3 Spine universali a due e tre steli secondo lo standard IEC 60906-1. Fonte: (IEC,
2007).
Non solo infatti il sistema standard non ha generalmente soppiantato quelli nazionali
preesistenti: è stato addirittura lanciato un secondo tentativo di standardizzazione a
livello europeo negli anni ’90, attraverso la CENELEC, la commissione europea per
la standardizzazione elettrotecnica.
Più recentemente, negli anni ’90, la CENELEC è stata sollecitata dalla Commissione Euro-
pea a proporre un sistema di spine e prese che armonizzasse quelli europei. […] La
CENELEC ha preso come punto di partenza lo standard IEC del 1986 e ha speso migliaia di
ore-uomo nell’impresa quasi impossibile di modificarne il design con l’obiettivo di assicura-
re un impiego sicuro al 100% se usato in congiunzione con tutti i tipi già esistenti in Europa.
Naturalmente, a parte le difficoltà tecniche, c’era lo scontro dei molti diversi interessi politi-
ci e commerciali; non c’è da meravigliarsi che, dopo molto lavoro e innumerevoli riunioni,
la CENELEC abbia dovuto ammettere la sconfitta e abbandonare l’impresa, con il disap-
punto della Commissione Europea (IEC, 2007).
Concordare e pubblicare uno standard in questo settore è dunque molti difficile e non
è stato in ogni caso sufficiente ad assicurarne l’adozione generalizzata. Una teoria
dello standard dovrebbe essere in grado di spiegare il perché, tenendo conto anche di
come motivazioni economico-razionali come la ricerca della compatibilità tecnica e
la riduzione del rischio e dei costi di passaggio al nuovo sistema possano convivere
con il bisogno di affermazione delle proprie identità nazionali e continentali, fattori
già presenti in grado diverso nelle storie considerate in precedenza.
Poi solo i fanatici del basket vi sapranno spiegare correttamente cosa sia una palla
viva (che nulla ha a che fare con una palla magica o con la palla avvelenata) e se
c’è violazione nel caso in cui i 24 secondi terminino nel momento esatto del tiro o
quando la palla tocca il ferro o quando… insomma, per i dettagli tecnici potete
leggere le specifiche del regolamento o rivolgervi a qualche inguaribile patito della
pallacanestro.
Il punto è che da quando si prende il pallone (sarebbe questo il famoso
"l’acquisire il possesso") bisogna tirare entro 24 secondi. Punto e basta, tutto qui.
Se ci mettete di più, allora, commette un’infrazione. L’arbitro fischia --in realtà po-
trete sentire una sirena orribilmente uguale in tutti i palazzetti dello sport che ini-
zia a gemere, i tabelloni quasi offesi dalla mancanza di rispetto diventeranno rossi
come a infierire sulla squadra che non solo non ha fatto canestro, ma che ha at-
taccato così male da non esser stata in grado nemmeno di tirare!-- e la palla andrà
alla squadra che difendeva.
Tutto qui. Semplice e lineare. Fino ad una decina di anni fa succedeva però una
cosa strana. In tutta Europa la regola dei "24 secondi" era conosciuta come la re-
gola dei "30 secondi". Esatto, proprio perché i secondi a disposizione per tirare
erano 30 (in realtà la regola era internazionale, era FIBA, ma il discorso è lo stes-
so). Fin qui tutto normale. Se non che nell’NBA (National Basketball Association),
la lega statunitense… con qualche infiltrazione canadese, i secondi a disposizione
per tirare erano da sempre 24. E giusto per chiarire: l’NBA era ed è il basket. Dico
IL basket. Quello che si guarda quando ci si vuol emozionare. Anzi allora la diffe-
renza tecnica e fisica era più ampia di oggi. Allora una qualsiasi squadra dell’NBA
ne avrebbe dati 40-50, di punti, senza sforzi a quasi tutte le squadre europee. Og-
gi, per diverse ragioni non è più così… ma se volete sorridere guardando una parti-
ta… l’NBA è sempre un ottimo inizio. Ma lasciamo il basket dei fenomeni e tor-
niamo alla nostra regola dei 24/30 secondi. Dunque dicevamo in tutto il mondo si
avevano a disposizione 30 secondi e nell’NBA 24. E allora?
Allora la prima cosa interessante era che nei mondiali di basket, alle olimpiadi, la
squadra USA si trovava a giocare con regole diverse a quelle cui era abituata (mica
solo quella dei 30 secondi, c’erano regole diverse per la difesa a zona e altre anco-
ra). Con un duplice risultato: gli statunitensi erano abituati a giocare più veloce-
mente per poter concludere entro i 24… e quindi si trovavano a disposizione altri
6 secondi (che nel basket sono un’eternità!) per giocare ancora. D’altra parte que-
sto voleva anche dire che dovevano potenzialmente esser pronti a difendere 6 se-
condi in più ogni azione (e anche qui è un’eternità… ed un’eternità molto fatico-
sa!).
L’altro aspetto da considerare è proprio che la regola dei 24, insieme a molti altri
fattori, contribuiva alla spettacolarità del basket NBA. Costringeva infatti il gioco
ad esser più veloce, i giocatori a correre di più, gli schemi d’attacco ad essere me-
no complessi… e stimolava molto la fantasia/disperazione degli attaccanti che ar-
rivati a 2/3 secondi dallo scadere dei 24 erano obbligati a inventare qualche pene-
trazione o tiro folle… e quindi spettacolare!
Come è andata a finire già lo sapete: la FIBA per rendere più spettacolare il basket
europeo (e non solo) ha cambiato la regola ed ha portato anche i suoi campionati
a 24 secondi. Ricordo le opinioni che circolavano nell’ambiente del basket romano
l’anno dell’introduzione della nuova regola… ma alla fine… il basket ne ha giovato,
ora siamo quasi tutti concordi. Il gioco si è velocizzato, l’intensità è aumentata, i
contropiedi e le azioni sono diventate più emozionanti e anche per questo credo,
la qualità del basket europeo e degli altri campionati si è avvicinata sempre più a
quella dell’NBA. Tanto che oggi molti europei e stranieri giocano da protagonisti
Che cosa è uno standard 23
negli USA… e addirittura la prima scelta assoluta 2007 (ossia il giovane selezionato
per primo da una squadra NBA per il campionato seguente) è stata un italiano,
Andrea Barignani. Non dipenderà certo dalla regola dei 24 secondi… ma un picco-
lo contributo quei 6 secondi di differenza l’hanno di sicuro dato.
13
Una versione in inglese moderno del poemetto è disponibile su (of Hexham, 2007).
24 Capitolo 1
dardo, la bandiera, vengono infatti estesi, esposti all'esterno in modo ben visibile per-
ché possano essere facilmente riconosciuti da tutti.
La radice etimologica del termine "standard" come stendardo o, per estensione na-
turale, come bandiera, suggerisce dunque l’idea di un segno di appartenenza a un
gruppo che viene intenzionalmente reso visibile al pubblico. In quanto tale, esso do-
vrebbe presentare tre attributi essenziali: identità condivisa, visibilità e stabilità. Cia-
scuno di questi tre attributi verrà ora brevemente preso un esame.
Identità condivisa
Tipicamente lo stendardo rappresenta un gruppo: anche quando fa riferimento ad un
individuo specifico (es. l'imperatore), esso sottolinea simbolicamente un'identità con-
divisa e collettiva (il casato, l'esercito, il popolo dell'imperatore, ecc.). Il riconosci-
mento e il rispetto di questo simbolo identitario pubblico non riguarda unicamente il
gruppo di appartenenza, ma viene richiesto a tutti. Durante la prima guerra mondiale,
ad esempio, numerosi patrioti italiani diedero la vita pur di difendere la bandiera ita-
liana e non farla cadere nelle mani del nemico. Solitamente la comunità non solo ri-
spetta il proprio stendardo/bandiera, ma si adopera perché esso venga generalmente
riconosciuto e rispettato anche da chi non fa parte di essa, considerando ad esempio
ogni offesa alla bandiera nazionale come un'offesa alla nazione stessa che vi si rico-
14
nosce ed identifica .
Visibilità
Anticamente gli stendardi avevano una notevole importanza pratica: spesso nelle bat-
taglie campali erano lo strumento che permetteva di individuare anche da lontano la
posizione degli eserciti alleati o nemici. In questo senso la visibilità dello stendar-
do/bandiera era un connotato essenziale e primario, sia nei confronti del gruppo adot-
tante, che poteva ottenere aiuto e sostegno dai propri alleati, sia nei confronti degli
esterni e dei nemici.
Stabilità
Un ulteriore aspetto importante che può ricavarsi dal significato originario della paro-
la "standard" come stendardo/bandiera è quello di stabilità nel tempo. A causa della
sua visibilità e del suo valore identitario condiviso come segno di appartenenza ad un
gruppo, uno stendardo/bandiera tende a rimanere invariato nel tempo. La bandiera
americana e quella dell'Unione Europea rappresentano una felice eccezione a questa
regola, con il numero di stelle che è aumentato nel tempo a rappresentare il progres-
sivo estendersi del numero di stati: comunque, si tratta di un cambiamento non so-
stanziale e anzi necessario a mantenere invariato il significato simbolico adottato in
fase iniziale: una stella per ogni stato. In generale, stendardi e bandiere hanno una lo-
ro connotazione chiara, definita e accettata da tutti, che una volta definita non viene
più cambiata nella sostanza.
14
Lo stesso ordinamento giuridico italiano ripone un altissimo valore nella bandiera nazionale
(art. 12 della Costituzione), configurando il reato di "vilipendio alla bandiera" (art. 292 del
Codice Penale).
Che cosa è uno standard 25
La parola "standard" viene attualmente usata in modo simile sia in italiano che in in-
glese. Lo Zingarelli e il dizionario inglese-italiano Garzanti-Hazon sono sostanzial-
mente concordi nell'attribuirvi, accanto ad un certo numero di connotazioni in campi
specialistici (statistico, urbanistico, linguistico, botanico, …), tre accezioni fonda-
mentali: 1) modello, campione, tipo, criterio di giudizio/confronto (es. "standard di
sicurezza"; "by any standard this is great music"); 2) livello, grado di eccellenza, qua-
lità (es. "standard di efficienza", "standard of living"); 3) supporto, base, piedistallo.
I primi due significati hanno connotazioni simili, indicando un punto di riferimen-
to e di confronto che può essere neutro oppure indicare un obiettivo desiderabile. Il
terzo significato presuppone invece un processo di costruzione/evoluzione, di cui lo
standard rappresenta il fondamento, la base di partenza.
L'idea moderna dello standard come punto di riferimento e come base di partenza
aggiunge invero qualcosa al significato etimologico originario di segno di apparte-
nenza ad un gruppo, riferendosi agli aspetti normativi che determinano
l’appartenenza al gruppo. Entrare a far parte del gruppo che adotta uno standard vuol
dire non solo riconoscere lo standard, ma conformarsi ad esso, seguirne il modello,
cioè applicare delle norme di riferimento o di base.
Il fatto che lo standard non sia soltanto un segno di appartenenza a un gruppo, ma
anche un particolare tipo di norma che il gruppo adottante sceglie di seguire verrà
ulteriormente chiarito nelle definizioni in letteratura che verranno analizzate qui di
seguito.Implicitamente si assume anche un’idea di condivisione: un punto di riferi-
mento e una base di partenza può aver rilievo per un singolo individuo, ma diviene
uno standard quando viene condiviso tra più persone. Dall’idea di condivisione deri-
va il concetto di gruppo adottante: il punto di riferimento, la base di partenza vale per
il gruppo di coloro che hanno deciso di aderirvi e condividerla, adottando lo standard.
Per poter garantire l'uso dello standard a chiunque voglia entrare a far parte del grup-
po adottante, la visibilità (spesso ottenuta attraverso la pubblicazione delle specifiche
tecniche dello standard) appare un requisito essenziale, così come la stabilità nel tem-
po dello standard. I connotati etimologici originari di appartenenza, visibilità e stabi-
lità appaiono dunque ben presenti ancora oggi nel significato corrente della parola
"standard".
In definitiva, dunque, il significato corrente della parola "standard" di modello,
base, norma, risulta riflettere ancora oggi, pur in modo implicito, il senso etimologico
originale di segno di appartenenza ad un gruppo, visibile e stabile, latore di identità
condivisa. Oggi tali antichi connotati originari non sono più immediatamente ricono-
scibili, ma possono risultare di grande aiuto per analizzare a fondo la natura del fe-
nomeno.
26 Capitolo 1
15
E' interessante notare come questa classificazione in standard tecnici di riferimento, qualità
minima e compatibilità corrisponda ai significati correnti della parola standard discussi nella
sezione precedente (modello, base, norma): gli standard di riferimento e quelli di qualità
minima sono modelli usati a fini di confronto, di valutazione, di garanzia del raggiungimento di
particolari requisiti. Gli standard di compatibilità fungono da base, in quanto garantiscono che
un componente possa essere integrato in un sistema più ampio, a patto di rispettare le
specifiche tecniche dettate dallo standard stesso. In questo senso essi fungono da "piedistallo",
da base fondante del sistema stesso, costituendone spesso parte essenziale dell’architettura. Sia
come modelli che come base, essi hanno il carattere di un particolare tipo di regola, ad
adesione volontaria, come si vedrà in seguito. Per un’analisi più estesa e generalizzata di
questa tassonomia si rimanda a (David, 1987).
16
In effetti, «entrambi [SDO e governativi] vengono a volte genericamente indicati come de
jure, sebbene solo nel secondo caso essi abbiano effettivamente forza di legge» (David &
Greenstein, 1990:4).
28 Capitolo 1
standard
di compatibilità
tecnica
standard standard
de facto de jure
pubblicati da promulgati da
non sponsorizzati sponsorizzati organizzazioni organizzazioni
volontarie (SDO) governative
Figura 1.4 Classificazione degli standard di compatibilità tecnica di (David & Greenstein,
1990).
Il termine "standard" è usato in più di un modo. Esso viene impiegato nel linguaggio di tutti
i giorni quando ci si riferisce ai mezzi di determinare «il modo in cui le cose dovrebbero es-
sere». Ciò è abbastanza ampio da includere le regolarità della pratica stabilite dall’autorità,
dall’uso, o dall’accordo generale su di un modello, esemplare o criterio, così come su qual-
cosa che è stato stabilito per autorità come una regola per la misura di quantità, peso, esten-
sione, valore o qualità. Nel parlato corrente il sostantivo "standard" ha anche acquisito un
significato speciale (quello che i giuristi chiamerebbero term of art, termine tecnico); esso
viene invocato quando l’Organizzazione Internazionale per la Standardizzazione (ISO) ne fa
uso in riferimento ad un documento tecnico che descrive il progetto, la composizione mate-
riale, la lavorazione o le caratteristiche di performance di un prodotto. (David & Steinmuel-
ler, 1994:218).
Che cosa è uno standard 29
Ciò che distingue in primo luogo l’ampia serie di significati adottati nel linguaggio
corrente da quello tecnico ISO è la presenza di un documento tecnico in forma scritta
e pubblicamente accessibile, che dunque costituisce, almeno secondo l’ISO, un requi-
sito essenziale che distinguerebbe lo standard in senso proprio da altri tipi di norme
informali e non scritte.
In sintesi, dunque, David e i suoi coautori distinguono originariamente tra stan-
dard tecnici e comportamentali per poi focalizzarsi su quelli tecnici, visti come un in-
sieme di specifiche pubblicate in forma scritta a cui è possibile aderire.
La maggior parte delle analisi […] si sono concentrate sui sistemi tecnologici in senso stret-
to. […]. [In esse, solo] occasionalmente il comportamento umano è parte di ciò che viene
standardizzato e coordinato; […] ma pochi nella tradizione davidiana si sono focalizzati di-
rettamente sugli standard come strumento di coordinamento del comportamento umano
piuttosto che come tecnologia di interconnessione. E questo è piuttosto sorprendente. Infatti
gli standard sono in essenza una particolare istituzione sociale; e le istituzioni sociali sono
modelli di comportamento ricorrenti che aiutano a coordinare l’attività umana. (Langlois &
Savage, 1997:150, corsivo aggiunto)
Regole concordate
Bowker e Star, nella loro brillante e approfondita analisi dei sistemi di classificazione
(Bowker & Star, 1999), prendono in considerazione anche il concetto di standard, che
è legato a quello di classificazione, pur restandone distinto.
17
La dicitura di Langlois "standard come istituzione" sarebbe forse più appropriatamente
espressa in "standard come componente istituzionale", dato che in base ad una visione oggi
ampiamente accettata, un’istituzione consiste, oltre che di norme e regole, anche di altre
strutture e attività: «le istituzioni consistono in strutture cognitive, normative e regolative e in
attività che danno stabilità e significato al comportamento sociale» (Scott, 1995:55, ed. it.).
Esempi classici di istituzioni comprendono lo Stato, il matrimonio, il denaro. Il fatto che le
istituzioni includano modelli di comportamento (sia formali che informali) non vuol dire che i
modelli di comportamento siano istituzioni, ma piuttosto componenti istituzionali, e con essi
gli standard. L’argomento verrà ripreso in maggiore dettaglio nella parte dedicata alle teorie
istituzionali, nel capitolo 3, sez. 3.3.2.
30 Capitolo 1
Secondo gli autori, «A ‘standard’ is any set of agreed-upon rules for the
production of (textual or material) objects», cioè un insieme di regole concordate per
la produzione di oggetti (testuali o materiali) (Bowker & Star, 1999:13). Tali regole
vengono tramandate nel tempo tra comunità e gruppi sociali; esse servono anche a
«making things work together over distance» (far funzionare le cose insieme a distan-
za); sono generalmente "enforced" (imposte, fatte rispettare) dalle istituzioni e mo-
strano una considerevole inerzia, senza peraltro che vi sia alcuna garanzia che preval-
gano e vengano sempre adottate le migliori.
La definizione proposta da Spivak e Brenner è in sintonia con quella di Bowker e
Star: «Uno standard, nel senso più semplice, is an agreed-upon way of doing some-
thing (è un modo concordato di fare qualcosa). Più elegantemente, uno standard defi-
nisce un set uniforme di misure, accordi, condizioni o specifiche tra le parti (compra-
tore e venditore, produttore e utente, governo e imprese, governanti e governati,
ecc.)» (Spivak & Brenner, 2001:16, corsivo aggiunto).
L’idea di agreement, accordo, appare qui centrale: uno standard nasce innanzi tut-
to da un accordo negoziale tra due o più soggetti, che concordano qualcosa in comu-
ne. Questo "qualcosa" abbraccia un campo molto ampio, che difficilmente può essere
delimitato in un elenco. La nozione di regola, che verrà esplicitamente considerata
nel seguito, sembra appropriata a considerare la natura e l’ambito di tale accordo.
ad un livello generale ed astratto, gli standard costituiscono regole su ciò che coloro che li
adottano debbano fare, anche se ciò riguardi soltanto il dire qualcosa o il designare qualcosa
in un modo particolare. Più specificamente, si possono distinguere tre tipi di standard: stan-
dard sull’essere qualcosa, sul fare qualcosa, o sull’avere qualcosa. (Brunsson et al., 2000:4,
corsivo aggiunto).
Gli standards hanno in comune due aspetti con le direttive formali, che li distinguono dalle
norme sociali: [standard e direttive] sono espliciti ed hanno una fonte evidente [al contrario,
18
In questo senso, anche se con una definizione meno ampia e completa, già (King et al.,
1994:156): «La standardizzazione è una forma di regolamentazione mirata a vincolare le
opzioni di attori e organizzazioni in assenza di autorità centrale a più ampi obiettivi
istituzionali o sociali. Gli standard sono socialmente costruiti; essi sono accordi o "trattati" tra
le parti interessate per descrivere un modo di fare le cose come "preferibile". Possono essere
completamente volontari, come lo sono molti standard emanati da associazioni professionali e
commerciali, o possono avere forza di legge»
Che cosa è uno standard 31
le norme sociali sono implicite e non hanno fonti riconoscibili]. Gli standard, d’altra parte,
si differenziano dalle direttive formali per il fatto che essi sono, almeno nominalmente, ad
adesione volontaria. Gli standardizzatori non hanno la possibilità di far valere sanzioni su
coloro che non si adeguano ai loro standard. Se uno standard raccolga o no adesioni dipende
prevalentemente non tanto dall’autorità gerarchica della fonte proponente, quanto dalla ca-
pacità dello standard stesso di risultare gradito ai potenziali adottanti per altre ragioni
(Brunsson et al., 2000:13).
Anticipatory standards
Nel numero monografico di MIS Quarterly 2006 dedicato al tema "IT standard ma-
king" (Lyytinen & King, 2006) accanto alle classiche tipologie di standard individuati
in (David & Greenstein, 1990), che includono quelli di riferimento, di qualità minima
e di compatibilità/interoperabilità, alcuni contributi prendono specificamente in esa-
me i processi di creazione di standard che si riferiscono a prodotti e applicazioni non
ancora sul mercato, guidandone la compatibilità e l’interoperabilità futura, come ad
esempio è avvenuto per gli standard tecnici dell’infrastruttura di telefonia mobile
GSM (Bekkers et al., 2002) e di comunicazione bluetooth (Keil, 2002). Questo tipo di
standard prendono il nome di anticipatory standards. Per una discussione sulla nasci-
ta e le implicazioni degli anticipatory standards nel settore IT, vedi (Bonino &
Spring, 1999).
1.2.3 Discussione
19
Si consideri ad esempio la seguente definizione di Carl Cargill, che manca forse di generalità
e può risultare piuttosto eccentrica, ma introduce particolari spunti di riflessione sugli
anticipatory standards (Bonino & Spring, 1999). «Uno standard, di qualsiasi forma e tipo,
rappresenta una dichiarazione da parte degli autori, che credono che il loro lavoro verrà
compreso, accettato e attuato dal mercato. Questa convinzione è bilanciata dalla
consapevolezza che il mercato agirà secondo il proprio esclusivo interesse, anche se questo
non coinciderà con lo standard. Uno standard è anche uno degli agenti utilizzati dal processo
di standardizzazione per causare cambiamenti nel mercato» ((Cargill, 1989:41-42), corsivo in
originale). Un’altra definizione piuttosto diversa da quelle menzionate qui sopra è stata
proposta con riferimento ai processi di standardizzazione. Essa ha origine dalla sintesi degli
elementi essenziali di varie definizioni precedenti operata in (de Vries, 1999): «La
standardizzazione è l’attività di stabilire e registrare un insieme limitato di soluzioni a
‘matching problems’ effettivi o potenziali, dirette a benefici per la parte o le parti coinvolte,
bilanciandone le necessità, con l’intesa e l’aspettativa che queste soluzioni saranno
ripetutamente o continuamente impiegate durante un certo periodo o da un numero sostanziale
di parti alle quali esse sono indirizzate» , dove ‘matching problems’ sono «problemi di entità
32 Capitolo 1
Tabella 1.1 Quadro sintetico dei significati attribuiti dalla letteratura al termine "standard".
interrelate che non armonizzano le une con le altre» (Gelinas & Markus, 2005:3). Questa
definizione anticipa alcune delle osservazioni che verranno svolte nei prossimi capitoli
sull’impiego degli standard nelle organizzazioni e sui processi di creazione e diffusione. Tra
queste il coordinamento (armonizzazione delle parti), gli effetti rete (numero sostanziale di
parti), gli aspetti di potere (il bilanciamento delle necessità delle parti), la dipendenza dal
percorso (impiego dello standard per un certo periodo). Essa può però risultare ai nostri fini
fuorviante, ponendo in primo piano fattori probabilmente importanti nei processi di
standardizzazione, senza però spiegarne i motivi, la rilevanza e la generalità. D'altra parte, la
definizione lascia invece in secondo piano un elemento qui considerato essenziale della forma
scritta e pubblica. Un modo ancora diverso di esprimere l'idea di standard emerge da studi in
ambito medico: «uno standard medico è visto come un technoscientific script che cristallizza
traiettorie multiple» (Timmermans & Berg, 1997:275). In questo caso il concetto di "traiettorie
multiple" è mutuato dalle teorie sociologiche cosiddette "attore-rete" (actor network theory:
(Callon, 1986); (Law, 1987); (Law, 1992); (Latour, 2005)). L'idea delle traiettorie multiple
viene usata dagli autori per indicare la molteplicità di diversi impieghi locali a cui è collegato,
nell'uso e spesso anche nell'origine, uno standard universale; si rinvia per questo aspetto alle
riflessioni sul grado di flessibilità d'uso di uno standard che verranno proposte nel capitolo 3,
sez. 3.3.6.
Che cosa è uno standard 33
… ad adesione volontaria…
Brunsson parla di volontarietà "almeno nominale" dell’adesione come requisito es-
senziale di uno standard. Come abbiamo visto, l’adesione è considerata volontaria in
modo più o meno esplicito dalla maggior parte degli autori, per lo più sulla scia di
David e Greenstein che fanno un generico riferimento ad un accordo di adesione. In
effetti non sempre l’uso di uno standard è opzionale, ed anzi molti standard vengono
definiti per autorità da enti governativi e imposti per legge; «Gli standard possono es-
sere istituiti da organizzazioni di standardizzazione volontaria. Inoltre, essi possono
20
anche essere imposti per autorità da enti governativi» (Greenstein, 1992:538) . Si
rende dunque qui necessario un duplice chiarimento, che riguarda da un lato le forme
di adesione resa obbligatoria in forza di norma cogente, dall’altro le forme di adesio-
ne ad uno standard sottoposto al pagamento di diritti di proprietà intellettuale (Intel-
lectual Property Rights, IPR) o ad altre forme di controllo.
Adesione obbligatoria in forza di legge. Molti standard, pur restando nominal-
mente ad adesione volontaria, sono localmente ad adesione obbligatoria per effetto di
legge o di altre regolamentazioni cogenti, come ad esempio gli standard igienico-
sanitari, gli standard ecologico-ambientali, gli standard di sicurezza e molti altri pre-
visti per l’autorizzazione all’esercizio di attività economiche e commerciali. La di-
stinzione tra la regola che impone uno standard preesistente e il processo di standar-
dizzazione che lo costituisce non è sempre cristallina: si pensi ad esempio ad una leg-
20
In questo senso vedi anche ad esempio (Rosenberg, 1979:80) «Gli standard sono insiemi di
condizioni o requisiti, prescritti e adottati formalmente oppure ampiamente riconosciuti e
accettati, e rispettivamente promulgati dalle amministrazioni pubbliche o meramente stabiliti
da usi o accordi tra acquirenti, venditori, o altre entità ammministrative o commerciali».
34 Capitolo 1
ge che impone per la circolazione dei veicoli in autostrada un certo limite di velocità
massima. E’ stato del resto autorevolmente affermato che alcuni standard de jure
21
hanno "forza di legge"; essi non potrebbero pertanto essere ad adesione volontaria .
L’argomentazione di Brunsson e di coloro che con lui sostengono che è proprio la
volontarietà dell’adesione a distinguere gli standard dalle regole coercitive appare qui
del tutto convincente. La volontarietà dell’adesione come connotato distintivo dello
standard rispetto alla regola coercitiva risulta infatti ben chiara, anche in presenza di
standard "con forza di legge", qualora si distinguano i diversi gruppi di riferimento, in
linea con l’approccio di (Pinch & Bijker, 1987) che verrà preso in esame più oltre
(capitolo 3, sezione 3.3.6). Ad esempio, nel caso di una delibera cogente che sancisca
l’impiego per un’amministrazione comunale di un sistema di certificazione ambienta-
le secondo lo standard ISO 14001, il gruppo di riferimento che è obbligato
all’adozione dello standard è quello dei cittadini del comune interessato (i soggetti di
riferimento della regola coercitiva); esiste invece un diverso gruppo di riferimento di
coloro che adottano lo standard ISO 14001 (numerose organizzazioni in Italia e
all’Estero) che è sempre aperto a nuove adesioni su base volontaria. La "forza di leg-
ge" per il gruppo dei cittadini del comune non è data in questo caso dalla regola stan-
dard ISO 14001 ma dalla diversa regola cogente che ne sancisce (solo per essi e non
universalmente) l’adozione obbligatoria.
Adesione ad uno standard sottoposto a brevetti, licenze o simili. In alcuni casi lo
standard, pur essendo pubblicamente disponibile in forma scritta, è sottoposto a bre-
vetto, licenza o ad altre forme di tutela che ne limitano o subordinano l’impiego lega-
le al pagamento dei corrispondenti diritti a chi che ne detiene la proprietà e può limi-
tarne l’apertura, cioè il libero uso. Gli aspetti della proprietà e dell’apertura di uno
standard verranno considerati più in dettaglio nel seguito.
In definitiva, dunque, la volontarietà di adesione ad uno standard può essere com-
pressa in due sensi opposti: da un lato essa può essere resa obbligatoria in forza di
normativa cogente, dall’altro possono darsi restrizioni significative in base alla disci-
plina di brevetti e licenze. Per quanto discusso finora, però, questo non sembra altera-
re fondamentalmente la concezione dello standard come regola ad adesione essen-
zialmente volontaria.
21
Vedi ad esempio (David & Greenstein, 1990), come riportato in nota 16, e anche in (King et
al., 1994:156): «[gli standard] possono essere completamente volontari, come molti standard
promulgati da associazioni professionali e commerciali, o possono avere forza di legge».
Che cosa è uno standard 35
22
mente anche in altre definizioni (tra cui quella dell’ISO , discussa anche, come ab-
biamo già visto, in (David & Steinmueller, 1994)), si fa specifico riferimento ad un
documento scritto. Le norme sociali, le consuetudini e le routine, anche se a volte
vengono indicate con l’attributo standard nel linguaggio corrente, non possono dun-
que costituire, in questo senso, degli standard, in quanto non hanno forma scritta e
pubblica. Anche le specifiche tecniche proprietarie, tenute segrete e non rivelate pub-
blicamente, non possono qui considerarsi come degli standard.
La proprietà e l’apertura
A chi appartiene uno standard? In (Kindleberger, 1983) viene discusso il carattere di
23
bene pubblico di alcuni standard, come i sistemi di misurazione, distinguendolo da
quello privato di standard industriali o tecnici, che possono essere creati per apparte-
nere ad una collettività specifica (standard collettivi) o a individui/istituzioni (stan-
dard privati). Gli standard privati vengono anche comunemente chiamati "standard
proprietari":
Con uno standard proprietario un’impresa detiene diritti di proprietà sullo standard e li usa
per restringere l’adozione da parte di altre imprese. Essa potrebbe opporsi a qualsiasi tenta-
tivo di copiare lo standard o potrebbe addebitare delle royalties. Gli standard proprietari di
solito richiedono che qualche proprietà intellettuale nello standard sia fortemente protetta da
24
brevetti, copyright, o conoscenze specifiche , come le pellicole Kodacolor, le copiatrici Xe-
rox, il software IBM, o i medicinali di marca (Grindley, 1995:24).
Gli standard proprietari possono dunque essere "chiusi", nel senso che l’adozione
può essere ristretta o impedita. Agli standard chiusi si contrappongono gli "standard
aperti", categoria a cui appartiene la maggioranza degli standard di oggi. Essi sono di
dominio pubblico e liberamente aperti all’uso di tutti: «Con uno standard aperto nes-
suna restrizione viene applicata sulle altre imprese che adottano lo standard, che esi-
22
Brunsson nota tra l’altro che la definizione di standard secondo l’ISO costituisce essa stessa
uno standard: «Infine, vale la pena notare che ci sono anche standard per definire che cosa è
uno standard. Quello che segue è uno standard ISO che specifica che cosa è uno standard: ‘un
documento stabilito attraverso il consenso e approvato da un’istituzione riconosciuta, che
fornisce, per uso comune e ripetuto, regole, linee guida, o caratteristiche per le attività o i loro
risultati, mirato al raggiungimento del grado ottimale di ordine in un dato contesto (SS-EN
45020 1999)’ (Brunsson et al., 2000:15).
23
Sulla natura di bene pubblico e di bene collettivo vedi nota n. 68.
24
Si noti come, secondo la definizione che si va qui delineando, la forma scritta e pubblica
rappresenti un requisito essenziale dello standard. Dunque, come già accennato, perché in
questa sede possa parlarsi di standard, non dovrebbero essere impiegati meccanismi di
protezione basati sull’occultamento delle specifiche tecniche. In tal caso dovremmo parlare di
tecnologie proprietarie, piuttosto che di standard proprietari. Un esempio è quello delle
specifiche tecniche del sistema operativo Microsoft Windows, che vengono spesso considerate
come uno standard de facto. Per esempio: «Il periodo dopo l’affermazione di Windows come
uno standard non ha visto nessun tentativo diretto significativo di ingresso o espansione nel
mercato dei sistemi operativi per personal computer» (Bresnahan, 2001:13). Le specifiche
tecniche di Windows sono state solo parzialmente rese pubbliche, quindi non andrebbero
strettamente considerate, in questa sede, come un esempio di standard proprietario.
36 Capitolo 1
25
La casa produttrice Adobe ha spesso autorizzato l’uso gratuito del formato PDF, anche
all’interno di software libero e open source come OpenOffice.org e altri. Ha invece
ripetutamente negato alla Microsoft l’autorizzazione a includere in Office 2007 la possibilità di
salvare documenti direttamente in formato PDF (caratteristica richiesta da numerosi utenti,
secondo la Microsoft), chiedendo un pagamento di royalties, e minacciando in caso contrario
una causa antitrust (Beer, 2006). Alla fine la Microsoft ha deciso di non inserire la funzionalità
di salvataggio in PDF in Office 2007, mettendola però disponibile on line come "add-on"
(modulo aggiuntivo) gratuito da scaricare e installare separatamente (Broersma, 2006).
26
Standard de facto, come originariamente Adobe PDF possono in seguito anche dare origine a
standard de jure. La stessa Adobe in gennaio 2007 ha avviato il procedimento ufficiale perché
le specifiche alla base di PDF reader e Acrobat possano divenire uno standard ISO (LaMonica,
2007). La durata tipica del procedimento è di circa 3 anni.
Che cosa è uno standard 37
L’elemento negoziale
Secondo quanto discusso finora, esiste un duplice elemento negoziale nel concetto di
standard: da un lato infatti è possibile individuare un accordo iniziale, nell’ambito del
gruppo istitutivo, che dà luogo alla nascita dello standard e alla pubblicazione del re-
lativo documento: in questo senso, come abbiamo visto, Bowker e Star parlano pro-
prio di un "agreed-upon set of rules". Questo primo atto negoziale può riguardare la
semplice adozione di una norma preesistente (es. l’elezione di una convenzione, di un
particolare prodotto o di un insieme di specifiche tecniche al ruolo di standard) oppu-
re può comportare un vero e proprio elemento progettuale, come avviene per gli anti-
cipatory standards.
Tale atto negoziale, insieme alla pubblicazione formale della norma, di per sé isti-
tuisce e dà ufficialmente inizio alla vita dello standard.
In secondo luogo, essendo l’adesione volontaria, è sempre possibile, anzi naturale,
che avvengano nuove adesioni attraverso un successivo e distinto atto negoziale: può
trattarsi di un semplice comportamento concludente unilaterale (conformarsi alla nor-
ma) o anche invece di un accordo formale a cui partecipa il soggetto o il gruppo che
abbia eventualmente un potere di accettazione o ratifica sull’adozione, come nel caso
di alcuni standard proprietari.
Il gruppo di riferimento
Compiere scelte comuni può essere un fattore di aggregazione sociale: si pensi agli
utilizzatori di un prodotto, ai lettori di un libro o anche agli ammiratori di un perso-
naggio famoso. Se lo standard è una regola formale "scelta" dagli utenti, potremmo
dunque considerare questi ultimi come un vero e proprio gruppo di riferimento dello
standard stesso.
La comprensione dei meccanismi che adducono alla scelta di una regola, piuttosto
che un prodotto o un romanzo, può dunque gettare luce sulle caratteristiche del grup-
po di riferimento e sui suoi meccanismi di composizione ed evoluzione. Questo tema
verrà affrontato più in dettaglio nel terzo capitolo, in cui si osserverà come il gruppo
degli utenti che adottano uno standard sia costituito da individui che hanno compiuto
una scelta comune, prevalentemente in base a criteri di razionalità strumentale e/o di
appropriatezza, identificazione, espressione di valori, imitazione. Essi dunque condi-
vidono, in proporzioni diverse, una positiva valutazione razionale dello standard, un
senso di identità e valori condivisi, una spinta più o meno forte all’imitazione e forse
anche, in alcuni casi, una certa componente affettiva.
Dopo aver dunque posto la prima pietra dell'edificio teorico, discutendo che cosa
è uno standard e come debba delimitarsi l'ambito di riferimento in questa sede, pas-
siamo dunque ad una ulteriore questione di base, prima di affrontare la domanda cen-
trale dell'investigazione (come nasce uno standard?). La questione di base è quella
delle possibili modalità di impiego dello standard nelle organizzazioni (a che cosa
serve uno standard?). Nel capitolo che segue verrà dunque offerta una rassegna criti-
ca della letteratura, volta a chiarire e illustrare il ruolo dello standard come strumento
organizzativo.
2
A che cosa serve uno standard
Nel capitolo precedente per comprendere a fondo che cosa è uno standard si è in-
nanzi tutto fatto ricorso a storie ed esempi, che illustrassero alcuni dei temi e degli
aspetti da prendere poi in considerazione nell'analisi successiva. Similmente, prima di
affrontare nel prossimo capitolo la domanda centrale di questo lavoro, come nasce
uno standard, è opportuno preparare qui il terreno attraverso la disamina dei possibili
impieghi degli standard nelle organizzazioni. Per capire come nasce uno standard ci
chiederemo innanzi tutto per quali impieghi esso venga alla luce, attraverso l'analisi
delle sue modalità di utilizzo come strumento organizzativo e dei relativi scopi.
La discussione sarà qui essenzialmente basata sull'analisi critica della letteratura
organizzativa, attraverso cui verranno evidenziate tre possibili forme d'uso dello stan-
dard come strumento: 1) come meccanismo di coordinamento, per la progettazione
organizzativa; 2) come tipologia di investimento che ha effetto sulle relazioni interor-
ganizzative; 3) come agente di innovazione e piattaforma di improvvisazione. Queste
diverse forme di impiego potranno aver rilievo sui meccanismi di creazione e diffu-
sione, influenzando ad esempio i soggetti coinvolti nei processi di standardizzazione,
i loro profili di utilità e i loro rapporti di potere, come si vedrà nel capitolo successi-
vo.
L'intervento atto a produrre un certo grado di ordine artificiale nel sistema di azione
di una collettività prende il nome di coordinamento. Il coordinamento rende possibile
l'azione sinergica; in particolare, esso svolge un ruolo cruciale per l'applicazione di
criteri di divisione del lavoro e rappresenta dunque, nel senso qui chiarito, l'essenza
stessa dell'organizzazione.
Un'analisi originale e profonda della portata di questo concetto è quella offerta da
Anna Grandori, che dedica una parte consistente di (Grandori, 1995) all'analisi dei
meccanismi di coordinamento.
La maggior parte delle attività economiche genera interdipendenza tra operatori [...] Per co-
ordinamento si intende la regolazione efficace di tale interdipendenza. Il significato tecnico
in cui useremo il termine coordinamento non si discosta perciò molto dal suo significato
comune: «ordinare insieme; disporre più cose o elementi nell'ordine più adatto al fine che si
vuole raggiungere» (Grandori, 1995:129, II ed.).
29
Tale definizione è stata proposta e analizzata estensivamente in (Malone & Crowston, 1994),
prendendo in esame numerose altre accezioni di coordinamento usate in varie discipline. Per
una rassegna della letteratura organizzativa sul tema del coordinamento vedi (Decastri, 1997).
30
Thompson parla di interdipendenze tra "atti" (acts) nel definire le caratteristiche delle
tecnologie: ad esempio «la tecnologia sequenziale implica interdipendenza seriale nel senso
che l'atto Z può essere effettuato solo dopo il che l'atto Y sia stato portato a termine con
successo» (Thompson, 1967:15). Quando invece passa a trattare il tema del coordinamento,
introduce e classifica le "interdipendenze interne", cioè le "interdipendenze di parti
organizzative". «Possiamo descrivere questa situazione come una in cui ciascuna parte fornisce
un contributo distinto al tutto e ciascuna è supportata dal tutto. Chiamiamo questa
interdipendenza generica (pooled interdependence)» (Thompson, 1967:54). Grandori, come
abbiamo visto sopra, parla in generale di interdipendenza tra operatori (Grandori, 1995:129, II
ed.) nella definizione di coordinamento; di analisi delle interdipendenze tra attività in fase di
progettazione delle unità organizzative (Grandori, 1995: 447, II ed.); di "interdipendenze
«residue» che legano le unità organizzative" quando passa all'applicazione dei meccanismi di
integrazione (Grandori, 1995:454, II ed.). Oggi convenzionalmente, seguendo Crowston e
Grandori, ci si riferisce alle (inter)dipendenze tra attività per la definizione dei confini delle
unità organizzative, come ad esempio nelle fasi iniziali del metodo "Zero Base" (Grandori,
1988). Questo permette di separare le attività dai soggetti per poterle raggruppare ed assegnare
in un secondo momento in base ai risultati dell'analisi delle dipendenze. Parlando di attività il
livello di analisi può essere individuale o anche di gruppo, a seconda della natura dell'attività
stessa.
31
Malone e Crowston (i fondatori del centro per lo studio interdisciplinare del coordinamento
presso il MIT) usano nella teoria interdisciplinare del coordinamento l'espressione "dipendenze
tra attività", mentre Thompson usava quello di "interdipendenze", riferito sia alle attività che
alle unità organizzative (vedi nota successiva). Il termine "dipendenze", riferito alle attività, è
probabilmente più corretto, dato che potrebbe comprendere anche attività che dipendono da
un'attività indipendente. Nelle discipline organizzative, dopo Thompson, il termine
"interdipendenze" resta tuttavia ancora oggi quello più utilizzato.
32
Gli studi più recenti hanno individuato nuove e più complesse forme di interdipendenza.
Oltre ai contributi di (Camuffo, 1997) e (Grandori, 1995:324-327, II ed.), è utile far riferimento
ai lavori del gruppo MIT che hanno dato luogo all'Handbook for Organizational Processes
(Malone et al., 1999). La nozione base di interdipendenza accolta in quella sede include, oltre
al concetto di attività, anche quello di risorsa. Essa comprende le dipendenze di tipo flow
(l'attività A produce una risorsa necessaria all'attività B), share (A e B fanno uso della stessa
risorsa) e fit (A e B producono la stessa risorsa). Una rassegna comparativa delle più recenti
classificazioni delle interdipendenze è offerta in (Bolici, 2007), nell'ambito dell'analisi dei
meccanismi di coordinamento delle comunità di sviluppo di software Open Source.
42 Capitolo 2
Una vista d'insieme sui meccanismi di coordinamento può risultare utile per meglio
individuare il ruolo degli standard. La Figura 2.1 che segue illustra tre categorie di
meccanismi di coordinamento, rappresentate nella parte alta dello schema: supervi-
sione diretta, adattamento reciproco e standardizzazione. Quest'ultima, che è qui l'og-
getto di maggiore interesse, può agire sulla programmazione dettagliata e il controllo
analitico delle attività (standardizzazione dei processi), sui meccanismi di definizione
degli obiettivi e di misurazione dei risultati (standardizzazione degli output), o ancora
su sulle conoscenze e competenze (standardizzazione e certificazione di conoscenze e
competenze). Tale classificazione è dovuta alla nota sistematizzazione di (Mintzberg,
1983), che verrà presa in esame più da vicino nella prossima sezione. Nella parte in-
feriore della figura ciascuno di essi è collegato con una delle forme oggetto della più
recente e approfondita analisi di (Grandori, 1995), rispettivamente autorità e agenzia,
33
gruppo e negoziazione, norme e regole .
In relazione alla complessità delle attività, (Mintzberg, 1983) individua una scala
sequenziale per i meccanismi di coordinamento: essi sembrano passare, man mano
che la complessità aumenta, dall'adattamento reciproco alla supervisione diretta, alla
standardizzazione dei processi, dei risultati, delle competenze, per ritornare infine al-
l'adattamento reciproco.
33
Questo collegamento ha puro valore indicativo. Ad esempio la negoziazione non corrisponde
esattamente all'adattamento reciproco, ma ne fa spesso uso. Si potrebbe infatti osservare che la
negoziazione, al contrario del semplice adattamento reciproco, può prevedere, oltre a diritti e
obblighi di azione e informazione, anche diritti ed obblighi di decisione. Addirittura i
diritti/obblighi di azione potrebbero essere non presenti in alcune forme di negoziazione: cfr.
nota successiva.
A che cosa serve uno standard 43
Figura 2.1 Alcuni tra i principali meccanismi di coordinamento. Ciascuna delle tre tipolo-
gie classiche evidenziate in alto (Mintzberg, 1983) è messa in relazione con una
delle forme analizzate in (Grandori, 1995). Fonte: (Virili, 2007:112), figura 4.2.
L'esempio è quello di una persona che lavora inizialmente da sola (nessun mecca-
nismo) e che entra poi a far parte di un gruppo che si coordina informalmente (reci-
proco adattamento); con il crescere delle dimensioni del gruppo, emerge in seguito un
bisogno di leadership: un individuo viene quindi posto a capo del gruppo (coordina-
mento per supervisione diretta). Man mano che aumentano le dimensioni e le interdi-
pendenze tra le attività dei componenti del gruppo, emerge un bisogno di standardiz-
zazione. Se le attività sono semplici e ripetitive, vengono standardizzati i processi di
lavoro; se invece risultano più varie e articolate, sono gli output a venire standardiz-
zati; in presenza infine di elevata complessità e imprevedibilità l'unica standardizza-
zione possibile è quella delle competenze. Nel caso la complessità sia tanto elevata da
rendere impossibile anche quest'ultima scelta, si torna alla forma di coordinamento
più flessibile: quella per reciproco adattamento.
Per una trattazione analitica molto più ricca e approfondita, rinviamo all'analisi
delle forme di coordinamento individuate in (Grandori, 1995): alle tre forme base il-
44 Capitolo 2
Nella letteratura organizzativa uno degli studi che ha affrontato con maggiore siste-
maticità e ampiezza l'argomento degli standard appare alla fine degli anni '70, ad ope-
ra di Henry Mintzberg (Mintzberg, 1979), sulla base di un notevole lavoro di raccolta
35
e sistematizzazione della letteratura organizzativa precedente . Tale studio è stato
successivamente rielaborato in (Mintzberg, 1983), adottando un linguaggio e un'im-
36
postazione più operativa . In esso si individuano innanzi tutto due aspetti caratteriz-
34
L'analisi in (Grandori, 1995) integra e sintetizza in modo originale la teoria del
coordinamento organizzativo, individuando gli elementi essenziali su cui si basa in ultima
analisi ogni organizzazione: la definizione delle modalità e delle espressioni possibili dei diritti
e obblighi di azione, informazione, decisione, controllo, ricompensa e proprietà. Con questo
approccio di sintesi, l'economia, il coordinamento e la governance aziendale vengano trattati in
modo unificato. In precedenza il pensiero organizzativo, nella classificazione delle tre forme
classiche rappresentate in Figura 2.1 (supervisione (autorità/agenzia), aggiustamento
(negoziazione/gruppi) e standardizzazione (norme/regole)), includeva implicitamente
nell'accezione di coordinamento la sola definizione dei diritti e obblighi di azione e di alcuni
tra i possibili diritti e obblighi di informazione, decisione e controllo. L'inclusione esplicita di
una vasta gamma di modalità e diritti/obblighi di informazione, decisione e controllo tra gli
elementi costitutivi del coordinamento ha permesso di introdurre, accanto alle tre forme
classiche di coordinamento illustrate in Figura 2.1, una quarta modalità, poco trattata nella
letteratura organizzativa sul coordinamento: quella dei sistemi di prezzo e voto e di quelli di
negoziazione, presi in esame rispettivamente nel capitolo IV e nel capitolo VII di (Grandori,
1995:139-154 II ed.).
35
Mintzberg scrive The Structuring of Organizazions - A Synthesis of the Research proprio
nella seconda metà degli anni '70, effettuando un'opera di sistematizzazione di cui si sentiva il
bisogno. Come ha spiegato in seguito nell'introduzione di (Mintzberg, 1983), in quel periodo la
ricerca organizzativa era piuttosto difficile da decifrare univocamente «I risultati delle ricerche
sono […] spesso contraddittori e i tentativi di interpretare e di spiegare tali contraddizioni sono
stati molto limitati. Di conseguenza, l'operatore che abbia avuto la pazienza di esaminare tutta
la letteratura si trova alla fine più confuso di quanto non fosse prima di intraprendere un tale
esame. Verso la metà degli anni Settanta decisi di tentare di riordinare la letteratura
disponibile, di individuarne i messaggi principali e, soprattutto, di sintetizzarli in uno schema
integrato del processo di progettazione organizzativa» (Mintzberg, 1983:31-32, ed. it.). L'opera
di Mintzberg, pur non introducendo innovazioni radicali, rappresenta un significativo
contributo, sia accademico che manageriale, della cosiddetta scuola contingentista. L'approccio
contingente, sviluppatosi a partire dalla fine degli anni '50, abbandona l'impossibile ricerca di
una teoria di portata generale e valore assoluto tipica delle scuole organizzative classiche,
ponendosi invece l'obiettivo di individuare, nella progettazione organizzativa, i criteri di
intervento più appropriati a seconda delle diverse situazioni. Tale approccio (e Mintzberg con
esso, vedi nota 37) è stato in seguito oggetto di importanti critiche, ma resta ancora oggi uno
degli elementi costitutivi fondamentali del pensiero organizzativo. Per una rassegna critica dei
contenuti e delle tematiche dell'approccio contingente si può fare riferimento a (Delmestri,
1996) e ai riferimenti ivi contenuti.
36
Come appare evidente dal titolo della revisione del 1983, Structuring in fives (strutturare a
base cinque) Mintzberg propone un quadro analitico in cui ricorre curiosamente il numero
cinque, individuando cinque parti dell'organizzazione, cinque configurazioni strutturali, cinque
meccanismi di coordinamento, cinque parametri di progettazione e così via.
A che cosa serve uno standard 45
Oltre alle tipologie specificate da Mintzberg, notiamo oggi un fenomeno sempre più
diffuso di adesione generalizzata a standard di processo internazionali. Tra le classi di
standard oggi più diffuse e rilevanti nel mondo vi sono quelli della famiglia ISO 9000
per le gestione della qualità e quelli della famiglia ISO 14000 per la gestione ambien-
tale. Secondo quanto dichiarato sul sito dell'Organizzazione Internazionale per la
Standardizzazione, «Le famiglie ISO 9000 e ISO 14000 sono tra gli standard ISO più
ampiamente conosciuti in assoluto. Gli standard ISO 9000 e ISO 14000 sono imple-
mentati da circa 887.770 organizzazioni in 161 Paesi» (ISO, 2008).
limitazioni degli approcci di verifica empirica, che «molte tipologie non sono mai verificate
empiricamente, e quelle che lo sono di solito mancano di essere confermate» (Miller,
1996:506).
A che cosa serve uno standard 47
38
Sulle forme complesse di interdipendenza vedi anche la nota 32.
48 Capitolo 2
39
In tal senso anche la classificazione in base al costo e all'efficacia dei meccanismi di
collegamento orizzontale (un sottoinsieme dei meccanismi di integrazione) esposta in (Daft,
2004:88, II ed. it.), figura 3.5, dove al primo posto vengono riportati i sistemi informativi, che
incorporano regole e standard.
A che cosa serve uno standard 49
40
Williamson stesso riconosce esplicitamente il proprio debito nei confronti di Ronald Coase, a
cui dedica "The Economic Institutions of Capitalism" insieme agli altri suoi maestri: Kenneth
Arrow, Alfred Chandler, Jr., e Herbert Simon.
41
L'assunto di base della teoria dei costi di transazione è quello, formulato nel 1937 dal premio
Nobel Ronald Coase (Coase, 1937), che le organizzazioni economiche per la produzione
possano concretizzarsi in due forme alternative, quella di impresa/gerarchia/organizzazione
(scelta di internalizzazione della produzione ) e quella di mercato (scelta di esternalizzazione
della produzione): la scelta tra queste due forme non viene però determinata da pure
considerazioni di efficienza di produzione. L'abbandono dell'impostazione degli economisti
neoclassici che identificavano le organizzazioni economiche come delle pure "funzioni di
produzione", si accompagna in Coase all'adozione di un punto di vista, mediato dagli studi di
John Commons, secondo il quale le organizzazioni economiche non rispondono soltanto a
istanze meramente tecnologiche come le economie di scala, le economie di raggio d'azione, la
produttività e gli altri aspetti fisici o tecnici, ma hanno anche l'obiettivo di armonizzare le
relazioni tra le parti riducendo i conflitti potenziali (Commons, 1934). Questo punto di vista
per così dire "relazionale" si associa in Commons alla proposta di adottare una diversa unità di
50 Capitolo 2
impostazione di Coase della teoria dell'impresa basata sui costi di transazione non era
stata subito adottata, ma si era anzi costruita una "ben meritata cattiva reputazione",
per via di un "dilemma" rimasto insoluto:
Nonostante tutto, un dilemma cruciale restava insoluto. Se non si identificano i fattori che
determinano i costi di transazione, le ragioni per scegliere una forma piuttosto che un'altra
di organizzazione delle transazioni (impresa o mercato, NdT), restano necessariamente o-
scure. Il persistente fallimento dei tentativi di operazionalizzare i costi di transazione (cioè
di individuarne le determinanti , NdT) è stato il responsabile della sua reputazione tautolo-
gica (Alchian & Demsetz, 1972:783). Dal momento che in questo modo tutte le soluzioni
potevano virtualmente trovare una spiegazione ricorrendo al framework dei costi di transa-
zione, esso acquistò gradualmente una "ben meritata cattiva reputazione" (Fisher, 1977:322,
nota 5) (Williamson, 1985:4).
analisi economica degli scambi tra le parti, di livello più microanalitico rispetto a quella dei
prezzi adottata dagli economisti classici: la transazione. In base a questa visione relazionale,
Coase giunge a sostenere che ciò che determina la scelta tra le forme di impresa e quelle di
mercato sono innanzi tutto i diversi costi di transazione associati a ciascuna delle due forme.
Coase sviluppò in seguito l'analisi dei costi di transazione applicandola allo studio delle
esternalità negative, cioè delle conseguenze negative provocate alla collettività dall'azione
economica di un soggetto (es. l'inquinamento di una fabbrica). Coase dimostrò come, in
assenza di costi di transazione, qualsiasi forma di intervento dello Stato nell'economia a
riduzione delle esternalità sia ingiustificata (teorema di Coase): la contrattazione tra agenti
economici porterà comunque alla soluzione più efficiente da un punto di vista sociale (Coase,
1960). Nel caso dell'inquinamento, il "diritto ad inquinare" potrà essere oggetto di
contrattazione e scambio per raggiungere il più basso costo sociale complessivo. Tali idee
costituiscono oggi la base di nuove modalità di analisi economica dei diritti di proprietà e delle
forme di intervento pubblico; ad esse si ispira anche il protocollo di Kyoto sulla riduzione delle
emissioni inquinanti (AAVV, 2007).
42
Ciò risulta chiaramente dalle parole stesse dell'autore: «Le tre dimensioni critiche per
caratterizzare le transazioni sono (1) incertezza; (2) la frequenza con cui si verificano le
transazioni; (3) il grado in cui avvengono investimenti specifici per una particolare transazione.
Di questi tre, l'incertezza viene ampiamente considerata come un attributo critico, mentre il
fatto che la frequenza abbia importanza appare almeno plausibile. Le ramificazioni di
governance di entrambe, comunque, non sono state completamente sviluppate, né lo possono
essere finché non si considerino congiuntamente con la terza dimensione critica: gli
investimenti specifici per una transazione» (Williamson, 1979:239).
43
Su questo punto Williamson stesso: «L'importanza della condizione della specificità degli
investimenti [...] è difficile da sopravvalutare: [...] l'assenza di essa renderebbe inutilizzabile
gran parte dell'economia dei costi di transazione. [...] A dire il vero, la specificità degli
investimenti assume la sua importanza soltanto in congiunzione con la razionalità limitata e
l'opportunismo e in presenza di incertezza. Nondimeno, resta vero che la asset specificity è la
grande locomotiva alla quale la transaction cost economics deve molta della sua capacità
previsionale» (Williamson, 1985:156).
A che cosa serve uno standard 51
In generale, la specificità può riguardare sia gli investimenti in risorse che in compe-
tenze:
Se una risorsa è molto specifica rispetto ad un uso o attività, la differenza tra il valore dei
servizi resi in quell'attività rispetto al migliore impiego alternativo è molto elevata
(Williamson, 1981). Similmente, se la competenza sviluppata da un attore è molto specifica
rispetto ad una relazione con un altro particolare attore, essa genererà in quella relazione un
valore molto superiore che in relazioni alternative (Grandori, 1995:96, II ed.).
Il fatto che una transazione richieda per essere eseguita la disponibilità di competenze
o attrezzature non riutilizzabili non si verifica sempre: alcune transazioni richiedono
investimenti specifici, altre invece possono essere eseguite usando risorse e compe-
tenze generiche ed eventualmente riutilizzabili in diverse transazioni. Su questa sem-
plice considerazione si basa il modello del processo di contrattazione che Williamson
usa per spiegare in che modo i costi di transazione influiscono sul ricorso alle diverse
forme organizzative. La mappa cognitiva del processo di contrattazione è riportata
nella Figura 2.2 che segue.
A
p1
k=0
B
p’
k>0 s=0
p’ > p’’
s>0
p’’
C
L'assunto di base è che un bene o un servizio possa essere prodotto o erogato tra-
mite due tecnologie alternative: una generica e l'altra specifica. La tecnologia specifi-
52 Capitolo 2
caratteristiche investimento
governance trilaterale
occasionale
(contrattazione neoclassica)
(contrattazione classica)
market governance
frequenza
governance governance
ricorrente
bilaterale unificata
(contrattazione relazionale)
Dopo aver dunque illustrato il ruolo centrale che la specificità degli investimenti
riveste nell'economia dei costi di transazione, ci possiamo chiedere se esista un rap-
porto tra standardizzazione e specificità e come esso possa essere investigato secondo
gli assunti e gli strumenti di analisi tipici dell'approccio williamsoniano.
lità inutilizzabile al di fuori di quello specifico rapporto, anche se questo dovesse in-
terrompersi liberando la risorsa. Non a caso, Williamson usa anche il termine idio-
syncratic assets (investimenti/attività/risorse idiosincratiche, cioè incompatibili, vedi
ad esempio (Williamson, 1985), cap. 3) come sinonimo di investimenti/attività/risorse
specifiche, alludendo così alla loro incompatibilità ad utilizzi diversi da quelli origi-
nariamente loro attribuiti.
Nel descrivere e argomentare il concetto di specificità delle risorse, risalendo agli
autori che ne avevano fatto menzione in passato, l'autore riporta un brano che sembra
suggerire un collegamento tra la specificità delle risorse e la loro "imperfetta standar-
dizzazione":
Jacob Marschak riconosceva che le risorse possono essere idiosincratiche ed esprimeva per-
plessità e preoccupazione riguardo alla facilità con cui gli economisti erano soliti assumerne
implicitamente o dichiararne espressamente la fungibilità: 'Esistono risorse umane come ri-
cercatori, docenti, amministratori che sono quasi unici, non rimpiazzabili, proprio come
spesso esistono scelte obbligate per la scelta del collocamento di impianti e porti. Il proble-
ma dei beni unici o imperfettamente standardizzati [...] è stato tuttavia ignorato nei libri di
testo (Marschak, 1968:14) (da (Williamson, 1985:53)).
Il ruolo della specificità degli investimenti appare prominente già nei primi studi di
Williamson sull'integrazione verticale (Williamson, 1971), nei quali si analizzano i
motivi che determinano il passaggio da forme di autonomous trading a forme di uni-
fied ownership, mostrando come le scelte di integrazione verticale siano fortemente
condizionate dagli investimenti transaction-specific. Ad esempio, una delle motiva-
zioni per passare dall'acquisto di un prodotto presso un fornitore all'internalizzazione
della produzione (acquisizione e incorporazione dei processi produttivi del fornitore)
è quella di aver effettuato significativi investimenti specifici sul rapporto transaziona-
le in oggetto, come l'acquisizione di competenze uniche tecniche e/o manageriali in
relazione a quel particolare fornitore. La spinta verso la trasformazione fondamentale
del rapporto di mercato di uno di gerarchia è rappresentata da un lato dalla riduzione
dei costi di transazione per la relazione su cui si è investito; dall'altro dall'emergere di
costi di switching che determinano la mancata convenienza a sottrarsi al rapporto
transazionale su cui si è investito. Tra questi rileva in particolar modo la svalutazione
dell'investimento specifico che si avrebbe nell'abbandonare la relazione, che si affian-
ca ai costi associati ai meccanismi di salvaguardia (es. penali contrattuali) e agli even-
tuali investimenti sulla nuova relazione.
L'insieme di questi fattori (riduzione dei costi di un rapporto transazionale; au-
mento dei costi dei rapporti alternativi) ingenera un effetto di blocco, o di lock-in
transazionale, che è il primo passo verso la trasformazione fondamentale:
Il fenomeno del lock-in verrà preso in esame in maggiore dettaglio nel prossimo capi-
tolo, con riferimento ai processi di diffusione degli standard.
Se, come abbiamo visto nella sezione precedente, la standardizzazione tende a ri-
durre il grado di specificità delle risorse, ci potremmo aspettare che anche il relativo
fenomeno di lock-in ad esse associato possa venire ridimensionato. Se ad esempio un
macchinario specifico viene sostituito da uno standard, che può essere più facilmente
riconvertito e utilizzato per transazioni diverse, in caso di interruzione prematura del
rapporto tra le parti esso subirà una minore svalutazione e dunque chi ha effettuato
l'investimento ha un minore interesse a tutelare la continuità del rapporto in quanto
58 Capitolo 2
i soggetti che fanno parte del gruppo che ha adottato e utilizza lo standard in questio-
ne.
Il grado di specificità delle risorse standardizzate non riguarda un solo rapporto
transazionale ma l'insieme dei rapporti transazionali potenziali con tutti gli apparte-
nenti al gruppo che ha adottato e utilizza lo standard. Questo fa sì che a seconda del
grado di diffusione dello standard e della concentrazione sul mercato locale dei sog-
getti che lo hanno adottato, gli investimenti standard possano risultare più o meno
fungibili e dunque manifestare in grado più o meno elevato le caratteristiche di una o
dell'altra categoria.
Considerando che il grado di adozione di uno standard e la numerosità e distribu-
zione dei soggetti adottanti può variare nel tempo, potrebbe avvenire che, a parità di
altra condizioni, una risorsa standardizzata che risultava in precedenza sostanzialmen-
te specifica perché non erano presenti sul mercato soggetti compatibili, possa tra-
sformarsi in risorsa fungibile, innescando una sorta di fundamental transformation
rovesciata. Nel caso della fundamental transformation infatti, in una originaria situa-
zione di mercato uno dei concorrenti che aveva effettuato investimenti "transaction
specific" viene a trovarsi in posizione di vantaggio rispetto agli altri che vengono
gradualmente allontanati: il mercato degenera in un rapporto bilaterale. Immaginiamo
ora invece che vi sia un rapporto di transazioni bilaterali supportato da investimenti in
tecnologie standardizzate, laddove però lo standard non sia abbastanza diffuso da far
comparire sul mercato altri concorrenti "compatibili". Quando il grado di diffusione
dello standard diviene tale da far apparire sul mercato concorrenti "compatibili", gli
investimenti perdono la loro specificità e possono essere utilmente reimpiegati in
rapporti transazionali con altri soggetti sul mercato. A questo punto le motivazioni
per la salvaguardia della continuità del rapporto (scongiurare la svalutazione degli
investimenti specifici ) vengono meno e il rapporto bilaterale si trasforma in rapporto
di mercato.
Di conseguenza, l'avanzare del processo di diffusione di uno standard, a parità di
altre condizioni, può incentivare il ricorso al mercato e l'ampliamento del numero di
rapporti transazionali. E' il caso ad esempio di chi ha investito sul sistema operativo
standard Linux quando non era ancora molto diffuso: la possibilità di impiego del si-
stema per un numero elevato di transazioni con altri soggetti dotati di sistemi tecno-
logicamente compatibili si è accresciuta man mano che Linux ha trovato maggiore
diffusione, diventando sempre più una commodity.
Dunque gli investimenti in tecnologie standard hanno un grado di specificità che
tende a ridursi nel tempo, man mano che aumentano le dimensioni del gruppo adot-
tante, cioè man mano che lo standard si diffonde. Ne derivano due ordini di conse-
guenze di segno opposto: da un lato una modificazione del numero, della dinamica e
dell'intensità delle relazioni organizzative potenziali, dall'altro la potenziale riduzione
del valore strategico degli investimenti in risorse standardizzate, man mano che ne
aumenta la diffusione e diventano beni comuni sul mercato, quasi commodities.
A parità di altri fattori, il numero di relazioni transazionali potenzialmente suppor-
tato da un unico investimento standard è più elevato che per un investimento specifi-
co: l'investimento standard può supportare transazioni con tutti i soggetti che lo han-
no adottato; l'investimento specifico, invece, solo nell'ambito del ristretto rapporto
60 Capitolo 2
originario, che è tipicamente a due. Tale differenza aumenta con l'aumentare delle
dimensioni del gruppo di utenti dello standard. Inoltre, dati i minori costi di switching
nell'ambito del gruppo di adozione, la stabilità della relazione può ridursi e la sua di-
namica aumentare: un maggior numero di relazioni, più deboli, più instabili e più di-
namiche tendono a risultare possibili, rispetto ad un numero necessariamente più ri-
dotto di relazioni più stabili e più forti che è il risultato di investimenti specifici su
pochi rapporti bilaterali. Questo effetto potenziale sulla numerosità, sull'intensità e
sulle dinamiche delle relazioni organizzative non dunque dovuta soltanto all'uso degli
standard IT (es. standard Internet) come infrastrutture di comunicazione e di coordi-
namento; esso, come abbiamo visto, è anche il risultato della riduzione della specifi-
cità transazionale degli investimenti. Quindi, a parità di altre condizioni, tanto più è
elevata la quota degli investimenti standard sul totale degli investimenti, tanto più de-
bole sarà l'effetto di lock-in transazionale, tanto maggiore sarà la possibilità di abban-
donare relazioni transazionali preesistenti ed allacciarne di nuove all'interno del
gruppo di adozione dello standard comune. Questa tendenza è in linea con quella evi-
47
denziata dai primi studi sui mercati elettronici (Malone et al., 1987) . Essa appare an-
che in sintonia con altri ben noti studi ed analisi non solo sul piano organizzativo ed
48
economico, ma anche su quello sociale .
Dall'altro lato, ci sono autori che hanno sostenuto che la commoditization (e con
essa la standardizzazione) abbia come effetto la riduzione dell'importanza strategica
degli investimenti IT (Carr, 2003). Si tratta di un fenomeno complesso, per alcuni
versi confermato anche dall'analisi qui sopra, che mostra come per costi di transazio-
ne non nulli l'effettuazione di investimenti specifici e conseguente il lock-in siano un
prezzo da pagare per ottenere un vantaggio rispetto agli altri competitors su una de-
terminata relazione transazionale. Di conseguenza, la standardizzazione degli inve-
stimenti ne ridurrebbe la specificità e anche il valore distintivo rispetto agli altri com-
petitors, tendendo a indebolire sia il lock-in che la posizione di vantaggio. Se ad e-
sempio si vuole ottenere un vantaggio su una relazione strategica con un fornitore,
avrebbe maggiore senso investire in un sistema informativo "proprietario" che non
possa essere standardizzato e appropriato facilmente da altri. Un sistema informativo
standard porterebbe inevitabilmente alla condivisione dei suoi benefici con tutto il
gruppo aderente allo standard, annullandone il valore strategico in termini di distinti-
47
Malone e i suoi coautori prendono in esame il ruolo congiunto della diminuzione della
specificità degli investimenti e della aumentata capacità di elaborazione delle informazioni.
Anche se entrambi i fattori sono presenti nel loro schema di analisi, nella successiva
discussione il ruolo dell'evoluzione tecnologica e della riduzione dei costi di coordinamento
emerge in primo piano, mentre la spiegazione delle dinamiche e degli effetti della diminuzione
di specificità degli investimenti appare meno chiara e completa.
48
Per uno studio ampio e approfondito delle trasformazioni sociali accompagnate alla
diffusione delle tecnologie IT si veda (Castells, 1996:ed. it.) e i riferimenti ivi contenuti. Il
ruolo dell'IT nelle dinamiche economiche e sociali della globalizzazione emerge evidente
nell'analisi di taglio divulgativo e molto nota proposta in (Friedman, 2005). Tra i dieci fattori
indicati da Fredman come indicativi della trasformazione in atto verso un "flat world", almeno
otto sono stati resi possibili essenzialmente dall'information technology e non si sarebbero
verificati senza Internet: (Quotazione di Netscape; Work-flow software; Open sourcing;
Outsourcing; Supply chaining; Insourcing; Search engines; Mobile). Gli altri due fattori sono
la caduta del muro di Berlino e l'off-shoring verso i paesi a basso costo della manodopera.
A che cosa serve uno standard 61
49
vità . Esistono tuttavia importanti ragioni in senso opposto, a cui è possibile solo fare
50
cenno in questa sede . Una considerazione che appare qui molto importante è quella
del grado di distintività che è possibile ottenere attraverso la combinazione creativa di
componenti standard. Tecnologie basate su componenti modulari e ad elevato grado
di flessibilità combinatoria (Baldwin & Clark, 2000) (cfr. capitolo 3, sez. 3.3.1) con-
sentono oggi investimenti a specificità ridotta e distintività potenziale elevata. La
specificità è ridotta perché i singoli componenti modulari sono standardizzati e acces-
sibili a tutti; la distintività potenziale è elevata perché è possibile combinare compo-
nenti standard in modi diversi e spesso innovativi. Questo consente da un lato di go-
dere dei benefici della standardizzazione e dell'evoluzione tecnologica in termini di
nuove relazioni e forme organizzative distribuite e globali, abilitate dall'interoperabi-
lità e dalla compatibilità tecnologica dei componenti e delle infrastrutture IT standar-
dizzate; dall'altro di mantenere il potenziale di differenziazione competitiva, co-
51
struendo barriere su specifici posizionamenti in risorse difficilmente imitabili , attra-
52
verso la combinazione creativa di componenti IT standardizzati. In questo senso an-
53
che alcune delle numerose repliche alla provocazione di Carr .
In definitiva dunque l'approccio williamsoniano suggerisce che il crescente ricorso
a investimenti standard (con particolare riferimento a quelli in tecnologie dell'infor-
mazione) possa essere uno dei fattori che contribuisce a determinare il numero, l'in-
tensità e la dinamica delle relazioni interorganizzative, rendendole, a parità di altre
condizioni, più numerose, ma anche più deboli e più variabili. Esse sono infatti in-
fluenzate in questo senso non soltanto dalla disponibilità di mezzi di comunicazione
49
In questo senso si era espresso già dal 1991 Claudio Ciborra, che puntava al fenomeno della
facile imitabilità dei sistemi informatici legata alla standardizzazione, suggerendo in rimedio
nuovi approcci alla strategia, al design e all'implementazione basati sul bricolage e sul
tinkering: (Ciborra, 1991). Il contributo è poi apparso in forma estesa in (Ciborra, 2002), con il
titolo "Bricolage".
50
L'articolo di Carr e il successivo libro sull'argomento (Carr, 2004) hanno avuto un impatto
straordinario. Una selezione delle repliche suscitate è disponibile on line (Carr, 2005).
51
Il concetto di resource position barrier si deve originariamente allo studio di Birger
Wernerfelt, poi esteso alla letteratura manageriale in (Prahalad & Hamel, 1990). Per l'analisi
organizzativa della Resource Based View vedi (Pontiggia, 2002).
52
La combinazione creativa basata su componenti standard si basa su quelle che Pontiggia
chiama "capacità combinatorie" (Pontiggia, 2002:108). Dal punto di vista dell'economia
dell'informazione, un certo spazio è dedicato all'argomento da Hal Varian nelle "Raffaele
Mattioli Lectures" tenute in Bocconi nel 2001 e alla Sorbona nel 2003: «Interpreto il boom di
Internet della fine degli anni '90 come una manifestazione di quella che si potrebbe chiamare
combinatorial innovation» (Varian et al., 2004:5). L'autore discute alcuni esempi di
innovazione combinatoria nella storia di Internet per poi analizzarli in termini economici.
Un'approfondita e affascinante analisi socio-tecnica dell'innovazione combinatoria è offerta in
(Tuomi, 2002), ove nel capitolo 7 si interpreta in termini di innovazione combinatoria il
famoso studio di Bijker sulla nascita della bachelite (Bijker, 1987).
53
Alcune delle repliche all'articolo di Carr hanno fatto menzione più o meno esplicita al ruolo
degli standard per l''innovazione combinatoria, come per esempio Paul Strassman: «Insistendo
sull'interoperabilità dei dati e dei protocolli, le imprese stanno cercando una maggiore libertà di
combinare applicazioni da una crescente varietà di offerte software» (AAVV, 2003:8).
L'interoperabilità di dati e protocolli viene tipicamente ottenuta attraverso gli standard IT.
62 Capitolo 2
ed elaborazione più efficaci, ma anche dai minori vincoli relazionali (lock-in) associa-
ti ad investimenti su tecnologie e prodotti standardizzati rispetto a quelli su tecnolo-
gie e prodotti non standard. Come abbiamo visto, ciò è dovuto al basso grado di spe-
cificità degli investimenti standard e si verifica con maggiore intensità man mano che
lo standard si diffonde ed aumentano le dimensioni del gruppo di adozione.
Lo schema di base per l'intero modello dell'organizzare si trova nella seguente ricetta per
l'attribuzione di significato: «come posso sapere quello che penso finché non vedo quello
che dico?» Si suppone che l'organizzazione parli a se stessa a lungo per scoprire che cosa
pensa. E' essenzialmente a questo che si riferisce l'intero libro. [...] L'organismo, o il gruppo,
costituisce un ambiguo discorso grezzo, il discorso viene visto retrospettivamente, gli viene
attribuito un significato, e questo significato viene archiviato nel processo di ritenzione.
((Weick, 1969: 189-190, ed. it.)).
Pur dell'impossibilità di analizzarle a fondo in questa sede, queste idee appaiono cen-
trali per abbandonare la prospettiva oggettiva delle sezioni precedenti per prestare
maggiore attenzione al ruolo delle persone e dei processi di attribuzione di significa-
to. Per tornare al caso IBM, il fallimento del primo progetto CRM raccontato da Ci-
borra può essere interpretato alla luce del processo weickiano di enactmnent, selezio-
ne e ritenzione di significati, ignorato per definizione in fase di progettazione "top-
down". Questo tipo di progettazione, basata sulla pianificazione razionale, è dunque
da considerare per questo definitivamente superato? Se la tecnologia è interpretabile,
qual è il ruolo dello standard in questo processo?
Modernismo Postmodernismo
Finalità Gioco
Progettazione Casualità
Gerarchia Anarchia
Artefatto Processo/performance/happening
Distanza Partecipazione
Costruzione Decostruzione
Sintesi Antitesi
Semantica Retorica
Significato Significante
Sintomo Desiderio
Tipo Mutante
Paranoia Schizofrenia
Metafisica Ironia
Determinatezza Indeterminatezza
Trascendenza Immanenza
A che cosa serve uno standard 65
Ho idea che una più approfondita comprensione del movimento culturale postmoder-
no, che richiede una attenta considerazione degli aspetti epistemologici e filosofici e
che passa attraverso la lettura di autori come Lyotard, Derrida e Focault, potrebbe es-
sere utile a riconsiderare criticamente il ruolo dello standard come una forma di lin-
guaggio e di infrastruttura minimale per l'improvvisazione e l'innovazione organizza-
tiva. Dato che un'operazione di questo genere va al di là delle possibilità di questo
contributo, mi limiterò qui al tentativo di offrire un racconto che ha l'obiettivo princi-
pale di evocare sensazioni e spunti di riflessione, in simpatia con le idee postmoder-
ne. Si tratta di un episodio avvenuto recentemente, assistendo alle prove della rappre-
sentazione, diretta da Riccardo Muti, de Il diario dello sdegno di Fabio Vacchi, un
giovane autore bolognese di musica contemporanea. Prima dell'esecuzione, Muti si è
rivolto al pubblico con un breve quanto inaspettato discorso, dicendo pressappoco:
«Signori, sono lieto di poter dirigere, per la prima volta qui alla Scala, un brano di musica
contemporanea, di un giovane autore in cui credo molto. Non so quali saranno le vostre rea-
zioni: queste prove di oggi costituiscono la prima rappresentazione in pubblico di quest'ope-
ra, e l'autore è qui presente tra voi per rendersi anche lui conto dell'effetto che potrà avere su
di voi. E' importante dire che si tratta di un'opera di arte moderna e che come tale è estre-
mamente diversa dalle opere classiche a cui siete abituati. Che cosa potete "portare a casa"
da quest'ascolto? Non certo una bella melodia da canticchiare. Piuttosto delle sensazioni,
che ciascuno di voi, con la sua sensibilità, elaborerà in modo personale. Se vi aspettate un
"messaggio" chiaro, immediatamente comprensibile, rimarrete delusi, ma questo avviene
oggi anche nelle altre forme di arte contemporanea: pensate ad esempio ad un quadro astrat-
to… non sono qui adesso per parlare delle peculiarità e delle differenze dell'arte e della mu-
sica contemporanea rispetto a quella classica, ma voglio solo esortarvi a non avere precon-
cetti e a lasciarvi trasportare dalle emozioni e dalle sensazioni».
Parlando di musica e di "emergenza" spontanea il pensiero non può non andare alle
forme di improvvisazione musicale. C'è una letteratura organizzativa abbastanza con-
sistente su questo tema: un utile punto di riferimento è il numero speciale di Organi-
66 Capitolo 2
Mi sembra importante sottolineare la necessità di aver assimilato, per una buona im-
provvisazione, "una miriade di convenzioni" e quasi un "linguaggio" comune: è pro-
prio quello a cui pensavo nell'episodio delle prove d'orchestra ricordato sopra, quando
vedevo il maestro Muti comunicare con gli orchestrali: con termini tecnici in qualche
54
modo standard : «alla battuta 218, ripetiamo dal bemolle!».
Gli esempi potrebbero continuare a lungo: mi piace qui sottolineare un brano di
Alan Meyer, tratto dall'articolo in cui prende in esame i processi negoziali sottesi al-
l'organizzazione dell'evento attraverso l'analisi testuale delle email scambiate nei mesi
precedenti. Descrivendo l'enorme sforzo organizzativo e l'impiego di risorse che era
54
Ricordiamo dal capitolo 1 come le convenzioni non scritte - e tra queste il linguaggio -
abbiano molti aspetti in comune con gli standard, esclusa però la forma scritta e pubblica.
A che cosa serve uno standard 67
Noi accademici sapevamo che il pubblico non aveva idea di tutto quello che era stato neces-
sario per rendere possibile l'evento. Doug Conner (il batterista, NdT) osservò che questa
sensazione era tipica di ogni musicista Jazz: «Alcuni pensano che tu debba semplicemente
arrivare e cominciare una session, non capiscono che devi avere anni e anni di esperienza, e
che la tua esecuzione dipende anche dalla buona volontà di quelli che ti hanno preceduto».
L'improvvisazione è difficile, richiede tempo e assorbe una notevole quantità di risorse
(Meyer, 1998:573).
Tabella 2.2 Quattro tipi di improvvisazione musicale. Fonte: adattata da (Zack, 2000:232).
nee, come ad esempio l'opera di Sylvano Bussotti (Ulman, 1996). Bussotti, pur par-
tendo dalla notazione musicale standard, la altera, la trasforma, vi traccia dei grafici o
vi dipinge sopra per arricchirla di indicazioni espressive ed estetiche, ma anche per
suscitare nell'esecutore delle emozioni da trasferire più o meno liberamente nella mu-
sica. Assistiamo dunque a una sorta di opera "aperta" in cui l'autore "lancia un sasso"
e si aspetta, dall'esecutore e dagli ascoltatori, un contributo personale di interpreta-
zione e, in ultima analisi, di co-creazione.
Figura 2.4 Una parte di uno spartito di Bussotti. Da "Mobile-stabile" (N. 5 in "Sette fogli")
per chitarre, canto e pianoforte (1959, prima esecuzione Londra 1960).
Il problema si farà più chiaro paragonando due brani, uno dalla Divina Commedia e l'altro
dal Finnegans Wake. Nel primo Dante vuole spiegare la natura della Santissima Trinità [...],
A che cosa serve uno standard 69
passibile dunque [...] di una sola interpretazione che è quella ortodossa. Il poeta usa pertanto
delle parole ciascuna delle quali ha un dato referente preciso e dice:
O luce eterna, che sola in Te sidi,
Sola t'intendi, e, da te intelletta
Ed intendente te, ami ed arridi!
[...] Di converso, ogni volta che si rilegge la terzina, l'idea del mistero trinitario si arricchi-
sce di nuove emozioni e di nuove suggestioni immaginative e il suo significato, che pure è
univoco, sembra approfondirsi e arricchirsi a ogni lettura.
Joyce, invece, nel quinto capitolo del Finnegans Wake, vuole descrivere la misteriosa lettera
che viene trovata in un letamaio e il cui significato è indecifrabile, oscuro perché multifor-
me; la lettera è dello stesso Finnegans e in definitiva è un'immagine dell'universo che il Fin-
negans rispecchia sotto specie linguistica. Definirla è in fondo definire la natura stessa del
cosmo; [...] la definizione occupa pagine e pagine del libro, ma in fondo ciascuna frase non
fa che riproporre in una prospettiva diversa l'idea base, anzi il campo di idee. Prendiamone
dunque una a caso:
From quiqui quinet to michemiche chelet and a jambebatiste to a brulobrulo! It is
told in sounds in utter that, in signs so adds to, in universal, in polyguttural, in each
ausiliary neutral idiom, sordomutics, florilingual, sheltafocal, flayflutter, a con's
cubane, a pro's tutute, strassarab, ereperse and anythongue athall.
La caoticità, la polivalenza, la multi-interpretabilità di questo chaosmos scritto in tutti gli i-
diomi, [...], ecco una serie [...] di suggestioni che derivano dall'ambiguità stessa delle radici
semantiche e dal disordine della costruzione sintattica. [...]
Quello che avviene nella terzina dantesca e nella frase joyciana è in fondo un procedimento
analogo [...]. Entrambe le forme, se contemplate sotto il loro aspetto estetico, si rivelano a-
perte in quanto stimolo a una fruizione sempre rinnovata e sempre più profonda. Tuttavia
nel caso di Dante si fruisce in modo sempre nuovo la comunicazione di un messaggio uni-
voco; nel caso di Joyce l'autore vuole che si fruisca in modo sempre vario un messaggio che
di per sé [...]è plurivoco. Si aggiunge qui alla ricchezza tipica della fruizione estetica una
nuova forma di ricchezza che l'autore moderno si propone come valore da realizzare. Que-
sto valore che l'arte contemporanea intenzionalmente persegue, quello che si è tentato di i-
dentificare in Joyce, è lo stesso che cerca di realizzare la musica seriale liberando l'ascolto
dai binari obbligati della tonalità e moltiplicando i parametri su cui organizzare e gustare il
materiale sonoro; è quello perseguito dalla pittura informale quando cerca di proporre non
più una, ma varie direzioni di lettura di un quadro; è ciò cui mira il romanzo quando non ci
racconta più una sola vicenda e un solo intreccio ma cerca di indirizzarci, in un solo libro,
all'individuazione di più vicende e di più intrecci. (Eco, 1962:90-93 II ed.).
Il parallelo tra le forme letterarie, musicali e visive indicate da Eco e l'analisi di Zack
sull'evoluzione dell'improvvisazione musicale nel Jazz moderno appare evidente: tor-
nano in mente le espressioni musicali del periodo Postbop di Miles Davis a cui si fa-
ceva riferimento più sopra, dove l'interpretazione, anzi, la pluralità di interpretazioni
possibili, nascono dalla conversazione tra l'autore, l'esecutore e l'ascoltatore e l'opera
non è mai univoca anche se ripetuta più volte.
Eppure, anche nell'opera aperta contemporanea, non è forse necessario un lin-
guaggio, una piattaforma comune di comunicazione, uno standard di riferimento mi-
nimale? Non è forse questo standard minimale che permette all'interprete e all'ascolta-
tore di costruire interpretazioni e significati sul canovaccio pluri-evocativo offerto
dall'autore?
70 Capitolo 2
2.3.5 So what?
59
Ad esempio, i sistemi multiterminale installati da IBM nelle banche degli anni '70 non
richiedevano necessariamente approcci di progettazione "bottom up": essi erano tipicamente
fortemente accentrati, gerarchici e con gradi di libertà praticamente nulli per l'utente. Per
un'introduzione su questo tema con un'analisi in chiave storica delle principali "pietre miliari"
dell'evoluzione IT nelle organizzazioni e delle loro modalità applicative vedi (De Marco et al.,
2003). Lo studio della natura e delle determinanti della flessibilità tecnologica, dei gradi di
libertà operativa permessi ai progettisti e agli utenti e dei conseguenti approcci di progettazione
dei sistemi informativi e di gestione dell'innovazione rappresentano, a mio parere, una delle
sfide affascinanti poste ai ricercatori dal progresso tecnologico attuale. Per un'indagine
esplorativa sulle pratiche emergenti di sviluppo IS rese possibili da nuovi standard tecnologici
vedi (Virili & Sorrentino, 2008).
60
Moorman e Miner distinguono ai fini dell'improvvisazione tra memoria procedurale (skill
knowledge) e memoria dichiarativa (fact knowledge); esse sono continuamente aggiornate in
base all'esperienza e influenzano il risultato dell'improvvisazione organizzativa in termini di
livello di innovazione, coerenza e velocità dell'azione.
61
L'idea di interpretare il ruolo dello standard nell'improvvisazione attraverso gli studi sulla
memoria organizzativa (Moorman & Miner, 1998) è di Alessandra Valerio, che la propone
nella sua tesi di laurea, applicandola all'analisi dello standard come strumento di
improvvisazione nei box Ferrari durante i gran premi di Formula 1: (Valerio, 2003). Un'altra
72 Capitolo 2
Per usare una delle misure dell'azione improvvisata di Moorman e Miner, lo stan-
dard potrebbe dunque risultare utile a sviluppare capacità e competenze che assicuri-
no il necessario grado di coerenza all'azione, senza pregiudicarne il potenziale di in-
novazione e creatività. Un po' come il pentagramma nella musica di Bussotti: una ba-
se ben nota su cui creare, a volte in modo sorprendente.
possibile linea di interpretazione del ruolo dello standard come base per l'improvvisazione
potrebbe derivarsi per analogia da alcuni noti lavori di Martha Feldman sulle routine
organizzative (Feldman, 2000); (Feldman & Pentland, 2003). Secondo l'autrice, le routine
organizzative possono avere una duplice natura, sia strutturale (ostensive) che dinamica
(performative); esse sono dunque al tempo stesso fonte di stabilità/coerenza e di
flessibilità/improvvisazione organizzativa (Feldman & Pentland, 2003). Il concetto di
flessibilità è qui affrontato nel capitolo 3, sezione 3.3.6.
A che cosa serve uno standard 73
Lo standard, accanto agli altri tipi di regole, costituisce dunque un basilare strumento
organizzativo. Le regole sono certamente importanti nelle organizzazioni, anzi ne so-
no parte essenziale: questo è un fatto evidente ed assodato, che è stato oggetto di nu-
62
In linea con l'approccio williamsoniano, in questa sede un rapporto transazionale a relazione
"debole" o "a bassa intensità" è tale da poter essere soppiantato da un rapporto alternativo ad
un costo relativamente meno elevato rispetto a quello da sostenere nel caso di un rapporto
transazionale originario caratterizzato da una relazione più forte. Ciò è evidentemente dovuto
alla più bassa specificità degli investimenti a supporto del rapporto originario. L'idea di
relazione debole è evidentemente contigua a quella più generale di loosely coupled system. Per
una rassegna della letteratura ed un'analisi dei fattori causali, della tipologia e delle
implicazioni dei loosely coupled systems si veda (Orton & Weick, 1990).
74 Capitolo 2
63
merosi studi . Pertanto, se gli standard sono un particolare tipo di regola, quali sono
le ragioni per ricorrere proprio a degli standard piuttosto che ad altri tipi di regole? In
altre parole, le organizzazioni hanno proprio bisogno degli standard? Perché?
Fin dalle origini molte forme di standardizzazione tecnica (che, come ricordiamo
dal capitolo 1, comprendono standard di riferimento, di qualità minima e di compati-
bilità), furono promosse nell'ambito del commercio e dell'industria: standard di rife-
rimento come i sistemi di pesi e misure; standard di qualità minima come le classi di
prodotto con descrizioni e requisiti minimali; standard di compatibilità come, ad e-
sempio, quelli a noi già noti dello scartamento dei binari ferroviari e della filettatura
di dati e bulloni. Gli standard comportamentali, come il già menzionato standard or-
ganizzativo ISO 9000 per i processi di gestione della qualità, sono più recenti, ma in
alcuni casi sono tra i più diffusi a livello globale ed hanno un impiego vastissimo.
Esistono numerosi motivi per creare degli standard, sia tecnici che comportamen-
tali. Kindleberger raggruppa i benefici della standardizzazione in due grandi catego-
rie: economie di scala e riduzione dei costi di transazione (Kindleberger, 1983). Più
specificamente, l'ISO individua una serie di obiettivi della standardizzazione
((Sanders & International Organization for Standardization, 1972), riportato in
(Spivak & Brenner, 2001:29-30)):
9 Interscambiabilità
9 Semplificazione
9 Mezzi di comunicazione
9 Simboli e codici
9 Sicurezza
9 Tutela di interessi pubblici
9 Riduzione delle barriere al commercio.
Ad esempio, nel caso degli idranti di Baltimora, riportato nel riquadro che segue, i
benefici principali vengono ottenuti in termini di costi di transazione e soprattutto di
64
gradi di libertà relazionale , grazie alla standardizzazione delle attrezzature. Un bene-
ficio secondario si consegue dal lato della produzione: l'attrezzatura antincendio stan-
dardizzata viene prodotta per volumi più elevati, con conseguenti economie di scala.
L'esempio della standardizzazione dei mattoni per la ricostruzione di Boston eviden-
zia vantaggi in sia in termini di riduzione dei costi di transazione (semplificazione
delle attività in tutto il processo di costruzione, interscambiabilità) che in termini di
economie di scala.
63
«Le regole sono onnipresenti nel comportamento umano, ma sono particolarmente numerose
nelle organizzazioni formali dove sono spesso considerate gli strumenti prototipi
dell'organizzare« (March et al., 2000:8, ed. it.). Il capitolo primo dello studio di March e dei
suoi coautori "le regole nelle organizzazioni" offre un'ampia rassegna critica della letteratura
organizzativa su questo tema.
64
Ricordando l'analisi effettuata nella sezione 2.2 sulla base del quadro williamsoniano, la
specificità degli investimenti in attrezzature antincendio si riduce con la standardizzazione, e
con essa l'effetto di lock-in transazionale: si passa da relazioni bilaterali (municipalità-vigili del
fuoco locali) a un piccolo "mercato" nazionale che può impiegare indifferentemente le stesse
risorse: il numero di relazioni possibili aumenta, insieme con la loro interscambiabilità.
A che cosa serve uno standard 75
A volte, come nei casi appena considerati, esiste un'autorità che può promulgare
uno "standard" obbligatorio per la comunità di riferimento. In situazioni di questo ge-
nere, quando per esempio uno standard viene definito e imposto per legge, la nascita
dello standard tende ad identificarsi l'emanazione della legge che lo istituisce e lo im-
pone; non sono queste le fattispecie che interessano qui: esse hanno meccanismi giu-
ridici ben noti e presi in esame in altre discipline.
I casi in cui lo standard mostra invece chiaramente caratteristiche "genetiche" sue
proprie, che lo differenziano rispetto agli altri tipi di regole, sono quelli in cui non è
presente un'autorità centrale a istituire lo standard e ad imporne l'adozione, ma esisto-
no una o più collettività che hanno qualche interesse alla creazione e all'uso di uno
standard comune, ma che non sono necessariamente in accordo sulle sue caratteristi-
che.
STANDARDIZZARE URGENTEMENTE!
Gli orientamenti recenti nello sviluppo di standard in ambito militare sono stati verso l'eli-
minazione di standard e specifiche militari dettagliate in favore dell'adozione di standard
non governativi o lo sviluppo di descrizioni di prodotto e specifiche di performance com-
merciali. Dal 1990 al 1995, il Ministero della Difesa (DoD: Department of Defense) ha can-
cellato oltre 6500 standard e specifiche militari [...]. Il DoD adotta ora nel complesso oltre
7400 standard non governativi (Spivak & Brenner, 2001:139).
Questo trend di passaggio dalle regole coercitive agli standard volontari vale in gene-
rale nell'amministrazione USA, come testimonia la circolare A-119 dell'Office of
Management and Budget, intitolata "Partecipazione Federale nello sviluppo e l'im-
piego di standard a consenso volontario e nelle attività di verifica della conformità":
Dunque gli standard volontari non sono soltanto una versione "debole" delle regole
coercitive, uno strumento a cui è giocoforza ricorrere in mancanza di un'autorità cen-
trale: essi possono risultare preferibili agli altri tipi di regole. Ciò anche perché la loro
particolare dinamica di generazione, il processo che determina il "consenso volonta-
rio" di cui sopra, ha caratteristiche tipiche della selezione di mercato, tali da rendere
spesso più economico, efficiente e vicino ai bisogni della comunità ciò che risulta da
un processo di standardizzazione volontaria rispetto ciò che viene univocamente pre-
determinato dall'alto.
Il prossimo capitolo sarà dunque dedicato all'analisi degli studi che contribuiscono a
spiegare e interpretare questo processo; esso costituisce la parte centrale dell'investi-
gazione su come nasce uno standard.
3
Analisi della letteratura
Abbiamo finora considerato che cosa è uno standard e a che cosa serve: si tratta di
un particolare tipo di regola scritta e pubblica ad adesione volontaria, che trova im-
piego nelle organizzazioni come meccanismo di coordinamento, come catalizzatore
relazionale e come possibile piattaforma di innovazione, creatività e improvvisazione;
esso assume carattere di particolare necessità e rilievo nelle situazioni in cui è assente
un'autorità centrale che abbia il potere di emanare e imporre delle regole, ma può ri-
sultare comunque una utile alternativa alle regole coercitive, con una serie di vantaggi
che lo rendono spesso preferibile, legati alla sua stesso natura di strumento regolativo
volontario concordato e disponibile sul mercato.
E' il momento di esplorare il tema principale di questo lavoro: come nasce uno
standard. In questo capitolo, attraverso l'analisi delle letteratura, verranno passati in
rassegna gli attori, le fasi, le attività che danno origine all'istituzione di uno standard,
esaminando sia il processo di formazione che, quando opportuno, il processo di diffu-
65
sione . L'analisi è sostanzialmente divisa in tre parti. Nella prima parte si prende co-
me punto di riferimento un recente numero monografico di MIS Quarterly, dedicato
ai processi di standardizzazione nel settore IT, che presenta una varietà di approcci e
impostazioni teoriche nella quale si tenterà di individuare alcune basi teoriche comu-
ni. Questa analisi conferma la multidisciplinarietà e la complessità del tema. Esso è
stato affrontato finora da una vasta letteratura economica, che costituisce ormai una
base ampia e riconosciuta, e da una molteplicità di contributi in vari ambiti delle
scienze sociali, non sempre in diretta relazione tra loro. A questi due grandi rami del-
la letteratura, quello delle scienze economiche e quello delle scienze sociali, verranno
dedicate le successive due sezioni, per poi tratteggiare un quadro complessivo nella
sezione finale del capitolo.
65
Anche se risulta difficile distinguerli in modo netto, si considererà qui come processo di
formazione quello antecedente alla pubblicazione dello standard; come processo di diffusione
quello ad essa successivo.
78 Capitolo 3
La Tabella 3.1 che segue offre una vista d'insieme dei sette articoli del numero mo-
nografico, illustrando il tipo e l'origine dello standard, il focus dell'analisi (fase del
processo di standardizzazione e descrizione dello standard in esame), nonché le basi
teoriche adottate.
I primi tre contributi riguardano standard de jure che originano in enti riconosciuti
di standardizzazione volontaria, (voluntary consensus standards). In essi il focus del-
l'analisi è sulla standardizzazione di tipo anticipatory, applicata allo sviluppo di nuo-
ve specifiche e tecnologie non ancora presenti sul mercato (Web services Choreo-
graphy: (Nickerson & Zur Muehlen, 2006); MISMO "SMART docs": (Markus et al.,
2006)), o all'istituzione dello standard britannico BS7799 sulla sicurezza IT, un ibrido
tra standard manageriale (cioè comportamentale, secondo la distinzione originale di
Paul David discussa nel cap. I) e standard tecnico (Backouse et al., 2006).
66
Secondo una stima basata sui dati disponibili negli archivi NIST (NIST directories: (Toth,
1996:175;Toth, 2001:142)) ci sarebbero nel mondo oltre 800.000 standard attivi. Essi
costituiscono di per sé una notevole mole documentale, continuando inoltre ad alimentare un
flusso di attività e di investimenti pubblici e privati notevolissimo. Incontri e conferenze
specialistiche, nei vari settori economici e industriali interessati, aggregano interessi e
conoscenze specifiche: uno dei temi ampiamente dibattuti è quello di come massimizzare
l'efficienza e l'efficacia della produzione di standard nelle varie sedi istituzionali.
67
Per alcuni manuali di Organizzazione dei Sistemi Informativi ad opera di autori italiani cfr.
(De Marco et al., 1987); (Pontiggia, 1997); (Martinez, 2005).
Analisi della letteratura 79
Tabella 3.1 Vista d'insieme dei contributi rielaborato da (Lyytinen & King, 2006:407-8), Ta-
ble 1.
(Zhu et al., 2006) “Mi- Sia de jure che de Adozione e diffusione Network econo-
gration to Open Stan- facto di standard di compa- mics
dard Interorganizatio- tibilità IT "aperti" (o-
nal Systems: Network pen standards)
Effects, Switching
Costs and Path De-
pendency”
(Chen & Forman, Sia de jure che de Adozione e diffusione Network econo-
2006) “Can Vendors facto di standard di compa- mics
Influence Switching tibilità IT "aperti" (o-
Costs and Compatibili- pen standards)
tà in an Environment
with Open Standards?
La colonna più a destra nella tabella fornisce un'indicazione delle basi teoriche di cia-
scun articolo: appare evidente come esista un approccio comune agli ultimi tre con-
tributi, generalmente indicato come network economics, per l'analisi prevalente dei
processi di adozione, selezione e diffusione degli standard di compatibilità tecnica.
Tale approccio è presente in (Weitzel et al., 2006); (Zhu et al., 2006); (Chen & For-
man, 2006). Gli altri quattro contributi si ispirano invece a ambiti teorici e disciplinari
più disomogenei, che comprendono la teoria dell'azione collettiva in (Markus et al.,
2006); la teoria dei circuiti di potere in (Backouse et al., 2006); l'actor-network the-
ory e le teorie sociologiche della modernità in (Hanseth et al., 2006).
(cittadino), è per sua natura disponibile anche a tutti gli altri. Questa condizione prende il nome
di fornitura collettiva (jointness of supply) o di non rivalità nel consumo (non rivalness of
consumption). Quando un bene è perfettamente pubblico, alla non rivalità nel consumo si
accompagna la impossibilità di esclusione (impossibility of exclusion): è impossibile escludere
chicchessia dal consumo del bene pubblico, una volta che questo sia stato messo a disposizione
di un qualsiasi membro della collettività. Nella realtà molti beni, pur non essendo pubblici nel
senso delinato da Samuelson, vengono comunque prodotti e forniti dalla collettività. Tali beni
assumono il nome di beni collettivi, e sono appunto quelli a cui si interessa Olson. Lo standard
è uno di questi: come abbiamo visto, esso nasce da un atto di negoziazione collettiva, anche se
non sempre presenta in senso pieno entrambi gli attributi di jointness of supply e di
impossibility of exclusion.
70
Markus e i suoi coautori (Markus et al., 2006:441) osservano come la necessità di porre luce
sui meccanismi che spingono i soggetti a partecipare in fase di creazione, sostenendone quindi
i costi, sia stata messa in luce fin dai primi analisti dei processi di standardizzazione, tra cui
(Cargill, 1989) e (David & Greenstein, 1990).
71
Come abbiamo già osservato nella parte introduttiva di questo capitolo, risulta a volte
difficile distinguere nettamente tra fase di creazione e fase di diffusione di uno standard: ad
esempio la diffusione dei personal computer IBM e dei suoi "cloni" ha determinato
l'affermazione di una serie di standard tecnologici de facto, incorporati nel prodotto stesso
(product standard) come le specifiche tecniche della scheda grafica, delle porte per la
stampante, per la tastiera, ecc. In molti casi come quello, i processi di adozione/diffusione
risultano dunque determinanti alla fine dell'istituzione stessa dello standard. In questo lavoro, il
focus principale è comunque sui processi di creazione, anche se verranno presi in esame gli
aspetti di diffusione ad essi collegati. Convenzionalmente, la data di pubblicazione dello
standard è qui considerata come il punto finale del processo di creazione e quello iniziale di
quello di adozione e diffusione. In (Markus et al., 2006) si sottolinea come i due processi siano
fortemente interrelati, mentre la letteratura li abbia spesso analizzati separatamente.
72
Gli economisti hanno chiamato questi comportamenti di attesa con il nome di "effetti
pinguino" (penguin effects: vedi (Farrell & Saloner, 1986a:943), nota n. 9). Essi vengono
illustrati in maggiore dettaglio più oltre in questo capitolo, nella sezione 3.2.2 al paragrafo
"Farrell e Saloner (1986): Effetti contrastanti sull'innovazione".
73
Un dilemma sociale si ha quando un comportamento razionale a livello individuale risulta
invece irrazionale a livello collettivo. Ad esempio astenersi dal voto nelle elezioni politiche per
non sostenerne i costi (tempo, trasferimento, informazione ecc.) pur godendo dei benefici del
Analisi della letteratura 83
ciò, qualche membro di tutti i gruppi rilevanti deve partecipare nello sviluppo dello
standard (Hills, 2000)» (Markus et al., 2006:444).
Pertanto, l'indagine di Markus e dei suoi coautori è stata tesa a verificare come l'e-
terogeneità dei gruppi (in termini sia di interessi che di risorse) abbia potuto influire
sulle possibili soluzioni ai dilemmi sociali della partecipazione e della iniziale diffu-
sione dello standard di settore sotto esame (MISMO smart docs), e come tutto questo
possa riflettersi in ultima analisi nel contenuto dello standard stesso. In estrema sinte-
si, l'analisi del caso ha evidenziato:
1) l'esistenza di significativa eterogeneità di risorse e interessi tra i potenziali par-
tecipanti all'iniziativa di standardizzazione, con un particolare rilievo per la posizione
delle due grandi potenti istituzioni private certificate dal governo statunitense (GSE,
Government Sponsored Enterprises: Fannie Mae e Freddie Mac) che disponevano di
tecnologie diverse in forte concorrenza tra loro per la comunicazione con le banche e
i broker, e per la posizione dei fornitori di tecnologie e servizi informatici, anch'essi
in concorrenza tra loro con sistemi diversi. L'adozione di un unico sistema di comuni-
cazione dei dati per l'intero settore rischiava di ledere le rispettive posizioni concor-
renziali delle due GSE concorrenti, che guardavano dunque con sospetto all'iniziati-
va. In questo senso l'eterogeneità di interessi e di risorse viene vista dagli autori come
un possibile ostacolo al successo dell'iniziativa.
2) Il conseguente ricorso ad una serie di misure e di tattiche, tra le quali la più de-
terminante è stata la moral suasion della Mortgage Bank Association su Fannie Mae
e Freddie Mac, per convincerle finalmente ad aderire all'iniziativa, con conseguente
legittimazione della stessa; ulteriori tattiche osservate dagli autori hanno riguardato
l'adozione di principi di apertura e di libera partecipazione nella governance dell'ini-
ziativa e nella gestione dei diritti di proprietà intellettuali; di limitazione del raggio di
azione dello standard (solo alla codifica del formato dei dati, mantenendo libertà di
definizione dei processi sottostanti); di enfasi sulla razionalizzazione tecnica delle
77
specifiche .
3) Il contenuto finale dello standard è stato necessariamente influenzato dai di-
lemmi di azione collettiva e dalle tattiche adottate per risolverli. In particolare, gli au-
tori notano come alcuni dei soggetti intervistati abbiano osservato come la struttura
finale del documento elettronico risultante dallo standard "MISMO smartdoc" risulti
forse inutilmente complicata, prevedendo duplicazioni di dati e parti aggiuntive non
soltanto per motivi di sicurezza dei dati, ma forse anche con lo scopo di non escludere
77
Su questo punto gli autori notano la relazione tra le tattiche osservate e le questioni e i
dilemmi di azione collettiva discussi in precedenza sia di ordine generale e complessivo:
«Abbiamo trovato una serie di tattiche (il supporto delle GSE, la governance, i diritti di
proprietà intellettuale, le decisioni tecniche sul raggio di azione, comprese quelle di
razionalizzazione dei dati) che nel complesso sono servite a fornire una risposta alla maggior
parte delle questioni identificate nella nostra analisi dei dilemmi dell'azione collettiva di
MISMO […]. Non c'è nessuna corrispondenza uno a uno tra tattiche e questioni. Alcune
tattiche affrontano sia i dilemmi che le questioni che riguardano molteplici stakeholders.
Sebbene alcune di queste tattiche siano state menzionate in precedenza dalla letteratura, il
modo in cui esse sono risultate efficaci nel caso MISMO in alcuni casi è risultato diverso da
quello previsto dalla letteratura. Per esempio, le regole di affiliazione a MISMO sono state
concepite per garantire un'ampia base di partecipazione, piuttosto che per escludere i rivali»
(Markus et al., 2006:459).
Analisi della letteratura 85
dal business una serie di società fornitrici dei servizi di verifica dei contenuti. Se tali
dubbi fossero confermati, la complessità inutile della specifica sarebbe una delle rica-
dute della tattica di inclusione e di apertura nella partecipazione all'iniziativa. L'ec-
cessiva complessità delle specifiche potrebbe a sua volta compromettere la diffusione
e quindi il successo finale dello standard.
In definitiva, dunque, gli autori offrono alcune proposizioni teoriche che mettono
in rilievo l'importanza, ai fini del successo della standardizzazione di settore, dei se-
guenti elementi: 1) in presenza di elevata eterogeneità (interessi, risorse) dei gruppi
che partecipano all'iniziativa è importante assicurare la partecipazione di tutti gli atto-
ri rilevanti, con particolare riferimento a coloro che hanno capacità di influenza e di
moral suasion nel settore; 2) esistono tattiche utili alla gestione delle questioni e dei
dilemmi sociali di azione collettiva (moral suasion, apertura nella gestione di gover-
nance e diritti intellettuali, limitazione del raggio di azione e razionalizzazione tecni-
ca); 3) il contenuto tecnico dello standard finale è comunque influenzato dalle tattiche
adottate e dalla necessità di assicurare la piena partecipazione, che potrebbero ingene-
rare complessità ridondante. Questo aspetto va controllato per assicurare il successo
della successiva diffusione dello standard.
La ricchezza e la profondità di analisi del caso osservato in (Markus et al., 2006)
lo rendono un importante punto di riferimento per la ricerca sui processi di standar-
dizzazione, che indica una direzione ricca di possibili sviluppi. In particolare,i se-
guenti interrogativi si pongono naturalmente all'attenzione del ricercatore:
Come mai nel caso MISMO l'eterogeneità dei gruppi sembra avere un effetto po-
tenzialmente negativo sull'azione collettiva, mentre in analisi apparse altrove di casi
simili a questo si sono avuti risultati variabili e in alcuni casi opposti (vedi (Monge et
al., 1998:422), proposizioni 10-14)?
E' possibile prendere in considerazione ulteriori fattori critici e risultati teorici e-
videnziati dalle teorie dell'azione collettiva, come l'interdipendenza e il tipo di fun-
zione di produzione (Oliver et al., 1985), la dimensione dei gruppi (Oliver & Mar-
well, 1988) o le caratteristiche della rete di relazioni sociali (Marwell et al., 1988)?
Esiste una relazione tra le teorie dell'azione collettiva e quelle sugli effetti re-
te/network economics, che possa dar luogo ad una visione complessiva dei processi di
78
standardizzazione ?
In che termini è dunque possibile giungere ad una generalizzazione? Esiste un
modo di valutare i possibili elementi in comune e le eventuali differenze tra il proces-
so discusso nel caso MISMO e gli altri processi di standardizzazione, sia per gli stan-
dard di settore che più in generale?
78
A questo proposito gli autori della teoria della massa critica osservano: «Abbiamo affermato,
e ancora sosteniamo, che tutto si basa sulla funzione di produzione, vale a dire sul modo in cui
le contribuzioni si convertono in unità del bene collettivo. Ci sono, infatti, molti differenti 'tipi'
di funzioni di produzione con molte differenti proprietà, e la significatività delle contribuzioni
individuali in ciascuna di esse varia enormemente. L'intero problema dell'azione collettiva è un
subset del problema economico più generale delle esternalità di rete, in cui le azioni
individuali hanno effetto sulla collettività. Il nostro punto è che non ci sono proprietà generali
dell'azione collettiva. C'è prima bisogno di impostare alcuni parametri di particolari tipi di
azioni; poi sarà allora possibile esaminare gli effetti di altri fattori come la dimensione del
gruppo» (vedi (Oliver & Marwell, 2001:296), corsivo aggiunto).
86 Capitolo 3
A questi interrogativi verrà dedicato ulteriore spazio più oltre in questo capitolo.
79
All'inizio del periodo di osservazione degli autori, nel 1992, l'architettura e l'idea stessa di
Web services non esisteva ancora, ma era già forte la domanda per uno standard di gestione dei
flussi di lavoro (workflows). Per questo a partire dal 1993 nacque la Workflow Management
Coalition (WfMC), la prima istituzione di standardizzazione volontaria sul tema. Con
l'evoluzione tecnologica, molte altre coalizioni hanno poi proposto ulteriori specifiche
tecniche, che in parte si completano, in parte si sovrappongono e competono per affermarsi
sulle altre, con vario successo. Tutto ciò non ha ancora dato luogo ad un quadro finale
omogeneo e unitario. Per un'introduzione generale sulle caratteristiche di alcune di queste
specifiche tecniche vedi (Virdell, 2003). Per un'analisi approfondita del merito tecnico e delle
dinamiche negoziali tra due opposte scuole di pensiero in ambito workflow (soluzioni basate su
REST piuttosto che su SOAP), vedi (Zur Muehlen et al., 2005).
80
In particolare, Michael zur Muehlen, dello Stevens Institute of Technology, è un esperto
riconosciuto nel settore degli standard di workflow, con una grande esperienza diretta sui
processi di definizione di standard tecnici in quest'area. Tra l'altro è stato sia membro attivo che
group chair in note istituzioni di standardizzazione volontaria, come WfMC (Workflow
Management Coalition), BPMI (Business Process Management Iniziative) e OASIS
(Organization for the Advancement of Structured Information Standards).
Analisi della letteratura 87
per indicazioni congetturali e generiche come queste: «gli individui sono parte di un
campo interazionale, nel quale le loro azioni sono interdipendenti con quelle degli
altri individui»; «i gruppi di lavoro nei processi di standardizzazione Internet funzio-
nano come un'ecologia delle popolazioni»; «le norme di funzionamento delle orga-
nizzazioni di standardizzazione volontaria sono fonte di stabilità istituzionale nei pro-
cessi di standardizzazione» (Nickerson & Zur Muehlen, 2006:480-81). Tali indica-
zioni non rendono però ragione alla ricca e articolata serie di osservazioni e interpre-
tazioni che gli autori hanno offerto nell'analisi del caso. Alcune delle più importanti
tra esse vengono utilizzate nella discussione finale per rispondere alla domanda:
«Perché gli standard possono fallire? Quali tipi di standard hanno maggiori possibilità
di ottenere il consenso?» (Nickerson & Zur Muehlen, 2006:481). Gli autori osservano
che l'evidenza empirica disponibile nel loro caso di studio non permette di fornire ri-
sposte chiare. Tuttavia, è possibile restringere il set delle ipotesi accettabili.
Si possono intanto escludere sia l'idea che l'intero processo sia casuale, sia quella
opposta che si tratti di una pura negoziazione razionale a più parti. Un partecipante da
un lato non ha in mano tutti gli elementi per valutare razionalmente le possibilità di
successo di una proposta, dall'altro ha però a disposizione alcuni mezzi per influen-
zarne il corso: «ci sono qua e là alcuni spazi di negoziazione, ma solo alcuni. Dal
momento che non c'è un'autorità centrale con poteri coercitivi, le negoziazioni non
devono necessariamente completarsi. Come nelle ecologie naturali, i partecipanti a
cui non piace il modo in cui sta procedendo un accordo possono andar via e provare
nuovamente altrove» (Nickerson & Zur Muehlen, 2006:482).
Lo spazio negoziale e progettuale in cui nascono gli standard Internet si articola in
modo caotico in un tumulto di relazioni tra individui, gruppi di lavoro, organizzazioni
e alleanze che evolvono e si trasformano velocemente, dando luogo a proposte tecni-
che che nascono, si modificano, si fondono, si scindono, vengono abbandonate, gene-
rano nuove proposte ecc. Tutto ciò risulta caotico e forse inefficiente. Una delle ipo-
tesi degli autori è che forse il caos piace davvero agli standard makers di Internet: «il
caos attualmente osservabile nell'ambiente di standardizzazione Internet potrebbe es-
sere supportato e perpetuato dagli standard makers, che apprezzano la libertà ad esso
associata» (Nickerson & Zur Muehlen, 2006:482). Oltre ad apprezzare il caos, la co-
munità responsabile degli standard Internet, pur essendo influenzata in misura sempre
crescente dagli interessi commerciali delle imprese, mantiene un'anima per così dire
pura, che difende l'impostazione originale no-profit della Rete, ciò che gli autori
chiamano "lo spirito di Internet", riprendendo un'espressione in vivo, fortemente usata
81
dalla comunità nei documenti presi in esame dagli autori . Lo spirito di Internet è og-
gi istituzionalizzato in almeno due degli enti più autorevoli e influenti per la standar-
dizzazione Internet: IETF (Internet Engineering Task Force) e W3C (World Wide
Web Consortium). Entrambi questi enti sono animati da personaggi carismatici che
81
In uno degli episodi documentati dagli autori, dall'analisi di oltre 2000 messaggi della
comunità nel sistema di messaggeria pubblica del consorzio W3C, che discutevano la proposta
di concedere in futuro licenze d'uso non più esclusivamente gratuite sugli standard promulgati
dal consorzio W3C, 485 messaggi email usavano l'espressione "The spirit of the Web".
Nonostante l'evidente interesse commerciale delle imprese, la proposta è stata fortemente
osteggiata dalla comunità e infine ritirata (Nickerson & Zur Muehlen, 2006:477).
88 Capitolo 3
stati tra i pionieri di Internet, come Vinton Cerf e Robert Kahn (IETF), che hanno svi-
luppato i protocolli standard TCP/IP su cui si basa Internet, e Tim Berners Lee
(W3C), l'ideatore di HTML e HTTP, gli standard tecnici alla base del Web.
In accordo con lo spirito di Internet, la comunità nutre dei sospetti nei confronti
delle proposte di standard in cui l'interesse commerciale prevale sull'"estetica tecni-
ca": «Gli standard motivati da obiettivi di business sono immediatamente sospetti tra
coloro che condividono un'estetica tecnica» (Nickerson & Zur Muehlen, 2006:481).
Tra i valori tradizionali della comunità che difende lo spirito di Internet c'è infatti una
vera e propria estetica della soluzione semplice ed elegante, simile a quella dei mate-
matici. Di conseguenza, coloro che sono ispirati da questi valori «non approveranno
mai una proposta che non si è ancora consolidata in una chiara soluzione tecnica»
(Nickerson & Zur Muehlen, 2006:482).
In definitiva dunque, nell'ambiente caotico della standardizzazione Internet nessun
soggetto o organizzazione sembra essere attualmente nelle condizioni di poter impor-
re uno standard anticipatory o di condurre una negoziazione razionale con parti defi-
nite e una chiara configurazione delle preferenze e degli interessi in gioco. Si tratta
piuttosto di formare un'alleanza iniziale, individuare un'appropriata sede di negozia-
zione (o crearne una ad hoc) e fare una proposta, avviando un processo che potrà dar
luogo o meno al consenso generale e all'approvazione della comunità, necessario per-
ché lo standard possa poi avere successo. Fattori importanti in tutto questo sembrano
essere il merito tecnico della proposta, ivi compreso il suo valore di "estetica tecnica"
e l'aderenza all'ethos della Rete come iniziativa libera, aperta e non-profit. D'altro lato
anche gli interessi commerciali delle imprese, specie se largamente condivisi, posso-
no giocare un ruolo importante.
Il contributo di Nickerson e zur Muehlen può fornire elementi di riflessione e di
indagine utili per una teoria della standardizzazione: in che modo aspetti come il me-
rito tecnico dello standard interagiscono con aspetti come i valori e l'identità dei par-
tecipanti e dei gruppi di influenza? In che misura queste osservazioni e congetture
possono essere estese anche agli altri processi di standardizzazione? Il caso sembra
infatti suggerire qualche differenza sostanziale tra standard anticipatory e non: i primi
infatti richiedono uno sforzo di progettazione congiunto a quello negoziale, mentre
nella standardizzazione a posteriori la competizione tra proposte alternative appare
più simile ad una negoziazione pura e semplice. Inoltre, anche la distinzione tra stan-
dard verticali e orizzontali appare assumere particolare rilievo: nei primi gli interessi
commerciali tendono maggiormente a prevalere sul merito tecnico: di solito si tratta
infatti di stabilire dizionari, ontologie, pratiche condivise, piuttosto che di risolvere
problemi tecnici. Quindi va bene una soluzione qualunque ma condivisa (come nel
caso della guida a sinistra/destra). Al contrario il merito tecnico, la semplicità, l'ele-
ganza della soluzione possono contare molto negli standard orizzontali, come ad e-
sempio le specifiche tecniche delle infrastrutture IT (i protocolli di comunicazione
per il telefono, il fax, Internet, il Web, i Web services…).
L'ambiente caotico, ricco di interazioni e di commistioni anche casuali tra indivi-
dui, gruppi e culture spesso molto diverse, sembra essere particolarmente adatto a
stimolare l'innovazione e l'invenzione nello sviluppo di standard anticipatory, laddo-
ve l'elemento progettuale e il merito tecnico potrebbero prevalere sull'aspetto pura-
Analisi della letteratura 89
mente negoziale e sulle logiche identitarie e di potere: «nel discutere gli standard,
Tuomi (Tuomi, 2002:32) fa riferimento all'argomento di Mokyr (Mokyr, 1990) che
come ambiente per l'invenzione, il caos delle città stato europee del tardo medio evo
risultava preferibile all'ordine dell'impero cinese» (Nickerson & Zur Muehlen,
2006:482). In questo senso se ne possono trarre due utili indicazioni di ricerca per
una teoria della standardizzazione: in primo luogo, appare utile differenziare e carat-
terizzare gli aspetti progettuali e di innovazione da quelli negoziali, con la consape-
volezza che i primi sembrano avere peso soprattutto nella standardizzazione anticipa-
tory, mentre i secondi assumono particolare rilevanza negli standard verticali; in se-
condo luogo, i processi di innovazione, ove presenti, possono utilmente essere visti in
82
relazione alle caratteristiche di "caoticità" dell'ambiente di riferimento . Qualora en-
trambi gli aspetti siano presenti, come nel caso di standardizzazione verticale e anti-
cipatory per la progettazione dello smartdoc MISMO nel settore dei mutui ipotecari,
è possibile che si giunga a soluzioni di compromesso tra il merito tecnico e la compo-
sizione degli interessi in gioco, con l'effetto secondario che la soluzione di compro-
messo, per poter soddisfare gli interessi diversi di tutti gli attori in gioco, potrebbe
divenire tanto complessa da ostacolarne l'uso pratico e quindi la diffusione.
82
Tuomi osserva che, in simili contesti, hanno rilievo non solo le innovazioni dovute alla
selezione naturale darwiniana, basati su mutazioni casuali, ma anche quelle generate da usi
nuovi e creativi di risorse preesistenti, che sono il frutto di ricombinazioni che implicano
spesso un cambiamento relazionale a livello di comunità di pratica o di network, reso oggi più
semplice dall'IT (Tuomi, 2002:32-33).
90 Capitolo 3
83
Hanseth, Jacucci e colleghi hanno mutuato questa idea di complessità da precedenti studi di
sistemi informativi che hanno affrontato l'argomento (Schneberger & McLean, 2003). In
seguito Jacucci e Hanseth sono stati curatori insieme a Lyytinen di una special issue sulle
teorie della complessità in ambito sistemi informativi (Jacucci et al., 2006), a cui si rinvia il
lettore interessato ad ulteriori approfondimenti.
84
In proposito gli autori rinviano all'analisi in (Perrow, 1984); sui loosely coupled systems si
veda anche la nota 62.
Analisi della letteratura 91
di una teoria, è dunque auspicabile partire progressivamente dalle spiegazioni dei casi
più semplici per poi arricchire il quadro di analisi con riferimento ai fenomeni più
complessi.
Terzo: mentre sappiamo molto delle dinamiche di diffusione, sappiamo ancora
pochissimo dei processi di formazione degli standard: a questo proposito, gli stessi
contributi del numero speciale qui presi in esame, laddove non si limitino ad indicare
alcune possibili "generalizzazioni analitiche" su temi di osservazione suggeriti dalla
teoria preesistente (Backouse et al., 2006), possono spingersi a proporre "congetture"
(Nickerson & Zur Muehlen, 2006), "tentativi di risposte" (Hanseth et al., 2006), o te-
oria "emergente" prevalentemente basata sull'osservazione di "tattiche" (Markus et
al., 2006), ma restano ben lontani dalla comprensione accurata e completa del feno-
meno. E' dunque importante tenere in conto, dati i limiti di capacità e risorse di chi
scrive a fronte dell'ambizione dell'opera intrapresa ed anche a confronto degli autori
degli studi qui considerati, che il lavoro qui proposto non potrà che ambire ad essere
un piccolo passo in questa direzione.
Per capire dunque come nasce uno standard, specie nei casi più complessi, emer-
gono questioni che trovano spiegazioni non soltanto di natura economica, ma anche
di matrice sociologica, socio-tecnica, organizzativa e manageriale, tra cui abbiamo
individuato, nei contributi fin qui passati in rassegna, le teorie istituzionali ed ecolo-
giche, quelle sugli aspetti di potere, le teorie sulla complessità, le teorie sociali dell'a-
zione collettiva e della modernità. Prima di analizzarne alcune più da vicino, cerche-
remo di capire se in questa varietà teorica e metodologica è possibile individuare un
fattore comune utile ai nostri fini.
Esiste una base teorica minimale e condivisa da tutti per lo studio della standardizza-
zione? Questo aspetto può essere innanzi tutto investigato a partire dall'esame dei ri-
ferimenti bibliografici dei sette contributi del numero speciale già presi in esame. La
Tabella 3.2 visualizza i riferimenti condivisi da almeno tre contributi del numero
speciale.
Analisi della letteratura 93
Tabella 3.2 I riferimenti condivisi da almeno tre contributi della specie issue.
Il grado di sparsità dei riferimenti è piuttosto elevato: non esiste infatti nemmeno
un riferimento condiviso da tutti. L'unica citazione condivisa in sei contributi su sette
è il testo di Shapiro e Varian che è considerato in un certo senso il manifesto della
94 Capitolo 3
85
network economics: (Shapiro & Varian, 1999); (Shapiro & Varian, 1998) . La elevata
sparsità dei riferimenti teorici può essere interpretata sotto due diversi profili: da un
lato potrebbe indicare che i processi di standardizzazione presentano aspetti sensibil-
mente diversi, da esaminare quindi con diverse prospettive; dall'altro come gli studi
sugli standard siano ancora in uno stadio di relativa immaturità e non abbiano ancora
prodotto una base minimale di riferimento condivisa. Esistono però alcuni segnali che
questo processo è in atto: questa base potrebbe essere appunto la network economics.
La Figura 3.1 mostra come sia possibile individuare due contributi ((Weitzel et
al., 2006) e (Zhu et al., 2006)) che hanno ben 8 riferimenti in comune. Essi sembrano
formare un gruppo omogeneo insieme a (Chen & Forman, 2006), che condivide con
essi tre citazioni su 34, più una solo con (Weitzel et al., 2006).
Chen &
Forman
(34 riferimenti)
Figura 3.1 Analisi delle citazioni nei paper della special issue di MIS Quarterly (Lyytinen &
King, 2006): il gruppo di articoli basati sulla network economics.
A parte (Emmelhainz, 1993), che è un manuale tecnico sugli standard EDI, tutti gli
86
altri riferimenti condivisi dai tre paper sono classici della network economics . In par-
ticolare, i tre riferimenti comuni a tutti e tre gli articoli sono il già menzionato testo
85
In effetti il noto libro di Shapiro e Varian (Shapiro & Varian, 1998) è citato direttamente solo
da cinque contributi. Nickerson e coautori invece del libro citano un paper di Shapiro e Varian
apparso subito dopo, che ne sintetizza le idee essenziali (Shapiro & Varian, 1999).
86
L'articolo condiviso solo da (Chen & Forman, 2006) e (Weitzel et al., 2006) è (Besen &
Farrell, 1994). I restanti 5 riferimenti comuni solo a (Weitzel et al., 2006) e (Zhu et al., 2006)
sono: (Farrell & Saloner, 1986a); (Katz & Shapiro, 1985); (Katz & Shapiro, 1986); (Arthur,
1989); (Emmelhainz, 1993).
Analisi della letteratura 95
(Shapiro & Varian, 1998), e due paper ben noti che verranno considerati più oltre:
(Katz & Shapiro, 1994) e (Farrell & Saloner, 1985).
Gli studi della network economics non soltanto rappresentano la base teorica pri-
maria degli ultimi tre contributi del numero speciale di MIS Quarterly qui presi in e-
same; essi sono anche un punto di confronto e di riferimento per gli altri contributi.
La Tabella 3.2 mostra infatti come quasi tutti i riferimenti condivisi da almeno tre
contributi siano della network economics, con la sola eccezione di (King et al.,
87
1994) .
La network economics è il filone a cui gli studi sulla standardizzazione fanno più
frequente riferimento, non soltanto nel numero speciale di MIS Quarterly qui preso in
esame, ma anche in generale. La Tabella 3.3 mostra infatti i primi sei articoli pubbli-
cati nelle scienze sociali in ordine di numero di citazioni per anno, a cui è stata asse-
88
gnata negli indici di citazione la parola chiave "standardization" . Ben cinque su sei
89
sono proprio articoli di network economics , e tra questi quattro sono gli stessi evi-
87
(King et al., 1994) è uno studio dei fattori istituzionali nell'innovazione tecnologica che viene
richiamato dai due autori che hanno adottato una prospettiva vicina ai temi istituzionali
(Markus e colleghi con la teoria dell'azione collettiva; Nickerson e zur Muehlen con il loro
approccio ecologico, economico e istituzionale), oltre che nel contributo di Zhu e colleghi, che
invece è interamente basato su network economics e menziona gli aspetti istituzionali tra le
possibili limitazioni della ricerca. Si noti che John Leslie King era uno dei guest editors della
special issue.
88
Per non escludere i contributi di sistemi informativi presenti nel Science Citation Index (SCI)
ma non nel Social Science Citation Index (SSCI) la ricerca è stata fatta includendo sia SCI che
SSCI e poi eliminando i contributi in ambito medico, chimico, ecc. attraverso la selezione delle
materie (SubjCat). Il periodo in esame è stato 1956-2007. La ricerca è stata effettuata il 9
giugno 2007. Il testo della query è il seguente:
"TS=(standardization); DocType=All document types; Language=All languages; Databases=SCI-
EXPANDED, SSCI; Timespan=1956-2007; SubjCat=engineering, electrical & electronic,
telecommunications, computer science, information systems, computer science, software
engineering, computer science, theory & methods, engineering, multidisciplinary, computer science,
hardware & architecture, information science & library science, computer science, interdisciplinary
applications, management, business, statistics & probability, multidisciplinary sciences, psychology,
educational, engineering, mechanical, economics, education & educational research, operations
research & management science, materials science, characterization & testing, communication,
computer science, artificial intelligence, mathematics, interdisciplinary applications, sociology,
psychology, applied, engineering, manufacturing, psychology, developmental, anthropology,
psychology, experimental, physics, multidisciplinary, construction & building technology, psychology,
social, behavioral sciences, law, social sciences, interdisciplinary, history & philosophy of science,
education, scientific disciplines, public administration, transportation science & technology, business,
finance, planning & development, materials science, textiles, social sciences, biomedical, computer
science, cybernetics, international relations, agricultural engineering, political science, engineering,
geological, social issues, industrial relations & labor, history, social work, area studies, history of social
sciences, urban studies, agricultural economics & policy, transportation, humanities, multidisciplinary
> subjcat=management, business, economics, operations research & management science,
sociology, psychology, social, behavioral sciences, social sciences, interdisciplinary, history &
philosophy of science, public administration, business, finance, social issues, history, social work,
history of social sciences".
Al risultato finale della ricerca sono stati manualmente aggiunti tre articoli frequentemente
citati che non erano stati selezionati dalla query per assenza di parole chiave nel record SSCI:
(Farrell & Saloner, 1986a); (Katz & Shapiro, 1985); (Katz & Shapiro, 1986).
89
L'articolo che si differenzia dagli altri cinque è (Ulrich, 1995), nel quale la standardizzazione
viente trattata dal punto di vista funzionale e progettuale piuttosto che esclusivamente
economico, analizzando le implicazioni e i benefici delle "architetture di prodotto" suddivise in
componenti standard. Si tratta di un tema di organizzazione industriale e di progettazione, che
96 Capitolo 3
denziati nella tabella precedente, cioè condivisi da tre o più contributi della special
issue.
Esiste inoltre una notevole mole di lavori e working paper presenti on line ma non
pubblicati nella letteratura accademica tradizionale; in Google scholar risultano infat-
ti per (Katz & Shapiro, 1985) 1709 citazioni, quasi il triplo che in SSCI; tra queste,
90
quasi la metà (774) usano nel testo la parola "standardization" .
In che modo questi numerosi studi di matrice economica contribuiscono a spiega-
re come nasce uno standard? Qual è invece il contributo che possono fornire gli studi
basati su altre discipline? Le prossime sezioni saranno dedicate a questi interrogativi,
verrà discusso più oltre in questo capitolo, nella sezione 3.3.1 dedicata alle tecnologie
dominanti.
90
L'interrogazione si riferisce a giugno 2007. La ricerca in google scholar non avviene su un
indice di parole chiave ma sul contenuto dell'intero testo dei paper, quindi sono state necessarie
due query separate per comprendere anche l'accezione britannica "standardisation" oltre a
quella di "standardization". Il testo delle query è il seguente:
Query1:
http://scholar.google.com/scholar?q=standardization&num=100&hl=it&lr=&cites=17478
077157496016892&start=100&sa=N;
Query2:
http://scholar.google.com/scholar?q=standardisation&num=100&hl=it&lr=&cites=17478
077157496016892&start=100&sa=N
Analisi della letteratura 97
distinguendo tra teorie e modelli della network economics e contributi di diversa ma-
trice.
Ho incontrato per le prima volta Jeff Rohlfs nel 1973, quando visitai i Bell Labs. Durante la
visita mi parlò di network externalities (esternalità di rete). Questo era un termine nuovo per
me – e per chiunque, suppongo, dato che Jeff lo aveva appena inventato. Mi raccontò come
la AT&T aveva speso milioni di dollari nel Picturephone, e mi spiegò come aveva fatto
flop. Mi mostrò il suo modello di network effects (effetti rete) e ricordo di essere rimasto
impressionato dalla sua eleganza. Non potevo certo immaginare quanto potente e importante
sarebbe divenuta questa idea! (Rohlfs, 2001:xiii).
Il Picturephone era un prototipo anni '70 di videotelefono che non riuscì mai a decol-
91
lare, nonostante gli ingenti investimenti di AT&T . Rohlfs era convinto che una delle
cause principali del fallimento del progetto fosse la mancanza di un numero sufficien-
te di utenti iniziali che rendesse abbastanza attraente la videocomunicazione. In ter-
mini economici, Rohlfs stesso espresse così questa idea:
91
La storia completa del progetto Picturephone è raccontata nel capitolo 8 di (Rohlfs, 2001).
98 Capitolo 3
ne, quando non esiste ancora una massa critica di utenti sufficiente a giustificarne l'u-
so. Nel mondo degli anni '70, i mercati concorrenziali di beni e servizi di questo tipo
non erano però ancora così diffusi, per cui le implicazioni economiche di queste "e-
conomie esterne" erano ancora poco visibili. Passarono dunque oltre dieci anni prima
che questo concetto fosse portato all'attenzione di tutti.
Ci sono molti prodotti per i quali l'utilità che un utente deriva dal consumo del bene si ac-
cresce con il numero degli altri consumatori dello stesso. Ci sono diverse possibili fonti di
queste esternalità positive di consumo.
1) Le esternalità di consumo possono ingenerarsi attraverso un effetto fisico diretto del nu-
mero di acquirenti sulla qualità del prodotto. L'utilità che il consumatore deriva dall'ac-
quisto di un telefono, ad esempio, dipende chiaramente dal numero di altre famiglie o
imprese che sono allacciate alla rete telefonica. Queste esternalità di rete sono presenti
anche per altre tecnologie di comunicazione, tra le quali il telex, le reti di comunicazione
dati e i fax.
2) Potrebbero esserci anche effetti indiretti che danno luogo alle esternalità di consumo. Per
esempio, un agente che acquista un personal computer sarà interessato al numero di altri
agenti che acquistano hardware similare, perché l'ammontare e la varietà del software
che verrà fornito per l'uso sarò una funzione crescente del numero di unità hardware che
sono state vendute. Questo paradigma hardware-software si applica anche ai video ga-
mes, ai video riproduttori e registratori, ai riproduttori audio.
3) Esternalità positive di consumo insorgono per un bene durevole quando la qualità e la di-
sponibilità di assistenza post-vendita per il bene dipende dall'esperienza e dalla dimen-
sione della rete di servizio, che a sua volta varia con il numero di unità del bene che so-
no state vendute. Nel mercato delle automobili, per esempio, le vendite di auto straniere
erano inizialmente frenate dalla consapevolezza dei consumatori che le reti di servizio
per i marchi nuovi o meno diffusi erano meno estese e con minore esperienza.
In tutti questi casi, l'utilità che un dato utente deriva dal bene dipende dal numero di altri u-
tenti che sono nella sua stessa "rete". Il raggio di azione della rete che dà luogo alle esterna-
lità di consumo varia attraverso i mercati. In alcuni casi, come nell'esempio dell'automobile,
le vendite di una sola impresa costituiscono la rete rilevante. In altri casi, le reti rilevanti
comprenderanno l'output di tutte le imprese che producono il bene. Per esempio, il numero
di fonografi stereo di una determinata marca non è una determinante dell'offerta di dischi
che un consumatore può ascoltare con il suo stereo. In altri mercati, la rete potrebbe invece
comprendere i prodotti di una coalizione di imprese che è un sottoinsieme dell'intero merca-
to, come nel caso dei computer, dove alcuni gruppi di produttori adottano un sistema opera-
tivo comune (Katz & Shapiro, 1985:424).
In tutti i casi, la dimensione della "rete" è determinata dal numero di utenti che u-
sano sistemi tecnicamente compatibili, che siano cioè in grado di operare in modo in-
tercambiabile. La presenza o l'assenza di standard di compatibilità tecnica può dun-
que fortemente influenzare le dimensioni potenziali delle reti di utenti.
Nello stesso tempo, però, la decisione da parte dei produttori di istituire e di in-
corporare nei propri prodotti degli standard di compatibilità tecnica è a sua volta in-
fluenzata dagli utenti.
Idealmente, le scelte congiunte dei produttori e degli utenti che rispettivamente i-
stituiscono e usano una o più tecnologie standard per un determinato scopo (es. diver-
se configurazioni di tastiera per computer) possono portare il sistema economico
complessivo a punti di equilibrio più o meno socialmente ottimali. Essi saranno infat-
ti ottimali in senso paretiano solo se non esisterà alcuna diversa configurazione di
scelte che possa migliorare la somma delle utilità complessive di tutti gli attori.
L'economia classica mostra come in condizioni di concorrenza perfetta il mercato
tenda a convergere verso punti di equilibrio pareto-efficienti di produzione e consu-
mo: in altre parole, i meccanismi dei prezzi di mercato dovrebbero assicurare che in
equilibrio, tra tutto ciò che la tecnologia rende potenzialmente fattibile, verranno ef-
fettivamente prodotti e consumati i beni che massimizzano l'utilità complessiva di tut-
ti gli attori (produttori e consumatori).
Che cosa avviene in presenza di reti di consumo? In linea di principio, la compa-
tibilità tecnica potrebbe essere vista come un attributo sempre desiderabile, dato che
aumenta le dimensioni potenziali delle reti di utenti e i relativi benefici. Qual è il li-
vello ottimale di compatibilità e dunque di standardizzazione per il sistema? Il merca-
to è in grado di raggiungerlo?
L'analisi seminale di Katz e Shapiro è stata sinteticamente illustrata come segue:
92
Katz e Shapiro (1983) propongono un modello di oligopolio nel quale i consumatori danno
un più elevato valore ad un prodotto quando è "compatibile" con altri prodotti in loro pos-
sesso. Essi chiamano questo effetto "esternalità di rete" (network externalities). In questo
quadro di analisi essi discutono gli incentivi sociali e privati delle imprese a produrre pro-
dotti compatibili o a passare da prodotti incompatibili a prodotti compatibili. Essi trovano,
ad esempio, che un'impresa dominante potrebbe scegliere di rimanere incompatibile con una
rivale per evitare di incorrere nella sostanziale riduzione della sua quota di mercato che si
verificherebbe se divenisse compatibile, dato che questo aumenterebbe il valore per i con-
sumatori dei prodotti del rivale (Farrell & Saloner, 1985:71).
92
Farrell e Saloner citano qui una versione preliminare working paper di (Katz & Shapiro,
1985), contribuendo a rendere noto quel lavoro prima ancora che sia pubblicato ufficialmente.
Nei primi anni '80 il gruppo MIT e quello di Princeton avevano avuto contatti diretti e
discussioni sul tema delle esternalità di rete attraverso workshop e iniziative congiunte.
100 Capitolo 3
Accanto ai rilevanti benefici sociali della standardizzazione già sottolineati sopra [da Katz e
Shapiro], potrebbero esservi anche importanti costi sociali. Oltre alla riduzione di varietà,
che è indesiderabile quando compratori diversi preferiscono prodotti diversi, c'è un altro
possibile costo, meno considerato nel mercato, che è il soggetto di questo articolo. E' infatti
intuitivamente plausibile che i produttori, dopo essersi legati tra loro a filo doppio per av-
vantaggiarsi dei benefici della compatibilità o della standardizzazione, saranno estremamen-
te riluttanti a spostarsi verso uno standard nuovo e migliore, con i relativi problemi di coor-
dinamento. Per esempio, (Hemenway, 1975) riporta che il National Bureau of Standards si
rifiutò di definire standard di interfaccia per il settore dei computer perché temeva che que-
sto avrebbe ritardato l'innovazione tecnologica. Inoltre, molti ritengono che lo standard del-
le tastiere "QWERTY" sia inferiore a potenziali alternative come lo Dvorak, anche tenendo
in conto i costi aggiuntivi di riqualificazione professionale degli operatori: la ragione per la
sua persistenza starebbe dunque unicamente nell'imprescindibile beneficio della compatibi-
lità. In questo articolo studiamo l'eventualità che questo "eccesso di inerzia" (excess inertia)
93
Katz e Shapiro identificano due modalità per ottenere la compatibilità tecnica: 1) l'adozione
congiunta di uno standard; 2) la costruzione di un adattatore (adapter), con cui "una singola
impresa può agire unilateralmente per rendere il proprio prodotto compatibile con quello di
un'altra impresa o di un gruppo di imprese" (Katz & Shapiro, 1985:434). Gli adattatori o
gateways sono discussi anche in (Hanseth et al., 1996).
94
L'analisi economica di Farrell e Saloner sui possibili ritardi all'innovazione legati alla
standardizzazione è fortemente legata all'influenza delle idee che cominciavano a circolare a
Stanford in quel periodo sulla influenza di eventi passati (anche apparentemente insignificanti)
sull'evoluzione dei sistemi economici (dipendenza dal percorso, rendimenti crescenti). In
particolare, Farrell e Saloner citano esplicitamente i primi contributi di uno studioso austriaco
di fisica dei sistemi in visita a Stanford (Brian Arthur: (Arthur, 1983)) e di uno storico
dell'economia di Stanford (Paul David: (David, 1985)). Questi temi vengono affrontati con
maggiore dettaglio più oltre in questo capitolo.
Analisi della letteratura 101
possa impedire il passaggio collettivo da una tecnologia standard comune ad un nuovo stan-
dard o tecnologia eventualmente superiore. (Farrell & Saloner, 1985:71).
(Farrell & Saloner, 1985) è il secondo dei contributi più citati in Tabella 3.3. Il prin-
cipale costo sociale delle grandi reti di consumo investigato da Farrell e Saloner viene
chiamato "eccesso di inerzia": una volta adottata una tecnologia standard, come la ta-
stiera QWERTY, il costo collettivo di porre in uso uno standard alternativo comune a
tutti risulta tanto più elevato quanto maggiore è la dimensione della rete degli utenti,
e forse persino superiore alla somma dei singoli costi individuali. Per reti abbastanza
grandi, questo costo potrebbe rappresentare una forza di inerzia "in eccesso" che o-
stacolerebbe l'innovazione, ponendo le nuove tecnologie e i nuovi standard, even-
tualmente superiori ma non compatibili, in posizione di sostanziale svantaggio rispet-
to a quelli eventualmente inferiori ma compatibili con i preesistenti. Di conseguenza,
condizionato dall'eccesso di inerzia, il mercato potrebbe selezionare standard, tecno-
logie e dunque prodotti socialmente non ottimali rispetto ad alternative potenzialmen-
te preferibili.
L'analisi economica introdotta in (Farrell & Saloner, 1985) dei costi sociali delle
grandi reti, dovuti ai possibili eccessi di inerzia che ostacolerebbero le innovazioni,
rappresenta dunque il contraltare di quella introdotta in (Katz & Shapiro, 1985) dei
benefici sociali delle grandi reti e delle eventuali forme di incentivazione. Nell'analisi
di entrambe le facce della medaglia, gli economisti sono soprattutto interessati a indi-
viduare i fattori e le situazioni che porterebbero i mercati a forme non socialmente
ottimali di equilibrio e ai correttivi eventuali di politica pubblica.
Centinaia di articoli sono stati pubblicati dal 1985 a oggi nell'ambito di questo di-
battito, tanto da rendere problematico l'orientamento del lettore (specie se non eco-
nomista) e la sintesi di conclusioni corrette, complete e utili all'analisi organizzativa
di come nasce uno standard. Non potendo né desiderando compiere in questa sede
una rassegna esaustiva, si potranno qui tratteggiare i seguenti aspetti:
9 illustrazione dei contributi della network economics più frequentemente
citati elencati in Tabella 3.3;
9 discussione sintetica di alcuni grandi temi della network economics che
appaiono avere particolare rilievo per l'analisi organizzativa della stan-
dardizzazione (network effects/externalities; increasing returns and posi-
tive feed-back; path dependence; switching costs and lock-in);
9 panoramica di alcune delle più significative e autorevoli rassegne della
letteratura in tema di network economics.
La maggior parte dei riferimenti della network economics condivisi dagli autori del
numero speciale di MIS Quarterly sulla standardizzazione, elencati in Tabella 3.2,
102 Capitolo 3
appaiono anche tra i più citati in assoluto, registrati negli indici di citazione con paro-
la chiave "standardization", riportati in Tabella 3.3 (vedi nota 88). Tra i primi, come
abbiamo accennato, cinque su sei sono di matrice economica (vedi nota 89). Si è già
detto dell'importanza fondativa dei lavori del 1985, che occupano i primi due posti in
tabella: in (Katz & Shapiro, 1985) si individuano le diverse tipologie di reti di con-
sumo e i benefici − diretti e indiretti − per i consumatori legati all'aumento delle di-
mensioni della rete. In termini economici, come aveva già evidenziato Rohlfs nel
1974, si può parlare di particolari "esternalità positive di consumo" legate all'aumento
delle dimensioni della rete di consumo, che Katz e Shapiro chiamano, per la prima
volta, "esternalità di rete". A questi benefici, come abbiamo visto, fanno da contralta-
re possibili costi sociali, presi in esame per la prima volta nel secondo contributo del-
la tabella, (Farrell & Saloner, 1985). Farrell e Saloner evidenziano con un modello
economico formale i possibili problemi di ritardo nella diffusione delle innovazioni
legati alle dimensioni della rete di consumatori, che essi chiamano "eccesso di iner-
zia".
Già nel 1986 i modelli dell'anno precedente vengono estesi e sostanzialmente per-
95
fezionati dagli autori con ulteriori contributi che sono rapidamente divenuti dei clas-
sici: (Katz & Shapiro, 1986) e (Farrell & Saloner, 1986a) occupano infatti rispettiva-
mente il quarto e il sesto posto di Tabella 3.3. Ad essi si affianca nel 1994 (Katz &
Shapiro, 1994), che diviene rapidamente molto noto, tanto da occupare oggi il terzo
posto di Tabella 3.3.
95
Si omette qui la descrizione dei modelli economici formali, che, pur costituendo la sostanza
dei contributi in esame, non sembra qui avere particolare rilievo dal punto di vista
organizzativo. In generale, una delle estensioni di maggiore rilievo rispetto ai primi modelli
statici del 1985 è costituita dalla introduzione di semplici analisi dinamiche attraverso modelli
intertemporali a due fasi (Katz & Shapiro, 1986) o modelli con utenti infinitesimali a flusso
continuo nel tempo (Farrell & Saloner, 1986a). Questo ha permesso agli autori di impostare lo
studio delle azioni e reazioni degli attori nel tempo. La sofisticazione dei modelli della network
economics andrà aumentando nel corso degli anni, fino ai più recenti studi di simulazione
computazionale basata su agenti (ACE: Agent-based Computational Economics) come ad
esempio il già menzionato (Weitzel et al., 2006).
Analisi della letteratura 103
96
detiene i diritti di proprietà su una tecnologia (cioè uno "sponsor" ) può infatti spin-
gere a tal punto la diffusione della tecnologia stessa attraverso prezzi aggressivi da
costringere gli altri concorrenti ad impiegarla in forma di standard de facto proprieta-
97
rio , recuperando in seguito l'investimento iniziale attraverso royalties o vantaggi di-
versi.
La presenza di "sponsor" non è però da sola sufficiente a garantire un livello otti-
male di standardizzazione: secondo il modello di Katz e Shapiro, quando tra due tec-
nologie concorrenti una sola è sponsorizzata, questa tende a divenire lo standard an-
che quando non è quella socialmente ottimale; quando inoltre entrambe le tecnologie
sono sponsorizzate, può ottenersi una forma di "second-mover advantage" che tende a
favorire eccessivamente le innovazioni. Ciò appare sorprendente se confrontato con
le preoccupazioni sollevate l'anno precedente da Farrell e Saloner sui possibili ostaco-
li alla diffusione delle innovazioni in presenza di esternalità di rete. Gli stessi Farrell
e Saloner propongono risultati simili nell'articolo analizzato qui di seguito, avanzan-
do delle nuove spiegazioni.
Primo, l'adozione di una nuova tecnologia influenza gli utenti della vecchia tecnologia. La
loro rete cessa di crescere, a potrebbe persino ridursi nella misura in cui alcuni degli utenti
abbandonano la vecchia per la nuova. Per esempio, quando furono introdotte [le pellicole
cinematografiche amatoriali in formato] Super 8, gli acquirenti del precedente formato
Standard 8 sperimentarono crescenti difficoltà nel reperimento delle pellicole, mentre i tem-
pi per lo sviluppo tendevano ad aumentare. Pertanto essi sperimentarono una perdita a se-
guito dell'introduzione del Super 8 […]. Secondo, nelle fasi iniziali ogni nuovo utente della
nuova tecnologia aumenta la sua attrattiva e riduce l'attrattiva della tecnologie precedente
(Farrell & Saloner, 1986a:941).
Gli effetti di abbandono sono particolarmente evidenti quando si pensa che non tutti
gli utenti della nuova tecnologia sono anche utenti della vecchia. Per i nuovi utenti
non ci sono dunque gli stessi costi di passaggio (switching costs: vedi oltre) che per i
vecchi: ad esempio nella fase di coesistenza dei dischi in vinile e dei compact disk,
coloro che compravano un disco per la prima volta, acquistando anche il relativo let-
tore, erano più propensi ad acquistare i nuovi dischi ottici in formato CD dei vecchi
96
La terminologia sulla "sponsorship" è stata introdotta per la prima volta in (Arthur, 1983).
97
Sugli standard proprietari, vedi il capitolo 1, sezione 1.2.3 al paragrafo "La proprietà e
l’apertura".
98
Cioè in assenza di prezzi e senza tenere conti dei meccanismi di gestione dei diritti di
proprietà. Gli autori osservano infatti che quando i prezzi sono determinati dalla concorrenza in
assenza di barriere all'ingresso e di meccanismi di gestione dei diritti di proprietà (cioè quando
le tecnologie standard concorrenti non sono sponsorizzate), i prezzi possono essere trascurati
nell'analisi, che può vertere esclusivamente sugli effetti delle esternalità di rete.
104 Capitolo 3
dischi in vinile, rispetto a coloro che possedevano già una raccolta di dischi in vinile.
Nel tempo, l'avvento di nuovi acquirenti in proporzione sempre maggiore può ulte-
riormente accentuare la tendenza allo stranding.
Dall'altra parte, il modello di Farrell e Saloner tiene conto di un ulteriore aspetto
che agisce in senso opposto: l'"effetto pinguino" (penguin effect: (Farrell & Saloner,
1986a:943)). Si tratta del comportamento dei potenziali utenti che aspettano ad adot-
tare una nuova tecnologia fino a quando essa non sia abbastanza diffusa e consolida-
ta, nel timore di una scelta prematuramente sbagliata. Questo atteggiamento di attesa
nell'adozione fino a che non abbiano adottato gli altri corrisponde a quello dei pin-
guini che inizialmente esitano a tuffarsi per primi in mare in cerca di cibo, per paura
che vi siano dei predatori; una volta che i primi si sono tuffati incolumi, tendono poi
invece a tuffarsi tutti insieme.
Se dunque gli stranding effects tendono a privilegiare l'adozione di una nuova tec-
nologia sulla vecchia, i penguin effects agiscono in senso opposto: essi introducono
ritardi nell'adozione delle nuove tecnologie che tendono a favorire quelle preesistenti.
L'analisi formale condotta da Farrell e Saloner mostra che in presenza di esternali-
tà di rete con stranding effects e penguin effects, il gioco delle aspettative e delle scel-
te degli utenti può portare il mercato a situazioni di equilibrio efficiente (in cui cioè la
diffusione raggiunta dalla due tecnologie standard concorrenti a seguito della massi-
mizzazione delle utilità individuali porta anche a massimizzare l'utilità complessiva
ed è dunque socialmente ottimale). D'altra parte, però, sono anche possibili equilibri
multipli o situazioni di equilibrio inefficiente, in cui dunque le tecnologie standard
che prevalgono non risultano socialmente ottimali. Anche se le assunzioni e le sem-
plificazioni di questa analisi economica suggeriscono estrema cautela, essa comunque
mostra che quando una tecnologia preesistente è in competizione con una nuova, le
esternalità di rete, gli stranding effects e i penguin effects non sempre portano il mer-
cato a risultati socialmente ottimali; si possono infatti determinare sia ritardi (excess
inertia) che accelerazioni eccessive (excess momentum) nell'eventuale passaggio alla
nuova tecnologia. Ulteriori fattori che possono creare distorsioni in questo processo,
presi esplicitamente in esame dagli autori, sono i preannunci di nuovi prodotti e le po-
litiche strategiche di prezzo (predatory prices) considerate in (Katz & Shapiro, 1986)
(vedi sezione precedente).
99
I termini "esternalità di rete" ed "effetti rete" vengono spesso usato in modo intercambiabile.
L'accezione "esternalità di rete" è tradizionalmente più diffusa e, come abbiamo visto, è stata
usata per prima. Liebowitz e Margolis osservano però come gli effetti rete costituiscano
effettivamente delle esternalità in senso economico solo quando esse non possono essere
"internalizzate", cioè quando i benefici che un membro di una rete produce all'esterno (verso
gli altri componenti della rete) non possano essere riappropriati da chi li ha prodotti attraverso
transazioni di mercato. (Liebowitz & Margolis, 1994). Un esempio classico di
internalizzazione è quello di coloro che detengono diritti di proprietà su determinate reti (es. le
Analisi della letteratura 105
indagine, tutti accomunati dalla domanda di fondo centrale della network economics:
in presenza di diversi standard tecnologici in competizione soggetti a esternalità di
rete, il mercato è in grado di raggiungere condizioni di equilibrio socialmente ottimali
o si rende invece necessario un intervento pubblico? Gli autori affrontano la questio-
ne nei seguenti termini essenziali.
In primo luogo, essi consolidano la distinzione originaria tra effetti rete diretti e
indiretti, puntando l'attenzione su questi ultimi. Sono effetti rete diretti i benefici che
gli utenti percepiscono al crescere delle dimensioni della rete, come quelli ad esempio
delle reti di comunicazione (telefono, fax). Sono invece indiretti i benefici tipici ad
esempio dei personal computer o degli impianti di riproduzione musicale. In questi
casi la crescita del numero di utenti che hanno acquistato un certo tipo di apparecchio
hardware (PC, lettore di CD) influenza la crescita in dimensioni e varietà del mercato
dei contenuti software (programmi, dischi). L'interesse degli autori è ora prevalente-
mente orientato sui benefici di rete indiretti nei mercati dei sistemi
hardware/software.
In secondo luogo, una volta individuato il mercato dei sistemi come quello di inte-
resse, gli autori discutono le implicazioni degli effetti rete indiretti sia per le scelte dei
produttori che per quelle dei consumatori, in uno scenario di competizione tra sistemi.
Gli effetti rete portano al prevalere di una tecnologia unica sulle altre o alla riparti-
zione del mercato tra tecnologie concorrenti? L'innovazione, (cioè in questa sede l'in-
troduzione sul mercato di un sistema nuovo in concorrenza con quelli preesistenti)
viene ritardata o accelerata in presenza di effetti rete?
In terzo luogo, gli autori estendono l'analisi alle scelte di compatibilità da parte dei
produttori: in quali casi il mercato si orienterà verso sistemi tra loro compatibili e per-
ché?
L'esempio raffigurato qui sotto in Figura 3.2 (non presente nell'articolo originale)
può aiutare a visualizzare i termini della discussione.
Mac/OS
PC/Windows
PC/Linux
100
La maggiore dimensione dell'icona del sistema PC/Windows allude al suo strapotere di
mercato. Tuttavia non esiste qui una proporzione diretta tra le dimensioni delle icone di ciascun
sistema e le loro effettive quote di mercato.
Analisi della letteratura 107
101
ma operativo del Macintosh: , anche se alcuni sostengono che i sistemi Macin-
tosh/OS sarebbero preferibili a quelli PC/Windows per numerosi aspetti tecnici ed
economici, anche se non sono altrettanto diffusi (Emigh, 2007). Che ruolo giocano i
benefici di rete sugli equilibri di mercato? Il mercato porta sempre a situazioni so-
cialmente ottimali o sarebbero a volte richiesti interventi correttivi?
L'esempio di Figura 3.2 illustra in primo luogo la presenza degli effetti rete indi-
retti discussi dagli autori. Tra i fattori chiave appaiono qui particolarmente evidenti i
benefici per gli utenti di PC che adottano il sistema PC/Windows legati all'enorme
ampiezza della base installata, che includono la disponibilità di numerosi accessori e
programmi a costo contenuto, la diffusione e dunque il basso costo relativo dei servizi
di manutenzione e assistenza, le economie di scala e di apprendimento.
In secondo luogo, il quadro può illustrare le implicazioni degli effetti rete sulle
scelte di produttori e consumatori discusse nella seconda parte di (Katz & Shapiro,
1994). Dal lato dei produttori, Katz e Shapiro ribadiscono il ruolo della sponsorship,
già osservato nel contributo del 1986: l'acquisizione di diritti di proprietà su una rete
hardware/software da parte di un produttore (sponsor) può costituire un forte incenti-
vo all'espansione della rete stessa. Nel caso illustrativo, le componenti essenziali
hardware e software dei sistemi PC/Windows (microprocessore e sistema operativo)
sono di rispettiva proprietà dei due maggiori produttori hardware e software sul mer-
cato globale (Intel e Microsoft), che le sviluppano in collaborazione. Gli sponsor
hanno interesse a investire, specie nella fase di sviluppo iniziale della rete
hardware/software, per ampliare la base installata. Katz e Shapiro individuano una
serie di possibili strategie degli sponsor per attrarre utenti in una rete e influenzarne
positivamente le aspettative:
9 preannunci di prezzo/prodotto
9 adozione di standard aperti
9 noleggio di hardware
9 integrazione verticale
9 investimenti "sommersi" su software da sviluppare
9 politiche di prezzi aggressive
9 reputazione
Dal lato dei consumatori, nella scelta tra sistemi alternativi e incompatibili, si verifi-
cano due tendenze contrastanti: tipping e ricerca della varietà. Gli autori chiamano
tipping la tendenza al rapido prevalere, con tassi di crescita tipicamente esponenziali,
delle scelte a favore della tecnologia che ha conquistato la massa critica iniziale, per
via dei benefici crescenti dovuti all'espansione della rete hardware/software. L'enor-
me e rapida espansione del sistema PC/Windows, che oggi raggiunge il miliardo di
unità installate con una quota di mercato quasi totalitaria, potrebbe essere qui inter-
pretata come un fenomeno di tipping. I fenomeni di tipping tenderebbero dunque ad
eliminare dal mercato i sistemi con una più ridotta base installata, come il Mac/OS. In
contrasto a questa tendenza, Katz e Shapiro osservano però che «l'eterogeneità dei
101
La base esistente di personal computer installati si avvicina ormai ad un miliardo di
esemplari che in gran parte hanno installato il sistema operativo Windows (Fontana, 2007),
mentre in piccola parte hanno installato il sistema operativo Linux.
108 Capitolo 3
Per riassumere quanto osservato finora dagli autori, i mercati dei sistemi
hardware/software in presenza di effetti rete indiretti non sembrano necessariamente
garantire il raggiungimento di condizioni di equilibrio socialmente ottimale. Si osser-
vano forze compresenti e contrastanti, come la tensione tra la tendenza al prevalere di
una tecnologia dominante (tipping) e la tendenza al mantenimento della varietà e del-
la molteplicità. Tra i fattori che possono influenzare la competizione sono particolar-
mente rilevanti le scelte strategiche degli sponsor, che includono anche il grado di
compatibilità verticale, in quanto può interoperare con numerosi altri dispositivi e software
complementari prodotti dalla concorrenza, ma un grado più ridotto di compatibilità verticale, in
quanto non è in grado di interoperare con sostituti della concorrenza (es. Macintosh OS) con
efficacia e completezza comparabile a quella dell'interoperabilità con altri sistemi Windows.
106
Vedi nota 93.
107
Il successo di Microsoft e Intel (contrapposto ad esempio ai fallimenti di IBM e Apple) nella
definizione delle scelte di apertura e compatibilità viene discusso a fondo dal punto di vista
manageriale da Morris e Ferguson, secondo i quali «scegliere il giusto grado di apertura
rappresenta una delle decisioni più sottili e difficili nelle competizioni architetturali» (Morris &
Ferguson, 1993:92).
110 Capitolo 3
proprietà e di apertura dei sistemi su cui investono per ampliare le dimensioni della
rete e influenzare le aspettative dei consumatori.
Se non c'è garanzia del raggiungimento di un equilibrio socialmente ottimo, appa-
re però problematico l'intervento di un'autorità centrale in assenza di informazioni e
incentivi appropriati. Un ulteriore aspetto su cui si evidenziano tensioni contrapposte
è il noto tema degli effetti sull'innovazione analizzato nella sezione precedente
(Farrell & Saloner, 1986a): anche Katz e Shapiro ricordano come gli effetti rete pos-
sano determinare ritardi nelle innovazioni (excess inertia), ma anche eccessive acce-
lerazioni dovute ai già noti fenomeni di stranding visti nella sezione precedente, qui
denominate insufficient friction.
In conclusione, dunque, gli autori osservano come «In breve, siamo ben lontani
dall'avere una teoria generale di quando l'intervento governativo sia preferibile al ri-
sultato del libero mercato» (Katz & Shapiro, 1994:113). L'auspicio è che l'interesse
delle ricerche possa estendersi ad ulteriori temi di investigazione, come l'influsso de-
gli effetti rete indiretti sulle relazioni e sulle fusioni tra imprese, lo studio dei mecca-
nismi di formazioni delle coalizioni e l'analisi del funzionamento degli enti di stan-
dardizzazione. L'analisi empirica del caso "Web services" qui offerta nel capitolo 5
mirerà a fornire qualche elemento di analisi e discussione su alcune di queste grandi
questioni.
Dopo aver illustrato alcuni tra gli articoli più citati della network economics, osser-
vando come si sono originate le idee seminali che hanno alimentato il dibattito degli
ultimi decenni, appare qui opportuno allargare lo sguardo ai temi su cui tale dibattito
si è sviluppato, pur senza alcuna pretesa di analisi esaustiva. A tale scopo rinviamo
infatti alle rassegne già esistenti della letteratura che verranno selezionate e illustrate
nella prossima sezione.
L'analisi economica delle esternalità di rete implica lo studio di una serie di feno-
meni ad esse strettamente collegati. Tra essi prenderemo qui in esame alcuni dei temi
ormai classici: feed-back positivo, rendimenti crescenti e i costi di passaggio (swi-
tching costs). Riserveremo invece la prossima sezione alle controverse implicazioni
del lock-in e della dipendenza dal percorso.
Un utile riferimento introduttivo a questi temi è il noto "Information Rules"
(Shapiro & Varian, 1998), forse il testo il più diffuso della network economics, un
108
classico che appare infatti al primo posto in Tabella 3.2 .
108
Carl Shapiro ha scritto "Information Rules" assieme ad un economista "tradizionale", Hal
Varian, i cui testi di micreconomia erano già conosciuti e adottati anche in Italia. Questo ha
forse aiutato il libro, scritto in un linguaggio divulgativo e molto accessibile, a guadagnare una
certa credibilità anche presso gli altri economisti, oltre che presso i media e con il grande
pubblico. Parallelamente, alcune delle idee della network economics sono state divulgate da un
famoso articolo del direttore di "Wired", (Kelly, 1997), poi confluito in forma più estesa in un
saggio dal titolo "New rules for the New Economy" (Kelly, 1998); (Kelly, 1999). Esso ha
probabilmente contribuito ad affermare il termine di "New Economy" e al rafforzamento
dell'euforia collettiva degli ultimi anni '90 per il fenomeno Internet.
Analisi della letteratura 111
109
Bob Metcalfe è uno dei più noti pionieri dell'informatica, coinventore dello standard di rete
Ethernet, nonché fondatore della 3Com, una società di grande rilievo storico nella produzione e
diffusione di hardware per reti.
112 Capitolo 3
dimensioni della rete perché l'aumento del numero di connessioni potenziali tende a
110
rendere più efficace la comunicazione . Gli effetti rete indiretti, invece, sono caratte-
ristici delle reti di utenti di un prodotto che tende a divenire più ricco complementi al
111
crescere del numero di utenti della rete, con una serie di benefici significativi .
Eppure, osservando il fenomeno dal punto di vista organizzativo, possono di-
schiudersi nuove opportunità di investigazione sulla natura degli effetti rete, specie se
si considerano gli effetti di tipo indiretto che si osservano nelle reti sociali. Esistono
presumibilmente molti fattori che influenzano l'intensità dei benefici che un soggetto
potrebbe ottenere dall'ampliamento della sua rete nello svolgimento di una determina-
ta attività facendo uso di un bene/servizio di rete: tra questi potrebbero rilevare le pre-
ferenze del soggetto, il tipo di relazioni in rete, il tipo e gli obiettivi del task che l'u-
tente pone in essere attraverso la rete. Ad esempio, Liebowitz e Margolis, discutendo
le limitazioni dei modelli economici degli effetti rete, sollevano il problema delle
possibili asimmetrie di inclinazioni e preferenze relazionali:
110
Importanti aspetti restano ancora da investigare in relazione a specifici task e specifiche
modalità di connessione. Ad esempio, nel caso di telefoni e fax, si sottintende di solito che i
benefici per l'utente aumentino al crescere delle dimensioni della rete. Ciò sembra più
probabile per le chiamate in uscita, perché il meccanismo di selezione del destinatario
attraverso la numerazione telefonica permette all'utente di scegliere chi raggiungere. Per le
chiamate in ingresso, le reti completamente connesse potrebbero anche generare effetti rete
negativi: le chiamate non gradite aumentano con le dimensioni della rete, tantoché
tradizionalmente si usa in caso di necessità un meccanismo di filtro (es segreteria). E' possibile
immaginare reti diverse, in cui una selezione e un controllo accurato delle connessioni tenda a
massimizzare i benefici di rete in relazione non solo al numero dei nodi, ma anche alle
caratteristiche degli stessi. I servizi di social networking selettivo, come ad esempio
www.LinkedIn.com, permettono infatti di costituire reti in cui le caratteristiche di ciascun nodo
siano attentamente scelte, riducendo i contatti in ingresso indesiderati e massimizzando l'utilità
dei nodi disponibili per i contatti in uscita. Ad esempio, è possibile scegliere di costruire una
rete in cui i nodi siano persone che lavorano nello stesso settore, oppure che condividano gli
stessi interessi, o che siano indirettamente connessi ad una rete di amici/colleghi "fidati". La
topologia della rete potrebbe rappresentare un altro fattore importante: la scelta del numero e
del tipo di connessioni di ciascun nodo sembra influire sui benefici attesi. Ciò sembra anche
essere in relazione agli specifici tipi di task per i quali il servizio di comunicazione viene
impiegato (es. apprendimento, direzione, controllo, coordinamento, transazioni di mercato,
ecc.). Per un soggetto, l'utilità complessiva di più reti specializzate e con diversa topologia
potrebbe essere maggiore di quella di un'unica rete non specializzata e completamente
connessa, come potrebbe testimoniare la crescente tendenza all'uso di più linee telefoniche e
più apparecchi cellulari.
111
Oltre ai benefici economici legati all'espansione del mercato dei complementi, anche alcuni
effetti di apprendimento possono aver rilievo per le reti di utenti. Ad esempio, alcuni beni e
servizi richiedono notevoli sforzi di pratica iniziale per un uso efficace: «I prodotto high-tech
sono tipicamente difficili da usare e richiedono addestramento. Una volta che gli utenti abbiano
investito in questo addestramento – diciamo, per la manutenzione e il pilotaggio di un aereo di
linea Airbus – essi devono soltanto aggiornare le proprie competenze per le successive versioni
del prodotto» (Arthur, 1996:103). Si pensi anche ad un software di gestione aziendale: per
alcuni utenti possono servire anni per padroneggiarne le funzioni. Questo investimento degli
utenti viene spesso salvaguardato dai fornitori che tendono a introdurre le innovazioni nelle
nuove versioni dei loro prodotti in modo graduale e con percorsi di apprendimento facilitato
per gli utenti preesistenti. Tutto ciò fa sì che le reti di utenti di un prodotto preesistente tendano
a fidelizzarsi, a condividere conoscenze, a rafforzarsi e generare benefici per gli utenti man
mano che si sviluppano.
Analisi della letteratura 113
Una ulteriore restrizione è il valore simmetrico ricevuto dai consumatori quando un altro
consumatore si unisce alla rete. Qualora gli economisti, per esempio, preferiscano di gran
lunga avere altri economisti che si uniscano alla loro rete, invece di, diciamo, sociologi, al-
lora sarebbe possibile per gli economisti formare una colazione che passi ad un nuovo stan-
dard anche se lo standard non fosse in grado di attrarre molti sociologi (Liebowitz & Mar-
golis, 1998).
Il modello teorico degli autori, che ha un'antecedente nella landscape theory of ag-
gregation del 1993, applicata alle alleanze internazionali della seconda guerra mon-
diale, è basato sull'ipotesi che gli effetti rete spingano le organizzazioni ad allearsi
anche con i competitors, con una preferenza per le alleanze più grandi, e che nello
stesso tempo esista un trade-off tra la opportunità di ingrandire le dimensioni della
torta (per via dei network effects) e il rischio di veder ridotta la propria fetta (alleanza
112
con i competitors) .
Anche l'applicazione dello studio degli effetti rete ai processi di accettazione tec-
nologica (cioè dei fattori che influenzano gli utenti verso l'accettazione o il rifiuto di
un determinato nuovo dispositivo, come un PC o un cellulare) rivela nuove opportu-
nità di investigazione: l'intensità dei benefici che l'utente percepisce al crescere della
rete potrebbe dipendere ad esempio dal tipo di task e dai suoi obiettivi (Pontiggia &
Virili, 2005); (Carbone, 2007). Uno studio empirico che prenda in considerazione
l'effetto di questi fattori sui benefici percepiti dagli utenti potrebbe rivelare importanti
113
nuovi elementi sulla natura e le origini degli effetti rete .
Le esternalità di rete destano interesse perché, almeno in linea di principio, po-
trebbero ingenerare fenomeni apparentemente in contraddizione con alcune delle leg-
gi fondamentali dell'economia classica. Secondo la legge della domanda e dell'offerta,
ad esempio, in regime di concorrenza perfetta i beni scarsi (in eccesso di domanda)
tendono a salire di prezzo, mentre i beni abbondanti (in eccesso di offerta) tendono a
112
Come esplicitamente statuito dagli autori, il modello da loro proposto non tiene conto del
timing delle alleanze e della dipendenza dal percorso, che però sembrano poter giocare un
ruolo nel processo di standardizzazione: «La configurazione specifica alla quale il sistema
raggiunge la stabilità tenderà ad essere dipendente dal percorso, nel senso che sarà fortemente
influenzata dalle mosse iniziali nel processo di definizione delle alleanze» (Axelrod et al.,
1995:1505).
113
Questo tipo di investigazione è attualmente uno degli obiettivi di ricerca di OrgLab
(www.orglab.unicas.it).
114 Capitolo 3
scendere di prezzo. Si pensi al prezzo del petrolio che tende a salire quando la produ-
zione scende o ne aumenta la domanda. Si pensi ora al servizio commerciale di co-
municazione Internet "Skype": il suo valore percepito è aumentato notevolmente
quando la rete Skype è stata connessa alla rete telefonica, attraverso i servizi Skype-
out e Skypein. L'offerta del servizio si è ampliata, raggiungendo potenzialmente tutte
le case dotate di telefono tradizionale. Allo stesso tempo ne è aumentato il valore (e il
prezzo) per un effetto rete, tanto che i servizi Skypeout e Skypein vengono forniti ad
114
un prezzo superiore a quello dei servizi base . Dunque ad un aumento della disponi-
bilità del servizio corrisponde anche un aumento del suo valore e quindi del prezzo,
suggerendo che a volte, in presenza di effetti rete, alcuni dei meccanismi classici del-
l'economia tradizionale possano essere suscettibili di particolari interpretazioni e ap-
plicazioni. Tra queste anche l'assunzione dell'economia classica di rendimenti decre-
scenti, che verrà presa in esame nella prossima sezione.
114
Questo esempio proviene dalla tesi di laurea di Luca Carbone (Carbone, 2007:29), che usa
un modello basato su agenti artificiali per la simulazione di effetti rete.
115
Per esempi di argomenti e citazioni che Farrell e Saloner riprendono da Arthur vedi note 94
e 96.
Analisi della letteratura 115
L'evoluzione del mercato VCR non avrebbe sorpreso il grande economista del periodo vitto-
riano Alfred Marshall, uno dei fondatori dell'economia convenzionale di oggi. Nel suo
"Principi dell'Economia" del 1890, egli notò come se i costi di produzione di un'impresa si
riducono con l'aumento della sua quota di mercato, un'impresa che per un puro caso fortuna-
to abbia conquistato in anticipo una elevata proporzione del mercato potrebbe essere in gra-
do di spiazzare i suoi rivali; "qualsiasi impresa abbia una buona partenza" conquisterebbe
tutto il mercato. Marshall non diede seguito a questa osservazione, e comunque l'economia
teorica la ha – fino a tempi recenti – largamente ignorata. Peraltro Marshall non pensava che
i rendimenti crescenti potessero avere applicazione ovunque; l'agricoltura e le miniere – i
più importanti settori dell'economia del suo tempo – erano soggetti a rendimenti decrescenti
causati dagli ammontari limitati di terra fertile e di giacimenti di elevata qualità. Dall'altro
lato però, la produzione industriale poteva essere in qualche modo soggetta a rendimenti
crescenti, laddove grandi stabilimenti rendevano possibile un'organizzazione più efficiente.
Gli economisti moderni non vedono le economie di scala come una fonte affidabile di ren-
dimenti crescenti. In alcuni casi le grandi organizzazioni si sono dimostrate più efficienti, in
altri no (Arthur, 1990:92-93).
Perché Arthur sostiene che le economie di scala da sole non costituiscono "una fonte
affidabile di rendimenti crescenti"? Shapiro e Varian lo spiegano chiaramente nel ca-
pitolo 7 di "Information Rules". Le economie di scala a cui allude Arthur nel brano
riportato qui sopra vengono chiamate anche supply-side economies of scale (econo-
mie di scala dal lato dell'offerta). Esse sono legate ai recuperi di efficienza nella pro-
duzione in volumi, rappresentando importanti fattori di vantaggio competitivo. In al-
cuni casi, piuttosto rari, quando le economie di scala sono particolarmente forti, esse
sono anche propulsori di ulteriore crescita. Però nella maggior parte dei casi, specie
in passato, la supply-side economies da sole non generavano rendimenti crescenti.
Shapiro e Varian osservano che gli effetti rete possono dar luogo ad un diverso tipo di
economie di scala, che prendono il nome di demand-side economies of scale (econo-
mie di scala dal lato della domanda), che rafforzano ulteriormente le economie com-
plessive, dando luogo ad un feed-back positivo: «le economie di scala dal lato dell'of-
ferta e dal lato della domanda si combinano per rendere particolarmente forte il feed-
back positivo nella network economy» (Shapiro & Varian, 1998:182). La combina-
zione di supply-side e demand-side economics può dunque originare un circolo vir-
tuoso: la rete diviene sempre più attraente per i consumatori ed efficiente per i produt-
tori man mano che essa cresce, innescando una reazione (feed-back) positiva di ulte-
riore crescita, con rendimenti crescenti. Nel caso dei videoregistratori VCR, più i vi-
deoregistratori VCR conquistavano quote di mercato erodendo le posizioni dei con-
correnti (formato Sony-Betamax), più essi divenivano attraenti per gli altri utenti (e
convenienti per i costruttori), alimentando una crescita ed un'erosione delle quote del-
la concorrenza ancora maggiore. I formati standard per la videoregistrazione vengono
impiegati in sistemi hardware/software con effetti rete indiretti: una comunità molto
estesa di utenti che adottano un determinato formato stimola il mercato dei prodotti
complementari (videocassette, accessori) e questa maggiore disponibilità di comple-
menti rende lo standard più attraente, con i tipici benefici da effetto rete indiretto. Ciò
porta nuovi utenti all'adozione, aumentando ulteriormente la base installata (anche a
116 Capitolo 3
spese di quelle che adottano formati diversi) e così via, come illustrato in Figura 3.3,
tratta da (Grindley, 1995:27).
Vorrei aggiornare l'intuizione di Marshall osservando che le parti dell'economia che sono
basate su risorse tangibili (l'agricoltura, l'industria manifatturiera, quella estrattiva) sono an-
cora in larga parte soggette a rendimenti decrescenti. Qui l'economia convenzionale si ap-
plica bene. Invece le parti dell'economia che sono basate sulla conoscenza, sono largamente
soggette a rendimenti crescenti (Arthur, 1990:93).
Costi iniziali ed economie di scala. I tipici beni e servizi della knowledge eco-
nomy, come ad esempio i computer, gli aeroplani e i prodotti farmaceutici, richiedono
un elevato investimento in ricerca e sviluppo per la produzione del primo esemplare
ma poi, avviata la produzione, hanno costi incrementali molto più contenuti. Shapiro
e Varian ampliano l'analisi a tutti i cosiddetti information goods, i beni/servizi ad ele-
vato contenuto di informazione, come i giornali e i software, che si differenziano da
quelli tradizionali, come i mattoni e il pane. Il pane ha un contenuto di informazione
praticamente nullo: il suo valore si genera facendo uso di una quantità di materie pri-
me tangibili (farina, acqua, lievito) che hanno un costo significativo e non comprimi-
bile oltre certi limiti. Al contrario un giornale o un software hanno un contenuto di
informazione elevato: la quasi totalità del valore del bene risiede nel contenuto in-
formativo, mentre le materie prime tangibili sono impiegate solo per il supporto fisico
(carta stampata, CD). Il contenuto informativo può essere digitalizzato, quindi dupli-
cato praticamente senza limiti. Di conseguenza, una volta sostenuti gli elevati costi di
produzione della prima copia, gli esemplari successivi possono (almeno in linea di
principio) essere prodotti in quantità virtualmente infinita e a costo sostanzialmente
nullo. Questo ha effetti importanti sulle economie di scala dal lato dell'offerta: mag-
giore è il contenuto di informazione, più i costi variabili tendono ad azzerarsi, ridu-
cendo fino ad eliminare i tradizionali limiti ai volumi massimi di produzione che pos-
sono essere raggiunti. Le economie di scala dal lato dell'offerta vengono in tal modo
fortemente amplificate.
116
Effetti rete e informazione. Come si accennava sopra , beni e servizi ad elevato
contenuto di informazione e conoscenza (information/knowledge goods) tendono ad
essere anche network goods: i benefici per gli utenti crescono con le dimensioni della
loro rete. Si pensi ad esempio agli effetti di rete diretti di servizi come skype e a quel-
li indiretti dei sistemi hardware/software come PC e programmi, lettori audio e MP3,
cellulari e suonerie.
In definitiva, beni ad elevato contenuto informativo e/o di conoscenza presentano
dunque più elevate economie di scala dal lato dell'offerta, dovute in buona parte alla
facilità di duplicazione del loro contenuto informativo. Essi presentano inoltre fre-
quentemente effetti rete, legati anche a processi di apprendimento e comunicazione.
Dato che, come abbiamo visto, la combinazione di forti economie di scala ed effetti
rete tende a innescare un feed-back di crescita con rendimenti crescenti, questo spiega
come rendimenti crescenti e feed-back positivi vengano osservati più frequentemente
nei settori dell'economia basati sulla conoscenza e sull'informazione.
Le dinamiche di crescita della rete sono anche collegate al gioco delle aspettative.
Nel caso di un nuovo prodotto standard, come ad esempio il lettore iPod, lo sviluppo
della rete degli utenti facilita non solo l'apprendimento ma anche l'imitazione attra-
verso la trasmissione di informazioni da utente a utente. Man mano che lo standard si
diffonde rafforza la posizione di coloro che lo hanno adottato per primi e convince
nuovi utenti all'adozione. In tal modo le convinzioni iniziali possono cominciare a
rafforzarsi in modo autoreferenziale; di conseguenza, il prodotto che ci si aspettava si
116
Sugli effetti apprendimento dei knowledge goods e su come possano ingenerare effetti rete,
vedi nota 111.
118 Capitolo 3
117
Nel capitolo 3 di (Liebowitz, 2002) "Racing to be first: faddish and foolish" si fornisce
un'interpretazione critica di come si originarono false aspettative sulla new economy.
Analisi della letteratura 119
Switching costs
Se da un lato i benefici delle reti di grandi dimensioni tendono ad attrarre nuovi uten-
ti, essi possono anche scoraggiare l'abbandono dei vecchi. Come si è appena visto,
alcuni beni e servizi – specie se ad elevato contenuto di informazione/conoscenza –
sono associati a processi di apprendimento nel tempo che contribuiscono a generare
benefici di rete (vedi nota 111). In molti casi gli utenti sono portati nel tempo a effet-
tuare veri e propri investimenti complementari: nel capitolo 5 di Information Rules,
Shapiro e Varian illustrano ne illustrano ampiamente varie tipologie, che comprendo-
no impegni contrattuali, acquisizioni di beni durevoli, formazione specifica, know-
how, esperienza, competenze specialistiche, basi di dati e altre fonti di informazione,
fornitori specializzati, costi di ricerca sostenuti, relazioni e programmi di fiducia.
120 Capitolo 3
Tanto maggiore è il valore complessivo di questi asset complementari tanto più eleva-
ta è la perdita che si verrebbe a sostenere nel caso in cui si dovesse passare ad una
118
scelta alternativa . Questo genere di perdite vengono chiamate costi di passaggio o
switching. I costi di passaggio complessivi per gli utenti di una rete possono risultare
particolarmente significativi per reti di elevate dimensioni, per via dell'ampliarsi delle
esternalità di rete, degli elevati costi di coordinamento e per effetto del trend di cre-
119
scita non lineare che abbiamo discusso all'inizio di questa sezione .
In molti settori nell'economia dell'informazione, gli switching costs collettivi sono la forza
più grande che lavora in favore delle posizioni dominanti. Peggio ancora per gli innovatori e
i potenziali entranti, gli switching costs lavorano in modo non lineare: convincere dieci u-
tenti di una rete a passare alla propria tecnologia è più di dieci volte più difficile che con-
vincerne uno soltanto. Ma tu hai bisogno di tutti e dieci, o almeno di una larga parte: nessu-
no vuole essere il primo a innescare le esternalità di rete rischiando di essere lasciato solo se
120
la nuova tecnologia non ha successo . Proprio perché la molteplicità degli utenti trova così
difficile il coordinamento per passare ad una tecnologia incompatibile, il controllo di una
ampia base installata di utenti può essere il più importante asset che tu possa avere (Shapiro
& Varian, 1998:184-5).
Forse il caso più noto solitamente riportato da tutti (inclusi Shapiro e Varian) a sup-
porto di queste osservazioni è la storia dello standard QWERTY, che indica la dispo-
sizione dei tasti nelle tastiere di macchine da scrivere e PC. Una delle versioni più no-
te di questa storia sostiene che la tastiera QWERTY, nata verso la fine del 1800 con
le prime macchine da scrivere, sia oggi tecnicamente superata: da uno standard di ta-
stiera superiore, chiamato DSK (Dvorak Simplified Keyboard), proposto negli anni
'30. L'uso di tastiere DSK permetterebbe significative riduzioni dei tempi di battitura.
Il motivo per cui questa alternativa economicamente superiore non si sia mai afferma-
ta sarebbe proprio attribuito ai costi collettivi di switching (David, 1985). L'altra ver-
sione della storia sostiene invece che il vantaggio relativo delle tastiere DSK su quel-
le QWERTY risulti non chiaramente dimostrato e comunque insignificante
(Liebowitz & Margolis, 1990). L'opposizione tra questi due punti di vista ha un rilie-
vo particolare, non tanto per la dimostrazione dell'esistenza dei costi di switching, che
è ormai accettata da tutti, quanto per le implicazioni in termini di esistenza, intensità e
118
Anche se usualmente le componenti patrimoniali a cui queste perdite si riferiscono non
vengono iscritte in bilancio, si tratterebbe comunque in sostanza di perdite per insussistenza
dell'attivo, dato che gli investimenti che prima avevano un determinati valore (essendo in grado
di generare proventi se impiegati con un determinato standard), tendono a perdere questa
capacità quando lo standard viene rimpiazzato da uno diverso e incompatibile. Si tratterebbe
dunque di investimenti specifici, nel senso già discusso nel capitolo 2, sezione 2.2.1.
119
Comunque, i costi di switching associati alle relazioni interorganizzative possono essere
elevati anche per reti relativamente limitate. Si pensi ad un'organizzazione che fa parte di una
rete commerciale che usa un programma comune di gestione ordini a fornitori, acquisti e
magazzino che però è carente nell'elaborazione dell'inventario: il passaggio ad un software
alternativo potrebbe risolvere il problema dell'inventario ma non permetterebbe più la
trasmissione degli ordini ai fornitori attraverso la piattaforma comune.
120
Qui ci si riferisce ai penguin effects e agli effetti di stranding che sono stati analizzati in
precedenza nella sezione "Farrell e Saloner (1986): Effetti contrastanti sull'innovazione".
Analisi della letteratura 121
conseguenze degli eventuali effetti di lock-in e di dipendenza dal percorso, che ver-
ranno ora presi in esame.
To lock in significa "chiudere dentro": quando uno standard viene adottato, può risul-
tare molto difficile che se ne affermi uno alternativo in competizione a questo. Gli
utenti potrebbero restare ingabbiati, "chiusi dentro" nello standard che usano anche se
si offrono loro delle alternative potenzialmente superiori: «una volta che un percorso
è stato selezionato da una serie di eventi economici casuali, la scelta resta fissata (lo-
cked-in) indipendentemente dai vantaggi delle alternative» (Arthur, 1990:92).
Questo argomento di Arthur può essere compiutamente illustrato e provato in ter-
mini matematici. Le sue implicazioni economiche sono invece molto più complesse e
121
controverse, tanto da aver suscitato una vera e propria disputa .
Ad accendere la disputa è stato Paul David, che nei primi anni '80 aveva avuto
modo di conoscere e frequentare a Stanford il visiting scholar Brian Arthur. Le idee e
gli studi precedenti di David sulla dipendenza degli eventi economici dalla storia era-
no molti affini a quelle di Arthur e potevano trovare un fondamento matematico nella
dinamica dei feed-back positivi, dei rendimenti crescenti e dei possibili effetti di lock-
122
in .
121
Una versione preliminare del contenuto di questa sezione è stata presentata dall'autore al IX
Workshop Nazionale di Organizzazione Aziendale, Venezia 2008, con il titolo "Ciò che resta
della path dependence".
122
Arthur stesso racconta del suo incontro con Paul David, che avvenne appena dopo essersi
trasferito a Stanford nel 1982: «A Stanford incontrai lo storico dell'economia, Paul David. Egli
era molti in sintonia con le mie idee e per il vero stava già elaborando per suo conto su queste
stesse direttrici da parecchio tempo prima di conoscere me. […] Paul era intrigato alla
prospettiva di una teoria formale dei rendimenti crescenti e della dipendenza dal percorso.
Quali esempi potevano essere addotti? Io avevo raccolto articoli sulla storia della tastiera della
macchina da scrivere, e usavo solitamente la tastiera QWERTY come esempio nei miei articoli
e presentazioni. Paul lo prese in considerazione, come fecero diversi altri all'inizio degli anni
'80. Come critica sollevò l'obiezione standard che se ci fosse davvero stata una tastiera
migliore, la gente oggi la starebbe utilizzando. Io non ero d'accordo. Abbiamo continuato le
nostre discussioni per i successivi due anni, e nel tardo 1984 Paul cominciò a effettuare
ricerche sulla storia delle tastiere. Il risultato, il suo paper del 1985 "Clio and the Economics of
QWERTY", divenne un classico istantaneamente (Arthur, 1994:xvii).
122 Capitolo 3
Nel partecipare con il Professor Parker alla programmazione di quella sessione del meeting
dell'AEA 1984, sulla necessità che i giovani economisti si dedicassero un po' allo studio
della storia economica, ed anche nello scrivere il paper su QWERTY, ritornai alla enuncia-
zione esplicita delle mie prime idee sulla storicità nei processi economici. Lo feci con un
nuovo obiettivo: incoraggiare gli economisti a studiare con noi la storia economica, non solo
perché il passato "contiene utili economie" – come (McCloskey, 1976) ha convincentemente
spiegato ai lettori del Journal of Economic Literature – ma anche perché il conseguente te-
ma della "storicità" pone sfide teoriche affascinanti e difficili che sono rimaste largamente
inesplorate dalla nostra disciplina, ed anche perché è cominciato ad apparire evidente che
queste difficoltà potrebbero dare origine ad alcuni dei nuovi concetti e tecniche matemati-
che che sono state proposte in modo comparativamente recente dai teorici della probabilità
per affrontare la statistica dei processi non-ergodici. Attraverso queste tattiche, pensavo, po-
trebbe essere incidentalmente possibile rinvigorire o persino salvare il campo di ricerca che
mi sono scelto dalla condizione di moribondo intellettuale che è stata di fatto diagnosticata
da Robert Solow (Solow, 1986:27), con una battuta sul fatto che la nuova storia economica
sembra evolvere verso una specialità praticata da economisti di formazione neoclassica 'con
una elevata tolleranza alla polvere e possibilmente – cosa particolarmente rara ai nostri
giorni – una buona conoscenza di una lingua straniera.' (David, 1997:6-7).
In mano a David la storia della tastiera QWERTY si rivelò uno strumento particolar-
mente efficace. In questo oggetto di uso comune appare infatti del tutto evidente co-
me le decisioni originarie sulla disposizione dei tasti delle prime macchine da scrivere
meccaniche abbiano potuto influenzare il modo in cui ancora oggi si scrive al perso-
nal computer, costringendoci ad usare una tastiera che ci sembra oggi inefficiente e
inadeguata. Nonostante siano da tempo state proposte delle alternative migliori, il co-
sto collettivo del passaggio ad un diverso tipo di tastiera sarebbe però troppo elevato:
siamo dunque rimasti "ancorati" a questa scelta inefficiente, dipendente dagli acci-
denti della storia passata. L'articolo che illustra questa storia e ne trae le implicazioni
(David, 1985) è un notevole pezzo di bravura, soprattutto nella sua versione comple-
ta, pubblicata in (David, 1986). Alla sua presentazione, per destare l'attenzione degli
economisti presenti alla sua breve sessione, il giovane David decise di ricorrere ad
una serie di "shock", come ricordato qui:
Catturare l'attenzione era il primo problema: il mio discorso sarebbe iniziato parlando di
123
sesso . Ma una volta catturata l'attenzione del pubblico, come trattenerla? C'è una tattica di
rinforzo generalmente affidabile: procurare uno shock attraverso uno stimolo potente. Qual
è l'argomento che scuote gli economisti ancora più dei riferimenti al sesso? L'inefficienza!
Quindi, avrei dovuto produrre una storia in cui un processo economico non poteva scrollarsi
di dosso l'influenza degli eventi passati, ed anche in cui agenti autonomi e razionali erano
portati ad un risultato condiviso e collettivo che sarebbe apparso non migliore per alcuni, e
definitivamente peggiore per altri di una possibile alternativa. E se questo non fosse bastato,
ci sarebbe voluto uno "shock" più forte: mostrare che, nonostante il fatto che ciascun sog-
getto individualmente, se avesse avuto la possibilità di cancellare il passato, avrebbe preferi-
to la scelta alternativa, era più che probabile che la collettività nel suo insieme avrebbe con-
tinuato a convivere con la situazione insoddisfacente (Pareto-inferiore) – a causa delle diffi-
coltà o dei costi di coordinamento in cui sarebbero incorsi per porre in atto la scelta alterna-
tiva. Ammetto liberamente di aver impiegato la storia delle disposizioni dei tasti della mac-
123
Il riferimento è stato ovviamente eliminato nella versione journal (David, 1985), ma è
rimasto nella versione estesa pubblicata l'anno dopo (David, 1986), in cui viene usato all'inizio
e alla fine del contributo. Esso avvenne menzionando un libro degli anni '30, di Thurber e
White, intitolato "Is Sex Necessary? Or Why You Feel The Way You Do", in cui si suggerivano
ai figli delle tattiche per insegnare il sesso ai padri. Queste tattiche, osserva il giovane David,
valgono anche per gli storici (=figli) per insegnare la storia (=sesso) agli economisti (=padri).
Analisi della letteratura 123
china da scrivere (e del computer) come un buono strumento retorico a questo fine (David,
1997:5).
Figura 3.5 Una Smith & Corona meccanica. Fonte: (Gould, 1991), pag. 64.
Dal momento che ho un interesse speciale per le tastiere (a cui sono affezionato con una te-
nerezza che risale ai miei tempi più cari dell'infanzia), da anni avrei voluto scrivere qualco-
sa di simile. Ma non ho mai avuto i dati di cui avevo bisogno finché Paul David, Coe Pro-
fessor of American Economic History all'Università di Stanford, mi ha gentilmente spedito
il suo affascinante articolo: "Understanding The Economics of QWERTY: The Necessity of
History" (David, 1986). Virtualmente tutti i dati non personali in questo pezzo provengono
124
In (Nosengo, 2003), capitolo 11, il lettore interessato troverà una ulteriore e più recente
versione divulgativa di questa storia, che comprende anche i retroscena del lavoro di David e le
critiche ricevute in seguito.
124 Capitolo 3
dal lavoro di David, e lo ringrazio per questa opportunità di soddisfare un antico desiderio
(Gould, 1991:63).
Figura 3.6 La tastiera QWERTY della Smith & Corona, dopo molti anni di utilizzo. I tasti A,
S e Z sono visibilmente consumati. Fonte: (Gould, 1991), pag. 64.
Ho imparato a battere a macchina prima di imparare a scrivere. Mio padre era uno stenogra-
fo di tribunale, mia madre era una dattilografa. Ho imparato la corretta tecnica di battitura a
otto dita quando avevo nove anni ed avevo ancora mani minute e mignoli piccoli e deboli.
Per questo sono stato fin dall'inizio in una posizione particolarmente buona per apprezzare
l'irrazionalità della disposizione delle lettere della tastiera standard, chiamata da tutti
QWERTY in onore delle prime sei lettere della prima riga. Chiaramente, QWERTY non ha
alcun senso (oltre il gusto stesso di battere QWERTY sulla tastiera). Più del 70 per cento
delle parole inglesi possono essere composte con le lettere DIATHENSOR, e queste do-
vrebbero trovarsi nella più accessibile riga centrale, o in quella in basso, come era in una ta-
stiera concorrente di QWERTY introdotta nel 1893 e poi decaduta [Figura 3.7]. Ma in
QWERTY la lettera inglese più comune, E, richiede di raggiungere la riga in alto, così come
le vocali U, I e O (con la O battuta dal debole dito anulare), mentre la A rimane nella riga
centrale ma deve essere battuta con il dito più debole di tutti (almeno per la maggioranza
delle persone che usano la destra): il mignolo sinistro. (Quanto ho combattuto con questo da
ragazzo. Semplicemente non ero in grado di battere quel tasto. Una volta provai a scrivere la
Dichiarazione di Indipendenza, e venni fuori con: th t ll men re cre ted equ l.).
Come illustrazione evidente di questa irrazionalità, considerate la fotografia allegata
[Figura 3.6]: la tastiera di una antica Smith-Corona vista dall'alto, identica a quella (l'origi-
nale di mio padre) che uso per scrivere questi saggi (una magnifica macchina: nessuna rottu-
ra in vent'anni e una fluidità di movimento mai eguagliata da alcuna manuale) [Figura 3.5].
Dopo più di mezzo secolo di utilizzo, alcuni dei tasti usati più di frequente si sono consuma-
ti in superficie, fino al cuscinetto di gomma sottostante (non c'erano plastiche dure a quel
Analisi della letteratura 125
tempo). Si può notare che la E, la A e la S sono consumate in questo modo – Notate però
anche che in QWERTY tutte e tre o sono fuori dalla riga centrale o vanno battute con le dita
più deboli, anulare e mignolo. Questa osservazione non è solo una congettura basata sull'e-
sperienza personale. L'evidenza mostra chiaramente che QWERTY è drasticamente subot-
timale (Gould, 1991:62-3).
E' dipendente dal percorso una sequenza di cambiamenti economici le cui influenze di rilie-
vo sull'eventuale risultato possono essere desunte da eventi temporalmente remoti, inclusi
accadimenti dominati da elementi casuali piuttosto che da forze sistematiche. Processi sto-
castici come questi non convergono automaticamente ad una determinata distribuzione di ri-
sultati, e vengono chiamati non ergodici. In tali circostanze gli "accidenti della storia" non
possono essere né ignorati ne messi in quarantena ai fini dell'analisi economica; anzi, il pro-
cesso dinamico assume esso stesso un carattere essenzialmente storico. (David, 1985:332).
125
L'affermazione di QWERTY si articola in alcuni episodi essenziali .
1) La disposizione QWERTY fu adottata nel 1873 nella prima macchina da scrivere
commerciale, una Remington & Son.
125
Questa sintesi non rende purtroppo ragione del grande talento di David, che sviluppa un
racconto affascinante, ritmato ed anche divertente: si rinvia dunque il lettore al contributo
originale, nella forma più rigorosa e sintetica di journal accademico (David, 1985) o in quella
più completa, godibile e presumibilmente vicina alla presentazione originale (David, 1986).
Anche il saggio di Gould qui parzialmente riportato è ovviamente molto più godibile nella
versione completa, che è originariamente apparsa sulla rivista Natural History ed è oggi inclusa
nella nota raccolta (Gould, 1991), pubblicata anche in versione italiana (Gould, 1992), con il
titolo "Il pollice del panda della tecnologia".
126 Capitolo 3
Figura 3.7 La tastiera "Ideal" introdotta nel 1893 , in cui le lettere DHIATENSOR sono nella
prima riga in basso. Fonte: (Gould, 1991), pag. 65.
Essa riduceva l'inceppamento dei martelletti, che nelle macchine di prima generazio-
126
ne era un problema molto serio .
2) Intorno al 1895, con le nuove generazioni di macchine da scrivere, cominciò ad
127
apparire chiaro che il problema dell'inceppamento sarebbe stato risolto , vanificando
quindi la superiorità tecnica di QWERTY. Nello stesso tempo, però, QWERTY si av-
viava a divenire lo standard dominante, tanto da venire chiamate tastiera "Universal".
126
Le prime macchine da scrivere non permettevano infatti di vedere il foglio mentre si
scriveva. Battiture imprecise (ad esempio la pressione contemporanea di due tasti, oppure la
battitura di una lettera prima che fosse rientrato il martelletto della battitura precedente)
tendevano ad "incollare" i martelletti, risolvendosi nella battitura ripetuta della stessa lettera.
Non potendo vedere il foglio, l'utente se ne rendeva conto troppo tardi e doveva ricominciare
da capo. La disposizione delle lettere più frequentemente battute in posizioni distanti l'una
dall'altra potrebbe dunque essere stata un modo per ridurre le probabilità di battiture imprecise.
David riporta che questi accorgimenti vennero adottati dall'ideatore originario della macchina
da scrivere, Christopher Scholes, nei sei anni che dedicò a perfezionare il suo prototipo
originario, brevettato nel 1867, prima di cederlo alla Remington & Sons nel 1873.
127
Le nuove macchine verticali a battitura frontale, sul tipo di quella raffigurata in Figura 3.5,
permettevano infatti di vedere il foglio mentre si scriveva; inoltre la velocità di ritorno dei
martelletti fu molto incrementata (Parkinson, 1972).
Analisi della letteratura 127
Figura 3.8 La disposizione DSK raggruppa nella seconda riga le lettere di uso più comune.
Fonte: (Parkinson, 1972).
3) Negli anni successivi, anche i concorrenti che avevano adottato tastiere diverse,
come "Ideal" (Figura 3.7) cominciarono a fornire la tastiera QWERTY come opzione,
per poi in seguito adottarla universalmente.
Il tutto appare davvero un accidenti della storia: uno standard riesce ad affermarsi sui
concorrenti e a divenire universale proprio quando le ragioni della sua superiorità tec-
nica cominciano a venire meno:
Proprio quando era ormai divenuto evidente che ogni razionale micro-tecnologico del do-
minio di QWERTY stava svanendo per via del progresso dell'ingegnerizzazione delle mac-
chine da scrivere, il settore statunitense stava rapidamente muovendosi verso lo standard di
una macchina verticale a battitura frontale con una tastiera QWERTY a quattro righe che
veniva chiamata "Universal" (David, 1985:334).
Figura 3.9 La lunghezza delle dita è proporzionale al numero medio di battute. La DSK
(sulla sinistra) permette un carico più equilibrato della QWERTY (sulla destra).
Fonte: (Parkinson, 1972).
David spiega infatti il dominio di QWERTY in base a tre fattori chiave: effetti re-
te indiretti (technical interrelatedness), economie di scala (economies of scale) e costi
128
di switching (quasi-irreversibility of investments) .
David osserva infatti che l'hardware della macchina da scrivere richiede per un u-
tilizzo ottimale la memorizzazione di sequenze e procedure appropriate (software) da
parte dei dattilografi, generando dunque degli effetti rete indiretti: la maggiore dispo-
nibilità di macchine da scrivere QWERTY determina indirettamente un più ampio
mercato di dattilografi esperti, con economie di scala "di sistema", cioè sia dal lato
della domanda che dal lato dell'offerta. Man mano che QWERTY diveniva dominan-
te, anche i produttori che avevano adottato standard concorrenti tendevano ad adottar-
lo: la conversione tecnica della produzione non QWERTY era poco costosa, specie a
confronto del riaddestramento della maggioranza dei dattilografi che già usavano "U-
128
I termini usati da David nel 1985 (David, 1985:334-335) sono diversi da quelli che si sono
poi affermati nel decennio successivo, ma i concetti fondamentali sono gli stessi:
l'interrelazione tecnica (technical interrelatedness) tra hardware (la macchina da scrivere) e
software (i "programmi" mentali dei dattilografi) corrisponde alla compatibilità tecnica alla
base degli effetti rete indiretti nei sistemi hardware/software; le economie di scala che David
chiama "di sistema" corrispondono alla somma delle economie dal lato della domanda e
dell'offerta; la "quasi irreversibilità degli investimenti" (quasi-irreversibility of investments) si
riferisce ai costi correlati alle perdite in investimenti specifici, come l'addestramento sulla
tastiera QWERTY, che si devono sostenere al passaggio ad un diverso standard: sono dunque
costi di switching.
Analisi della letteratura 129
In sé e per sé, questa mia storia sarà semplicemente illustrativa e non stabilisce quanta parte
del mondo funzioni in questo modo. Questa è una questione empirica aperta, ed io sarei pre-
suntuoso se pretendessi di averla risolta, o di fornire indicazioni su come affrontarla. Spe-
riamo soltanto che il racconto possa garbatamente provocare un divertito interesse in coloro
che si aspettano spiegazioni sul se e il perché lo studio della storia economica rappresenti
una necessità per gli economisti (David, 1985:332).
129
In (Liebowitz & Margolis, 1990) la presentazione degli argomenti in un modo che potrebbe
suonare arrogante ha probabilmente reso più difficile un successivo confronto sereno delle idee
tra le opposte fazioni. David non ha mai risposto direttamente a queste critiche. Anche altri
scritti del primo autore (Stan Liebowitz) sembrano essere stati recepiti da alcuni lettori con
qualche perplessità sullo stile e sui modi espressivi. Ad esempio, su Amazon.com una delle
recensioni dei lettori di (Liebowitz, 2002) (accanto ad altre in generale molto favorevoli)
sostiene un argomento che in italiano suona pressappoco così: «Ho trovato molta parte del
contenuto di questo libro una lettura molto interessante e intelligente. Purtroppo, l'impressione
che ne ho ricavato di Stan Liebowitz è quella di un autore eccessivamente orgoglioso, che
sembra avere un'idea di se stesso troppo elevata, come di colui che ama sentire il suono della
sua propria voce, e scrive con lo stesso stile. […] Questo non cambia le teorie che vengono
presentate, ma certamente rende spiacevole la lettura di questo libro». Questo atteggiamento di
superiorità stride particolarmente con quello fermo ma rispettoso di uno dei lavori di Ronald
Coase a cui Liebowitz e Margolis dichiarano di essersi direttamente ispirati: (Coase, 1974). In
"The Lighthouse in Economics" Coase demolì l'uso allora comune tra gli economisti di
considerare l'esercizio dei fari per la navigazione un esempio per eccellenza di un'attività
economica che non può essere esercitata in regime privatistico, in quanto risulterebbe
impossibile rilevare e riscuotere un compenso dalle navi che ne beneficiano. Attraverso una
scrupolosa indagine storica, Coase dimostrò che l'esercizio dei fari in Gran Bretagna era
anticamente esercitato proprio in regime privatistico, con un saggio che agli occhi di chi scrive
è un capolavoro di eleganza non solo nei contenuti, ma anche nei modi espressivi, che restano
130 Capitolo 3
Primo, l'affermazione che la tastiera Dvorak sarebbe migliore è supportata soltanto da evi-
denza empirica che è non solo scarsa, ma anche sospetta. Secondo, gli studi nella letteratura
ergonomica non rilevano nessun vantaggio significativo per la Dvorak che possa essere con-
siderato scientificamente affidabile. Terzo, la competizione tra i produttori di tastiere, da cui
emerse lo standard, fu di gran lunga più intensa di quanto comunemente riportato. Quarto, ci
furono molte più gare pubbliche di velocità tra dattilografi. […] Queste gare pubbliche die-
dero ampia opportunità di dimostrare la superiorità di configurazioni di tastiera alternative
(Liebowitz & Margolis, 1990:8).
Il fatto che Qwerty è sopravvissuta a sfide significative alle origine della storia della dattilo-
grafia dimostra che essa è almeno tra le più adatte, se non la più adatta che si possa immagi-
nare (Liebowitz & Margolis, 1990:8)
Di conseguenza, non è nemmeno vero che "la storia conta" in economia, almeno non
130
nel senso più forte indicato da David e Arthur .
Liebowitz e Margolis contestano il contributo di David non solo dal punto di vista
della veridicità e della completezza, ma anche da quello del fondamento teorico. Se-
condo il loro punto di vista, la storia QWERTY, in cui uno standard inefficiente si
impone su uno pareto-efficiente per via degli effetti rete e dei relativi costi di swi-
tching, non è vera ed inoltre non può nemmeno essere vera: i modelli economici e
matematici su cui essa troverebbe qualche fondamento, sembrano infatti ben lontani
dal rispecchiare fedelmente ciò che avviene nel mondo reale. Ad esempio, si conside-
ri il caso di uno standard socialmente subottimale per eccesso di inerzia nelle innova-
zioni, ipotizzato nei noti modelli di (Farrell & Saloner, 1985); (Farrell & Saloner,
1986a) presi in considerazione nelle sezioni precedenti. L'eccesso di inerzia si verifi-
ca quando il sistema si "blocca" su uno standard inferiore pur nell'esistenza di uno più
innovativo e più efficiente: l'ipotesi avanzata nella storia QWERTY di David. I mo-
delli economici considerano questa eventualità come possibile, ma non possono tene-
re conto di tutti i meccanismi del mercato nel mondo reale:
Per la loro stessa natura, questo modello e gli altri come questo devono ignorare molti fatto-
ri nei mercati che esplorano. L'adesione ad uno standard inferiore in presenza di uno supe-
riore rappresenta comunque qualche genere di perdita, che implica una opportunità di profit-
to per chiunque riesca ad escogitare un modo di internalizzare l'esternalità e appropriarsi di
una parte del valore generato dal passaggio allo standard superiore. Inoltre, fattori istituzio-
nali come vantaggi di prima mossa, brevetti e i diritti di copyright, marchi, vendite congiun-
te, sconti e simili, possono anch'essi dischiudere possibilità di appropriazione (si legga "op-
portunità di profitto") per gli imprenditori, e con queste opportunità ci attendiamo di vedere
attività poste in essere per internalizzare le esternalità. Maggiore è il gap nella performance
tra i due standard, maggiori sono queste opportunità di profitto, e più probabile che si verifi-
chi uno spostamento verso il nuovo standard. Di conseguenza, un chiaro esempio di eccesso
di inerzia è presumibilmente molto difficile da trovare. Casi osservabili nei quali prevale
pacati e sereni anche quando avanzano, quasi in punta di piedi, critiche potenzialmente
dirompenti.
130
Cioè che gli "accidenti della storia" possano determinare il prevalere stabile di uno standard
inefficiente su possibili alternative più convenienti per il sistema nel suo complesso, così come
alluso dalla frase di Arthur riportata in apertura di questa sezione.
Analisi della letteratura 131
uno standard nettamente inferiore hanno probabilmente vita breve, o sono imposti di autori-
tà, o sono storie romanzate (Liebowitz & Margolis, 1990:4).
Si tratta di una critica molto forte nei confronti dei modelli più noti della network e-
conomics, che gli autori sviluppano compiutamente in un intero libro: (Liebowitz &
Margolis, 1999). Questa frase delle conclusioni riassume efficacemente la loro posi-
zione complessiva.
La nostra posizione è che i buoni prodotti vincono. La posizione opposta di alcuni modelli
economici è che i buoni prodotti potrebbero non vincere. Al contrario, cattivi prodotti,
prezzi elevati, politiche di vendita a svantaggio dei consumatori potrebbero venire "protette"
dai network effects e da altri effetti. C'è un mondo di evidenza a supporto della nostra ver-
sione. Non c'è nemmeno un solo esempio chiaramente documentato a supporto della versio-
ne opposta. (Liebowitz & Margolis, 1999:243).
La storia dello standard QWERTY contro quello Dvorak è viziata e incompleta- [...] La
conclamata superiorità della tastiera Dvorak è sospetta. Gli annunci più clamorosi si devono
132 Capitolo 3
allo stesso Dvorak e gli esperimenti meglio documentati, così come studi recenti di ergono-
mia, suggeriscono che la tastiera Dvorak goda di un vantaggio nullo o modestissimo
(Liebowitz & Margolis, 1990:21).
David sostiene e io ne sono persuaso che «ci sono molti altri casi QWERTY nel mondo là
fuori» (David, 1986:37). Una configurazione di tastiera immutata nel tempo non mi colpisce
comunque come l'attributo più importante nello sviluppo della scrittura meccanizzata dal
1870 al presente. Che dire dei miglioramenti nella meccanica delle tastiere? Che cosa delle
macchine da scrivere elettriche? E i personal computer e le stampanti laser? Perché sono
prevalsi sui vecchi sistemi a dispetto della path dependence? Ci sono davvero state altre
tecnologie "strutturalmente superiori" (secondo la definizione di Carrol e Harrison) che sono
state ignorate? Se, con ritardi e imperfezioni, le tecnologie più efficienti hanno regolarmente
soppiantato quelle meno efficienti, perché questo non dovrebbe essere esplicitamente consi-
derato? Forse la risposta è che "tutti sanno" che la minimizzazione dei costi è il fenomeno
dominante, del quale la dipendenza dal percorso, la monopolizzazione, l'assunzione di rischi
ecc. sono soltanto delle qualificazioni particolari (Williamson, 1995:239).
Le obiezioni di Williamson sono in fondo quelle "standard" che lo stesso David ave-
va sollevato ad Arthur fin dall'inizio: se esistesse una tastiera migliore, noi la starem-
mo già usando, come è avvenuto per tante altre innovazioni (vedi nota 122).
In effetti, varie fonti anche successive a Liebowitz e Margolis hanno confermato
che i vantaggi oggettivamente misurabili in termini di velocità di battitura della ta-
stiera Dvorak sono molto inferiori a quelli dichiarati da David, e forse non tali da giu-
131
stificare lo switching . Al di là delle contestazioni e delle polemiche, resta comunque
il fatto che, se da un lato i modelli economici e matematici della network economics
hanno fornito notevoli utili spiegazioni e indicazioni strategiche sulla concorrenza
nella produzione e diffusione di beni informativi, attraverso l'analisi degli effetti rete,
dei costi di switching e delle dinamiche di crescita e diffusione, dall'altra parte alcune
delle implicazioni più forti di questi modelli, tra cui la dipendenza dal percorso con
lock-in irreversibile, risultano oggi poco convincenti e non adeguatamente dimostrate
dall'evidenza dei fatti.
131
In (West, 1998) vengono riportati i risultati di accurate misure sperimentali che attribuiscono
alle tastiere Dvorak un incremento di efficienza intorno al 4% rispetto a quelle QWERTY.
Esso non sembra tale da giustificare oggi i costi di passaggio dal vecchio al nuovo standard.
D'altra parte, però, si rileva che il vantaggio sembra essere più elevato (intorno al 10%) per i
soggetti più esperti, il che spiega almeno in parte alcune posizioni di utenti molto favorevoli a
Dvorak che dichiarano notevoli guadagni di efficienza (Shipman, 2003). Una comparazione
ideale dovrebbe però essere effettuata, oltre che in laboratorio, attraverso l'osservazione
rigorosa di un gran numero di soggetti sul campo. Ci sono inoltre altri fattori che potrebbero
influire sulla futura adozione di tastiere Dvorak. L'evoluzione tecnologica rende infatti sempre
meno costosa la disponibilità contemporanea di entrambi gli standard. Ciò potrebbe forse
agevolare il passaggio, specie se fosse abbinato ad una ulteriore conferma dei benefici della
nuova tastiera, alla sua massiccia comunicazione e alla disponibilità di materiale didattico per
le scuole (attualmente scarsa).
Analisi della letteratura 133
132
Il caso della concorrenza tra standard per videoregistratori VCR e Betamax è stato addotto
dallo stesso Arthur come un esempio classico di lock-in e di dipendenza dal percorso, dato che
secondo alcuni lo standard JVC/VCR (che prevalse) sarebbe tecnicamente inferiore al
Sony/Betamax (che fallì); esso avrebbe conquistato l'intero mercato grazie ai rendimenti
crescenti innescati da una posizione di vantaggio dovuta a fattori minori e/o casuali (Arthur,
1990). Anche questo casi è stato però successivamente riconsiderato da Liebowitz e Margolis,
che spiegano come, ad esempio, la migliore qualità di immagine di Betamax fosse contrapposta
ad una durata doppia delle cassette VCR (circa due ore contro un'ora di Betamax). Mentre la
differenza di qualità di immagine era spesso indistinguibile nelle registrazioni dei programmi
televisivi, la lunga durata era importante per archiviare un intero film in una cassetta. L'analisi
si estende ad altri fattori e ad altre fonti: (Liebowitz & Margolis, 1999), cap. 6. Una più recente
verifica empirica dell'importanza degli effetti rete attraverso tecniche di analisi strutturale,
evidenzia peraltro che essi furono probabilmente rilevanti, accanto alla qualità tecnica dello
standard, per il successo di VCR; attraverso una simulazione, essa mostra anche come, se Sony
avesse usato una politica di prezzi più aggressivi per Betamax, essa avrebbe probabilmente
potuto sfruttare il suo vantaggio di ingresso e conquistare il mercato (Ohashi, 2003).
134 Capitolo 3
133
I progettisti del DOS non potevano sapere che alcune delle scelte di progetto da loro
effettuate, come quella di permettere l'accesso diretto e non controllato da parte dei programmi
alla memoria di sistema e alle routine del BIOS, avrebbero contribuito a determinare da una
parte l'endemica instabilità delle applicazioni in ambiente Windows, dall'altra la necessità per i
progettisti di microprocessori della Intel di continuare a prevedere una modalità di
funzionamento (la modalità "reale") superata, primitiva e anche pericolosa. Nello stesso tempo
però questa dipendenza di percorso, pur avendo costituito un fattore di debolezza (soffocando
l'evoluzione tecnologica e compromettendo le prestazioni e l'affidabilità dei sistemi
PC/Windows) ha anche sostanzialmente tagliato fuori dal mercato le architetture alternative
(come Macintosh e Next) che non hanno seguito il "percorso" di compatibilità DOS.
134
Anche la famosa interpretazione del caso Macintosh come di un esempio di innovazione che
avrebbe lasciato il passo ad un'alternativa subottimale ma più diffusa (PC/Windows) è stato
rivisto in chiave critica nel capitolo 6 di (Liebowitz & Margolis, 1999).
Analisi della letteratura 135
La dipendenza dal percorso in senso "forte", cioè la possibilità che gli "accidenti
della storia" spingano il sistema verso scelte subottimali irreversibili, appare invece
135
controversa e non provata empiricamente , nonostante sia teoricamente dimostrata in
numerosi modelli matematici ed economici.
Queste considerazioni potranno trovare impiego più avanti nel delineare un qua-
dro di analisi teorica sui processi di standardizzazione che tenga conto di quanto de-
sumibile dalla letteratura sulla network economics, che si estende comunque ben al di
là dei contributi più noti tratteggiati fino ad ora. Al fine di fornire qualche riferimento
di utilità per il lettore interessato ad esplorare ulteriormente questi temi, nella prossi-
ma sezione verranno prese in considerazione alcune delle più autorevoli e complete
rassegne della notevole mole di letteratura prodotta fino ad oggi in questo ambito.
135
Il dibattito sulla path dependence si inserisce in un contesto più ampio di superamento di
alcune delle limitazioni dell'economia neoclassica, attraverso l'introduzione di una diversa
concezione della conoscenza economica: da un lato Arthur, David e i loro seguaci che fondano
l'idea della path dependence su una nuova formalizzazione economico-matematica di tipo
dinamico, più evoluta dei modelli statici neoclassici; dall'altro Liebowitz e Margolis, che,
appoggiati dagli esponenti della cosiddetta Austrian Economics, sostengono che i modelli
matematici pur sofisticati non possono costituire nuova conoscenza economica finché non
trovano un'adeguato riscontro empirico. Su questa interpretazione epistemologica del dibattito
vedi (Lewin, 2001). Un ulteriore contributo critico fondamentale sul tema è dati dagli studi di
economia e organizzazione industriale che hanno in Giovanni Dosi un esponente di spicco di
un significativo gruppo di ricercatori in ambito internazionale. La posizione critica di Dosi e
colleghi sul controverso tema della irreversibilità della path dependence è ben illustrata in
(Bassanini & Dosi, 2001).
136 Capitolo 3
Tutti questi fattori potrebbero aver rilievo ai fini della scelta delle modalità otti-
mali di coordinamento organizzativo nei consorzi di standardizzazione volontaria:
138 Capitolo 3
David e Greenstein osservano che ciò dà luogo ad una importante e irrisolta questione
organizzativa, che è anche la principale motivazione di questo lavoro.
Government standards l'ultima parte della rassegna è dedicata agli standard pro-
mulgati direttamente dalle istituzioni governative, estendendosi al tema più generale,
molto caro agli economisti, sull'opportunità e sui modi di intervento pubblico nei pro-
cessi di standardizzazione. Oltre all'acceso dibattito tra liberisti e interventisti, si
prendono in considerazione gli studi sulle forme di intervento indiretto, incentrate
sulla tutela della concorrenza (anti-trust) e sulle politiche a favore della compatibilità
e delle licenze aperte.
In conclusione, David e Greenstein, di fronte alla numerosità e alla ricchezza dei
modelli sull'economia degli standard, osservano che da un lato «i dettagli dei modelli
fanno la differenza e non c'è un forte consenso sulle conclusioni raggiunte da studi
differenti» (David & Greenstein, 1990:34); dall'altro che «gli esercizi di modelling
sono giunti molto oltre la base dei fatti verificati empiricamente in modo solido»
(David & Greenstein, 1990:35). Essi anticipavano in questo modo il fuoco di fila di
critiche che, come abbiamo visto, cominceranno proprio nello stesso anno con la
pubblicazione di "The fable of the keys" (Liebowitz & Margolis, 1990).
Al di là delle questioni accademiche, la rassegna di David e Greenstein ha lasciato
il segno sia nella teoria che nella pratica. Essa ha consolidato e stimolato il progredire
degli studi e delle conoscenze sui processi di standardizzazione in presenza di ester-
nalità, dimostrando che si tratta un campo di ricerca in fase di maturazione; essa ha
inoltre contribuito indirettamente al diffondersi delle idee sulle esternalità di rete an-
che nei comitati di standardizzazione e nelle imprese che vi partecipano. Le contro-
versie suscitate delle implicazioni più forti della network economics (lock-in, dipen-
denza dal percorso, fallimento del mercato) aprono il campo della ricerca a nuove
forme di investigazione, che ne prendano in considerazione anche gli aspetti organiz-
zativi verificandoli empiricamente sul campo.
La rassegna di Nicholas Economides apparsa sei anni dopo (Economides, 1996)
consolida e chiarifica ulteriormente le basi concettuali della network economics, di-
stinguendo chiaramente effetti di rete diretti e indiretti e le loro implicazioni anche in
termini di struttura dei mercati. La rassegna della letteratura è in qualche modo più
ristretta (56 riferimenti, di cui 24 a lavori dello stesso Economides), ma oltre a conso-
lidare e chiarire lo stato dell'arte delle ricerche, individua una serie di questioni anco-
ra almeno parzialmente irrisolte: 1) la determinazione analitica congiunta della strut-
tura di equilibrio del mercato (ivi compreso il grado ottimale di integrazione verticale
e di aggregazione tra imprese) e del livello preferibile di compatibilità in presenza di
più imprese; 2) il livello ottimale di standardizzazione e la struttura delle coalizioni
tra imprese; 3) Il funzionamento dei mercati degli adattatori e degli add-on; 4) l'anali-
si della struttura dei mercati in presenza di dinamiche multi-periodo; 5) il funziona-
mento e gli effetti delle strategie di prezzo e di annunci preliminari; 6) la definizione
della struttura modulare ottimale dei componenti immessi sul mercato; 7) I meccani-
smi della competizione in un mercato di componenti modulari stratificati.
Nel 2004 Victor Stango ha pubblicato una rassegna della letteratura che ospita 56
lavori di network economics (Stango, 2004). Stango individua una fase iniziale di svi-
luppo della teoria, contrassegnata dai lavori degli anni '80 e dei primi anni '90, con-
Analisi della letteratura 139
clusa dalla disputa sul caso QWERTY e dall'evidenziazione di una serie di aspetti da
chiarire: 1) l'esplicitazione e l'importanza degli effetti rete indiretti rispetto a quelli
diretti; 2) il ruolo esplicito e spesso risolutivo delle politiche degli sponsor per la de-
terminazione degli equilibri di mercato; 3) la consapevolezza che lock-in e dipenden-
za dal percorso erano spesso presenti nei primi modelli a causa di assunzioni troppo
restrittive; 4) la consapevolezza che anche in caso di market failure un intervento di-
retto di un'autorità centrale potrebbe essere altrettanto inefficace per far prevalere uno
standard socialmente ottimale. I contributi più recenti hanno teso dunque a fornire ri-
sposte più o meno parziali a queste questioni; essi vengono passati in rassegna da
Stango nella seconda parte della review, che evidenzia alcuni incoraggianti passi a-
136
vanti sia sul piano empirico che su quello teorico , ma che si conclude osservando
come i due gap più importanti ancora da coprire sembrano essere proprio quello della
scarsità di riscontri empirici diretti e quello della insufficiente indagine dei processi
nell'ambito dei comitati di standardizzazione.
Recentemente, Joseph Farrell ha proposto con il contributo di Paul Klemperer,
una ricca rilettura dei contributi della network economics, in cui si passano in rasse-
gna oltre 470 studi, a partire dalle origini fino ad oggi (Farrell & Klemperer, 2007).
La rassegna è organizzata in due grandi parti: la prima sui costi di switching, la se-
conda sui network effects. La rassegna è interessante più per la sua ricchezza di rife-
rimenti (non solo teorici ma anche empirici) che per il contributo di analisi critica,
che resta sostanzialmente allineato alle precedenti posizioni del primo autore.
136
In particolare, Stango evidenzia come una seconda generazione di lavori sugli effetti rete
abbia impostato analisi maggiormente supportate da evidenza empirica, basate non soltanto
sulla simulazione, ma anche su tecniche di analisi statistica strutturale dei valori osservati di
alcune variabili chiave. Con approcci di questo tipo, ad esempio, Ohashi ha recentemente
riconsiderato il caso VCR/Betamax, evidenziando l'esistenza di effetti rete indiretti (vedi nota
132: (Ohashi, 2003)); Shankar e Bayus hanno mostrato che nei mercati dei videogames
l'intensità degli effetti rete può essere più forte in reti più piccole (Nintendo) piuttosto che in
reti più estese (Sega) (Shankar & Bayus, 2003); Rysman ha riportato la presenza di effetti rete
nel mercato delle pagine gialle (Rysman, 2004); Neils e coautori hanno rilevato empiricamente
l'esistenza di effetti rete indiretti tra hardware e software nel mercato dei PDA (Personal
Digital Assistant), che avvalora le strategie di investimento per l'ampliamento dei mercati del
software da parte dei produttori di hardware, di cui si è parlato in questo capitolo alla sez. 3.2.2
(Nair et al., 2004).
140 Capitolo 3
137
Vedi sezione 3.2.2, paragrafo: "Ancora Katz e Shapiro (1994): Effetti rete indiretti, strategie
e compatibilità".
Analisi della letteratura 141
proposte sia dai new entrants che dagli incumbents. Un altro aspetto di rilievo riguar-
da il ruolo delle forme di protezione della proprietà intellettuale: mentre, come si è
già visto, molti contributi della network economics attribuiscono alla possibilità di
istituire licenze, marchi e brevetti un ruolo centrale ai fini della incentivazione degli
investimenti iniziali per il raggiungimento della massa critica, Anderson e Tushman
osservano un effetto opposto: regimi di appropriabilità eccessivamente elevata posso-
no impedire l'emergere di un design dominante, ostacolando la diffusione per imita-
zione. Questo suggerisce la ricerca di un equilibrio tra forme di totale apertura, che
disincentivano gli investimenti iniziali, e forme di appropriabilità eccessivamente e-
levata, che ostacolano la diffusione delle innovazioni.
Nel complesso, il modello di Anderson e Tushman, che si avvale di un'ampia rac-
colta di dati storici sull'evoluzione tecnologica in tre settori industriali (cemento, ve-
tro e minicomputer) costituisce un punto di riferimento essenziale per le ricerche suc-
cessive. Esso non è comunque il primo né l'unico studio sui dominant designs: la ri-
cerca ha avuto origine negli anni '70 con gli studi di Utterback e Abernathy
(Utterback & Abernathy, 1975); (Abernathy & Utterback, 1978), per svilupparsi no-
138
tevolmente fino ai giorni nostri in molteplici direzioni . Una rassegna piuttosto re-
cente della letteratura su questo tema è ospitata in (Suarez, 2004), in cui viene propo-
sto uno schema integrativo che prende in esame 58 precedenti contributi, con l'obiet-
tivo di riconciliarne e unificarne alcuni dei tratti essenziali. Suarez da un lato caratte-
rizza ulteriormente le fasi del processo di technology dominance sulla base delle ri-
cerche recenti, dall'altro ne riepiloga il complesso dei fattori chiave di dominio tecno-
logico, raggruppandoli in due livelli, il livello di impresa e quello di ambiente.
La letteratura presa in esame da Suarez ha posto in evidenza alcuni avvenimenti
chiave, specie nel periodo di fermento, che danno luogo nel complesso alle seguenti
cinque fasi:
I. Ricerca e sviluppo. Dall'inizio delle ricerche su una nuova tecnologia al mo-
mento in cui emerge il primo prototipo.
II. Prima attuazione. Dal primo prototipo al lancio del primo prodotto commer-
ciale.
III. Creazione del mercato. Dal primo prodotto commerciale all'apparizione della
prima alternativa della concorrenza, che dà il via alla competizione.
IV. Battaglia decisiva. Dall'inizio della competizione fino alla vittoria di uno dei
concorrenti con l'affermazione definitiva del dominant design.
V. Dominio. La fase di dominio dura fino alla successiva discontinuità tecnolo-
gica.
138
All'essenza il concetto di dominant design racchiude infatti la competizione tra tecnologie,
che è stata oggetto di filoni di indagine con diverse denominazioni. «Da decenni gli studiosi di
management osservano e analizzano le battaglie tecnologiche, con etichette che includono
quella di "dominant design", (Anderson & Tushman, 1990); (Utterback & Abernathy, 1975);
(Utterback & Suarez, 1993), quella di "technological trajectories" (Dosi, 1982); (Sahal, 1982)
e quella più recente di "platforms" (Meyer & Lehnerd, 1997); (Cusumano & Gawer, 2002)»
(Suarez, 2004:271).
Analisi della letteratura 143
I fattori che possono influenzare il processo variano a seconda delle fasi: ad esem-
pio gli effetti rete influenzano prevalentemente le fasi finali, mentre la credibilità e la
reputazione dei proponenti sono più importanti all'inizio del processo.
La Tabella 3.4 che segue elenca gli otto fattori chiave riepilogati da Suarez, indi-
cando le fasi del processo in cui essi possono risultare determinanti.
Tabella 3.4 Fattori chiave di dominio di una tecnologia per ciascuna fase del processo. Fon-
te: (Suarez, 2004:283).
Credibilità/asset complementari √ √
Base installata √ √
Manovre strategiche √
Regime di appropriabilità √
Anche se, rispetto agli anni '70 in cui apparsero i primi contributi, sappiamo oggi cer-
tamente molto di più sulle tecnologie dominanti e sui fattori che contribuiscono alla
affermazione di uno standard tecnologico, lo sviluppo e l'applicazione ulteriore delle
teorie sulle tecnologie dominanti appaiono tuttora messi alla prova dalla complessità
dell'oggetto di analisi e dalla ambiguità dei corrispondenti modelli teorici. Che cosa è
esattamente un design? Anche i lavori che si distinguono per il particolare rigore me-
todologico, come (Anderson & Tushman, 1990), tendono ad aggirare questo quesito
fondamentale, usando indifferentemente i termini "dominant configuration of the new
139
technology", "standard architecture" (p. 606), "technological order" (p. 612) ed altri .
Eppure gli studi più recenti hanno evidenziato come la natura complessa dell'oggetto
di analisi possa avere implicazioni importanti ai fini della ricerca: alcune tra le forme
139
Gli autori notano in effetti in modo esplicito la possibile esistenza di diversi "livelli di
analisi" nella tecnologia, ma risolvono solo formalmente l'ambiguità riferendosi ad un generico
livello di prodotto individuato da un codice standard di classificazione: «Ai nostri fini la
tecnologia potrebbe essere analizzata a diversi livelli di analisi. Per esempio, potremmo aver
analizzato l'evoluzione delle bottiglie per il latte, oppure dei contenitori di vetro in generale, o
anche di qualsiasi forma di imballaggio. In questo studio, la tecnologia di un settore è stata
definita attraverso il suo codice standard di classificazione industriale (SIC: Standard
Industrial Classification), in modo di far riferimento ai confini standard del settore» (Anderson
& Tushman, 1990:606).
144 Capitolo 3
oggi più rilevanti di dominant design, come quelle di "dominio architetturale" o "di
piattaforma" non risiedono soltanto nella superiorità tecnologica, ma anche nella par-
ticolare natura complessa e modulare dei prodotti di una buona parte del sistema in-
dustriale contemporaneo. Il dominio esercitato da Microsoft e Intel sul mercato dei
personal computer costituisce un esempio paradigmatico di questa tendenza, che ap-
pare oggi diffondersi rapidamente in diversi settori, incluso quello automobilistico ed
aerospaziale.
Questo aspetto viene analizzato con notevole acume e profondità in (Murmann &
Frenken, 2006), che prende le mosse dalla nota rassegna critica già apparsa in
140
(Tushman & Murmann, 1998) per comporre un quadro analitico sistematico e coe-
rente, che non soltanto integra ed unifica le differenti prospettive sul dominant de-
sign, ma traccia la via per risolvere le ambiguità sull'oggetto di analisi e sulle sue ca-
ratterizzazioni fondamentali. Il contributo di Murmann e Frenken si avvale in modo
rigoroso e documentato di concetti provenienti da diverse discipline (innovazione e
dominant design, teorie della complessità, studi sull'evoluzione biologica, design the-
ories). Si cercherà qui di evidenziarne solo alcuni dei tratti più rilevanti ai nostri fini,
raccomandando al lettore la lettura del lavoro originale in toto, che sviluppa con chia-
rezza un'analisi di notevole estensione e profondità su un tema tanto affascinante
quanto complesso.
La dimostrazione di Murmann e Frenken si articola in tre passaggi essenziali: 1)
illustrazione critica delle diverse posizioni sul dominant design e delle questioni an-
cora aperte; 2) uso di spiegazioni ispirate alle teorie della complessità e dell'evoluzio-
nismo biologico per la costruzione di un quadro unico e coerente sul dominant de-
sign; 3) implicazioni organizzative.
140
In (Tushman & Murmann, 1998) si evidenziano tre diversi approcci della letteratura,
esemplificati rispettivamente dai lavori di (Abernathy & Utterback, 1978); (Anderson &
Tushman, 1990) e (Henderson & Clark, 1990). In estrema sintesi, i primi due contributi
applicano entrambi l'idea di dominant design al livello di prodotto: secondo la prospettiva
introdotta da Abernathy e Utterback un prodotto dominante è "la migliore sintesi delle
innovazioni disponibili" (Tushman & Murmann, 2002:326), mentre per Anderson e Tushman
esso è il risultato di processi di variazione e selezione che avvengono nella fase di fermento. La
prospettiva di Henderson e Clark introduce invece nello studio delle tecnologie dominanti il
concetto di "sistema", che permette di adottare livelli multipli di analisi, differenziando i tipi di
innovazione a seconda del (sotto)sistema considerato e della sua importanza relativa. Gli autori
da un lato evidenziano le differenze tra le tre prospettive considerate, dall'altro delineano i tratti
essenziali dell'opera di integrazione teorica, basata sull'idea di "gerarchie di cicli tecnologici",
che è oggi al centro degli studi più avanzati. Il contributo di Tushman e Murmann,
originariamente apparso su Research in Organizational Behavior (Tushman & Murmann,
1998), ha vinto lo Stephan Schrader Award dell'Academy of Management nel 1998, ed è stato
inserito in una successiva raccolta di classici pubblicata nel 2002 (Tushman & Murmann,
2002).
Analisi della letteratura 145
logico; (v) i meccanismi causali; (vi) l'ampiezza e i limiti del campo di applicazione»
(Murmann & Frenken, 2006:933).
Nel rinviare al contributo originale per la discussione sistematica delle peculiarità
e delle determinanti specifiche di queste divergenze, si passa qui direttamente al mo-
dello proposto dagli autori che ne permette il superamento.
141
Simon osserva come molti sistemi complessi abbiano una struttura non solo organizzata
gerarchicamente, ma anche "quasi decomponibile", nel senso che per ciascun sottosistema la
frequenza delle interazioni tra le parti (all'interno) è maggiore della frequenza delle interazioni
con gli altri sottosistemi (all'esterno). La quasi decomponibilità semplifica il comportamento ed
economizza la descrizione dei sistemi complessi.
146 Capitolo 3
Livello di Sistema
Sottosistemi di I Livello
Sottosistemi di II Livello
Livello di Componente
Figura 3.11 Una gerarchia a quattro livelli. Fonte: (Murmann & Frenken, 2006), Fig. 1.
più "importanti" degli altri, indipendentemente dal livello a cui si trovano, che carat-
terizzano fortemente il sistema.
Ciclo Tecnologico
Livello di Sistema
Ciclo Tecnologico
Sottosistema di I Livello
Ciclo Tecnologico
Sottosistema di II Livello
Ciclo Tecnologico
Livello di Componente
Figura 3.12 Gerarchia di cicli tecnologici. Fonte: (Murmann & Frenken, 2006), Fig. 3.
142
Vedi nota n. 153.
148 Capitolo 3
143
E' ad esempio il caso del dominio di Cisco nel settore dell'hardware per telecomunicazioni.
Le ragioni e le dinamiche della "leadership di piattaforma" di Intel, Microsoft, Cisco ed altri
sono analizzate a fondo in (Gawer & Cusumano, 2002).
144
«Nell'ambito di un dato dominio funzionale come un motore in un'automobile, la struttura
dei parametri associati è gerarchica. Un parametro si trova all'apice, ed è particolarmente
determinante nel suo impatto sugli altri aspetti del dominio. Questi concetti sono centrali o
"core" nel senso che le scelte che rappresentano dominano tutte le altre» (Clark, 1985:243).
Questa descrizione di Clark dei componenti core di un sistema risale ad uno dei primi studi di
questo tipo, allora effettuato nel settore automobilistico; essa appare oggi ben rispecchiata
nell'idea di pleiotropia
145
Il libro di Baldwin e Clark, che è ormai considerato un contributo fondamentale sulla
progettazione modulare e sulle sue implicazioni economiche, fa uso tra l'altro di uno strumento
di analisi denominato design structure matrix (DSM) (Baldwin & Clark, 2000:41) per
individuare le dipendenze tra componenti di un sistema, cioè il numero di componenti che
richiedono modifiche in seguito al cambiamento di uno di essi. Se ad esempio si cambia il
diametro di una pentola, è necessario cambiare anche quello del coperchio. L'idea di
pleiotropia non corrisponde esattamente a quella di dipendenza tra componenti, ma vi è molto
vicina; è lecito infatti aspettarsi che i componenti dai quali in DSM dipendono molti altri
componenti siano anche in grado di interessare un numero elevato di funzioni del sistema, cioè
corrispondano approssimativamente a quelli che Murmann e Frenken definiscono ad elevata
pleiotropia.
Analisi della letteratura 149
essere molto più specifici dei componenti core, essendo dedicati soltanto a ad un nu-
mero ristretto di funzionalità.
Come si è accennato (vedi nota 145), i componenti core possono essere caratteriz-
zati non soltanto per il numero elevato di funzionalità del sistema su cui hanno in-
fluenza (elevata pleiotropia) ma anche per l'estensione della rete di dipendenze con
gli altri componenti: una modifica di un componente core può richiedere modifiche di
146
un numero elevato di componenti periferici (elevata dipendenza inter-componente) .
Velocità
Sicurezza
Ingombro
Aerodina-
mica
Estetica
Figura 3.13 Mappa pleiotropica, che visualizza le relazioni tra componenti o caratteristiche
di prodotto (colonne) e funzionalità o caratteristiche di servizio (righe). Fonte:
rielaborazione da (Murmann & Frenken, 2006:941), Fig. 2a.
Figura 3.14 Peugeut 107, Toyota Aygo e Citroën C1: tre prodotti complessi che condividono
la quasi totalità dei componenti. Fonte: TPCA (Toyota Peugeut Citroën Auto-
mobile).
147
La mappa di Figura 3.13 potrebbe far pensare che sia più opportuno standardizzare la
carrozzeria, dato che si tratta del componente a più elevata pleiotropia. Questo avviene ad
esempio quando vengono prodotte diverse versioni con allestimenti differenziati dello stesso
modello. Se la pleiotropia della carrozzaria è molto elevata, non altrettanto può dirsi per la
dipendenza: è possibile costruire modelli con diversa carrozzeria senza cambiare
sostanzialmente la maggio parte dei componenti, come è ben illustrato in Figura 3.14. La
standardizzazione del pianale, che ha un grado forse più basso di pleiotropia ma una
dipendenza elevata, permette di mantenere un numero più elevato di "gradi di libertà"
progettuale, realizzando modelli sostanzialmente diversi che condivisono la maggior parte dei
componenti. Queste considerazioni intuitive richiederebbero comunque un'analisi più formale e
approfondita, che non è possibile svolgere in questa sede.
Analisi della letteratura 151
Architettura e modularità
Un utile concetto da applicare allo studio delle tecnologie dominanti come sistemi
complessi può essere quello di architettura di prodotto, che deve una delle sue prime
150
definizioni compiute a (Ulrich, 1995) . L'architettura di prodotto è «lo schema attra-
verso il quale la funzione di un prodotto viene allocata ai componenti fisici» (Ulrich,
1995:419). Ulrich descrive lo schema architetturale in base a:
l'arrangement dei componenti funzionali;
il mapping dagli elementi funzionali ai componenti fisici;
la specifica delle interfacce per le interazioni tra componenti fisici.
In seguito Baldwin e Clark hanno descritto l'architettura come una parte delle re-
gole di progettazione (design rules) che specifica i componenti e i loro ruoli. Accanto
all'architettura, le design rules comprendono anche le interfacce e gli standard di in-
tegrazione e test:
Sia Ulrich che Baldwin e Clark individuano le interfacce tra componenti come ele-
menti essenziali della progettazione modulare. Baldwin e Clark analizzano a fondo il
concetto di modularità ((Baldwin & Clark, 2000), cap. 3), collegandolo all'idea fon-
damentale che, date due unità distinte, gli elementi di ciascuna unità siano fortemente
connessi con gli altri elementi all'interno della stessa unità, ma solo debolmente con-
nessi con gli elementi dell'altra unità. Quest'idea è affine ad uno dei concetti base del-
la teoria della complessità: quello della "quasi-decomponibilità" formulato per primo
151
da Herbert Simon (Simon, 1962) . In un sistema modulare la quasi-decomponibilità
di ottiene attraverso i principi dell'abstraction e dell'information hiding, in base ai
quali i componenti di un sistema sono come scatole nere ad elevata connessione in-
terna il cui contenuto dettagliato viene "nascosto", cioè non viene esposto all'esterno,
se non attraverso un'interfaccia semplice e standard. In tal modo si "astrae" dalla
150
Questo lavoro è tra quelli più frequentemente citati sulla standardizzazione, già elencati in
Tabella 3.3.
151
Vedi nota n. 141.
Analisi della letteratura 153
complessità del componente interno, in quanto ogni comunicazione con l'esterno av-
viene soltanto attraverso l'interfaccia.
Un sistema complesso può essere gestito dividendolo in parti più piccole e guardando a cia-
scuna separatamente. Quando la complessità di uno degli elementi supera una certa soglia,
essa può essere isolata definendo una astrazione separata, che ha una interfaccia semplice.
L'astrazione nasconde la complessità dell'elemento; l'interfaccia indica come l'elemento in-
teragisce con il sistema più ampio. (Baldwin & Clark, 2000:64).
In definitiva, gli studi sul dominant design offrono spiegazioni sempre più articolate e
complete della logica e delle dinamiche della standardizzazione.
Si è visto che la logica della standardizzazione può essere ispirata ai principi base
dei sistemi complessi già descritti da Simon oltre trent'anni anni fa: gerarchia e quasi-
decomponibilità. Questi principi sono oggi messi in atto nelle architetture di prodotto
modulari, basate su una gerarchia di componenti con interfacce semplici e stabili. Le
architetture modulari descrivono da un lato il principio di funzionamento di una clas-
se di prodotti, dall'altro la gerarchia dei componenti e delle loro parti, individuando le
mappe pleiotropiche (componenti-funzionalità), nonché le interfacce per le interazio-
ni tra componenti e la rete delle dipendenze componente-componente.
Non tutte le parti dei prodotti complessi ad architettura modulare, come le auto-
mobili e i computer moderni, hanno la stessa importanza relativa ai fini della standar-
dizzazione. Ciò che è importante standardizzare sono innanzi tutto le interfacce, cioè
152
Interazioni, interfacce e dipendenze appaiono collegate: quando due componenti
interagiscono, la dipendenza progettuale (modificando uno si deve modificare anche l'altro)
può essere infatti ridotta o eliminata attraverso l'impiego di una interfaccia standardizzata e di
un'architettura modulare. Questo spiega intuitivamente alcuni dei benefici della modularità in
termini di riduzioni delle dipendenze tra componenti. Per un'analisi approfondita delle
implicazioni progettuali ed economiche della modularità cfr. (Baldwin & Clark, 2000).
154 Capitolo 3
156
nologico , attraverso gli strumenti di analisi e misurazione propri delle architetture
complesse e modulari: principio di funzionamento, gerarchia dei moduli, interfacce,
mappe della pleiotropia e delle dipendenze tra moduli.
Il quadro analitico delle architetture complesse e modulari, come abbiamo visto,
serve anche a interpretare le dinamiche dell'innovazione tecnologica secondo una ge-
rarchia di cicli di discontinuità tecnologica che si snoda in modo multiforme e com-
plesso, come illustrato nella Figura 3.12. Le discontinuità nei componenti core e in
quelli ai livelli più elevati della gerarchia sono generalmente meno frequenti ma più
importanti; al contrario, le innovazioni ai componenti periferici e nei livelli più bassi
della gerarchia avvengono con maggiore frequenza e sono meno di impatto per il si-
stema nel suo complesso. Le architetture modulari permettono inoltre ulteriori forme
di innovazione di prodotto, anche in assenza di discontinuità tecnologiche: i principa-
li "operatori modulari", analizzati nel dettaglio nel capitolo 5 di (Baldwin & Clark,
2000), includono la suddivisione in più moduli, la sostituzione di un modulo, l'ag-
giunta di un nuovo modulo al sistema, l'esclusione di un modulo, l'inversione di parti
precedentemente nascoste a comporre un nuovo modulo, il porting di un modulo di
un altro sistema.
In ultima analisi, dunque, gli studi sull'innovazione e sulle tecnologie dominanti
forniscono un contributo determinante alla comprensione dei processi di standardiz-
zazione, specie nell'identificazione delle dinamiche delle discontinuità tecnologiche
e, più recentemente, di quelle delle forme di dominio sui prodotti ad architettura mo-
dulare. Anche se i prodotti e i servizi complessi tendono a proliferare e a diffondersi
in modo crescente, non è ancora esattamente chiaro l'ambito di applicabilità generale
delle idee sul dominant design e sulle architetture complesse. In quali condizioni am-
bientali e tecniche tendono ad emergere le architetture dominanti, più o meno com-
plesse e modulari? Quali sono le condizioni per l'emergere degli standard che caratte-
rizzano un dominant design? La network economics, già affrontata in precedenza,
fornisce alcune possibili risposte a questa domanda: le esternalità di rete e i fenomeni
ad esse collegati potrebbero infatti rappresentare una delle condizioni di rilievo. Ma,
con Murmann e Frenken, appare saggio ritenere che anche altri meccanismi possano
157
giocare un ruolo in questo senso .
156
Mentre sulla gerarchia dei livelli di dominio architetturale si è già discusso ampiamente, sui
diversi gradi di dominio è utile richiamare questo passo di Murmann e Frenken: «Sebbene la
semantica del dominant design possa suggerire che il concetto abbia un significato binario
(cioè che una tecnologia dominante possa soltanto o esistere o non esistere in un settore), ai fini
scientifici il concetto di tecnologia dominante può essere meglio rappresentato come un
continuum. Questo significa che una tecnologia può essere più o meno dominante in un settore
(Afuah & Utterback, 1997). Per assicurare risultati confrontabili, il modo in cui viene misurato
il grado di dominio del mercato dovrebbe essere specificato. Anche le aree geografiche e i
settori interessati dall'analisi empirica dovrebbero essere identificati esplicitamente» (Murmann
& Frenken, 2006:944).
157
Gli autori così argomentano su questo punto: «Dato che non possiamo dedurre con certezza
dal nostro modello che le esternalità di rete siano una condizione necessaria per una tecnologia
dominante, a questo punto è utile lasciare aperta la possibilità che anche altri meccanismi
possano giocare un ruolo. Ci attendiamo che tali meccanismi possano acquisire una diversa
importanza relativa, a seconda della natura della tecnologia, della sua interfaccia con gli utenti
e del regime socio-politico» (Murmann & Frenken, 2006:945).
156 Capitolo 3
158
Anche se le considerazioni degli autori si riferiscono al settore IT, esse sono abbastanza
ampie da potersi applicare alla maggior parte delle forme di innovazione presenti anche negli
altri settori, per cui nel seguito esso verrà preso come punto di riferimento per l'innovazione in
generale.
Analisi della letteratura 157
Si noti come una simile questione era già stata considerata in questo capitolo da altri
punti di vista: si è infatti osservato, con (Markus et al., 2006), come la tendenza al
free riding ingeneri un dilemma sociale di partecipazione (sezione
"Standardizzazione come azione collettiva", p. 80). D'altra parte, quando si sono di-
scussi i principi base della network economics, si è accennato ai cosiddetti "effetti
pinguino" come possibile implicazione derivata degli effetti rete, che tendono a sco-
raggiare l'adozione dei primi utenti, incoraggiandola invece nelle fasi più avanzate
della diffusione (sezione 3.2.2 "Farrell e Saloner (1986): Effetti contrastanti sull'in-
novazione", pag. 103).
Lo stesso dilemma appare dunque presente in forme diverse in numerosi filoni di
ricerca: negli studi sull'innovazione emerge dall'indagine sui fattori che ostacolano o
favoriscono la diffusione; in sociologia è esplicitamente affrontato nelle teorie dell'a-
zione collettiva; nella network economics assume rilievo con l'analisi quantitativa del-
le conseguenze delle esternalità di rete e delle relative implicazioni sugli equilibri e-
conomici; nella letteratura sugli standard è infine strettamente collegato ai fattori che
influenzano da un lato la partecipazione al processo di standard making e dall'altro la
formazione della base iniziale di utenti. Conviene qui ricapitolare anche alcune delle
spiegazioni e delle risposte già fornite a questo dilemma.
Nella network economics si evidenzia il ruolo nel mercato degli "sponsor" (sezio-
ne 3.2.2 "Katz e Shapiro (1986): Ruolo degli sponsor", pag. 102), che applicano varie
strategie di sviluppo della massa critica, mirate a internalizzare le future esternalità
attraverso transazioni di mercato. Tali strategie comprendono varie forme di investi-
menti, inclusi quelli mirati all'acquisizione di diritti di proprietà intellettuale (sezione
3.2.2 "Ancora Katz e Shapiro (1994): Effetti rete indiretti, strategie e compatibilità",
pag. 104).
Le teorie dell'azione collettiva prendono in considerazione molteplici fattori, tra i
quali assume un rilievo particolare il grado di eterogeneità dei partecipanti all'azione
collettiva (sezione 3.1.2 "Standardizzazione come azione collettiva", p. 80).
I primi studi sull'innovazione tendevano invece ad evidenziare maggiormente i
"vantaggi di prima mossa" rispetto ai rischi dell'innovazione, evitando di considerare
il dilemma della partecipazione. King e coautori riportano la questione in primo piano
con una nuova spiegazione: per favorire la partecipazione iniziale e ridurre i rischi
dell'innovazione, sono le istituzioni a giocare un ruolo determinante. Qui di seguito è
riportato un elenco delle forme istituzionali che secondo gli autori possono influenza-
re l'innovazione nel settore Information Technology. L'elenco è abbastanza ampio da
potersi applicare anche ad altri settori, anche se non necessariamente esaustivo:
9 Autorità governative
9 Istituzioni internazionali
9 Associazioni professionali, commerciali e di settore
9 Enti di formazione superiore orientati alla ricerca
9 Imprese e gruppi industriali, nazionali e multi-nazionali
9 Istituzioni finanziarie
9 Associazioni sindacali e del lavoro
9 Istituzioni morali e religiose
Il ruolo delle istituzioni deve essere considerato un componente essenziale in qualsiasi teo-
ria dell'innovazione. Il potere istituzionale di influenzare e regolare può essere collegato alle
prospettive teoriche che determinano i due approcci fondamentali all'innovazione come un
fenomeno "spinto dall'offerta" o "attratto dalla domanda" (supply-push vs. demand-pull) nel
tentativo di tenere conto di tutte possibili forme di intervento istituzionale (King et al.,
1994:162).
La figura che segue illustra con degli esempi il quadro di insieme delle forme di in-
tervento istituzionale sull'innovazione, elencando dapprima quelle tese a stimolare
l'offerta di innovazione (supply-push), poi quelle tese a rafforzarne la domanda (de-
mand-pull). In ciascuno dei due elenchi sono state evidenziate per prime le forme di
influenza per azione diretta, per distinguerle dalle forme regolamentari in cui è la
modificazione del quadro normativo a produrre indirettamente gli effetti desiderati
dal lato della domanda o dell'offerta di innovazione.
Analisi della letteratura 159
influenza
– Acquisto di prodotti e servizi innovativi
– Fornitura diretta o indiretta di complementi a prodotti/servizi innovativi
– Eliminazione diretta o indiretta di sostituti
– Programmi per la comunicazione e la promozione
– Norme a supporto della domanda di prodotti/servizi innovativi
regolament.
– Emanazione di standard con requisiti di qualità che richiedono innovazione
– Adozione di standard innovativi
– Norme per l’impiego di prodotti innovativi
159
Le tipologie originariamente individuate dagli autori sono: creazione di conoscenza
(knowledge building), sfruttamento delle conoscenze esistenti (knowledge deployment),
finanziamento e supporto (subsidy), promozione (mobilization), direttiva sull'innovazione
(innovation directive), che si concretizzano negli interventi qui illustrati in Figura 3.15 quando
applicate dal lato della domanda o dell'offerta attraverso l'influenza diretta o la
regolamentazione indiretta. Ponendo in evidenza le fasi e i fattori del processo di produzione
delle innovazioni, potremmo forse più naturalmente distinguere le attività di finanziamento e
supporto, di offerta dei fattori di produzione (e particolarmente la conoscenza), impiego e
condivisione dei fattori di produzione esistenti (e particolarmente la conoscenza), di
comunicazione e persuasione, di intervento sulla domanda di mercato.
160 Capitolo 3
160
Il volume di Powell e DiMaggio (AAVV, 1991); (AAVV, 2000a) costituisce in un certo
senso il "manifesto" del neoistituzionalismo grazie anche alla scelta dei curatori raccogliervi,
accanto ai lavori analitici ed empirici di molti degli esponenti di primo piano del movimento,
anche la ristampa dei suoi più significativi contributi fondativi già apparsi a partire dal 1977. In
apertura i curatori propongono un'analisi concisa ma elevata e profonda delle idee e degli
apporti neoistituzionali nel contesto delle diverse discipline e nella tradizione degli studi
sociologici, che è tuttora una delle più significative disponibili sul tema (DiMaggio & Powell,
1991). Essa troverà in seguito un utile completamento sia in estensione che in profondità nel
saggio monografico pubblicato da Walter R. Scott (Scott, 1995); (Scott, 1998).
Analisi della letteratura 161
Gli elementi regolativi pongono l'enfasi sulla definizione di regole e sanzioni; quelli norma-
tivi contengono una dimensione di valutazione di opportunità e valori a cui conformarsi,
mentre quelli culturali e cognitivi mettono in campo concezioni e schemi interpretativi con-
divisi della realtà. Ciascuno dei pilastri di Scott offre una diversa dimensione di legittima-
zione istituzionale: attraverso la sanzione legale, oppure l'autorizzazione morale, o infine il
supporto culturale (Powell, 2008:2).
parte sull'applicazione di norme comportamentali non scritte di varia natura e con di-
verse logiche di selezione, elaborazione e applicazione. In (Scott, 1995); (Scott,
1998:61-62) si osserva come questa idea mostri affinità con la distinzione operata da
James March nei processi decisionali tra logica della conseguenza (o strumentale) e
logica dell'appropriatezza. Eccola qui di seguito, nelle parole stesse di March:
Nel capitolo primo il processo decisionale è stato rappresentato come risultato di un calcolo
deliberatamente razionale. La razionalità pura e la razionalità limitata condividono una co-
mune prospettiva, quella di considerare le decisioni basate su una valutazione di alternative
nei termini delle loro conseguenze rispetto alle preferenze. Questa logica della conseguenza
può essere contrapposta ad una logica dell'appropriatezza secondo cui le azioni sono fatte
corrispondere a situazioni mediante norme comportamentali organizzate in identità. […] La
conformità alle regole si fonda su una logica dell'appropriatezza. In questo caso si ritiene
che i decisori si pongano (esplicitamente o implicitamente) tre domande.
1. La domanda sul riconoscimento: Che tipo di situazione è questa?
2. La domanda sull'identità: Che tipo di persona sono io? Che tipo di organizzazione è
questa?
3. La domanda sulle regole: Che cosa fa una persona come me, o un'organizzazione come
questa, in una simile situazione?
[…] Il processo decisionale basato sulle regole si svolge in modo diverso da quello raziona-
le. Il ragionamento prevede la costituzione delle identità e stabilisce una corrispondenza tra
norme e situazioni riconosciute» (da (March, 1994), ed. it. Prendere Decisioni, Il Mulino
1998, 67-68. Il brano parla di "regole" con riferimento in particolare alle norme comporta-
mentali non scritte).
Ad esempio, nella scelta di un vestito da indossare, si avrà riguardo per il tipo di si-
tuazione, pensando alle persone presenti, all’ambiente sociale e all’immagine di sé
che si vuole proporre, avendo cura non tanto della razionalità "economica" della scel-
ta, quanto della sua adeguatezza agli aspetti del proprio io che si intende comunicare
in quella particolare occasione. Il modo di porre in luce la propria identità dipende
anche da come ci si aspetta che questa venga recepita dagli altri.
Nel complesso, i meccanismi di legittimazione che spiegano azioni e decisioni in-
dividuali e collettive vanno quindi al di là della semplice definizione di obiettivi, vin-
coli e strumenti tipici della logica strumentale e del pilastro regolativo/razionale. Con
la logica dell'appropriatezza, entrano infatti in gioco gli aspetti relazionali e sociali
che sottostanno alla formazione e alla selezione delle identità e dei ruoli con l'adesio-
ne ad un sistema di norme e valori condivisi (pilastro normativo/morale), secondo
schemi interpretativi e culturali largamente sottintesi e dati per scontati (pilastro co-
163
gnitivo/culturale) . Appare qui plausibile che la legittimazione istituzionale possa
risultare importante non soltanto per l'esistenza e l'affermazione delle organizzazioni
e di altre entità sociali, ma anche per quella delle regole e degli standard. Pertanto, il
grado e le dimensioni di legittimazione istituzionale di uno standard (pragmatica, mo-
rale, cognitiva) potrebbero risultare determinanti per il suo successo e possono essere
163
Accanto alla logica strumentale e a quella dell'appropriatezza, potremmo forse individuare
anche una logica affettiva, che si manifesta quando ad esempio si parteggia
incondizionatamente per i propri o familiari e amici, si fa il tifo per la propria squadra anche se
essa continua a dare risultati deludenti, o si supporta il proprio partito politico anche se fa una
scelta sbagliata. Non è escluso che un meccanismo affettivo simile possa valere in qualche
misura anche per l’adozione di uno standard. Questi aspetti restano però tuttora largamente
inesplorati in questo campo.
Analisi della letteratura 163
oggetto di indagine empirica. Gli studi neoistituzionali più recenti cominciano infatti
ad impiegare metodi e tecniche per l'operazionalizzazione, la raccolta e l'analisi delle
164
evidenze empiriche .
I primi contributi [del neoistituzionalismo] hanno identificato gli effetti istituzionali come
principalmente orientati alla stabilità sociale, concentrando l'attenzione su processi di ripro-
duzione che assumono la funzione di modelli stabili per sequenze di attività poste in essere
in modo routinario (Jepperson, 1991:144-45). L'istituzionalizzazione veniva dunque defini-
ta in termini di processi attraverso i quali questi modelli di azione si stabilizzano dal punto
di vista cognitivo e normativo, fino a venire dati per scontati. In particolare, DiMaggio e
Powell nel 1983 hanno sottolineato processi di riproduzione coercitivi, normativi e mimetici
(DiMaggio & Powell, 1983). I fattori coercitivi tenevano in considerazione le pressioni poli-
tiche e la forza dello stato, che mette in atto forme di supervisione e controllo; i fattori nor-
mativi nascevano dalla forte influenza delle professioni e dal ruolo dei sistemi di istruzione;
le forze mimetiche, infine, erano originate da reazioni abituali e date per scontate a circo-
stanze di incertezza. (In retrospettiva, DiMaggio e Powell hanno omesso le forze cosiddette
"di evangelizzazione", in cui alcuni pionieri istituzionali sperimentano o influenzano l'ado-
zione di pratiche specifiche) (Powell, 2008:2).
164
Questa osservazione è dello stesso Powell: «I ricercatori hanno cominciato a esplorare delle
modalità di misurazione diretta della legittimazione, usando tracce e documenti delle
organizzazioni per catturare le forme di significato associate ai processi organizzativi chiave»
(Powell, 2008:5).
165
Zucker propone, con uno dei primi contributi neoistituzionali, un'analisi accurata e
dell'istituzionalizzazione, prendendo in considerazione l'evoluzione e i molteplici significati
che questo concetto ha assunto nel tempo. In particolare, con questo termine si può indicare
non solo il processo di acquisizione della legittimazione, ma anche una parte dei suoi risultati,
considerando ad esempio il grado di istituzionalizzazione di una norma:
«L'istituzionalizzazione è sia un processo che una variabile che indica una proprietà» (Zucker,
1977:728).
166
La spiegazione neoistituzionale dei processi di formazione della legittimazione, che si basa
sull'isomorfismo e sulle sue determinanti coercitive, normative e mimetiche non è l'unica
possibile. Essa ad esempio non tiene conto di possibili fenomeni diversi dall'isomorfismo che
possono originare le varie forme di legittimazione, come la scelta razionale e l'azione
collettiva. Per un'analisi più estensiva dei processi di istituzionalizzazione cfr. (Scott, 1998),
capitolo 4: "Spiegare le istituzioni".
164 Capitolo 3
Nelle sue formulazione più recenti, questa nozione comprende non soltanto l'idea di
reti organizzative intorno a prodotti o mercati comuni, ma anche quella di comunità
di soggetti organizzativi che si confrontano e competono intorno ad un argomento ri-
tenuto rilevante e controverso, come ad esempio le questioni sociali o ambientali
(Hoffman, 1999). In questo senso si parla anche di "arena di relazioni di potere"
(Brint & Karabel, 1991:355), in cui alcuni attori maggiormente dotati di risorse pos-
sono occupare posizioni di privilegio per influenzare il corso degli eventi. Ciò sembra
poter descrivere bene quanto avviene comunemente in molti processi di standardizza-
zione.
Pertanto, i concetti di campo organizzativo e di legittimazione istituzionale sem-
brano poter contribuire a spiegare come nasce uno standard. L'analisi empirica potrà
dunque utilmente essere impiegata per individuare gli attori principali e le caratteri-
stiche delle interazioni e delle negoziazioni che ne individuano il campo organizzati-
vo, mostrando in che modo le forme di influenza e regolamentazione già illustrate in
Figura 3.15 possano conferire diversi gradi e diverse dimensioni di legittimazione
istituzionale ai processi di standardizzazione in competizione tra loro, contribuendo
in diverso modo a determinarne il successo finale.
Nelle prossime sezioni verranno prese in considerazione alcune indagini empiri-
che recenti che potranno qui servire come punto di riferimento, mettendo in luce con
tecniche di analisi testuali aspetti come il ruolo degli evangelizzatori e dei media
(Rao et al., 2003), i vocabolari istituzionali e le argomentazioni retoriche (Suddaby &
Greenwood, 2005), le fasi del processo di legittimazione e i loro indicatori (Colyvas
167
& Powell, 2006) .
167
Questi tre lavori sono stati selezionati per il loro particolare interesse teorico e
metodologico; Per ulteriori contributi di analisi empirica neoistituzionale si vedano ad esempio
(Hoffman, 1999) e (Mohr & Guerra-Pearson, 2005). Nello studio di Hoffman la nascita dei
movimenti ambientali viene documentata dallo studio delle cause giuridiche ambientaliste e dei
resoconti della stampa specializzata. Nel contributo di Mohr e Guerra-Pearson l'evolvere delle
Analisi della letteratura 165
Il movimento della nouvelle cuisine si originò in opposizione alla cucina classica incarnata
dall'accademismo di Escoffier, con un decalogo costruito sui valori di verità, leggerezza,
semplicità e immaginazione. La cucina classica dava enfasi al potere del ristoratore, lunghi
menù che richiedevano più preparazione e scorte a disposizione che freschezza e improvvi-
sazione, rituali fuori del piatto, preparazioni flambee' ed un lungo processo di consumo. In
contrasto, la nouvelle cuisine enfatizzava l'autonomia dello chef, con menù ridotti che ri-
chiedevano prodotti freschi e poche scorte, servizio al piatto ed un processo di consumo
breve (Rao et al., 2003:797).
In che modo la Nouvelle Cuisine ha messo in discussione i valori della tradizione fino
ad acquisire legittimazione istituzionale? L'indagine degli autori si basa in essenza su
un'idea molto semplice, sviluppata in sintonia con la self-categorization theory e con
la social judgement theory: la persuasione sociale alla base dei processi di deistitu-
zionalizzazione della cucina classica e della istituzionalizzazione della Nouvelle
Cuisine è un processo graduale, che avviene attraverso l'accumulazione di "segnali
identitari discrepanti" (identity-discrepant cues: p. 814) rispetto al sistema istituziona-
le vigente. La social judgement theory prevede che la ampiezza della "zona di accet-
tazione" del nuovo tenda ad aumentare per segnali provenienti da "oratori credibili"
ed anche per l'effetto di "azioni di altri simili" (p. 814). Di conseguenza, gli autori
hanno impostato l'analisi empirica sulle seguenti basi.
Hanno individuato una variabile che misurasse per ciascuna diade chef/ristorante
il grado di accettazione e diffusione del nuovo sistema istituzionale: la presenza rela-
tiva di piatti di Novelle Cuisine tra i tre "piatti firma" pubblicati nella Guida Michelin,
che segnalano in un certo senso i tratti distintivi di ciascuno chef. Questo indicatore
ha evidenziato una progressiva e marcata progressione negli anni del grado di istitu-
zionalizzazione della Novelle Cuisine in Francia.
Per ciascuno degli anni di osservazione hanno individuato quattro tipi di "segnali
identitari discrepanti", misurati nell'anno precedente: il numero di chef colleghi pas-
168 169
sati al nuovo sistema ; i benefici loro derivati in seguito alla defezione ; il numero
forme istituzionali associate alle attività di beneficienza viene caratterizzato attraverso lo studio
delle inserzioni apparse nel corso degli anni sulle "New York City Charity Directories" che
descrivono, per così dire, diversi modi di concepire e comunicare il modello di azione delle
istituzioni stesse.
168
Nel senso che inserivano almeno due piatti di Nouvelle Cuisine tra i tre piatti firma.
166 Capitolo 3
170
di attivisti ad elevata credibilità ; la copertura dei media specializzati teorizzatori del
171
nuovo movimento .
Hanno infine verificato attraverso un modello di regressione logistica multinomia-
le la relazione statistica tra i quattro tipi di segnali e il grado di accettazione e diffu-
sione della Nouvelle Cuisine in Francia.
In sostanza, i risultati dello studio confermano tutte le aspettative: ogni anno l'a-
vanzare del processo di istituzionalizzazione della Nouvelle Cuisine risulta essere in
relazione con il numero di attivisti di elevata reputazione, con il grado di teorizzazio-
ne e diffusione delle nuove idee da parte dei media specializzati, con il numero di e-
sponenti (chef) passati al nuovo sistema nell'anno precedente.
Se dunque dal punto di vista empirico lo studio di Rao, Monin e Durand fornisce
un utile punto di riferimento per la misurazione e l'analisi dei processi di legittima-
zione, dal punto di vista teorico fornisce almeno tre indicazioni rilevanti ai nostri fini.
Primo, conferma l'importanza delle forze di tipo mimetiche (misurate ponendo in re-
lazione il numero di altri chef innovatori con il procedere dell'innovazione istituzio-
nale) e normative/valoriali (indirettamente collegate al ruolo dei media come "teoriz-
zatori" e divulgatori di nuovi valori e alla sua rilevazione empirica in termini di nu-
mero di articoli pubblicati). Secondo, sottolinea il ruolo dei soggetti che svolgono una
funzione di propaganda attiva delle idee e dei valori del nuovo movimento, che Po-
well chiamerebbe oggi di "evangelizzazione", come si è già accennato sopra (Powell,
2008:2). Terzo, attraverso il riferimento esplicito alla self-categorization theory sotto-
linea come i processi di istituzionalizzazione possano essere collegati alla definizione
di nuove identità condivise e legate a nuovi valori che ciascun individuo può decidere
di abbracciare, abbandonando o ridefinendo identità sociali preesistenti. La social ju-
dgement theory contribuisce a spiegare come nel proporre nuovi valori e nuove iden-
tità sociali gli "attivisti" giocano un ruolo considerevole, in cui fattori chiave sono la
loro elevata reputazione, la loro visibilità e l'esposizione dei media ("teorizzazione").
Un discorso analogo, ed una analoga impostazione di analisi empirica, può essere ef-
fettuato ai nostri fini: la nascita di un nuovo standard può essere legata a quella di
nuove identità sociali, che per affermarsi hanno bisogno di evangelizzatori di elevata
reputazione che ne diffondano i valori ad esse collegati, guadagnando la copertura dei
media e innescando quelle forze di tipo normativo/valoriale, mimetico, ed anche co-
ercitivo che spingono verso l'istituzionalizzazione.
169
In termini di ranking (numero di stelle) nella Guida Michelin.
170
Gli autori hanno individuato un attivista di elevata reputazione come uno chef che
presentava nella Guida Michelin tutti e tre i suoi "piatti firma" come piatti di Nouvelle Cuisine,
e che inoltre faceva parte dell'executive committee della Maitres Cuisiniers de France (MCF),
l'associazione degli chef di Francia, in cui la nomina è tradizionalmente riservata agli chef
prestigiosi e influenti che hanno ottenuto il riconoscimento di tre stelle nella guida Michelin.
171
La copertura complessiva è stata rilevata sommando per ogni anno il numero di articoli sulla
Nouvelle Cuisine in Francia pubblicati nei periodici coperti da un primario database
bibliografico (Myriade), standardizzato dividendo il totale annuo degli articoli sulla Nouvelle
Cuisine in ogni periodico presa in esame per il numero di edizioni annue del periodico.
Analisi della letteratura 167
I proponenti usavano parole e testi che valorizzavano i benefici economici di MDP per i
consumatori. Gli oppositori, invece, usavano parole e testi che enfatizzavano il particolare
processo di produzione dei servizi professionali come il mezzo primario per determinare la
legittimazione. Per meglio comprendere queste differenze, è opportuno riferirsi ai significa-
ti sottostanti. Gli oppositori avevano sviluppato un vocabolario basato su una legittimazione
normativa e morale che faceva appello ai "miti" culturali di identità professionale come ad
un "richiamo di ordine superiore". Il riferimento ai "valori centrali" era un tentativo di raf-
forzare la separazione costruita con cura tra le professioni e le attività commerciali aperte a
tutti. In contrasto, i proponenti del modello MDP impiegavano la logica del mercato per sot-
tolineare la loro identità di ruolo come quella di un professional, che è essenzialmente fon-
data sulle conoscenze tecniche. Il loro linguaggio rifiutava le nozioni idealistiche di profes-
sionalità al servizio di scopi sociali di ordine superiore. I testi di riferimento dei proponenti
sottolineavano gli elementi economici e di mercato della professionalità e rifiutavano espli-
citamente le nozioni romantiche o idealizzate dei valori professionali come tentativi storici
di giustificare la protezione monopolistica di interessi di parte. In altre parole, dai vocabola-
ri istituzionali è possibile distinguere l'impostazione strutturale di due logiche istituzionali,
che implicano diverse identità di ruolo professionale e diverse forme organizzative
(Suddaby & Greenwood, 2005:48-49).
I diversi vocabolari istituzionali sono insomma uno dei mezzi di espressione di valori
e convinzioni che caratterizzano due diverse identità e ruoli sociali, in sintonia con
quanto rilevato nell'analisi empirica precedente nel campo della gastronomia france-
se. Accanto ai due diversi vocabolari istituzionali, gli autori hanno individuato diver-
se logiche di argomentazione. In particolare, le prerogative esclusive degli avvocati
venivano difese con le stesse strategie di argomentazione teorica che i teologi impie-
gano tradizionalmente per la dimostrazione dell'esistenza di Dio: la necessità logica
derivante dall'essenza stessa dell'oggetto (argomento ontologico); la necessità cosmo-
logica derivante dall'ordine dell'universo (argomento cosmologico); la necessità col-
legata all'esistenza di un fine ultimo superiore (argomento teleologico). Esse inoltre
prendevano in considerazione ulteriori argomenti di tipo storico e valoria-
173
le/normativo .
L'analisi testuale che ha fatto emergere i vocabolari istituzionali e le logiche di ar-
gomentazione si è sviluppata in due fasi. In primo luogo si è proceduto a selezionare
il contenuto nei documenti in esame. In questa fase sono stati individuati gli attori
principali nel dibattito, focalizzando i brani di testo in cui le loro logiche di argomen-
tazione erano più evidenti. Tra i proponenti c'erano le "Big Five" società di consulen-
za e le associazioni di consumatori; tra gli oppositori la SEC statunitense e le associa-
zioni professionali di avvocati.
Sono stati selezionati 547 segmenti di dati di dimensioni variabili da poche parole
a qualche riga di testo, che sono stati etichettati assegnando a ciascun attore e a cia-
173
Nel complesso, queste strategie argomentative sembrano mostrare affinità con le dimensioni
della legittimazione cognitiva/culturale (argomenti ontologico, storico); normativa/morale
(argomento valoriale/normativo); regolativa/razionale (argomenti teleologico, cosmologico).
Analisi della letteratura 169
scun segmento testuale un attributo sulla loro posizione nel dibattito ( pro, contro o
non definito) e una riga di descrizione sul razionale della scelta. In questa prima fase
sono emerse parole ed espressioni ricorrenti che hanno permesso di distinguere i due
vocabolari istituzionali.
In una seconda fase è stata effettuata una ulteriore codifica dei brani, dapprima se-
condo le categorie della retorica classica, che hanno evidenziato un prevalere della
categoria "Kairos" (sensibilità al tempo) che pone l'enfasi sul cambiamento, in ben
470 brani, quasi l'86% del totale. Questi brani sono stati dunque nuovamente codifi-
cati nel tentativo di individuare distinte logiche di argomentazione del cambiamento,
giungendo infine alla distinzione delle cinque modalità di argomentazione già trat-
teggiate in precedenza: ontologica, cosmologica, teleologica, storica, normati-
va/valoriale.
Simili forme di analisi testuale dettagliata possono dunque essere utilmente im-
piegate anche per evidenziare vocabolari e logiche di argomentazione nell'analisi dei
processi di standardizzazione.
174
Il campione documentale consiste in 218 licenze di trasferimento tecnologico concesse
all'esterno dagli affiliati a un dipartimento di scienze biologiche dell'Università di Stanford nel
periodo tra il 1970 e il 2000. L'ufficio organizza e archivia i documenti in pratiche con la storia
completa di ciascun procedimento. Per ulteriori dettagli, vedi (Colyvas & Powell, 2006).
170 Capitolo 3
Tabella 3.5 Fasi principali e tracce documentali del processo di istituzionalizzazione delle
pratiche di trasferimento tecnologico dell'Office of Technology Licensing del-
l'Università di Stanford. Fonte: (Colyvas & Powell, 2006), Table 1.
Tabella 3.6 Indicatori e livelli di legittimità normativa. Fonte: (Colyvas & Powell, 2006), a-
dattamento dalla Figure 1.
Tabella 3.7 Indicatori e livelli di legittimità cognitiva. Fonte: (Colyvas & Powell, 2006), adat-
tamento dalla Figure 1.
Questi indicatori sono chiaramente riconoscibili nei brani riportati dagli autori di let-
tere e documenti rappresentativi dello scambio di corrispondenza in ciascuna delle
tre fasi del trasferimento tecnologico, dimostrando come l'analisi testuale dei proces-
172 Capitolo 3
Nel complesso, i tre studi empirici qui passati in rassegna mostrano come sia possibi-
le raccogliere concrete evidenze dai documenti e dalle "tracce" dei dibattiti e delle
negoziazioni che accompagnano l'avanzare dei fenomeni di formazione della legitti-
mità. In base al tipo di documenti e di evidenze disponibili, è possibile effettuare ana-
lisi basate su rilevazioni diverse: ricordiamo le interviste agli esponenti di rilievo, l'a-
nalisi dei ranking di settore e il conteggio degli articoli apparsi sui media, impiegati
dallo studio sulla diffusione della Nouvelle Cuisine (Rao et al., 2003); l'analisi detta-
gliata di brani tratti da un campione documentale illustrativo, impiegata nello studio
sulla istituzionalizzazione delle pratiche di trasferimento tecnologico all'Università di
Stanford (Colyvas & Powell, 2006); l'analisi testuale di ampi repertori documentali,
basata su metodi ispirati alla Grounded Theory che prevedono l'"etichettatura" dei
brani, la loro categorizzazione e lo studio delle relazioni logiche tra le categorie te-
stuali (Suddaby & Greenwood, 2005).
Come abbiamo visto, questo tipo di rilevazioni empiriche possono consentire di:
176
9 individuare gli attori rilevanti nel campo organizzativo , e le funzioni da
essi svolte con particolare riferimento alle figure o istituzioni più influen-
ti;
9 individuare le fasi del processo di legittimazione e fornire indicatori su
come le varie forme di legittimazione (pragmatica, normativa, cogniti-
177
va) procedano nelle varie fase del processo;
9 evidenziare empiricamente il contributo di forze mimetiche, normative,
cognitive e di evangelizzazione, anche in relazione ai diversi attori coin-
volti e alle diverse forme di legittimità che esse contribuiscono a determi-
nare;
9 porre in luce i diversi vocabolari istituzionali e le diverse logiche di ar-
gomentazione retorica impiegate.
175
Gli autori usano il termine legitimacy ad indicare la legittimazione normativo/morale e
quello di taken-for-grantedness ad indicare la legittimazione cognitivo/culturale. Essi rilevano
inoltre che il procedere di pari passo di legitimacy e taken-for-grantedness nelle tre fasi del
processo di istituzionalizzazione osservato nel caso in esame potrebbe non verificarsi in
situazioni diverse.
176
Ad esempio in (Rao et al., 2003) il campo organizzativo è quello della gastronomia francese
e gli attori principali sono gli chef, i ristoratori, i critici, i media del settore e la clientela.
177
Ad esempio in (Colyvas & Powell, 2006) vengono presi in esame, come abbiamo visto, il
procedere della legittimazione normativa/morale e cognitiva/culturale; è possibile considerare
esplicitamente anche l'avanzare di forme di legittimazione pragmatica/regolativa/razionale.
Analisi della letteratura 173
Nel 1959 la bio-ecologa Evelyn Hutchinson formulò una semplice domanda che die-
de l'avvio ad un importante serie di studi e ricerche nel suo campo: perché ci sono co-
sì tanti tipi di animali?. Diciotto anni dopo, una simile domanda ha ispirato il famoso
articolo di Michael Hannan e John Freeman sull'ecologia delle popolazioni organiz-
zative (Hannan & Freeman, 1977): perché ci sono così tanti tipi di organizzazioni?
Questa linea di investigazione si è presto rivelata una delle più fertili e vivaci del
pensiero organizzativo. Recentemente Hannan si è fermato a riflettere in retrospettiva
sull'impostazione e sugli apporti dell'approccio ecologista (Hannan, 2005). Hannan da
un lato prende in esame le caratteristiche distintive dell'approccio ecologista: il punto
di vista (ricerca delle cause della varietà organizzativa), l'unità di analisi (popolazioni
organizzative), i metodi di indagine (analisi empiriche dettagliate della selezione de-
mografica di forme organizzative); dall'altro lato, il fondatore degli studi organizzati-
vi ecologisti illustra e discute i principali risultati ottenuti in quasi trent'anni di ricer-
che, che hanno offerto nuove intuizioni e caratterizzazioni sulla varietà, sul cambia-
mento, sull'invecchiamento, sulle nicchie ambientali e sull'identità organizzativa delle
popolazioni organizzative.
Caratteristiche distintive
Il punto di vista dell'investigazione ecologista è per alcuni versi opposto a quello
dei neoistituzionalisti, che si chiedono invece che cosa rende simili le organizzazioni:
I sociologi neoistituzionalisti generalmente mettono in dubbio che vi sia una notevole varie-
tà nelle aggregazioni sociali contemporanee. Essi evidenziano l'esistenza di forti spinte a
conformarsi alle convenzioni vigenti nella progettazione delle organizzazioni. […] In un
saggio influente, Di Maggio e Powell si spingono ad argomentare che la questione rilevante
per la sociologia non è chiedersi perché esistono più tipi diversi di organizzazioni, ma «per-
ché c'è una così sorprendente omogeneità di forme e pratiche organizzative» (DiMaggio &
Powell, 1983:148). Se queste affermazioni sono corrette, allora la strategia di ricerca dell'e-
cologia organizzativa è senza futuro (Hannan, 2005:54-55).
In effetti entrambi i punti di vista, quello neoistituzionale che indaga sui fenomeni di
omologazione e quello ecologista che è interessato invece all'origine della varietà,
hanno prodotto significativi apporti alla conoscenza dei fenomeni organizzativi com-
plessi, e stanno inoltre sempre più convergendo verso posizioni condivise o almeno
178
complementari . Pertanto, al di là della rassegna delle pur legittime posizioni di con-
trasto nel dibattito accademico, l'indagine su come nasce uno standard può forse tro-
vare utili strumenti nell'approccio dell'ecologia organizzativa, i cui tratti essenziali
sono qui descritti dallo stesso Hannan:
178
Vedi nota 181.
174 Capitolo 3
stima gli effetti delle caratteristiche di organizzazione, popolazione e ambiente sui fenomeni
che danno luogo a ingresso e uscita (Hannan, 2005:52)
179
Con un livello di analisi sostanzialmente simile a quello neoistituzionale , l'interesse
si accentra per gli ecologisti sullo studio demografico delle popolazioni organizzati-
ve. Le popolazioni organizzative sono state oggetto fin dalle origini di studi empirici
molto dettagliati, che ne prendono in esame innanzi tutto, per così dire, i flussi demo-
180
grafici, a partire dalle diverse tipologie di nascita e morte organizzativa .
L'attenzione alla demografia organizzativa ha evidenziato chiaramente un feno-
meno per alcuni versi sorprendente: le organizzazioni che hanno successo e si impon-
gono all'attenzione generale sono spesso solo una parte infinitesima di un universo
popoloso e dinamico, con continue e numerose nascite e morti di imprese anche mol-
to piccole:
Raccogliere informazioni su intere popolazioni di solito rivela l'esistenza di molte più orga-
nizzazioni di quante il ricercatore si aspetti. In aggiunta, ricerche attente di archivio spesso
portano alla luce informazioni su centinaia di organizzazioni che sono assenti anche dalle
statistiche ufficiali ritenute più esaustive. Per esempio uno studio del settore automobilistico
nel primo secolo del suo sviluppo, 1885-1985, ha identificato 2.197 imprese che hanno pro-
dotto una o più automobili per le vendita e 3.845 ulteriori imprese che hanno comunque ten-
tato di fare ingresso nel settore (sono state fondate e registrate come produttori di automobili
o hanno annunciato l'intenzione di produrre e vendere automobili) ma non sono poi riuscite
a vendere alcuna automobile ((Carroll & Hannan, 2000), capitolo 15).
Il settore telefonico americano ha visto più di 30.000 imprese tra la sua nascita nel 1887 e
l'inizio della regolamentazione della Federal Communications Commissions nel 1933
(Barnett, 1995). Il settore della produzione di birra in America ha visto l'apparizione di
7.709 imprese nel periodo 1633–1988 (Carroll & Swaminathan, 1991). E' comune incontra-
re la reazione che questi conteggi includono prevalentemente organizzazioni "marginali"
che possono tranquillamente essere ignorate perché contribuiscono complessivamente in
modo insignificante al prodotto o all'occupazione di un settore. Comunque, la maggior parte
delle organizzazioni oggi dominanti hanno cominciato come imprese marginali—pensiamo
a Anheuser Busch, Cisco Systems, Honda, Microsoft, Sony e Wal-Mart. Se si presta atten-
zione solo a quelle organizzazioni che sono state in grado di muoversi dai margini al centro,
insorgono gravi problemi di selezione campionaria nello spiegare come specifiche caratteri-
stiche delle organizzazioni influenzano il successo o il fallimento. Un tale orientamento non
tiene conto della maggiore fonte di varietà organizzativa: la creazione di nuove organizza-
zioni ai "margini" (Hannan, 2005:52-53).
179
Vengono infatti presi in esame interi gruppi di organizzazioni in relazione tra loro, anche se
la definizione e la natura del campo organizzativo (neoistituzionale) non coincide
necessariamente con quella della popolazione organizzativa (ecologista). Hannan stesso
afferma che la definizione specifica di forme e limiti delle popolazioni organizzative ha risvolti
importanti e controversi, specie per l'analisi empirica: in (Hannan, 2005:52-53) ne affronta
alcuni aspetti, ponendo a confronto il punto di vista degli ecologisti con quello degli
economisti.
180
Al contrario, come abbiamo visto nella sezione precedente dedicata alle teorie istituzionali,
solo negli ultimi anni i neoistituzionalisti hanno dato il via ad un significativo sviluppo di
indagini empiriche basate sulla raccolta e l'analisi sistematica di evidenze misurabili.
Analisi della letteratura 175
Varietà
La varietà è spesso più presente nelle popolazioni di quanto ci aspetteremmo. Se
infatti appare logico che popolazioni molto ampie e generiche (per esempio, tutte le
società di capitali o tutte le organizzazioni nonprofit) presentino una elevata varietà di
forme organizzative, sembrerebbe altrettanto naturale che popolazioni più specifiche
e ristrette ad attività, prodotti e clientele ben definite possano risultare molto più o-
mogenee. Uno recente studio ecologista, lo Stanford Project on Emerging Companies
(Baron et al., 1999), ha mostrato il contrario con un'analisi approfondita di un cam-
183
pione di circa 150 nuove imprese high-tech in Silicon Valley . Le organizzazioni di
181
A questo proposito Hannan rileva: «Gli economisti potrebbere naturalmente assumere che
studiare la dinamica delle popolazioni organizzative significhi concentrarsi sulle dinamiche
competitive dei mercati di prodotti. Sebben la competizione tra popolazioni e al loro interno
riceva una considerevole attenzione nella loro ricerca, gli ecologisti organizzativi non
assumono che la selezione favorisca sistematicamente le organizzazioni economicamente più
efficienti. Essi assumono che la selezione opera su dimensioni multiple, che includono fattori
culturali e politici e che sono caratterizzate da una forte dipendenza dal percorso (Carroll &
Harrison, 1994). Anche i sociologi prestano notevole attenzione alle interazioni all'interno e
all'esterno delle popolazioni organizzative che—al contrario della competizione—aumentano le
probabilità di sopravvivenza delle organizzazioni. Molta ricerca si concentra sulla
legittimazione. Questo termine, che è molto impiegato in sociologia, si riferisce a due processi
distinti. La legittimazione sociopolitica ha il significato dell'acquisire il sostegno delle autorità:
per esempio, ricevere approvazione ufficiale, acquisire forniture, riconoscimento legale, e così
via. La legittimazione costitutiva si riferisce al processo più sottile di guadagnare la posizione
di un elemento dato per scontato in una struttura sociale (Meyer & Rowan, 1977). La ricerca
ecologista sulle organizzazioni si è interessata alla legittimazione costitutiva, perché questa
scelta permette la formulazione di modelli generali che mettono in relazione la struttura delle
popolazioni con la legittimazione. Le nuove forme organizzative di solito mancano di
legittimazione costitutiva; la legittimazione si sviluppa con il trascorrere degli anni, con la
crescita numerica e con la nascita di movimenti sociali. Una delle più significative linee di
indagine, la teoria della legittimazione e della competizione dipendente dalla densità (Hannan
& Carroll, 1992), esplora queste questioni» (Hannan, 2005:53-54).
182
Tali apporti comprendono almeno un altro fondamentale filone di ricerca ecologista: gli
studi sugli effetti della mortalità organizzativa di vari fattori anagrafici, tra cui l'età delle
organizzazioni, le loro dimensioni e la loro numerosità (densità). Un utile punto di riferimento
per una panoramica selettiva è la tabella 1 di (Hannan, 2005), che elenca alcuni degli studi
ecologisti più significativi, indicando le popolazioni oggetto di analisi e i principali risultati
ottenuti.
183
Si volevano prendere in esame imprese giovani ma non troppo piccole, dato che al di sotto di
una dimensione minima si tende a fare a meno della maggior parte dei sistemi di
organizzazione formale. Per questo sono state selezionate imprese con oltre 10 dipendenti
fondate nei 10 anni precedenti, in base alla data di costituzione. Il campione considerato
176 Capitolo 3
Le differenze tra blueprint identificate in questo studio sono sottili, perché hanno a che ve-
dere con le premesse dell'azione piuttosto che con scelte facilmente osservabili. Esse non
verrebbero certo rilevate negli studi convenzionali delle popolazioni e dei settori in sociolo-
gia o in economia, che tenderebbero a considerare le imprese high-tech in una stessa regione
e periodo di tempo come un gruppo omogeneo da mettere a confronto con un altri gruppi.
Riconoscere che queste popolazioni potrebbero effettivamente essere caratterizzate da un
considerevole ammontare di varietà rilevante ha portato a una riconsiderazione delle strate-
gie standard di progettazione delle ricerche (Hannan, 2005:58-59).
Non solo gli ecologisti evidenziano in forme sempre più sottili la varietà di forme e
blueprint, ma anche le forti resistenze inerziali delle organizzazioni all'omologazione
verso modelli organizzativi comuni.
Inerzia e cambiamento
Uno degli assunti centrali degli studi ecologisti è infatti proprio quello dell'inerzia
strutturale, che si contrappone a quello della convergenza istituzionale:
rappresenta una porzione di circa 1/6 dell'universo, selezionata con tecniche di campionamento
stratificato (Baron et al., 1999).
184
Ciò è emerso in particolare dalle risposte fornite dai fondatori e dai manager a domande
aperte sui modelli organizzativi adottati, sulle relazioni con i dipendenti e sulla loro visione
organizzativa. Le risposte divergevano in particolare riguardo ai meccanismi di coordinamento
e controllo e alla gestione del personale, con particolare enfasi sui sistemi usati per l'attrazione,
la motivazione e la ritenzione dei collaboratori. Sono stati individuati cinque diversi "DNA"
(blueprint) organizzativi: ingegneristico (31%), della motivazione personale (14%), a stella
(9%), burocratico (7%), autocratico (7%) (Baron et al., 1999).
Analisi della letteratura 177
Questa osservazione degli ecologisti si apre ad una importante domanda: che cosa
ferma l'espansione e la concentrazione di poche grandi imprese generaliste, evitando
che il mercato venga completamente monopolizzato e favorendo invece il proliferare
ai margini di una moltitudine di piccole imprese specialiste? Si tratta di una domanda
186
importante e impegnativa . Secondo Hannan «Molti fattori limitano presumibilmente
185
Hannan ricorda come il concetto di identità organizzativa per gli ecologisti si sia evoluto nel
tempo: inizialmente essa veniva collegata a determinate caratteristiche come ad esempio la
mission, la forma di autorità, la tecnologia, e la strategia di mercato dell'organizzazione
(Hannan & Freeman, 1984). In seguito si è affermata l'idea che l'identità organizzativa venga
conferita dai soggetti con cui l'organizzazione interagisce, in base alle loro aspettative. Hannan
interpreta in senso identitario anche le blueprint organizzative rilevate nello Stanford Project
on Emerging Companies già menzionato: il cambiamento delle blueprint tende infatti a
destabilizzare l'organizzazione aumentandone sostanzialmente la mortalità, e ciò potrebbe
essere dovuto al fatto che esso altera l'identità organizzativa (Hannan, 2005:60-61).
186
Vale la pena di ricordare che questa stessa questione è al centro di uno degli studi più noti di
Ronald Coase, che risale al 1937 ed è oggi un punto di riferimento centrale per la teoria dei
costi di transazione (vedi nota n. 41) e la teoria dell'impresa. In "The Nature of the Firm",
Coase, dopo essersi chiesto perché esistono le organizzazioni, si domanda: «Perché, se
attraverso l'organizzare si possono eliminare determinati costi e si giunge effettivamente a
ridurre il costo della produzione, le transazioni di mercato non vengono eliminate del tutto?
Perché non esiste una sola grande impresa per tutta la produzione?» (Coase, 1937:394).
Nell'impossibilità di riportare qui la magistrale ed elegante argomentazione originale di Coase,
a cui si rinvia il lettore, si annoterà soltanto come il crescere delle dimensioni dell'impresa
comporti tipicamente una maggiore distanza/sparsità, varietà e inerzia delle attività di
produzione. Il mercato costituisce una buona alternativa ad una produzione unificata perché
permette di decomporre il sistema di attività in tante unità locali pressoché indipendenti,
ciascuna con un grado più ridotto di sparsità spaziale e di varietà interna. L'inerzia viene ridotta
non soltanto dalla maggiore facilità di cambiamento locale (dovuta alle dimensioni più ridotte
dei sottosistemi), ma anche dalla possibilità di sostituire e scambiare le unità locali (imprese)
nel sistema complessivo. Per dimensioni complessive elevate, un sistema composto di tante
piccole organizzazioni autonome coordinate con un meccanismo di prezzi (mercato) è dunque
preferibile ad uno di produzione accentrata e unificata, coordinato attraverso meccanismi
gerarchici (organizzazione). Questa osservazione appare oggi in sintonia con i principi base
delle teorie su complessità e modularità, qui discussi nella sezione 3.3.1. A proposito
dell'effetto distanza, Coase vede ben oltre il prossimo futuro, quando annota «Invenzioni che
178 Capitolo 3
I grandi produttori industriali non sono ancora riusciti a imporsi anche come produttori au-
tentici di birra artigianale. Le ragioni non hanno nulla a che fare con le capacità: esse riflet-
tono l'identità. La comunità delle microbirrerie ha avuto successo nel proporre una sua iden-
tità opposta e distinta: secondo la cultura dominante, un'impresa che produce birra industria-
le non può anche assumere l'identità di un piccolo artigiano. Il risultato è che il settore della
birra ne risulta partizionato in senso identitario. Finché prevalgono le convinzioni sottostanti
questa identità alternativa, la nicchia specialistica resta al sicuro dall'invasione da parte di
chi domina il resto del mercato (Hannan, 2005:66).
La varietà delle identità finisce dunque per alimentare ulteriormente la varietà delle
forme organizzative, che conferma il suo ruolo centrale nell'interesse degli studi eco-
logisti.
In definitiva, per riprendere nel suo insieme quanto qui tratteggiato finora, le for-
me organizzative che osserviamo sul campo sono, in modo molto più accentuato di
quanto non si ritenga comunemente, il risultato di un processo demografico che, spe-
cie nelle fasi iniziali del ciclo di vita di un prodotto/mercato, procede in modo tumul-
tuoso con numerose nascite e morti. La morte e la sostituzione di un'impresa da parte
Alcuni degli studi presi in esame fino ad ora in questo capitolo, come quelli della
network economics e quelli sulle tecnologie dominanti, sono stati direttamente conce-
piti per spiegare i processi di diffusione degli standard e/o delle innovazioni tecnolo-
giche. Altri studi, come quelli istituzionali sulla legittimazione, sono invece nati per
spiegare la nascita e la diffusione di forme organizzative e sociali, ma sono stati in
seguito applicati anche alle innovazioni tecnologiche, come suggerito nella prima
parte della sezione 3.3.2. Anche le idee ecologiste sono state di recente prese in con-
siderazione per l'analisi dei processi di standardizzazione, come abbiamo notato nel
commento a (Nickerson & Zur Muehlen, 2006) nella sezione 3.1.2. E' però opportuno
chiedersi esplicitamente in che misura concetti utili per spiegare la nascita e l'evolu-
zione delle organizzazioni, come quelli neoistituzionali ed ecologisti, possono appli-
carsi ai processi di standardizzazione. Fino a che punto si può procedere per analo-
gia?
Si eviterà in questa sede una completa analisi comparativa di tutti i caratteri cha
accomunano e differenziano i concetti di "organizzazione" e "standard", che sono en-
trambi molto ampi e complessi. Uno standard, come si è visto nel capitolo 1, è in es-
senza una regola formale ad applicazione volontaria: esso trova impiego, secondo
quanto già discusso nel capitolo 2, come strumento di coordinamento e comunicazio-
ne a tutti i livelli: tra individui, tra gruppi, organizzazioni e nella società. In quanto
regola e meccanismo di coordinamento, lo standard è uno degli aspetti centrali del-
l'organizzare, per cui ci si può aspettare che molti dei fenomeni e dei concetti che
spiegano la nascita e l'evoluzione delle organizzazioni possano essere applicabili per
analogia anche agli standard. Si procederà dunque in questo senso, applicando per
analogia ai processi di standardizzazione vari concetti e teorie dell'organizzare. Lad-
180 Capitolo 3
188
l'ambiente : essi sono tra gli standard più rilevanti e diffusi nel mondo (ISO, 2008),
eppure il loro straordinario successo, lungi dall'affermare un vero e proprio modello
manageriale unico, tende piuttosto ad aumentare la varietà di pratiche manageriali e
ha anzi stimolato la nascita nuovi standard "locali", per adattarsi ai diversi settori e
189
alle diverse tipologie di attività . Per chiarire in che senso la nascita di uno standard
può essere considerata un fenomeno di riduzione piuttosto che di aumento della varie-
tà, è opportuno analizzare la relazione tra il concetto di legittimazione, che secondo
gli istituzionalisti riduce la varietà e spinge all'isomorfismo (vedi sezione 3.3.2), e
quello di identità, che i più recenti apporti ecologisti impiegano per spiegare la varie-
tà e il polimorfismo (vedi sezione precedente, 3.3.3). Secondo uno studio recente, «la
formazione dell'identità attraverso l'unicità e la costruzione di legittimazione attraver-
190
so l'uniformità sono due facce della stessa moneta» (Pedersen & Dobbin, 2006:897) .
In sostanza i due processi di convergenza verso l'uniformità e di divergenza verso la
varietà avvengono simultaneamente ma a livelli diversi: le organizzazioni convergo-
no verso forme comuni a livello di campo organizzativo, spinte dalla ricerca della le-
gittimazione; esse però divergono verso forme distinte a livello della singola organiz-
zazione, spinte dalla necessità di affermare ciascuna una propria identità organizzati-
va. Il risultato complessivo è che le forme organizzative hanno tratti comuni, condivi-
si a livello di campo (o di popolazione) e tratti distinti, condivisi a livello di singola
organizzazione. I processi di convergenza verso la costruzione di tratti comuni (iso-
morfismo) e quelli di divergenza verso la costruzione di tratti distinti (polimorfismo)
avvengono dunque a livelli diversi, ma non sono del tutto separati; ad esempio alcuni
tratti dell'identità organizzativa possono essere importati da quelli del campo, mentre
altri possono essere costruiti in contrapposizione ad essi. Pedersen e Dobbin osserva-
no come isomorfismo di campo e polimorfismo organizzativo si influenzano recipro-
camente attraverso l'imitazione, la contrapposizione (immunization), l'ibridazione
(cioè la adozione parziale e la ricombinazione dei tratti originari) e la trasmutazione
188
Gli standard ISO 9000 e ISO 14000 (ISO, 2008) sono stati già ricordati nella sezione 2.1.3,
pag. 46, a proposito della standardizzazione dei processi come meccanismo di coordinamento.
189
Esistono oggi adattamenti e specializzazioni degli standard manageriali ISO per i settori
alimentazione (ISO 22000:2005); sicurezza dell'informazione (ISO/IEC 27001:2005);
sicurezza della catena di fornitura (ISO 28000:2007); automobilistico (ISO/TS 16949:2002);
petrolifero (ISO 29001:2003); della produzione di apparecchiature medicali (ISO 13485:2003);
dell'istruzione (IWA 2:2007); della sanità (IWA 1:2005); dell'amministrazione locale (IWA
4:2005); cfr. (ISO, 2008). Appare utile rilevare che la varietà negli standard manageriali si
manifesta anche attraverso il tempo. Ad esempio, ISO 9000 ha avuto le seguenti versioni: ISO
8402:1986; ISO 8402:1994; ISO 9000:2000; ISO 9000:2005; con il trascorrere degli anni si
sono introdotte innovazioni sostanziali nelle nuove formulazioni, che hanno soppiantato le
vecchie e che possiamo considerare ai nostri fini come veri e propri nuovi standard, secondo
quanto discusso a proposito della stabilità nel tempo nel capitolo 1, sezione 1.2.3.
190
Lo studio di Pedersen e Dobbin mette a confronto la prospettiva neoistituzionale
(legittimazione e isomorfismo), a quella tipica degli studi sulla cultura organizzativa (identità e
polimorfismo) (Pedersen & Dobbin, 2006). Sembra qui di poter applicare questa stessa linea di
ragionamento (senza modificarne i contenuti essenziali) anche agli studi recenti su identità e
varietà/polimorfismo degli ecologisti evidenziati nella sezione precedente, come (Hannan,
2005).
182 Capitolo 3
Legittimazione
campo
organizzativo
Isomorfismo
Imitazione
Contrapposizione
Ibridazione
Trasmutazione
Polimorfismo Polimorfismo
organizzazione organizzazione
Identità Identità
I punti di vista apparentemente contrastanti degli studiosi che indagano sulla conver-
genza verso la legittimazione, piuttosto che sulla divergenza identitaria, appaiono
dunque riferirsi ad un unico fenomeno complesso, in cui entrambi questi opposti pro-
cessi di convergenza e divergenza possono essere presenti, manifestandosi a diversi
livelli e interagendo continuamente tra di loro.
Appare peraltro naturale pensare che l'interazione tra identità e legittimazione, tra
diversità e varietà possa avvenire anche a livello del singolo individuo, che afferma la
propria unicità ma nello stesso tempo condivide con altri individui in gruppi e orga-
nizzazioni alcuni tratti peculiari, spesso distinti, che contribuiscono a formare un'i-
dentità complessa (Roccas & Brewer, 2002): una persona può infatti essere nello
stesso tempo un meccanico della Ferrari, un membro del circolo degli scacchi, un at-
tivista di partito, un emiliano amante delle proprie tradizioni regionali e un europeista
Analisi della letteratura 183
convinto, mediando aspetti della propria individualità complessa da tutte queste iden-
tità collettive. Peraltro, studi specifici hanno già mostrato come la costruzione dell'i-
dentità individuale sia profondamente collegata alle scelte di appartenenza collettiva
e sociale (Brewer & Gardner, 1996), e come una teoria generale del sé possa tenere
conto non solo del livello individuale ma anche di quelli collettivi (Stets & Burke,
2000).
Dunque è possibile immaginare come la tensione tra uniformità e varietà possa
manifestarsi non solo a livello organizzativo e di campo organizzativo, ma su molti
livelli diversi: identità e legittimazione possono esistere a livello individuale, di grup-
po, organizzativo, sociale: i processi sembrano interagire tra i diversi livelli secondo
dinamiche simili a quelle evidenziate in Figura 3.16, spingendo verso l'uniformità
nelle interazioni verso l'alto e verso la molteplicità nelle interazioni verso il basso. Ad
esempio, convinzioni e valori comuni tra partiti diversi possono contribuire ad un li-
vello più alto alla definizione di uno schieramento comune con una identità e una le-
gittimazione collettiva condivisa, con processi di isomorfismo (convergenza verso
l'alto); dall'altra parte, nell'ambito di ciascun partito potranno formarsi ad un livello
più basso sottogruppi locali con identità distinte, con un processo che genera polimor-
fismo e varietà, moltiplicando le diverse identità locali (divergenza verso il basso).
Analogamente, appare naturale pensare che i fenomeni di standardizzazione pos-
sano agire a diversi livelli, con gruppi di riferimento di dimensioni diverse. Uno stan-
dard di base internazionale e globale potrebbe essere accompagnato e completato da
più standard diversi che lo integrano e adattano alle specificità locali, agendo a livelli
inferiori: ad esempio in Italia vi è un unico standard per il voltaggio e la frequenza
della corrente elettrica (220 Volts, 50 Hz), che è anche largamente condiviso in molte
parti di Europa e del mondo; nello stesso tempo, però, convivono in Italia diversi tipi
di prese e spine standard che si adattano alle caratteristiche di classi diverse di appa-
191
recchi utilizzatori . In effetti il sistema infrastrutturale complessivo per la distribu-
zione domestica dell'energia elettrica è costituito da diversi tipi di standard, che com-
prendono quelli menzionati ed altri, che sono in relazione tra loro e che hanno un di-
verso livello di "località".
Un altro importante sistema infrastrutturale in cui esistono molti livelli diversi di
standard interconnessi tra loro, con diversi gradi di generalità/località ed estensione è
192
quello della comunicazione tra computer effettuata attraverso Internet . I processi di
comunicazione tra computer interconnessi attraverso un'infrastruttura di comunica-
zione (internetworking) sono influenzati da un numero enorme di variabili, che ri-
guardano ad esempio i diversi tipi di computer, di programmi applicativi, di regole di
codifica dei dati, i dispositivi di comunicazione, i canali impiegati, le modalità di
scambio delle informazioni, quelle di indirizzamento e gestione delle trasmissioni e
191
Ad esempio, tipicamente una spina italiana standard per una lavatrice o un forno è più
robusta e ha una maggiore capacità (16 Ampere) di quella per una lampada da tavolo (10
Ampere).
192
Internet è un'infrastruttura molto complessa con molti livelli gerarchici e decine di standard
che interagiscono tra loro. Una buona introduzione godibile e non tecnica, con una particolare
attenzione agli aspetti organizzativi, istituzionali e di governance è in (Zuckerman &
McLaughlin, 2003).
184 Capitolo 3
standard locali, che si rivolgono a specifici usi e ad un numero più ristretto di utenti,
come ad esempio una specifica tecnica del sistema di posta elettronica di un partico-
lare telefono cellulare. Appare evidente che la nascita di uno standard generale come
il protocollo IP possa avere caratteristiche e modalità diverse dalla nascita di uno
standard locale e di limitata applicazione come un particolare programma per un par-
ticolare dispositivo. Una delle caratteristiche che possono rivelare cruciali ai fini della
selezione e del successo di uno standard, a seconda del livello e dell'estensione di uti-
lizzo, è quella della flessibilità, che verrà presa in considerazione nel seguito.
196
I lavori di Hanseth e del suo gruppo di ricerca hanno generato ad un certo volume di studi,
tra cui (Hanseth et al., 2006), già preso in esame nella rassegna introduttiva del capitolo, in cui
si affrontano i temi della flessibilità, del drifting, degli effetti imprevisti e della complessità dei
processi di standardizzazione delle infrastrutture informative. Su un particolare aspetto di
flessibilità reso possibile dagli standard appare utile menzionare anche (Krechmer & Baskin,
2006), che prende in esame i cosiddetti adaptability standards, che «permettono ad elementi
autonomi di una rete di identificare negoziare e selezionare tra diverse possibilità per
implementare il grado preferito di compatibilità» (pag. 148). Esempi classici sono alcuni
standard recenti per i fax, per i modem e per le connessioni DSL, che al momento della
trasmissione permettono ai dispositivi di negoziare il tipo e la velocità di trasmissione più
adatta alle condizioni di impiego. Gli adaptability standards consentono di realizzare
infrastrutture ibride anche dal punto di vista dei diritti di proprietà, in cui possono essere
impiegate in alternativa (e in competizione tra loro) tecnologie "aperte" e tecnologie
proprietarie.
186 Capitolo 3
La distinzione del grado di "località" dei diversi standard che compongono un si-
stema complesso permette di fornire un primo elemento di analisi: appare infatti plau-
sibile che le caratteristiche richieste in uno standard "core" destinato a costituire la
spina dorsale e identificare il principio di funzionamento di un sistema infrastrutturale
complesso e di ampia diffusione debbano essere diverse da quelle richieste per uno
standard locale da impiegare per un numero limitato di impieghi specifici.
Un potente strumento di indagine sull'ampiezza, la varietà e l'evoluzione dei pos-
sibili usi di una tecnologia o di uno standard viene fornito dai cosiddetti studi sulla
costruzione sociale della tecnologia (SCOT: Social Construction of Technology), ini-
ziati da (AAVV, 1987), che sono incentrati sul concetto di flessibilità interpretativa,
cioè in essenza sull'idea che uno stesso artefatto, originariamente progettato e costrui-
to per uno scopo specifico, possa in seguito essere interpretato e utilizzato per scopi
diversi e non originariamente previsti, che ne espandono il raggio di possibile utiliz-
zo. In uno studio SCOT ormai molto noto, Trevor Pinch e Wiebe Bijker mostrano
come il concetto di flessibilità interpretativa possa venire utilmente applicato alla tec-
nologia (Pinch & Bijker, 1987), pur essendo stato originariamente proposto e svilup-
197
pato in altri ambiti .
199
Questo resoconto è necessariamente semplificato e non menziona, ad esempio, il ruolo delle
nuove tecniche di lavorazione dei metalli (Pedaling History Bicycle Museum, 2008), sezione
"The hard tired safety". L'analisi riccamente documentata in (Pinch & Bijker, 1987) fornisce
comunque significativi elementi di riflessione, ponendo attenzione, tra l'altro, a come
l'introduzione del pneumatico causò una ridefinizione del problema "velocità" per gli sportivi,
contribuendo in modo determinante alla "chiusura" (vedi nota 200) . E' inoltre possibile far
riferimento allo studio in (van Nierop et al., 1997), in cui si analizza l'evoluzione complessiva
dei mezzi a trazione umana (biciclette, tri e quadri-cicli) come un processo dinamico e non
lineare. Al di là della completa ricostruzione di tutti i fattori che hanno determinato
l'affermazione della bicicletta moderna, ciò che soprattutto qui rileva ai nostri fini è l'uso del
concetto di flessibilità interpretativa come fondamentale strumento di analisi e
generalizzazione teorica.
Analisi della letteratura 189
sere infatti considerato come la fase di fermento che ha prodotto una rilevante discon-
tinuità tecnologica.
donne sportivi
Penny
? Farthing, 1878
problema
vestito
turisti
Quadriciclo,
1886 4 ruote
Singer’s
Extraordinary,
grande 1879
ruota ant.
?
problemi
sicurezza
e stabilità
freni
trasmissione
Lawson’s bike,
posteriore 1879
?
problema
pneumatici velocità
Bicicletta moderna, ?
1892- problema
vibrazioni,
confort
Figura 3.17 Alcuni dei gruppi sociali, problemi percepiti e soluzioni che hanno influenzato
l'evoluzione della bicicletta. Elaborazione da (Pinch & Bijker, 1987), Figure 11.
Pinch e Bijker forniscono però un potenziale strumento di analisi teorica che non è
200
presente nelle teorie del dominant design : l'idea di flessibilità interpretativa, che
200
Pinch e Bijker avanzano anche un quadro di analisi esplicita del fenomeno della "chiusura".
Attingendo al vocabolario e ai concetti impiegati in filosofia della scienza per lo studio delle
controversie scientifiche, Pinch e Bijker distinguono un punto di chiusura nel momento in cui
la bicicletta moderna si afferma definitivamente. La domanda che si pongono è: quali sono i
"meccanismi di chiusura"? Oltre alla chiusura di tipo tecnico, con la quale il problema viene
sostanzialmente risolto, può esservi una chiusura di tipo retorico, che agisce sulla percezione
del problema, ridimensionandola. Il problema della sicurezza, ad esempio, viene
ridimensionato (senza però raggiungere una chiusura retorica) quando si pubblicizzano i
modelli "Facile" del 1888, come "assolutamente sicuri"; si trattava in effetti di una sorta di
Penny Farthing più sicura ma ancora considerevolmente rischiosa per la posizione di guida
sulla ruota anteriore (Pinch & Bijker, 1987:44). In alternativa, la chiusura può avvenire per
ridefinizione del problema: ad esempio, con l'affermazione di nuovi ruoli sociali per la donna
190 Capitolo 3
spiega come mai diversi gruppi sociali con diversi problemi percepiti possano alla fi-
ne convergere verso un unico artefatto che ne costituisce la soluzione (anzi, le solu-
zioni): lo stesso oggetto fisico viene interpretato come tanti oggetti distinti socialmen-
te costruiti, uno per ciascun gruppo sociale rilevante.
Laddove la nozione di flessibilità interpretativa riconosce che c'è flessibilità nella progetta-
zione, uso e interpretazione di una tecnologia, l'osservazione dei fattori che la influenzano ci
suggerisce che la flessibilità interpretativa non è infinita. Da un lato, essa è vincolata dalle
caratteristiche materiali di quella tecnologia: la tecnologia è ad un certo livello fisica in na-
tura e pertanto limitata dallo stato dell'arte nei materiali, nell'energia e così via. Dall'altro la-
to, essa è vincolata dai contesti istituzionali (strutture di significato, legittimazione e potere)
e dai differenti livelli di conoscenza e potere che interessano gli attori durante la progetta-
zione e l'uso della tecnologia (Orlikowski, 1992:409).
fattori che può rivelarsi determinante a questo fine è la possibilità di ottenere acquie-
scenza, non solo a livello individuale, ma anche di gruppo e sociale: in altre parole, la
possibilità di esercitare un potere. Questo aspetto verrà considerato nella prossima
sezione.
3.3.7 Potere
Non tutti gli attori hanno necessariamente la stessa influenza nei processi di stan-
dardizzazione. Lo studio del potere, sia a livello individuale che collettivo, appare po-
tenzialmente utile ai nostri fini; esso è stato peraltro intrapreso anche in uno dei lavori
presi in esame in apertura di capitolo (Backouse et al., 2006). Tra i contributi più im-
portanti ed estensivi sul tema del potere si rilevano gli studi di Jeffrey Pfeffer, che ne
discute la natura, il ruolo nelle organizzazioni, i fattori costitutivi (condizioni, fonti),
le caratteristiche (strategie e tattiche, linguaggio e simboli, strumenti) e le dinamiche
in (Pfeffer, 1981), per poi ulteriormente chiarire ed esemplificare questi aspetti dal
punto di vista manageriale in (Pfeffer, 1992). A livello collettivo, il potere ha impor-
tanti implicazioni organizzative, che lo stesso Pfeffer ha preso in esame, insieme a
Gerald Salancik, nella cosiddetta "teoria della dipendenza dalle risorse" (Pfeffer &
Salancik, 1978). Tre sono i temi centrali presi in considerazione: in primo luogo, le
organizzazioni, proprio come gli individui, dipendono da risorse ambientali critiche
202
per la sopravvivenza ed il successo ; il controllo delle risorse critiche dà quindi luo-
go a forme di influenza organizzativa che possono essere esercitate dall'esterno; in
secondo luogo, vi sono forme di intervento che le organizzazioni stesse possono met-
tere in atto per migliorare la loro capacità di controllo delle risorse critiche, che per-
mettono loro di influenzare consapevolmente le altre organizzazioni e l'ambiente e-
203
sterno ; in terzo luogo, ambo i fenomeni di influenza possono essere considerati e
202
Per risorse ambientali Pfeffer e Salancik intendono non soltanto quelle naturali (come i siti e
i corsi d'acqua) ma anche quelle infrastrutturali e ogni forma di materia prima, semilavorato o
servizio di cui l'organizzazione necessita per lo svolgimento delle sue attività; tali risorse
possono essere scarse o di difficile reperimento. Ad esempio l'esistenza di un fornitore
esclusivo per un'importante materia prima, o di un unico canale di distribuzione per un
prodotto altamente specifico, configurano una scarsità di risorse vitali in assenza delle quali
verrebbe compromessa la sopravvivenza stessa di un'impresa. Esse determinano dunque una
situazione di dipendenza che riduce l'autonomia decisionale e operativa dell'organizzazione e la
espone al rischio di eventi non controllabili (si pensi ad esempio agli "effetti domino" di
scioperi di categoria, danni infrastrutturali, atti terroristici e simili) riducendone inoltre la
capacità negoziale nei confronti dei soggetti che le controllano.
203
Gli autori individuano due forme principali di intervento per ridurre la dipendenza e
migliorare la capacità di controllo delle risorse critiche: la prima è quella di stabilire
collegamenti interorganizzativi favorevoli; la seconda è quella tentare di influenzare a proprio
vantaggio la propria sfera ambientale. Tra i collegamenti favorevoli, menzioniamo
l'acquisizione di quote di proprietà, la stipula di alleanza strategiche formali attraverso contratti
e joint ventures, le politiche di nomina di soggetti influenti nei propri consigli di
amministrazione, le scelte dei dirigenti, gli investimenti in comunicazione, sponsorizzazioni,
pubblicità e pubbliche relazioni. Dall'altro lato, vari possono essere i mezzi per influenzare la
propria sfera ambientale: tra questi menzioniamo l'influsso sull'attività politica e di
regolamentazione attraverso la partecipazione dei dirigenti ad attività di lobbying e di rilievo
politico-sociale; la partecipazione alle associazioni di settore e il loro utilizzo per la difesa
Analisi della letteratura 193
degli interessi comuni; l'estensione della propria area di influenza attraverso la partecipazione,
diretta o indiretta, nelle varie aree di interesse in cui opera l'organizzazione: il proprio settore
industriale, le materie prime, le risorse umane, le risorse finanziarie, il mercato, la tecnologia,
le relazioni internazionali.
204
I tre temi centrali della teoria vengono enunciati e spiegati nella nuova introduzione alla
recente "Classic Edition" del libro ad opera di Jeffrey Pfeffer, in cui l'autore discute anche in
retrospettiva il contributo dell'opera ponendolo a contrasto con le teorie neoistituzionali e con
quelle dell'ecologia delle popolazioni, formulate nello stesso periodo: (Pfeffer & Salancik,
2003:xi-xxix).
194 Capitolo 3
smo, esaminata nella sezione 3.3.5, o di quella tra stabilità e flessibilità, esaminata
nella sezione 3.3.6. Queste tensioni possono a volte trovare motivo di soluzione in
una direzione unica, oppure, in casi di particolare rilievo economico e sociale, origi-
nare sistemi di standard complessi e modulari come le infrastrutture Internet che ri-
spondano contemporaneamente a più esigenze contrapposte.
Nel prossimo capitolo si cercherà di costruire, sulla base di quanto rilevato finora,
un unico quadro di riferimento sistematico e generale, che sarà poi messo alla prova
impiegandolo per spiegare e interpretare alcune delle storie e dei casi di standardizza-
zione introdotti finora.
4
Elementi per una teoria
In questo capitolo i concetti discussi fino ad ora troveranno una sistematizzazione te-
orica integrata. Verranno percio introdotti in via preliminare i principi metodologici
della teorizzazione nell'ambito delle scienze sociali, per poi passare alla costruzione
di un quadro teorico complessivo articolato in 10 proposizioni. Le proposizioni offri-
ranno dapprima una definizione sistematica dei concetti "standard" e di "standardiz-
zazione" fondata sull'analisi estensiva dei primi due capitoli, per poi giungere a for-
mulare una spiegazione di "come nasce uno standard" basata sul terzo capitolo, par-
tendo da casi più semplici e assunzioni più restrittive per poi gradualmente aprire il
campo di analisi alle situazioni più complesse. Il quadro verrà illustrato con i nume-
rosi casi ed esempi discussi fino ad ora, integrandolo con ulteriori esemplificazioni
ove necessario.
quale una teoria è uno statement di relazioni tra concetti nell’ambito di un set di vin-
coli e di assunzioni. I concetti possono essere espressi attraverso unità approssimate
(costrutti) o attraverso unità osservate (variabili). I costrutti per loro natura non pos-
sono essere osservati direttamente (es. accentramento decisionale, soddisfazione, cul-
tura, …) mentre le variabili sono operazionalizzate attraverso la misurazione diretta.
Dunque una teoria può essere vista come un sistema di costrutti e variabili nel quale i
costrutti sono posti in relazione tra loro da proposizioni e le variabili sono poste in
relazione tra loro da ipotesi. L’intero sistema è delimitato dalle assunzioni, come in-
dicato in Figura 4.1.
G
E
N
E PROPOSIZIONI
R
A COSTRUTTI COSTRUTTI
L
I
Z
Z
A
B
I
L IPOTESI
I VARIABILI VARIABILI
T
À
Figura 4.1 Componenti di una teoria. Da (Bacharach, 1989), figura 1, pag. 499.
205
Secondo Sutton e Staw, molti tra gli articoli inviati ad Administrative Science Quarterly
(ASQ) vengono respinti dai reviewer perché ciascune delle cinque componenti illustrate sopra
(ad esempio, le citazioni bibliografiche, o una raccolta di dati o di variabili), da sola, pur
avendo un suo proprio valore, non potrebbe costituire una teoria. L’analisi di Sutton e Staw,
dopo aver preso in considerazione nel dettaglio i motivi per cui ciascuna di queste componenti
è di per sé insufficiente a costituire un apporto teorico significativo per ASQ, prende anche in
considerazione le differenti posizioni a riguardo di alcune note riviste scientifiche, che possono
essere idealmente collocate lungo un continuum tra l’interesse prevalente per il theory testing e
quello per il theory building. Ad un estremo ci sono riviste come il Journal of Applied
Psychology e Personnel Psychology, che accolgono contributi prevalentemente empirici in cui
una teoria già esistente viene sottoposta alla verifica dei dati. All’altro estremo dello spettro ci
sono riviste come Research in Organizational Behavior e Academy of Management Review,
dove l’interesse primario è rivolto allo sviluppo di nuova teoria; i dati, quando presenti, sono
spesso usati più per illustrare che per sottoporre a verifica empirica. Le riviste come ASQ,
Academy of Management Journal e Organization Science occupano lo spazio intermedio tra
questi estremi, accogliendo contributi orientati sia allo sviluppo che alla verifica empirica della
teoria. Come sostengono gli autori, «ci sono inevitabili trade-off tra teoria e ricerca empirica.
Da un lato, ASQ chiede agli autori di impegnarsi in atti di creazione immaginativa. Dall’altro,
ASQ vuole che questi stessi autori siano precisi, sistematici, e seguano procedure consolidate
per l’analisi quantitativa o qualitativa» (Sutton & Staw, 1995:379). Il grado di formalizzazione
logico-matematica tende dunque ad essere maggiore nei contributi di pura verifica empirica,
spesso radicati in una prospettiva positivistica. I contributi di pura teoria, d’altro lato, in alcuni
casi possono essere basati su prospettive soggettive e interpretative, con analisi di tipo
narrativo. Lo spazio intermedio, che è aperto ad una pluralità di approcci e prospettive, pare
essere uno dei più promettenti ma anche dei più difficili da coprire.
198 Capitolo 4
Auspichiamo che gli autori non tengano da conto il termine "teoria" solo per etichettare il
loro trionfo finale, ma che ne facciano uso anche come etichetta dei loro tentativi intermedi
[orig. interim struggles] (Weick, 1995b:386).
Tabella 4.1 Tipi di teoria classificati in base a finalità e attributi distintivi (Gregor, 2006:620)
Dal punto di vista strutturale, Gregor mostra come tutte le teorie abbiano in comune
alcuni componenti essenziali, illustrati nella Tabella 4.2 che segue: dei mezzi di rap-
presentazione; dei costrutti; degli statement di relazione e un raggio di azione. Inoltre,
a seconda del primary goal, alcune classi di teoria possono essere composte anche da
relazioni causali, ipotesi e statement prescrittivi, come illustrato in Tabella 4.3.
La duplice analisi teleologica e strutturale di Gregor sembra individuare
un’accezione di teoria abbastanza ampia e articolata da riconciliare e includere le di-
verse e spesso contrastanti trattazioni sul tema qui finora prese in esame, producendo
anche una definizione omnicomprensiva di che cosa debba intendersi con il termine
"teoria". «La discussione di diverse prospettive sulla teoria ad un livello generale mo-
stra le teorie come entità astratte che mirano a descrivere, spiegare e migliorare la
206
In alcuni casi (ma non necessariamente in modo sistematico) diverse concezioni della
conoscenza e del mondo (es. visioni oggettive/soggettive) possono riflettersi in diversi
"primary goals"; ad esempio approcci previsivi e prescrittivi sono spesso associati a visioni di
tipo deterministico/oggettivo, mentre approcci di pura analisi e spiegazione sono spesso
associati a visioni di tipo soggettivo/interpretativo.
200 Capitolo 4
comprensione del mondo, oltre, in alcuni casi, a fornire previsioni di che cosa acca-
drà nel futuro e a dare una base per l’intervento e l’azione» (Gregor, 2006:616, cor-
sivo aggiunto).
Proporre una teoria significa quindi caratterizzarla in termini di rilevanza, finalità
e struttura: innanzi tutto è necessario individuare una "parte del mondo" sconosciuta
evidenziando le ragioni per cui tale conoscenza sia desiderabile (rilevanza della teo-
207
ria ). E’ poi necessario specificare la finalità individuando i primary goals della teo-
ria (analysis, explanation, prediction, prescription) e la prospettiva epistemologica
complessiva. La struttura della teoria sarà in relazione alle sua finalità e al grado di
formalizzazione ritenuto appropriato anche in base alla prospettiva epistemologica
esplicitamente o implicitamente adottata.
Gli elementi strutturali di una teoria sono dunque quelli illustrati nella Tabella 4.2 e
Tabella 4.3: i mezzi di rappresentazione, i costrutti fondamentali, gli statement di re-
lazioni, il raggio di azione (scope), ed eventualmente anche le spiegazioni causali, le
ipotesi e gli statement prescrittivi.
207
Sul tema della rilevanza vedi ad esempio (Benbasat & Zmud, 1999) e i commentari della
relativa special issue di MIS Quarterly 1999, introdotti in (Applegate, 1999).
Elementi per una teoria 201
Tabella 4.3 Componenti strutturali presenti solo in teorie con finalità specifiche(Gregor,
2006:620).
Al fine di proporre alcuni elementi per una teoria dello standard, è dunque necessario
specificare un tema di fondo rilevante, per poi definire le finalità e la struttura della
teoria. Il primo degli obiettivi essenziali di un contributo teorico è dunque quello di
spiegare il "che cosa", cioè nel nostro caso di analizzare che cosa debba intendersi per
standard e per processo di standardizzazione. Gli obiettivi di spiegazione e di previ-
sione completano il quadro teorico complessivo.
essa costituisce infatti il primo elemento risponde alla finalità di analisi teorica: "che
cosa è?". Dall'altro la definizione qui accolta, lungi dal voler assumere valore assolu-
to o dall'escludere altri possibili approcci, serve anche come primo passo per delinea-
re il raggio di azione della teoria stessa, individuando in modo chiaro a quali specifi-
che entità essa possa essere riferita. Secondo quanto discusso finora (sez. 1.2), quindi:
L'atto negoziale rivela la natura collettiva dello standard, il quale si applica al gruppo
208
di coloro che scelgono di aderire . La pubblicazione in forma scritta (che riguarda la
regola stessa, non l'atto negoziale) garantisce a chiunque la possibilità di aderire suc-
cessivamente allo standard stesso, entrando dunque a far parte del gruppo di riferi-
mento.
Come abbiamo visto, uno standard può essere caratterizzato sotto il profilo della
stabilità nel tempo, dei diritti di proprietà e quindi del grado di "apertura", dei diversi
livelli di volontarietà dell'adesione, delle caratteristiche del gruppo di riferimento e
dei corrispondenti meccanismi di identificazione ed adesione.
Gli standard, in quanto regole, possono avere diversi scopi: esistono standard sul-
l'essere qualcosa, sull'avere qualcosa o sul fare qualcosa. Essi possono essere classi-
ficati secondo vari criteri.
Innanzi tutto essi possono distinguersi in standard comportamentali e standard
tecnici. Questi ultimi, i più studiati in letteratura, comprendono gli standard di riferi-
mento, di qualità minima e di compatibilità.
Quanto al processo di creazione e ai soggetti coinvolti distinguiamo standard de
facto, che si originano tipicamente da prodotti o pratiche diffuse sul mercato, e stan-
dard de jure, che vengono creati ex novo da istituzioni riconosciute. La Figura 1.4
del capitolo 1 specifica in modo più dettagliato questa ripartizione.
Qualora si riferiscano a prodotti e applicazioni non ancora sul mercato, guidando-
ne la compatibilità e l’interoperabilità futura, essi prendono il nome di anticipatory
standards.
Come abbiamo visto, il significato corrente della parola "standard" di modello,
base, norma, è pienamente espresso dall'idea di una regola ad adesione volontaria. Il
senso etimologico originario di stendardo/bandiera, come segno di appartenenza ad
un gruppo e simbolo di identità condivisa, appare pienamente in sintonia con quanto
affermato finora con riferimento ai meccanismi di identità e legittimazione (capitolo
3, sezione 3.3.5).
208
In questo senso una regola istituita e pubblicata da un solo soggetto non è uno standard
finché non si costituisce un gruppo di riferimento, cioè finché non si registra almeno un'altra
adesione.
Elementi per una teoria 203
Nel quadro analitico qui adottato, appare utile individuare chiaramente il momento
della nascita di uno standard.
2) Nascita. Uno standard comincia ad esistere nel momento della sua prima
pubblicazione formale definitiva.
noltre essa appare fortemente coerente con gli assunti base e i fondamenti costitutivi
del concetto di "standard" qui discusso.
La chiarezza concettuale nasce dalla possibilità di poter più facilmente distinguere
in modo netto ciò che è standard da ciò che non lo è, grazie alla necessaria presenza
di un documento scritto ben identificabile. Inoltre la data di prima pubblicazione per-
mette di stabilire in modo netto il momento della "nascita" dello standard.
La coerenza con gli assunti base è spiegata dal fatto che uno standard si differen-
zia dagli altri tipi di regole e leggi perché l'adesione volontaria di nuovi soggetti è
sempre aperta e possibile (salvo le eccezioni già discusse nel capitolo 1). A questo
fine, dunque, la necessità di pubblicazione appare fortemente giustificata come requi-
sito essenziale: senza una pubblicazione non sarebbe sempre facile estendere a chiun-
que, anche al di fuori del gruppo di adozione, la consapevolezza e la certezza dell'esi-
stenza e del contenuto dello standard stesso.
La nascita di uno standard coincide dunque con il momento della sua prima pubblica-
zione formale e definitiva: essa avviene di solito in competizione con altri "candidati"
standard. Non c'è coincidenza diretta tra nascita e diffusione: un prodotto o una rego-
la informale possono essere molto diffusi e imitati senza costituire uno standard; uno
standard può invece raccogliere scarso consenso e restare inutilizzato pur essendo sta-
to regolarmente pubblicato. La diffusione di uno standard non è l'unica dimensione
del suo successo: standard di nicchia rivolti a gruppi ben definiti possono trovare a-
deguata giustificazione e consenso economico e sociale anche con limitata diffusione.
Per capire come nasce uno standard, cioè come si giunge alla definizione negozia-
le e alla pubblicazione formale di una regola aperta all'adozione volontaria di chiun-
que, è necessario individuare quali sono gli attori, le forze in gioco, le fasi e le attività
che determinano l’esito finale del processo, facendo emergere uno standard tra diversi
candidati possibili. Come, quando, dove e perché avviene tutto ciò?
Cominciamo dal perché. Gli impieghi dello standard e i fini della standardizzazio-
ne sono stati discussi nel capitolo 3, da cui si ricorda che uno standard nasce per ap-
portare una serie di vantaggi al gruppo di riferimento, siano essi in termini di coordi-
namento, di relazione, di comunicazione, di economie di scala, di improvvisazione o
dei numerosi altri aspetti finora considerati.
Nel caso più semplice coloro che concordano e pubblicano la regola sono anche i de-
stinatari. Nei processi di standardizzazione più complessi possono distinguersi diver-
se tipologie di attori su più livelli: a livello individuale gli utenti, i progettisti e coloro
che diffondono informazioni e conoscenza (evangelists). A livello collettivo le impre-
Elementi per una teoria 205
se, spesso con interessi diversi, assieme a vari tipi di istituzioni come i consorzi di
standardizzazione, le SDO (Standard Development Organizations), i governi.
La nascita di uno standard può essere vista come un processo in due fasi, in sostanzia-
le accordo con le prime teorie del dominant design (sez. 3.3.1) che osservano nell'e-
voluzione delle innovazioni un'era di fermento in cui diverse possibili specifiche si
contendono il mercato e un'era successiva in cui si afferma l'innovazione dominante.
La natura stessa dello standard come atto negoziale in forma scritta e pubblica sugge-
risce questi due passaggi essenziali: la negoziazione e la pubblicazione. Attraverso la
negoziazione coloro che decidono di scrivere una regola per renderla aperta e pubbli-
ca ne concordano il contenuto, selezionandolo tra tutti quelli possibili. Come tutte le
negoziazioni, anche questa può essere effettuata in vari modi, ivi compresa la sempli-
ce adesione ad una proposta o il comportamento concludente di conformarsi alle ca-
ratteristiche tecniche di un prodotto immesso sul mercato, che vengono dunque pub-
blicate come standard. Il gruppo che concorda e pubblica uno standard non necessa-
riamente coincide con quello di tutti coloro che potrebbero essere interessati all'ado-
zione.
La pubblicazione è l'atto formale che pone la regola a disposizione di tutti e la sta-
bilizza, segnandone l'inizio della vita utile che avrà termine eventualmente se e quan-
do lo standard verrà in seguito dismesso e cancellato perché superato o desueto.
209
mento, che condizionano le dimensioni ottimali dei carri e la distanza delle ruote .
Quindi:
In alcuni casi però l'utilità economica è ignota, incerta o indifferente per più alternati-
ve possibili. Si pensi alla questione della determinazione dello scartamento ferrovia-
rio ottimale verso la fine dell'800: come già ricordato, alcuni dei primi carrelli su ro-
taie per il trasporto merci furono realizzati in Inghilterra con la stessa distanza tra ruo-
te dei carri merci a cavalli: questo scartamento fu poi adottato nelle prime ferrovie
inglesi. La determinazione dello scartamento ottimale dal punto di vista tecnico è
molto complessa: la storia riportata nel capitolo 1 mostra come il dibattito tra specia-
listi sia durato oltre un secolo e non abbia ancora trovato una risposta definitiva. Lo
standard oggi più diffuso (denominato appunto "scartamento standard") non è proba-
bilmente quello ottimale in senso assoluto dal punto di vista tecnico. Misure legger-
mente superiori sarebbero altrettanto accettabili o persino preferibili. Lo stesso dicasi
per la disposizione di tastiera QWERTY, la cui storia è stata già analizzata nel detta-
glio (sez. 3.2.4 ): nell'incertezza, è stata fatta una scelta abbastanza buona, tra tante
altre alternative accettabili o forse persino preferibili. Un ulteriore caso già visto di
sostanziale indifferenza tecnica è quello della guida a destra/sinistra (sez. 1.1.4).
Che cosa avviene quando i benefici di una standardizzazione eventuale sono evi-
denti ma non è possibile selezionare una soluzione "migliore" delle altre dal punto di
vista dell'utilità economica?
209
Un carro normale sarà dunque all'incirca della larghezza di due cavalli affiancati. Altre
soluzioni, dato l'impiego normale dello standard "distanza tra le ruote dei carri" per il gruppo di
adozione, possono comportare diseconomie: carri con ruote più distanti sarebbero più
ingombranti dello stretto necessario, affaticherebbero i cavalli e renderebbero più difficile la
circolazione. Carri più stretti con ruote più vicine porterebbero ad una sottoutilizzazione della
capacità di carico a sostanziale parità di ingombro sulla strada. Questo naturalmente non toglie
che per usi diversi da quello normale si siano diffusi anche carri di dimensioni diverse con
diverse distanze tra le ruote.
210
Come già ricordato, anche se il focus principale di questa analisi è sulla nascita, cioè sulle
fasi che precedono la pubblicazione di uno standard, vengono qui presi in considerazione
Elementi per una teoria 207
Come si è già visto (sez. 3.3.2) la legittimazione istituzionale può risultare essen-
ziale per la nascita e per la diffusione di uno standard: l'adozione di una particolare
specifica piuttosto che un'altra può infatti conferire un diverso grado di legittimazione
al gruppo che seleziona e pubblica lo standard. L'affermazione di una specifica può
essere favorita da varie forme di influenza e regolamentazione istituzionale sia dal
lato della domanda che da quello dell'offerta, come già evidenziato per l'innovazione
IT in Figura 3.15. Le forze in gioco che contribuiscono a formare la legittimazione
istituzionale possono essere coercitive, normative, mimetiche e di evangelizzazione.
Si è già visto come la loro presenza e i loro effetti comincino ad essere oggetto di mi-
surazione empirica negli studi neoistituzionali più recenti: simili indagini potrebbero
essere applicate anche al processo di selezione di uno standard. Tra i casi già incon-
trati in cui i processi di istituzionalizzazione hanno particolare rilievo, specie per la
diffusione, si ricordano gli standard manageriali delle famiglie ISO 9000 (gestione
della qualità) e ISO 14000 (gestione ambientale), già richiamati nella sezione 2.1.3.
Anche le pressioni istituzionali che da anni si rilevano negli USA a favore dell'ado-
zione del sistema metrico decimale (sez. 1.1.6) rientrano in questo ambito. Quindi:
L'affermazione dell'identità rappresenta un altro degli aspetti che sono emersi nell'a-
nalisi della letteratura, specie con riferimento agli studi ecologisti più recenti (sez.
3.3.3). La selezione, pubblicazione ed adozione di una particolare specifica come
standard può servire ad affermare e rafforzare l'identità del gruppo che adotta lo stan-
dard rispetto ad altri gruppi che adottano standard diversi. Per uno stesso impiego
possono dunque aversi due standard diversi, due gruppi diversi, due identità diverse:
si pensi alla scelta della Namibia di passare, in controtendenza rispetto al resto del
mondo, dalla guida a destra alla guida a sinistra, sottolineando l'avversità all'odiato
ex-colonialismo tedesco che aveva introdotto la guida a destra (sez. 1.1.4). Altri casi
di questo tipo già incontrati sono il rifiuto dell'accettazione del calendario gregoriano
da parte dei protestanti luterani tedeschi alla fine del '500 (sez. 1.1.5) e la stessa ribel-
lione degli stati secessionisti americani allo scartamento standard ferroviario ormai
prevalente negli stati del Nord (sez. 1.1.3). Quindi:
anche i processi di successiva diffusione e le guerre tra standard, nella misura in cui essi
possano contribuire a spiegarne la nascita.
208 Capitolo 4
Dunque, se si restringe l'analisi ad un solo gruppo omogeneo di utenti per un solo im-
piego ben definito, la selezione di una tra le tante specifiche possibili potrebbe avere
l'obiettivo di massimizzare l'utilità economica diretta, la legittimazione e l'identità del
gruppo stesso nel futuro impiego dello standard.
Nella realtà però un caso così semplice non è molto frequente. L'omogeneità del
gruppo di riferimento, sia prima che dopo la pubblicazione, non è affatto garantita.
Nella maggior parte dei casi infatti uno standard deve essere impiegato da categorie
di utenti ampie e diverse, niente affatto omogenee. E' quindi necessario considerare
che possano esserci più (sotto)gruppi distinti, con identità distinte, che si accordano
per uno standard comune. Questo rende anche improbabile che vi sia un impiego fu-
turo altamente specifico e completamente definito a priori: diversi utenti potranno mi-
rare ad impieghi diversi per diverse finalità del futuro standard. Inoltre, per sua natura
lo standard è aperto a nuove adesioni da parte di chiunque, quindi la numerosità dei
gruppi di adozione non è definita a priori: lo standard potrà nascere con un numero
limitato di utenti e trovare in seguito una diffusione molto più ampia.
Queste considerazioni rendono molto più complessa l'analisi delle forze in gioco,
che si affronterà nelle prossime sezioni.
Gli effetti rete associati ad uno standard si possono trasferire anche sui prodot-
ti/servizi che ne fanno uso, aumentandone il valore commerciale man mano che lo
standard si diffonde. Si ricordino tra gli altri il famoso caso VCR-Betamax (sezz.
3.2.3 e 3.2.4), la competizione attuale tra sistemi PC/Windows, PC/Linux e Macin-
tosh/OS (sez. 3.2.2), ed anche la storica "battaglia dei browser" tra Netscape e
Microsoft in cui i due prodotti concorrenti (il browser Microsoft Internet Explorer
contro Netscape Navigator) adottavano diversi standard tecnologici (Afuah et al.,
2001:253-272).
Come si è visto, le cosiddette imprese "sponsor" tendono a favorire la diffusione
di uno standard per estrarne valore grazie anche agli effetti rete. Per tali scopi gli
sponsor pongono in essere una serie di tattiche, che comprendono da un lato la ge-
stione strategica dei complementi e dei diritti di proprietà intellettuale (cfr. sez. 1.2.3,
"La proprietà e l'apertura"); dall'altro le politiche di prezzi aggressive, i preannunci di
prezzo/prodotto, gli investimenti in marchi e reputazione e altre per influenzare le a-
spettative a favore dello standard sponsorizzato (sez. 3.2.2). Tutto ciò fraziona il
gruppo di riferimento in diverse fazioni con interessi spesso nettamente opposti. I
rapporti di potere (sez. 3.3.7) potrebbero dunque giocare un ruolo determinante per
favorire una determinata specifica rispetto alle altre in fase di negoziazione. Quindi:
parametri "tecnici" che caratterizzano gli standard ottimi a ciascun livello gerarchico,
ma anche dal ruolo che i fattori istituzionali e identitari possono giocare nella deter-
minazione dell'equilibrio tra isomorfismo centrale (stabilità e unicità degli standard
che costituiscono la spina dorsale del sistema) e polimorfismo locale (varietà e mol-
teplicità degli standard periferici e locali del sistema), discussi nella sezione 3.3.5 e
raffigurati in Figura 3.16. Pertanto:
211
In questo capitolo verrà offerta l’analisi di un recente caso di standardizzazione
IT: la nascita dello standard “Web services Architecture”. Tale standard è stato defi-
nito da un gruppo di lavoro che rappresenta tutte le principali organizzazioni nel set-
tore IT, nell’ambito del consorzio di standardizzazione “World Wide Web Consor-
tium”. La particolarità di questo processo è che esso ha lasciato tracce dettagliate e
facilmente reperibili on line. L’analisi di queste ricche e complete tracce documentali,
descritte nelle sezioni 5.3 e 5.4, è stata effettuata con la metodologia “grounded the-
ory” (illustrata in sezione 5.2), che ha portato alla comprensione degli attori e dei
gruppi di potere (sezione 5.4) e alla stesura di una articolata gerarchia di concetti che
descrivono le attività principali del processo (sezione 5.5). Oltre all’analisi delle atti-
vità principali, la sezione 5.5 illustra infine alcune evidenze empiriche a supporto
dell’ipotesi che l’intero processo tenda alla massimizzazione della flessibilità
dell’artefatto.
211
Una versione preliminare del lavoro esposto in questo capitolo è stata presentata e discussa
dall'autore al VII workshop dei docenti e ricercatori di Organizzazione Aziendale - Salerno
2006.
214 Capitolo 5
mano che l’analisi dei testi procede e nuova evidenza viene raccolta e analizzata, le
definizioni dei concetti vengono arricchite specificandone gli attributi (proprietà e
dimensioni) secondo quanto dichiarato dai soggetti nei testi in esame. I concetti ven-
gono quindi raggruppati in categorie e collegati da relazioni. Una caratteristica unica
della grounded theory è che ogni costrutto è associato ai brani di testo da cui provie-
ne. Non è possibile generare o individuare nuovi concetti o relazioni se non in base a
dichiarazioni specifiche esplicitamente riportate dai soggetti in osservazione nei do-
cumenti esaminati. In questo senso le mappe concettuali che sono il frutto dell’analisi
sono quindi “grounded”: concetti, attributi e relazioni sono tutti documentati e legati
esplicitamente a brani di testo. E’ possibile individuare il numero di citazioni testuali
“sottostanti” a ciascuno dei concetti in esame (groundedness) e la numerosità delle
relazioni con altri concetti (density). Per un’applicazione cfr. (Orlikowski, 1993).
In accordo proprio con (Orlikowski, 1993), è possibile caratterizzare la grounded
theory analysis con la sua triplice natura induttiva, contestuale e processuale. Indutti-
va, perché la teoria viene generata “dal basso” partendo dall’analisi dei dati e mante-
nendo sempre un legame esplicito tra testi analizzati e concetti teorici generati. Con-
testuale, perché, al contrario di altri metodi, permette di tenere esplicitamente conto
della complessità del contesto organizzativo e sociale. Processuale, perché il rapporto
tra struttura e processo viene esplicitamente preso in considerazione: «La codifica del
processo avviene simultaneamente alla codifica delle proprietà/dimensioni e delle
relazioni tra i concetti»(Strauss & Corbin, 1998:167).
Secondo quanto fin qui rilevato, il processo di standardizzazione “Web services
Architecture” si distingue proprio per la ricca e sistematica documentazione testuale,
per la complessità degli aspetti contestuali, per l’evoluzione temporale delle attività.
Di conseguenza la natura induttiva, contestuale e processuale della grounded theory
appare particolarmente appropriata per procedere all’analisi del caso, che verrà ora
sommariamente introdotto nella sezione che segue.
212
dei cosiddetti "Web services" . Il workshop è completamente documentato in tutti i
suoi dettagli sul sito Web http://www.w3.org/2001/01/WSW . L'architettura dei Web
services si basa su un sistema di specifiche tecniche straordinariamente complesso e
ambizioso, sul quale società come Microsoft e Sun Microsystems hanno posto una
assoluta priorità strategica e hanno effettuato consistenti investimenti (Sullivan &
213
Scannell, 2001) .
Ma che cosa sono i Web services e perché suscitano tanto interesse? In sintesi essi
si basano su due principi fondamentali:
1) la decomposizione funzionale delle applicazioni software in tanti componenti
indipendenti, come un puzzle;
2) la comunicazione tra applicazioni software diverse attraverso il Web per
l’utilizzo di componenti software remoti.
Notiamo come prima dei Web services il Web fosse utilizzato per la comunica-
zione tra uomo e macchina (l'uomo da un lato interroga gli ipertesti, la macchina dal-
l'altro fornisce le pagine Web richieste); con i Web services esso viene invece usato
per la comunicazione tra macchina e macchina (un'applicazione da un lato interroga
un'altra applicazione dall'altro per utilizzarne un componente software). Il consorzio
W3C (l'acronimo sta per WWWC, cioè World Wide Web Consortium) è stato fondato
nel 1994 (ed è tuttora diretto) da Tim Berners Lee, l'inventore del Web:
[…] per permettere al World Wide Web di sviluppare il suo pieno potenziale attraverso la
creazione di protocolli comuni che ne promuovano l'evoluzione e ne garantiscano l'interope-
rabilità. Il W3C ha quasi 450 organizzazioni consorziate da tutto il mondo e il suo contribu-
to determinante alla crescita del Web è riconosciuto a livello internazionale.
(da http://www.w3.org/Consortium/#background).
212
Il nome ufficiale va scritto con la "W" maiuscola e la "s" minuscola, secondo le specifiche
dello standard pubblicate dal W3C.
213
Ad esempio, la vision del "software come servizio" sottostante la attuale architettura
Microsoft ".Net", (formulata e resa nota già nel 2000 e ora adottata in tutti i prodotti principali
della Microsoft), è interamente dipendente dal successo di questa nuova tecnologia, tanto da
aver suscitato inizialmente perplessità e scetticismo tra gli osservatori (Deckmyn, 2000).
216 Capitolo 5
più in grande di quella che rappresenta i verbali delle teleconferenze perché i primi
sono molto più consistenti dei secondi: nei due anni di attività del working group
(2002-03) sono state scritte e archiviate oltre 7000 email.
cham- cham-
pion cham- cham-
pion
pioncham- pion
pion
Mailing lists
archives
Working Group
Discussions
10-30
participants
Weekly
teleconferences
Teleconferences
scripts
Figura 5.1 I documenti oggetto di analisi completa e sistematica sono i verbali delle tele-
conferenze settimanali (teleconference scripts) del gruppo di lavoro.
Ad esempio nel mese di agosto 2002 (che registra un livello di attività intorno alla
media annuale) sono state scritte 317 email con 72 diversi “subjects”. In confronto,
gli archivi con i verbali delle teleconferenze settimanali sono molto più ridotti: nello
stesso mese di agosto 2002 sono infatti state tenute 4 teleconferenze, in cui sono stati
registrati complessivamente 375 brevi interventi (vedi Figura 5.2 qui di seguito: i
quattro meeting “virtuali” del mese di agosto contano 152+44+102+77 interventi) per
un totale di circa 38.000 caratteri. Un intervento tipico in teleconferenza è lungo circa
100 caratteri, mentre una singola mail può raggiungere facilmente dimensioni di al-
cune migliaia di caratteri. Anche se non si dispone di statistiche precise, la dimensio-
ne totale dell’archivio delle email è senz’altro almeno di un ordine di grandezza supe-
riore a quella dei verbali delle teleconferenze; l’analisi estensiva e sistematica degli
archivi della mailing list risultava dunque impraticabile con le risorse a disposizione.
D’altro canto, proprio per la configurazione a piramide rovesciata delle discussio-
ni, raffigurata anch’essa in Figura 5.1, ogni discussione importante avvenuta nella
mailing list è stata sinteticamente affrontata o almeno ratificata anche nelle teleconfe-
renze e nei workshop F2F. Nel corso del processo di standardizzazione sono altresì
218 Capitolo 5
500
450
436
400 395
350
300 306
250
200
150 152
141
125 119 124
110 116
100 99 102
91
81 77
69 66 73 71 72
62
50 47
57 53 61 49 51
59
44 45
37
28 24 25
19 16 17
8 9 11 9 10
0
b
v
r
t
ag
ag
ag
c
ar
ar
se
se
ot
ot
ot
ap
ap
no
no
di
fe
fe
gi
gi
lu
lu
ag
ag
m
02
16
30
11
12
26
10
24
04
18
06
20
03
17
13
27
07
21
06
20
01
15
29
Analisi empirica: i Web services 219
Figura 5.2 Numero di interventi (text passages) relativi alle teleconferenze settimanali e ai
workshop face to face (F2F) dell’anno 2002.
La Figura 5.2 qui sopra illustra l’andamento nel tempo del numero di interventi ri-
portati nei verbali delle conference call settimanali e dei quattro workshop F2F del
periodo di osservazione. Appaiono subito evidenti i quattro picchi in aprile, giugno,
settembre e novembre, che si riferiscono ai verbali dei workshop face to face. Il nu-
mero di interventi è molto maggiore non solo per il tipo di interazione faccia a faccia
ma anche per il maggior numero di partecipanti e per la durata (2-3 giorni di un
workshop F2F contro poche ore di una conference call).
Tabella 5.1 Classifica del numero di interventi in teleconferenza relativi all’anno 2002 pro-
dotti dai primi 11 delegati. E’ riportata per confronto anche l’ampiezza com-
plessiva dei testi.
Num.
Ampiezza
Organizzazione Delegato inter- % %
(car.)
venti
Sun Chris Ferris 755 16,2% 87.046 15,4%
BEA David Orchard 345 7,4% 49.277 8,7%
WW Grainger Daniel Austin 329 7,1% 42.787 7,6%
Contivo Dave Hollander 314 6,7% 36.164 6,4%
IBM Heather Kreger 312 6,7% 26.341 4,7%
Software AG Mike Champion 286 6,1% 35.884 6,4%
W3C David Booth 249 5,3% 27.683 4,9%
W3C Hugo Haas 242 5,2% 34.905 6,2%
Chevron Roger Cutler 163 3,5% 26.196 4,6%
Jujitsu Frank Mc Cabe 159 3,4% 12.180 2,2%
Sun Doug Buntig 158 3,4% 18.552 3,3%
La Tabella 5.1 riporta qui sopra la classifica dei primi 11 delegati per numero di in-
terventi registrati nel corso dell’anno 2002. Si è scelto di ospitare 11 nomi per evi-
denziare come la “Sun Microsystem” abbia ben due delegati tra i primi 11. Il totale
complessivo degli interventi nel 2002 è di 4663, suddiviso tra 46 organizzazioni e 65
delegati. Gli interventi risultano distribuiti in modo piuttosto omogeneo, con un grup-
po di otto leader che hanno superato il 5% e con una forte impronta della Sun
214
Microsystem e del consorzio W3C, gli unici ad avere due delegati tra i primi 11 .
Notiamo anche come alcuni soggetti abbiano effettuato pochi interventi lunghi ri-
spetto ad altri con molti interventi brevi; ad esempio Hugo Haas passerebbe
214
Tutte le organizzazioni coinvolte hanno fornito al gruppo di lavoro uno o al massimo due
delegati. Le uniche eccezioni sono state la Sun Microsystem con quattro delegati e il W3C con
tre delegati.
220 Capitolo 5
Company name
Fujitsu; 159; 4%
IBM; 312; 9%
SoftwareAG; 286; 8%
Figura 5.3 Numero complessivo di interventi (text passages) relativi all’anno 2002 per le
prime 10 organizzazioni partecipanti (su 46). Le percentuali riportate si riferi-
scono al totale della top ten (3585 interventi) e non a quello complessivo
(4663).
Per avere un’idea delle forze in gioco, nella Figura 5.3 qui sopra gli interventi del
2002 sono stati raggruppati per organizzazione. Ciascun settore riporta il numero
complessivo di interventi riconducibili alla società; ad esempio la Sun Microsystem
con i suoi quattro delegati ha effettuato complessivamente 943 interventi. Per chia-
rezza sono state riportate solo le prime 10 organizzazioni, che assommano a 3585 in-
terventi, il 77% dei 4663 interventi del 2002. Tra le prime 10, la Sun ha prodotto oltre
un quarto delle discussioni complessive; il consorzio W3C quasi il 15%.
Il quadro complessivo sembrerebbe evidenziare un predominio di Sun, mentre la
Microsoft appare stranamente assente (ha totalizzato solo 69 interventi nel 2002, cir-
Analisi empirica: i Web services 221
ca il 2%). In realtà potremmo individuare (cfr. Figura 5.4) due raggruppamenti di in-
teressi di grandezza abbastanza omogenea: da un lato l’alleanza Microsoft-IBM-BEA
con 726 interventi; dall’altra la Sun Microsystems con 943 interventi; tra i due rag-
gruppamenti di potere si trova il consorzio W3C, quasi a fungere “da arbitro”, con
493 interventi.
Microsoft
69; 3%
IBM
W3C
312; 14%
493; 23%
BEA
345; 16%
Sun
943; 44%
Figura 5.4 Partecipazione alla creazione dello standard dei principali gruppi di potere.
Nella prossima sezione illustreremo i primi risultati della grounded theory analysis e
in particolare le attività principali che caratterizzano il processo di standardizzazione
sotto esame.
Web services Architecture”? In particolare tale domanda può essere declinata in due
modi:
1) Attività. Quali sono le attività principali che caratterizzano il processo di crea-
zione dello standard oggetto di studio?
2) Fattori Critici. Quali sono i fattori e le forze in gioco che fanno emergere tra
tutti gli standard possibili il risultato finale?
Tabella 5.2 Ripartizione in due macrocategorie delle attività di standardizzazione. Per cia-
scun raggruppamento vengono evidenziati il numero di nodi concettuali che
individuano le attività, il numero di brani di testo da cui sono stati estratti i
concetti e la loro ampiezza complessiva.
Attività di organizzazione
(321K caratteri)
Definizione agenda
(9K caratteri)
Interazioni con altri gruppi
(263K caratteri)
Interazioni con mailing list
(10K caratteri)
Figura 5.5 Mappa delle attività di tipo "organizzazione". La sfera in alto rappresenta il to-
tale del testo mappato (321mila caratteri) che si scompone nelle quattro cate-
gorie concettuali sottostanti. Le sfere sono di dimensione (area) proporzionale
alla quantità di testo codificata per quella categoria.
Appare evidente che le attività “Interazioni con altri gruppi” siano largamente pre-
dominanti, seguite da quelle di preparazione dei 4 workshop face to face e dalle inte-
razioni con la mailing list. Per chiarezza solo le categorie concettuali più rilevanti so-
no riportate nel grafico.
224 Capitolo 5
La Figura 5.6 qui sopra illustra le principali categorie di attività relative alla proget-
tazione dello standard WSA (Web services Architecture), oggetto dell’analisi. Nella
parte sinistra sono evidenziate le macroattività relative all’attribuzione di significato e
alla definizione delle modalità di progettazione della WSA: WSA usage scenarios;
WSA goals; WSA design method. Nella parte destra sono invece le attività di elabora-
zione e redazione dei documenti di cui si compone la WSA (glossary; issues list; ar-
chitectural document). Dalla dimensione delle icone (la cui area è proporzionale al-
l'ampiezza complessiva del testo codificato in ogni categoria) risulta che le attività di
produzione del documento WSA goals sono largamente predominanti. In questo dia-
gramma sono riportati i codici delle categorie concettuali, ad esempio (3 2 1) WSA
goals. Tali codici sono utili per individuare nelle figure che seguono il dettaglio della
gerarchia dei concetti associato a ciascuna categoria.
Analisi empirica: i Web services 225
Design activites: (3 2 1) - (3 2 2)
(3 2 1) WSA goals-requirements (3 2 2) Discussion on how to design WSA
(3 2 1 1) 03 goals 12-14 inclusion (3 2 2 1) How to define design objectives
(3 2 1 2) 04 first reqrmts document (3 2 2 1 1) focussing on what is needed
(3 2 1 3) 03 goal 1 ensure vs enable (3 2 2 1 2) not focussing on present status
(3 2 1 4) 02 initial WSA goals gathering (3 2 2 1 8) first approximation
(3 2 1 5) 03 goals 1-14 initial list (3 2 2 2) Group responsibilities
(3 2 1 6) 06 assigning goal champions (3 2 2 2 1) overall design - requirements coord
(3 2 1 7) 06 goal 1 assure too strong (3 2 2 2 3) Recommendations to W3C
(3 2 1 8) 06 goal 5 simplicity (3 2 2 2 3 4) for creating new groups if necessary
(3 2 1 9) 06 goal 6 security (3 2 2 2 3 5) for activities to fill in gaps
(3 2 1 10) two req doc updates before april F2F (3 2 2 2 4) Activities coordination in-out W3C
(3 2 1 11) 07 goals 1-3 (3 2 2 2 5) Evangelization of Web services
(3 2 1 12) 07 goal 4 (3 2 2 3) avoiding show-stoppers
(3 2 1 13) 07 goal 5 simplicity (3 2 2 4) design the framework
(3 2 1 14) 07 goal 6 security (3 2 2 5) do not design the solution
(3 2 1 15) 07 goals 7-16 (3 2 2 6) find technology gaps
(3 2 1 16) 07 add new goals 17-19 (3 2 2 7) do not design missing technologies
(3 2 1 17) 08 goal 7 (3 2 2 8) Goals-use cases-requirements-CSF
(3 2 1 18) 08 goal 3 (3 2 2 9) allowing change flexibility
(3 2 1 19) 08 goal 8 (3 2 2 10) being minimalist to get consensus
… (3 2 2 11) Critical Success Factor method
… (3 2 2 11 1) CSF method discussed
(3 2 1 76) 32 final F2F cleanup (3 2 2 11 10) CSF method temporarily
(3 2 1 77) 32 AC001 (3 2 2 12) how to get closure on reqrmnts doc
(3 2 1 78) 32 AC2 6 8 11 16 17 19 AR 19 23 (3 2 2 13) how to raise proposals from ballotin
(3 2 1 79) 32 new choreography goal (3 2 2 14) how to finalize balloting
(3 2 1 80) 32 AR33 (3 2 2 15) identify tasks and players
215
Figura 5.7 Dettaglio parziale della gerarchia dei concetti .
Come il lettore può intuire, la gerarchia dei nodi concettuali qui sopra può suscitare
una pluralità di possibili interpretazioni.
215
I nodi concettuali dal (3.2.20) al (3 2 1 76) non sono riportati per mancanza di spazio.
226 Capitolo 5
Figura 5.8 Dettaglio parziale della gerarchia dei concetti dalla categoria (3 2 3) alla cate-
goria (3 2 12).
b) nel corso della progettazione, è possibile rintracciare nei testi dei verbali attivi-
tà di attribuzione di senso (es. definizioni di concetti e discussioni di come procede-
re); tali attività risultano (nell’ambito delle design activities) in oltre il 20% degli in-
terventi, per un’ampiezza complessiva pari a circa l’8% del testo relativo.
c) le attività di progettazione largamente predominanti sono state quelle relative
alla produzione e all’editing dei documenti della Web services Architecture. Tra que-
sti, quello che è stato oggetto di maggiore attività è stato quello degli obiettivi e dei
requisiti della WSA (Web services Architecture goals-requirements).
La risposta alla seconda domanda:
2) Fattori Critici Quali sono i fattori e le forze in gioco che fanno emergere tra
tutti gli standard possibili il risultato finale?
è basata sulla verifica di una particolare ipotesi di lavoro, collegata con la propo-
sizione n. 8 (Flessibilità interpretativa) enunciata nel capitolo precedente e basata sui
lavori SCOT (Social Construction of Technology) presi in esame alla fine del capitolo
3 (sezione 3.3.6). Tale ipotesi, come ben sappiamo dal capitolo precedente, vede il
processo di standardizzazione come un processo di massimizzazione dell’utilità col-
lettiva degli attori coinvolti. Si ipotizza che lo standard selezionato tra i possibili can-
didati sia quello che massimizza l’utilità dei gruppi adottanti. Tale utilità è a sua volta
collegata con la flessibilità dello standard nelle sue due forme di interpretative/use
flexibility e change flexibility.
In estrema sintesi, l’ipotesi di lavoro è che tra i diversi possibili artefatti “candida-
ti standard” che vengono considerati e scartati nel corso del processo di standardizza-
zione, quello che viene effettivamente prescelto e diviene alla fine uno standard è
quello che ha il livello più elevato di change flexibility e di interpretive flexibility,
cioè quello che può essere modificato e adattato più facilmente (change flexibility),
nonché utilizzato in più modi diversi (interpretive/use flexibility).
Per la verifica dell’ipotesi di lavoro, gli attributi affecting interpretive flexibility e
affecting use flexibility sono stati associati ad alcuni dei concetti emersi dall’analisi e
ai brani di testo ad essi collegati. Sono stati così individuati 29 passaggi di testo con
attività direttamente orientate alla massimizzazione della flessibilità interpretativa e
19 passaggi in cui l’obiettivo di aumentare la flessibilità d’uso era espresso.
Le indicazioni emerse allo stato attuale dello studio tendono dunque a confermare
la nostra ipotesi di lavoro per il caso in esame: la massimizzazione della flessibilità
risulta essere uno dei fattori guida dell’intero processo.
5.6 Conclusioni
Dall’analisi qui illustrata emerge come il processo di standardizzazione qui ana-
lizzato sia fortemente caratterizzato da due ordini di attività: progettazione e organiz-
zazione. Sorprendentemente, una parte consistente (oltre la metà) dei testi codificati
si riferisce ad attività di organizzazione. Le attività di progettazione presentano una
componente significativa, ma minoritaria di sensemaking; i documenti evidenziano
peraltro come la maggioranza dell’impegno di progettazione sia profuso nella elabo-
razione e redazione dei documenti di specifica e che tra questi il documento dei re-
228 Capitolo 5
quisiti architetturali sia risultato il più impegnativo. Questo appare in linea con le in-
dicazioni della letteratura classica sulla progettazione razionale (Simon 1981) che ve-
dono nella definizione dei requisiti una componente essenziale del design.
L’indicazione che lo stato attuale dell’analisi pare suggerire è dunque quella di una
sorta di “progettazione negoziale” che comprende al suo interno attività di sensema-
king, di definizione di requisiti, di elaborazione di specifiche, il tutto in un contesto
negoziale e collaborativo. L’intero processo appare orientato alla massimizzazione
della flessibilità di adattamento e di molteplice uso dell’artefatto in corso di standar-
dizzazione, confermando alcune delle indicazioni teoriche offerte nel capitolo prece-
dente.
Conclusioni
In conclusione, l'idea centrale che si è qui gradualmente delineata è quella dello stan-
dard come una regola formale che emerge e si afferma "sul mercato" (proposizioni 1
e 2). Ma che cosa aggiunge questa prospettiva alla cosiddetta "teoria delle regole", a
cominciare dai classici contributi weberiani per giungere fino ai recenti lavori di Ja-
mes March e dei suoi collaboratori (March et al., 2000); (March et al., 2003)?
Il fatto che una regola emerga in concorrenza con altre in un libero mercato sem-
bra porre in particolare evidenza alcuni processi già in parte presi in considerazione
nella teoria delle regole, come l'esistenza di un ciclo ecologico di selezione naturale
in cui le regole nascono, muoiono e si sostituiscono le une alle altre.
L'adozione volontaria in un libero mercato rende però il ciclo di vita degli stan-
dard estremamente più competitivo e dinamico di quanto avvenga per le regole for-
mali classiche. March e i suoi coautori potevano ben limitarsi a registrare la demogra-
fia delle regole osservandone le regolarità e i tratti generali senza chiedersi come fun-
zioni il sistema di selezione, quali siano le forze in gioco e i fattori che ne determina-
no i risultati. Nel caso degli standard, invece, in presenza di un mercato, appare ne-
cessario chiedersi come esso funzioni effettivamente. In questa ottica la domanda
"Come nasce uno standard?" può anche essere letta così: "Come funziona il mercato
delle regole?" L'indagine in questa direzione non solo contribuisce ad ampliare la no-
stra conoscenza degli standard, ma rappresenta anche un tentativo nuovo, anche se
certo soltanto iniziale, di avviare un contributo in una direzione di cui si sente ancora
oggi il bisogno anche nella teoria delle regole: la comprensione dei meccanismi di
216
selezione dei sistemi regolativi efficienti .
Per comprendere come avviene la selezione dello standard "migliore"sul mercato
è innanzi tutto necessario capire quali siano i vantaggi che esso può apportare agli u-
tenti: questa indagine è stata qui avanzata nel secondo capitolo, sulla base di varie
fonti della letteratura organizzativa che comprendono il filone contingentista, quello
dell'economia dei costi di transazione e quello sull'improvvisazione organizzativa.
Questi contributi fanno luce sui diversi benefici che uno standard può apportare al
suo gruppo di riferimento: essi investono non solo il coordinamento e la comunica-
216
In questo senso anche la postfazione di Anna Grandori all'edizione italiana del libro di
March, (March et al., 2003:223-25).
230 Conclusioni
re un ruolo determinante: lo standard "migliore" è dunque non solo quello che mas-
simizza le economie complessive, non solo quello che rafforza identità e legittima-
zione del gruppo di adozione, non solo quello sponsorizzato dal (sotto)gruppo più
forte e con maggiori aspettative di diffusione, ma anche quello che si presta meglio
degli altri ad una molteplicità di usi diversi (proposizione 8), come ben spiegato dagli
studi sulla costruzione sociale della tecnologia. Questa prospettiva mostra anche co-
me in presenza di molteplici usi diversi possa verificarsi un frazionamento del pro-
cesso di selezione e diffusione su più standard separati, ciascuno adatto ad un uso più
specifico (proposizione 9).
Infine, gli sviluppi più recenti delle teorie del dominant design hanno mostrato
come anche una molteplicità di standard può peraltro nascere in modo per così dire
organizzato (proposizione 10): le architetture complesse e modulari composte di mol-
ti standard tra loro interconnessi (come la rete Internet) rappresentano un elemento di
ulteriore arricchimento del quadro, che richiede di tenere in conto per la selezione
degli standard "migliori" dei requisiti tecnici architetturali secondo i principi della
complessità e delle tensioni contrapposte verso il polimorfismo ai livelli locali e verso
l'isomorfismo ai livelli più elevati della gerarchia architetturale.
Numerose sono certo le osservazioni critiche che possono essere sollevate su mol-
ti aspetti del contributo qui offerto: l'attenzione qui riposta alla motivazione attenta
degli assunti teorici, alla scrupolosa analisi della letteratura e delle fonti, alla ricerca
di una buona coerenza logica complessiva, per giungere fino alla integrazione della
letteratura secondaria con rilevazioni e analisi documentali sul campo, non esclude
certo la perfettibilità di quanto prodotto finora.
Se ampio è il campo di indagine di questo lavoro, notevoli sembrano anche gli
spazi di ricerca che esso potenzialmente apre. L'estensione più naturale e immediata
appare ovviamente quella empirica, di cui il caso di studio del capitolo 5 rappresenta
soltanto un primo passo. In che modo operazionalizzare tutti vari aspetti qui conside-
rati per la formazione dell'utilità complessiva (economie, legittimazione, identità, e-
sternalità, flessibilità interpretativa…)? Non a caso nell'analisi della letteratura, specie
nella parte dedicata all'istituzionalismo, si è posta particolare attenzione ai lavori più
recenti che avanzano metodi e misure concrete per la verifica empirica sul campo dei
processi di legittimazione. Un intero programma di ricerca potrebbe essere avviato in
questa direzione, a cui potrebbero contribuire approcci e metodi di analisi empirica
derivanti da visioni tradizionalmente contrapposte, come neoistituzionalismo e de-
mografia delle popolazioni, oppure chiuse alle influenze reciproche, come gli studi
sulla costruzione sociale della tecnologia e quelli sulla modularità.
Più realisticamente, appare però consigliabile restare con i piedi ben saldi sul ter-
reno delle modeste e faticose conquiste ottenute finora.
Eppure, guardando avanti non senza un pizzico di autoironia, è bello a questo
punto poter sognare un po' con James March: si tratta, ovviamente, di una fantasia
ottimista, ma, avendo scoperto la bellezza della realtà quotidiana delle regole scritte,
ci prendiamo il diritto di provare una certa ingiustificata euforia nel contemplare le
possibilità future della ricerca (March et al., 2003:217).
Riferimenti bibliografici
AAVV, 1987, The Social construction of technological systems - new directions in the
sociology and history of technology. Bijker, W. E., Hughes, T. P., & Pinch, T. J. Cam-
bridge, Mass, MIT Press.
Abernathy, W. J., 1978, The productivity dilemma - Roadblock to innovation in the auto-
mobile industry. Baltimore: Johns Hopkins University Press.
Adler, P. S., Goldoftas, B., & Levine, D. I., 1999, Flexibility versus efficiency? A case
study of model changeovers in the Toyota production system. Organization Science,
10(1): 43-68.
Afuah, A., Tucci, C., & Virili, F., 2001, Modelli di e-business - Acquisire vantaggi com-
petitivi con organizzazioni Internet-based. McGraw Hill.
Afuah, N. & Utterback, M., 1997, Responding to structural industry changes: a techno-
logical evolution perspective. Industrial and Corporate Change, 6(1): 183-202.
Alchian, A. A. & Demsetz, H., 1972, Production, Information Costs, and Economic Or-
ganization. The American Economic Review, 62(5): 777-795.
Altenberg, L., 1994, Evolving better representations through selective genome growth.
IEEE World Congress on Computational Intelligence. Proceedings of the IEEE World
Congress on Computational Intelligence. 182-187.
Altenberg, L., 1995, Genome growth and the evolution of the genotype-phenotype map.
In W. Banzhaf & F. H. Eckman (Eds.), Evolution and Biocomputation - Computational
Models of Evolution: 205-259. Springer.
Anderson, P. & Tushman, M. L., 1990, Technological Discontinuities and Dominant De-
signs: A Cyclical Model of Technological Change. Administrative Science Quarterly,
35(4).
Applegate, L. M., 1999, Rigor and Relevance in MIS Research: Introduction. MIS Quar-
terly, 23(1): 1-2.
Armstrong, L., 2003, The noblest invention - an illustrated history of the bicycle. Em-
maus, PA: Rodale.
Arthur, W. B., 1983, On Competing Technologies and Historical Small Events: The Dy-
namics of Choice under Increasing Returns. WP-83-90. IIASA. IIASA working papers.
Riferimenti bibliografici 235
Arthur, W. B., 1989, Competing Technologies, Increasing Returns, and Lock-In by His-
torical Events. The Economic Journal, 99(394): 116-131.
Arthur, W. B., 1990, Positive Feedbacks in the Economy. Scientific American, 262: 92-
99.
Arthur, W. B., 1994, Increasing returns and path dependence in the economy. Ann Ar-
bor: University of Michigan Press.
Arthur, W. B., 1996, Increasing returns and the new world of business. Harvard Business
Review, 74(4): 100-109.
Axelrod, R. M., 1984, The evolution of cooperation. New York: Basic Books.
Axelrod, R. M., Mitchell, W., Thomas, R. E., Bennett, D. S., & Bruderer, E., 1995, Coali-
tion Formation in Standard-Setting Alliances. Management Science, 41(9): 1493-1508.
Bacharach, S. B., 1989, Organizational Theories: Some Criteria for Evaluation. Academy
of Management Review, 14(4): 496-515.
Backouse, J., Hsu, C. W., & Silva, L., 2006, Circuits of Power in Creating De Jure Stan-
dards: Shaping an International Information Systems Security Standard. MIS Quarterly,
30(SI): 413-438.
Baldwin, C. Y. & Clark, K. B., 2000, Design rules - The power of modularity. Cam-
bridge, Mass: MIT Press.
Barley, S. R. & Tolbert, P. S., 1997, Institutionalization and Structuration: Studying the
Links between Action and Institution. Organization Studies, 18(1): 93.
Barnett, W. P., 1995, Telephone companies. In G. Carroll & M. T. Hannan (Eds.), Or-
ganizations in industry - strategy, structure, and selection: 277-289. New York: Oxford
University Press.
Baron, J. N., Hannan, M. T., & Burton, M. D., 1999, Building the Iron Cage: Determi-
nants of Managerial Intensity in the Early Years of Organizations. American Sociological
Review, 64(4): 527-547.
Baskerville, R. & Dulipovici, A., 2006, The theoretical foundations of knowledge man-
agement. Knowledge Management Research & Practice,(4): 83-105.
236 Riferimenti bibliografici
Baskerville, R. & Truex, D. P., 1998, Deep structure or emergence theory: contrasting
theoretical foundations for information systems development. Information Systems Jour-
nal,(8): 99-118.
Bassanini, A. P. & Dosi, G., 2001, When and How Chance and Hurnan Will Can Twist
the Arms of Clio: An Essay on Path Dependence in a World of Irreversibilites. In R. Ga-
rud & P. Karnøe (Eds.), Path Dependence and Creation: 41-68. Mahwah, NJ: Lawrence
Erlbaum Associates.
Baum, J. A. C., Korn, H., & Kotha, S., 1995, Dominant Designs And Population Dynam-
ics In Telecommunications Services: Founding And Failure Of Facsimile Service Organi-
zations 1965-1992. Social Science Research, 24: 97-135.
Beck, R. & Weitzel, T., 2005, Some Economics of Vertical Standards: Integrating SMEs
in EDI Supply Chains. Electronic Markets, 15(4): 313-322.
Beck, U., Bonss, W., & Lau, C., 2003, The Theory of Reflexive Modernization: Problem-
atic, Hypotheses and Research Programme. Theory, Culture & Society, 20(2): 1-33.
Bekkers, R., Duysters, G., & Verspagen, B., 2002, Intellectual property rights, strategic
technology agreements and market structure - The case of GSM. Telecommunications
Policy,(31): 1141-1161.
Benbasat, I. & Zmud, R. W., 1999, Empirical Research in Information Systems: The
Practice of Relevance. MIS Quarterly, 23(1): 3-16.
Berliner, P. F., 1994, Thinking in jazz: the infinite art of improvisation. Chicago (IL):
University of Chicago Press.
Besen, S. M. & Farrell, J., 1994, Choosing How to Compete: Strategies and Tactics in
Standardization. The Journal of Economic Perspectives, 8(2): 117-131.
Bijker, W. E., 1987, The Social construction of Bakelite: Toward a theory of invention. In
W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of technological
systems - New directions in the sociology and history of technology: 159-187. Cambridge,
Mass.: MIT Press.
Bijker, W. E., 1993, Do Not Despair: There Is Life after Constructivism. Science, Tech-
nology, & Human Values, 18(1): 113-138.
Bijker, W. E., 1997, Of Bicycles, Bakelites, and Bulbs: Toward a Theory of Sociotechni-
cal Change. MIT Press.
Riferimenti bibliografici 237
Bonino, M. J. & Spring, M. B., 1999, Standards as change agents in the information tech-
nology market. Computer Standards & Interfaces, 20(4-5): 279-289.
Bowker, G. C. & Star, S. L., 1999, Sorting Things Out: Classification and Its Conse-
quences. MIT Press.
Bresnahan, T. F., 2001, Network Effects and Microsoft. 00-51, 1-32. Stanford Institute
for Economic Policy Research. SIEPR Discussion Papers.
Brewer, M. B. & Gardner, W., 1996, Who is this we? Levels of collective identity and
self representations. Journal of Personality and Social Psychology, 71(1): 83-93.
Brint, S. & Karabel, J., 1991, Institutional origins and transformations: The case of
American community colleges. In W. W. Powell & P. DiMaggio (Eds.), The new institu-
tionalism in organizational analysis: 337-360. Chicago: The University of Chicago Press.
Brunsson, N., Jacobsson, B., & Associates, 2000, A World of Standards. Oxford: Oxford
University Press.
Burrell, G. & Morgan, G., 1979, Sociological Paradigms and Organizational Analysis.
London: Heinemann.
Butcher, K. S., According to the NIST Laws and Metric Group Leader.
http://lamar.colostate.edu/~hillger/fpla-update.html 23-4-2007.
Byrd, T. A. & Turner, D. E., 2000, Measuring the Flexibility of Information Technology
Infrastructure: Exploratory Analysis of a Construct. Journal of Management Information
Systems, 17(1): 167-208.
Callon, M., 1986, Some elements of a sociology of translation: domestication of the scal-
lops and the fishermen of St. Brieuc Bay. In J. Law (Ed.), Power, Action and Belief: A
New Sociology of Knowledge: 196-233. London: Routledge.
238 Riferimenti bibliografici
Campagnolo, D. & Camuffo, A., 2007, The concept of modularity within the management
studies: a literature review. Doing Well by Doing Good. Academy of Management An-
nual Meeting Proceedings [2007].
Camuffo, A. & Cappellari, R., 1996, L'economia dei costi di transazione. In G. Costa &
R. C. D. Nacamulli (Eds.), Manuale di Organizzazione Aziendale - Le teorie dell'organiz-
zazione: 250-278. Torino: UTET.
Carbone, L., 2007, Capire l'accettazione tecnologica - Analisi degli effetti rete attraverso
la simulazione. Università degli Studi di Cassino.
Cargill, C. F., 1989, Information technology standardization: theory, process, and or-
ganizations. Bedford, MA: Digital Press.
Carr, N. G., 2003, IT doesn't matter. Harvard Business Review, 81(5): 41-49.
Carr, N. G., 2004, Does IT matter? Information technology and the corrosion of competi-
tive advantage. Boston: Harvard Business School Press.
Carroll, G. R. & Swaminathan, A., 2000, Why the Microbrewery Movement? Organiza-
tional Dynamics of Resource Partitioning in the US Brewing Industry. American Journal
of Sociology, 106(3): 715-762.
Carroll, G. R. & Hannan, M. T., 2000, The demography of corporations and industries.
Princeton, N.J: Princeton University Press.
Carroll, G. R. & Harrison, J. R., 1994, On the Historical Efficiency of Competition Be-
tween Organizational Populations. The American Journal of Sociology, 100(3): 720-749.
Casanovas, J., 2007, Tentativo di Riforma del Calendario Gregoriano nel 700. Atti del
XXII Congresso Nazionale Storia della Fisica e dell'Astronomia .
Castells, M., 1996, The rise of the network society. Cambridge, Mass: Blackwell Publish-
ers.
Riferimenti bibliografici 239
Chen, P. Y. & Forman, C., 2006, Can vendors influence switching costs and compatibility
in an environment with open standards? MIS Quarterly, 30: 541-562.
Chesbrough, H. W., 2003, Open innovation - the new imperative for creating and profit-
ing from technology. Boston, Mass: Harvard Business School Press.
Christensen, C. M., Suarez, F. F., & Utterback, J. M., 1998, Strategies for Survival in
Fast-Changing Industries. Management Science, 44(12): 207-220.
Ciborra, C., 1991, From Thinking to Tinkering: The grassroots of Strategic Information
Systems. DeGross, J. I., Benbasat, I., Desanctis, G., & Beath, C. M. International Confer-
ence on Information Systems 1991 . New York.
Ciborra, C., 2002, The labyrinths of Information - Challenging the wisdom of systems.
Oxford: Oxford University Press.
Ciborra, C., Braa, K., Cordella, A., Dahlbom, B., Failla, A., Hanseth, O., Hepso, V.,
Ljungberg, J., Monteiro, E., & Simon, K. A., 2000, From Control to Drift. New York:
Oxford University Press.
Clark, K. B., 1985, The interaction of design hierarchies and market concepts in techno-
logical evolution. Research Policy, 14: 235-251.
Coase, R. H., 1937, The Nature of the Firm. Economica, 4(16): 386-405.
Coase, R. H., 1960, The Problem of Social Cost. Journal of Law and Economics, 3: 1-44.
Coase, R. H., 1974, The Lighthouse in Economics. Journal of Law and Economics, 17(2):
357-376.
Collins, H. M., 1981, Introduction: Stages in the Empirical Programme of Relativism. So-
cial Studies of Science, 11(1): 3-10.
240 Riferimenti bibliografici
Commons, J. R., 1934, Institutional economics: its place in political economy. New York:
The MacMillan Company.
Cusumano, M. A. & Gawer, A., 2002, The Elements of Platform Leadership. MIT Sloan
Management Review, 43(3): 51-58.
Cusumano, M. A., Mylonadis, Y., & Rosenbloom, R. S., 1992, Strategic Maneuvering
and Mass-Market Dynamics: The Triumph of VHS over Beta. The Business History Re-
view, 66(1): 51-94.
Daft, R. L., 2004, Organization theory and design. Mason, Ohio: Thomson/South-
Western.
Damsgaard, J., 2001, The Role of Intermediating Institutions in the Diffusion of Elec-
tronic Data Interchange (EDI): How Industry Associations Intervened in Denmark,
Finland, and Hong Kong. The Information Society, 17(3): 195-210.
Damsgaard, J. & Truex, D. P., 2000, Binary trading relations and the limits of EDI stan-
dards: the Procrustean bed of standards. European Journal of Information Systems, 9(3):
173-188.
David, P. A., 1985, Clio and the Economics of QWERTY. The American Economic Re-
view, 75(2): 332-337.
David, P. A., 1986, Understanding the Economics of QWERTY: The Necessity of His-
tory. In W. N. Parker (Ed.), Economic History and the Modern Economist: 30-49. Basil
Blackwell.
David, P. A., 1987, Some New Standards for the Economics of Standardization in the In-
formation Age. In P. Dasgupta & P. Stoneman (Eds.), Economic Policy and Technologi-
cal Performance: 206-239. Cambridge: Cambridge University Press.
David, P. A., Path dependence and the quest for historical economics: one more chorus of
the ballad of QWERTY. http://eh.net/Clio/Publications/pathdepend.html.
David, P. A., 2007, Path dependence: a foundational concept for historical social science.
Cliometrica, 1(2): 91-114.
Riferimenti bibliografici 241
David, P. A. & Greenstein, S., 1990, The Economics of Compatibility Standards: An In-
troduction to Recent Research. The Economics of Innovations and New Technology,
1(SI): 3-41.
De Marco, M., Bruschi, G., Manna, E., Giustiniani, G., & Rossignoli, C., 1987, Sistemi
informativi ed elaboratori elettronici.
De Marco, M., 1991, Di diritto e di fatto. SF - Rivista di Sistemi Finanziari 1[3], 84-91.
De Marco, M., Sorrentino, M., & Virili, F., 2003, Organizzazioni e Cambiamento Tec-
nologico. Milano: CUESP.
de Vries, H., 1999, Standardization - A Business Approach to the Role of National Stan-
dardization Organizations. Dordrecht, The Netherlands: Kluwer Academic Publishers.
DiMaggio, P., 1995, Comments on 'What Theory Is Not'. Administrative Science Quar-
terly, 3(40): 391-397.
DiMaggio, P. J. & Powell, W. W., 1983, The Iron Cage Revisited: Institutional Isomor-
phism and Collective Rationality. American Sociological Review, 48(2): 147-160.
242 Riferimenti bibliografici
Doty, D. H. & Glick, W. H., 1994, Typologies as a Unique Form of Theory Building:
Toward Improved Understanding and Modeling. Academy of Management Review, 19(2):
230-251.
Doty, D. H., Glick, W. H., & Hubert, G. P., 1993, Fit, Equifinality, and Organizational
Effectiveness: A Test of Two Configurational Theories. Academy of Management Jour-
nal, 36(6): 1196-1250.
Dyer, G., 1999, Is driving on the right right or wrong? The Telegram . St. John - Canada.
Dyer, W. G. JR. & Wilkins, A. L., 1991, Better Stories, not Better Constructs, to Generate
Better Theory: A Rejoinder to Heisenhardt. Academy of Management Review, 16(3): 613-
619.
Eco, U., 1993, La ricerca della lingua perfetta nella cultura europea.
Eisenhardt, K. M., 1989, Building Theories from Case Study Research. Academy of Man-
agement Review, 14(4): 532-550.
Eisenhardt, K. M., 1991, Better Stories and Better constructs: The Case for Rigor and
Comparative Logic. Academy of Management Review, 16(3): 620-627.
Emigh, J., 2007, Eight Financial Reasons Why You Should Use Mac OS. CIO
[1Aug2007].
Emmelhainz, M. A., 1993, EDI - a total management guide. New York: Van Nostrand
Reinhold.
Farrell, J. & Klemperer, P., 2007, Coordination and Lock-In: Competition with Switching
Costs and Network Effects. In M. Armstrong & R. Porter (Eds.), Handbook of Industrial
Organization, Vol 3: North Holland.
Riferimenti bibliografici 243
Farrell, J. & Saloner, G., 1985, Standardization, Compatibility, and Innovation. The
RAND Journal of Economics, 16(1): 70-83.
Farrell, J. & Saloner, G., 1986a, Installed Base and Compatibility: Innovation, Product
Preannouncements, and Predation. The American Economic Review, 76(5): 940-955.
Farrell, J. & Saloner, G., 1986b, Standardization and variety. Economics Letters, 20(1):
71-74.
Fellner, W., 1951, The Influence of Market Structure on Technological Progress. The
Quarterly Journal of Economics, 65(4): 556-577.
Fisher, S., 1977, 'Long-term contracting, sticky prices, and monetary policies': A com-
ment. Journal of Monetary Economics,(3): 317-323.
Fontana, J., 2007, Windows Vista sales hit 60 million. NetworkWorld [26lug2007].
Foray, D., 1994, Users, standards and the economics of coalitions and committees. Infor-
mation Economics and Policy, 6(3-4): 269-293.
Friedman, T. L., 2005, The world is flat - A brief history of the twenty-first century. New
York: Farrar, Straus and Giroux.
Friedman, T. L., 2006, Il mondo è piatto - Breve storia del ventunesimo secolo. Milano:
Mondadori.
Gawer, A. & Cusumano, M. A., 2002, Platform leadership - how Intel, Microsoft, and
Cisco drive industry innovation. Boston, Mass: Harvard Business School Press.
Gelinas, U. J. Jr. & Markus, M. L., 2005, The Standards Lens on IS Innovations—The
Case of CPFR. Proceedings of the 38th Hawaii International Conference on System Sci-
ences .
244 Riferimenti bibliografici
Gibbs, G., 2002, Qualitative data analysis - explorations with NVivo. Buckingham Eng,
Open University.
Gilbert, R. J., 1992, Symposium on Compatibility: Incentives and Market Structure. The
Journal of Industrial Economics, 40(1): 1-8.
Glaser, B. G. & Strauss, A. L., 1967, The discovery of grounded theory - strategies for
qualitative research. Chicago: Aldine Pub. Co.
Gould, S. J., 1987, The Panda's Thumb of Technology. Natural History, 1: 14-23.
Gould, S. J., 1991, Bully for brontosaurus - Reflections in natural history. New York:
Norton.
Grandori, A., 1988, Analisi dei costi per la progettazione organizzativa. Sviluppo e Or-
ganizzazione, 105: 27-37.
Greenstein, S., 1992, Invisible Hands and Visible Advisors: An Economic Interpretation
of Standardization. Journal of the American Society for Information Science, 43(8): 538-
549.
Gregor, S., 2006, The Nature of Theory in Information Systems. MIS Quarterly, 30(3):
611-642.
Grindley, P., 1995, Standards, Stretegy and Policy - Cases and Stories. Oxford University
Press.
Hannan, M. T., 2005, Ecologies of Organizations: Diversity and Identity. Journal of Eco-
nomic Perspectives, 19(1): 51-70.
Hannan, M. T. & Freeman, J., 1977, The Population Ecology of Organizations. The
American Journal of Sociology, 82(5): 929-964.
Hannan, M. T. & Freeman, J., 1984, Structural Inertia and Organizational Change. Ameri-
can Sociological Review, 49(2): 149-164.
Riferimenti bibliografici 245
Hannan, M. T. & Freeman, J., 1989, Organizational ecology. Cambridge, Mass: Harvard
University Press.
Hanseth, O., 2001, Gateways - Just as Important as Standards: How the Internet Won the
'Religious War' over Standards in Scandinavia. Knowledge, Technology, and Policy,
14(3): 71-89.
Hanseth, O., Jacucci, E., Grisot, M., & Aanestad, M., 2006, Reflexive standardization:
Side effects and complexity in standard making. MIS Quarterly, 30(SI): 563-581.
Hanseth, O., Monteiro, E., & Hatling, M., 1996, Developing information infrastructure:
the tension between standardisation and flexibility. Science, Technology and Human Val-
ues, 11(4): 407-426.
Hardin, R., 1982, Collective action. Baltimore: Published for Resources for the Future by
the Johns Hopkins University Press.
Hargadon, A. B. & Douglas, Y., 2001, When Innovations Meet Institutions: Edison and
the Design of the Electric Light. Administrative Science Quarterly, 46(3): 476-501.
Hatch, M. J., 1997, Organization Theory - Modern, Symbolic and Postmodern Perspec-
tives. Oxford University Press.
Hemenway, D., 1975, Industrywide Voluntary Product Standards. Cambridge, MA, Bal-
linger.
Henderson, R., 1995, Of life cycles real and imaginary: The unexpectedly long old age of
optical lithography. Research Policy, 24(4): 631-643.
Hickson, D., Aldrich, H., Child, J., Clegg, S., Donaldson, L., & Karpik, L., 1998, Offence
and Defence: A Symposium with Hinings, Clegg, Child, Aldrich, Karpik, and Donaldson.
Organization Studies 9[1], 1-32.
Hidefjall, P., 1997, The pace of innovation: patterns of innovation in the cardiac pace-
maker industry. Linköping University.
246 Riferimenti bibliografici
Hill, M. F., 1973, The world of EDP standards. Control Data [Corp.].
Hills, B., 2000, Common Message Standards for Electronic Commerce in Wholesale Fi-
nancial Markets. Bank of England Quarterly Bulletin, 40(3): 274-285.
Hilton, G. W., 1994, American Narrow Gauge Railroads. Stanford University Press.
Hilton, G. W., 2006, A history of track gauge. TRAINS Magazine 5[May 2006].
Hoffman, A. J., 1999, Institutional evolution and change: Environmentalism and the US
chemical industry. Academy of Management Journal, 42(4): 351-371.
Iansiti, M. & Khanna, T., 1995, Technological Evolution, System Architecture and the
Obsolescence of Firm Capabilities. Industrial and Corporate Change, 4(2): 333-361.
IEC, International standardization of electrical plugs and sockets for domestic use.
http://www.iec.ch/zone/plugsocket/ps_history.htm 23-4-2007.
Jacucci, E., Hanseth, O., & Lyytinen, K., 2006, Introduction: Taking complexity seriously
in IS research. Information Technology & People, 19(1): 5-11.
Katz, M. L. & Shapiro, C., 1985, Network Externalities, Competition, and Compatibility.
The American Economic Review, 75(3): 424-440.
Riferimenti bibliografici 247
Katz, M. L. & Shapiro, C., 1986, Technology Adoption in the Presence of Network Ex-
ternalities. The Journal of Political Economy, 94(4): 822-841.
Katz, M. L. & Shapiro, C., 1994, Systems Competition and Network Effects. The Journal
of Economic Perspectives, 8(2): 93-115.
Keil, T., 2002, De-facto standardization through alliances - lessons from Bluetooth. Tele-
communications Policy,(26): 205-213.
Kelly, K., 1997, New rules for the New Economy. Wired Magazine 5[9].
Kelly, K., 1998, New rules for the new economy - 10 radical strategies for a connected
world. New York, N.Y: Viking.
Kelly, K., 1999, Nuove regole per un nuovo mondo. Ponte Alle Grazie.
Kincaid, P., 1986, The Rule of the Road: An International Guide to History and Practice.
Greenwood Press.
Kindleberger, C. P., 1983, Standards as Public, Collective and Private Goods. Kyklos,
36(3): 377-396.
King, J. L., Gurbaxani, V., Kraemer, K. L., McFarlan, F. W., Raman, K. S., & Yap, C. S.,
1994, Institutional Factors in Information Technology Innovation. Information Systems
Research, 5(2): 139-169.
Kollock, P., 1998, Social Dilemmas: The Anatomy of Cooperation. Annual Review of So-
ciology, 24: 183-214.
Krechmer, K. & Baskin, E. J., 2006, The Entrepreneur and Standards. IEC Centenary
Challenge 2006. International Standardization as a Strategic Tool , 143-152. IEC.
Langlois, R. N. & Savage, D. A., 1997, Standards, Modularity, and Innovation: the Case
of Medical Practice. Garud, R. & Karnøe, P. Conference on Path Dependence and Path
Creation. Path Dependence and Path Creation , 149-168. Hillsdale, Lawrence Erlbaum.
Law, J., 1987, Technology and Heterogeneous Engineering: The Case of Portuguese Ex-
pansion. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of
technological systems - New directions in the sociology and history of technology: 311-
328. Cambridge, Mass.: MIT Press.
Law, J., 1992, Notes on the theory of the actor-network: Ordering, strategy, and hetero-
geneity. Systemic Practice and Action Research, 5(4): 379-393.
Leiner, B. M., Cerf, V. G., Clark, D. D., Kahn, R. E., Kleinrock, L., Lynch, D. C., Postel,
J., Roberts, L. G., & Wolff, S. S., 1997, Past and future history of the INTERNET. Com-
munications of the ACM, 40(2): 102-108.
Lewin, P., 2001, The Market Process and the Economics of QWERTY: Two Views. The
Review of Austrian Economics, 14(1): 65-96.
Liebowitz, S. J. & Margolis, S. E., 1990, The Fable of the Keys. Journal of Law and Eco-
nomics, 33(1): 1-25.
Liebowitz, S. J., 2002, Re-thinking the network economy - the true forces that drive the
digital marketplace. AMACOM: New York.
Liebowitz, S. J. & Margolis, S., 1999, Winners, losers & Microsoft - Competition and an-
titrust in high technology. Oakland, Calif: Independent Institute.
Lucas, B., Which side of the road do they drive on? http://www.brianlucas.ca/roadside/
17-3-2007.
Lyytinen, K. & King, J. L., 2006, Standard Making: A Critical Research Frontier for In-
formation Systems Research. MIS Quarterly, 30: 405-411.
MacCormack, A., Verganti, R., & IANSITI, M., 2001, Developing Products on Internet
Time: The Anatomy of a Flexible Development Process. Management Science, 47(1):
133-150.
Riferimenti bibliografici 249
Malone, T. W. & Crowston, K., 1994, The Interdisciplinary Study of Coordination. Com-
puting Surveys, 26(1): 87-119.
Malone, T. W., Crowston, K., Lee, J., Pentland, B., Dellarocas, C., Wyner, G., Quimby,
J., Osborn, C. S., Bernstein, A., Herman, G., Klein, M., & O'Donnell, E., 1999, Tools for
Inventing Organizations: Toward a Handbook of Organizational Processes. Management
Science, 45(3): 425-443.
Malone, T. W., Yates, J., & Benjamin, R. I., 1987, Electronic markets and electronic hier-
archies. Communications of the ACM, 30(6): 484-497.
March, J. G., 1994, A primer on Decision Making - How Decisions Happen. Free Press.
March, J. G., Schulz, M., & Zhou, X., 2000, The dynamics of rules - change in written
organizational codes. Stanford, CA: Stanford University Press.
March, J. G., Schulz, M., & Zhou, X., 2003, Per una teoria delle regole - nascita, cam-
biamento e strutturazione delle regole. Milano: EGEA.
Markus, M. L., Steinfield, C., Wigand, R. T., & Minton, G., 2006, Industry-wide Infor-
mation Systems Standardization as Collective Action: The Case of the U.S. Residential
Mortgage Industry. MIS Quarterly, 30(SI): 439-465.
Marwell, G. & Oliver, P., 1993, The critical mass in collective action: a micro-social the-
ory. New York: Cambridge University Press.
Marwell, G., Oliver, P. E., & Prahl, R., 1988, Social Networks and Collective Action: A
Theory of the Critical Mass. III. The American Journal of Sociology, 94(3): 502-534.
McCloskey, D. N., 1976, Does the Past Have Useful Economics? Journal of Economic
Literature, 14(2): 434-461.
McGregor, C., Why do some countries drive on the right and others on the left?
http://users.pandora.be/worldstandards/driving%20on%20the%20left.htm.
Meyer, A. D., 1998, Organizing for Improvisation: The Backstage Story of the Vancouver
Jazz Concert and Symposium. Organization Science, 9(5): 569-576.
250 Riferimenti bibliografici
Meyer, A. D., Frost, P. J., & Weick, K. E., 1998, The Organization Science Jazz Festival:
Improvisation as a Metaphor for Organizing: Overture. Organization Science, 9(5): 540-
542.
Meyer, A. D., Tsui, A. S., & Hinings, C. R., 1993, Configurational Approaches to Organ-
izational Analysis. Academy of Management Journal 36[6], 1175-1195.
Meyer, J. W. & Scott, W. R., 1983, Organizational environments - ritual and rationality.
Beverly Hills: Sage.
Meyer, M. H. & Lehnerd, A. P., 1997, The power of product platforms - building value
and cost leadership. Free Press.
Miller, D., 1996, Configuration Revisited. Strategic Management Journal 17, 505-512.
Miller, R., Hobday, M., Leroux-Demers, T., & Olleros, X., 1995, Innovation in complex
systems industries: the case of flight simulation. Industrial and Corporate Change, 4(2):
363-400.
Mohr, J. W. & Guerra-Pearson, F., 2005, The Differentiation of Institutional Space: Or-
ganizational Forms in the New York Social Welfare Sector, 1888-1917. Powell, W. W. &
Jones, D. How Institutions Change. Chicago, IL, University of Chicago Press (forthcom-
ing).
Mokyr, J., 1990, The lever of riches - Technological creativity and economic progress.
New York: Oxford University Press.
Monge, P. R., Fulk, J., Kalman, M. E., Flanagin, A. J., Parnassa, C., & Rumsey, S., 1998,
Production of Collective Action in Alliance-Based Interorganizational Communication
and Information Systems. Organization Science, 9(3): 411-433.
Morris, C. R. & Ferguson, C. H., 1993, How Architecture Wins Technology Wars. Har-
vard Business Review, 71(2): 86-96.
Murmann, J. P. & Frenken, K., 2006, Toward a systematic framework for research on
dominant designs, technological innovations, and industrial change. Research Policy,
35(7): 925-952.
Nair, H., Chintagunta, P., & Dube', J. P., 2004, Empirical Analysis of Indirect Network
Effects in the Market for Personal Digital Assistants. Quantitative Marketing and Eco-
nomics, 2(1): 23-58.
National Instruments, 2006, PCI Express- An Overview of the PCI Express standard. 1-
8.
Nesmith, A., 1985, A Long, Arduous March Towards Standardization. Smithsonian, 176-
194.
Nickerson, J. V. & Zur Muehlen, M., 2006, The ecology of standards processes: Insights
from Internet standard making. MIS Quarterly, 30: 467-488.
Nosengo, N., 2003, L'estinzione dei tecnosauri - Storie di tecnologie che non ce l'hanno
fatta. Sironi Editore.
Ohashi, H., 2003, The Role of Network Effects in the US VCR Market, 1978-1986. Jour-
nal of Economics & Management Strategy, 12(4): 447-494.
Oliver, P., Marwell, G., & Teixeira, R., 1985, A Theory of the Critical Mass. I. Interde-
pendence, Group Heterogeneity, and the Production of Collective Action. The American
Journal of Sociology, 91(3): 522-556.
Oliver, P. E. & Marwell, G., 1988, The Paradox of Group Size in Collective Action: A
Theory of the Critical Mass. II. American Sociological Review, 53(1): 1-8.
Oliver, P. E. & Marwell, G., 2001, Whatever Happened to Critical Mass Theory? A Ret-
rospective and Assessment. Sociological Theory, 19(3): 292-311.
Olson, M., 1965, The logic of collective action - Public goods and the theory of groups.
Cambridge, Mass: Harvard University Press.
Orlikowski, W. J., 1992, The Duality of Technology: Rethinking the Concept of Technol-
ogy in Organizations. Organization Science, 3(3): 398-427.
252 Riferimenti bibliografici
Parkinson, R., 1972, The Dvorak Simplified Keyboard: Forty Years of Frustration. Com-
puters and Automation, 21(11): 18-25.
Parsons, T., 1951, The social system. Glencoe (ILL): Free Press.
Pedersen, J. S. & Dobbin, F., 2006, In Search of Identity and Legitimation: Bridging Or-
ganizational Culture and Neoinstitutionalism. American Behavioral Scientist, 49(7): 897.
Peltz, C., 2003, Web services orchestration and choreography. Computer, 36(10): 46-52.
Pfeffer, J., 1992, Managing with power - politics and influence in organizations. Boston,
Mass: Harvard Business School Press.
Pfeffer, J. & Salancik, G. R., 1978, The external control of organizations - a resource de-
pendence perspective. New York: Harper & Row.
Pfeffer, J. & Salancik, G. R., 2003, The external control of organizations - a resource de-
pendence perspective. Stanford, Calif: Stanford Business Books.
Pinch, T. J. & Bijker, W. E., 1984, The Social Construction of Facts and Artefacts: or
How the Sociology of Science and the Sociology of Technology might Benefit Each
Other. Social Studies of Science, 14(3): 399.
Pinch, T. J. & Bijker, W. E., 1987, The Social Construction of Facts and Artifacts - Or
How the Sociology of Science and the Sociology of Technology Might Benefit Each
Other. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social construction of
technological systems - New directions in the sociology and history of technology: 17-50.
Cambridge, Mass.: MIT Press.
Pontiggia, A., 1997, Organizzazione dei Sistemi Informativi - Modelli per l'Analisi e per
la Progettazione. ETAS.
Riferimenti bibliografici 253
Pontiggia, A. & Virili, F., 2005, Effetti Rete e Accettazione Tecnologica. VII Workshop
dei Docenti e dei Ricercatori di Organizzazione Aziendale. Atti del VII Workshop dei
Docenti e dei Ricercatori di Organizzazione Aziendale [VII]. Milano.
Powell, W. W., 2008, The New Institutionalism. In S. Clegg & J. R. Bailey (Eds.), Inter-
national encyclopedia of organization studies: Thousand Oaks: Sage Publications.
Prahalad, C. K. & Hamel, G., 1990, The Core Competence of the Corporation. Harvard
Business Review,(May-June 1990): 79-91.
Rao, H., Monin, P., & Durand, R., 2003, Institutional change in toque ville: Nouvelle cui-
sine as an identity movement in French gastronomy. American Journal of Sociology,
108(4): 795-843.
Richards, T. & Richards, L., 1991, The NUDIST qualitative data analysis system. Quali-
tative Sociology, 14(4): 307-324.
Roccas, S. & Brewer, M. B., 2002, Social Identity Complexity. Personality and Social
Psychology Review, 6(2): 88.
Rosenberg, N., 1976, Marx as a Student of Technology. Monthly Review, 28(3): 56-77.
Rosenberg, N., 1982, Inside the black box - technology and economics. Cambridge Cam-
bridgeshire: Cambridge University Press.
Rosenkopf, L. & Tushman, M. L., 1998, The coevolution of community networks and
technology: Lessons from the flight simulation industry. Industrial and Corporate
Change, 7(2): 311-346.
Rysman, M., 2004, Competition Between Networks: A Study of the Market for Yellow
Pages. Review of Economic Studies, 71(2): 483-512.
254 Riferimenti bibliografici
Sanchez, R. & Mahoney, J. T., 1996, Modularity, Flexibility, and Knowledge Manage-
ment in Product and Organization Design. Strategic Management Journal, 17: 63-76.
Sanders, T. R. B. & International Organization for Standardization, 1972, The aims and
principles of standardization. Geneva: International Organization for Standardization.
Sanderson, S. & Uzumeri, M., 1995, Product platforms and dominant designs: The case
of Sony's Walkman. Research Policy, 24: 583-607.
Schneberger, S. L. & McLean, E. R., 2003, The complexity cross: implications for prac-
tice. Communications of the ACM, 46(9): 216-225.
Schumpeter, J. A., 1935, The Analysis of Economic Change. The Review of Economics
and Statistics, 17(4): 2-10.
Selznick, P., 1949, TVA and the Grass Roots: A Study in the Sociology of Formal Organi-
zation. Berkeley: University of California Press.
Shankar, V. & Bayus, B. L., 2003, Network effects and competition: An empirical analy-
sis of the home video game industry. Strategic Management Journal, 24(4): 375-384.
Shapiro, C. & Varian, H. R., 1998, Information Rules - A strategic Guide to the Network
Economy. Boston (MA).
Shapiro, C. & Varian, H. R., 1999, The Art of Standards Wars. California Management
Review, 41(2): 8-32.
Simon, H. A., 1962, The Architecture of Complexity. Proceedings of the American Phi-
losophical Society, 106(6): 467-482.
Spivak, S. M. & Brenner, C. F., 2001, Standardization Essentials - Principles and Prac-
tice. New York: Marcel Dekker.
Stango, V., 2004, The Economics of Standards Wars. Review of Network Economics,
3(1): 1-19.
Star, S. L. & Ruhleder, K., 1996, Steps Toward an Ecology of Infrastructure: Design and
Access for Large Information Spaces. Information Systems Research, 7(1): 111-134.
Stets, J. E. & Burke, P. J., 2000, Identity Theory and Social Identity Theory. Social Psy-
chology Quarterly, 63(3): 224-237.
Strauss, A. L. & Corbin, J. M., 1998, Basics of Qualitative Research: Techniques and
Procedures for Developing Grounded Theory. Sage Publications.
Suarez, F. F., 2004, Battles for technological dominance: an integrative framework. Re-
search Policy, 33(2): 271-286.
Suarez, F. F. & Utterback, J. M., 1995, Dominant Designs and the Survival of Firms.
Strategic Management Journal, 16(6): 415-430.
Sullivan, T. & Scannell, E., Microsoft, Sun Vie for Web Services.
http://www.pcworld.com/article/id,67566-page,1/article.html 28-3-2008.
Sutherland, J. W., 1975, Systems: Analysis, Administration, and Architecture. New York:
Van Nostrand.
Sutton, R. L. & Staw, B. M., 1995, What Theory Is Not. Administrative Science Quar-
terly, 3(40): 371-384.
Timmermans, S. & Berg, M., 1997, Standardization in Action: Achieving Local Univer-
sality through Medical Protocols. Social Studies of Science, 27(2): 273-305.
Toth, R. B., 1996, Putting the US standardization system into perspective: new insights.
StandardView, 4(4): 169-178.
256 Riferimenti bibliografici
Truex, D. P., Baskerville, R., & Klein, H., 1999, Growing Systems in Emergent Organiza-
tions. Communications of the ACM, 42(8): 117-123.
Tushman, M. L. & Murmann, J. P., 1998, Dominant designs, technology cycles, and or-
ganizational outcomes. Research in Organizational Behavior, 20: 231-266.
Tushman, M. L. & Murmann, J. P., 2002, Dominant Designs, Technology Cycles, and
Organizational Outcomes. In R. Garud, A. Kumaraswamy, & R. N. Langlois (Eds.),
Managing in the Modular Age: Architectures, Networks, and Organizations: 316-348.
Blackwell Publishers.
Ulman, E., 1996, The Music of Sylvano Bussotti. Perspectives of New Music, 34(2): 186-
201.
Ulrich, K., 1995, The role of product architecture in the manufacturing firm. Research
Policy, 24(3): 419-440.
Utterback, J. M. & Abernathy, W. J., 1975, A dynamic model of product and process in-
novation. Omega, 3(6): 639-656.
Utterback, J. M. & Suarez, F., 1993, Technology, competition and industry structure. Re-
search Policy, 22: 1-21.
Van de Ven, A. H. & Garud, R., 1994, The coevolution of technical and institutional
events in the development of an innovation. In J. Baum & J. Singh (Eds.), Evolutionary
Dynamics of Organizations: 425-443. New York: Oxford University Press.
Riferimenti bibliografici 257
Van de Ven, A. H., 1989, Nothing Is Quite so Practical as a Good Theory. Academy of
Management Review, 14(4): 486-489.
Van de Ven, A. H., Delbecq, A. L., & Koenig, R., Jr., 1976, Determinants of Coordina-
tion Modes within Organizations. American Sociological Review, 41(2): 322-338.
van Nierop, O. A., Blankendaal, A. C. M., & Overbeeke, C. J., 1997, The Evolution of
the Bicycle: A Dynamic Systems Approach. Journal of Design History, 10(3): 253-267.
Varian, H. R., Farrell, J., & Shapiro, C., 2004, The economics of information technology -
An introduction. Cambridge: Cambridge University Press.
Virdell, M., Business processes and workflow in the Web services world.
http://www.ibm.com/developerworks/webservices/library/ws-work.html.
Virili, F., 2007, Gli assetti organizzativi. In F. Favotto (Ed.), Economia Aziendale - Mod-
elli, misure e casi: 103-154. Mc Graw-Hill.
Virili, F. & Sorrentino, M., 2008, The enabling role of Web services in Information Sys-
tem Development practices: a Grounded Theory Study. Information Systems and eBusi-
ness Management .
Weick, K. E., 1969, The social psychology of organizing. Reading, Mass: Addison
Wesley.
Weick, K. E., 1995b, What Theory Is Not, Theorizing Is. Administrative Science Quar-
terly, 3(40): 385-390.
Weiss, M. & Cargill, C., 1992, Consortia in the Standards Development Process. Journal
of the American Society for Information Science, 43(8): 559-565.
Weitzel, T., Beimborn, D., & Konig, W., 2006, A unified economic model of standard
diffusion: The impact of standardization cost, network effects, and network topology. MIS
Quarterly, 30: 489-514.
West, J., 2006, The Economic Realities of Open Standards: Black, White and Many
Shades of Gray. In S. Greenstein & V. Stango (Eds.), Standards and Public Policy: Cam-
bridge University Press.
West, L. J., 1998, The Standard and Dvorak Keyboards Revisited: Direct Measures of
Speed. Technical report, Santa Fe Institute.
Wigand, R. T., Markus, M. L., & Steinfield, C., 2005, Preface to the Focus Theme Sec-
tion: 'Vertical Industry Information Technology Standards and Standardization'. Elec-
tronic Markets, 15(4): 285-288.
Williamson, O. E., 1971, The vertical integration of production: market failure considera-
tions. American Economic Review, 61(5): 112-123.
Williamson, O. E., 1975, Markets and Hierarchies: Analysis and Antitrust Implications.
New York: Free Press.
Williamson, O. E., 1981, The Economics of Organization: The Transaction Cost Ap-
proach. The American Journal of Sociology, 87(3): 548-577.
Williamson, O. E., 1985, The Economic Institutions of Capitalism. New York: Free Press.
Zack, M. H., 2000, Jazz Improvisation and Organizing: Once More from the Top. Or-
ganization Science, 11(2): 227-234.
Zhu, K., Kraemer, K. L., Gurbaxani, V., & Xu, S. X., 2006, Migration to open-standard
interorganizational systems: Network effects, switching costs, and path dependency. MIS
Quarterly, 30: 515-539.
Zur Muehlen, M., Nickerson, J. V., & Swenson, K. D., 2005, Developing Web Services
Choreography Standards -The Case of REST vs. SOAP. Decision Support Systems, 40(1):
9-29.