Sei sulla pagina 1di 8

1.

LA RIVOLUZIONE DIGITALE
Streaming, e-commerce, motore di ricerca, smartphone, social network e sharing sono termini che oggi ci sembrano
naturali ma, fino a qualche tempo fa, semplicemente non esistevano. Di fatto, questi termini e queste tecnologie si sono
perfettamente integrati nella nostra quotidianità negli ultimi decenni, rivoluzionandola.

Il processo di trasformazione in atto per effetto delle tecnologie digitali può essere tranquillamente definito
RIVOLUZIONE DIGITALE. Esso sta oramai governando i cambiamenti economici e sociali del XXI secolo e ben presto
interesserà ogni attività umana, come ha già modificato il commercio, l’intrattenimento, la finanza e l'intera economia.
Per questo, si parla di GENERAL PURPOSE TECHNOLOGIES  tecnologie di portata generale che producono effetti su
diversi campi della società, dell'economia e della vita umana.

La digitalizzazione investe i mercati, le relazioni sociali, i rapporti personali ed i meccanismi di funzionamento della
politica e della democrazia. Una delle citazioni più celebri per descrivere questa caratteristica delle tecnologie digitali si
deve a Nicholas Negroponte, il co-fondatore della Media Lab di Boston:
“Computing is not about computer anymore. It is about living.”
(L’informatica non è più solo una questione di computer, riguarda la nostra vita).

Rivoluzioni tecnologiche:

1. Prima rivoluzione industriale (1760-1840)  invenzione della macchina a vapore;


2. Seconda rivoluzione industriale (1870-1900)  energia elettrica, acqua corrente e combustione;
3. Terza rivoluzione industriale (1960-1990)  rivoluzione digitale: computer, semiconduttori e internet;
4. Quarta rivoluzione industriale  rivoluzione attuale (a partire dagli anni 2000), caratterizzata dalla diffusione di
internet e della sua crescente portabilità grazie agli smartphone e al GPS. In essa, giocano un ruolo sempre
maggiore l'intelligenza artificiale e il machine learning, i computer quantici, le nanotecnologie e la presenza di
sensori: tecnologie che rendono il mondo sempre più interconnesso.

Come si vede, la Quarta rivoluzione industriale costituisce una sorta di ulteriore sviluppo delle tecnologie della Terza.
Per questo motivo, si utilizza l'espressione INDUSTRIA 4.0 allo scopo di identificare la riorganizzazione della catena di
valore che deriva da questi cambiamenti tecnologici già introdotti dalla rivoluzione precedente.

Secondo alcuni, con l’avvento di internet assistiamo alla quarta rivoluzione industriale perché queste nuove tecnologie
hanno un impatto sul settore produttivo; secondo altri, invece, non si può parlare di rivoluzione industriale perché
quest’ultima non ha ancora prodotto effetti paragonabili alle altre rivoluzioni sull’economia e sulla crescita della
produttività. Questa opinione però non tiene conto della variabile tempo (effetto a lungo termine).
2.ANALOGICO E DIGITALE
L'espressione “rivoluzione digitale” descrive l'epocale passaggio dalle tecnologie analogiche (stampa a caratteri mobili,
meccanica) alle tecnologie digitali. La parola digitale deriva dall'inglese digit (numero) e, a sua volta, dal latino digitus
(dito – che usiamo per contare)  il termine digitale può essere associato al termine numerico.

Nei sistemi analogici i segnali venivano prodotti per analogia.


Nel sistema digitale invece, qualunque messaggio è tradotto in sequenze numeriche attraverso un particolare sistema “a
base due”  IL SISTEMA BINARIO.
Esso è composto da sequenze di due soli valori espressi per convenzione con 0 e 1 ed ha un’importanza fondamentale
nella rivoluzione digitale in atto in quanto è il linguaggio che capiscono i calcolatori.
Con il sistema binario, i computer gestiscono e codificano segnali in queste sequenze di 0 e 1 e permettono alle persone
di riceverli sotto forma comprensibile di suoni, immagini, video e testi.

 L’entità minima di informazione nella comunicazione digitale è il BIT (BINARY DIGIT).


Un singolo bit può esprimere un’informazione che può assumere due soli valori, 0 o 1  è sufficiente per comunicare
un'informazione elementare (acceso/spento), ma non basta se dobbiamo descrivere informazioni più complesse.
Per fare ciò, abbiamo bisogno di un certo numero di bit: attraverso sequenze più o meno lunghe di bit è possibile
registrare e rappresentare anche i dati più complessi.

 L’aggregazione di 8 bit prende il nome di BYTE ed è in grado di gestire ben 256 informazioni (2^8 bit): ne deriva
una maggiore complessità dell’informazione codificata.

Il principio è quello di associare un’informazione alla sua rappresentazione binaria.


Esempi:

 Il codice ASCII → American Standard Code for Information Interchange. È un sistema di codifica di caratteri
adottato negli USA negli anni ’70 che attribuisce un numero binario ad ogni carattere, numero o simbolo
presente sulla tastiera.
 Pixel → picture element. Per tradurre in linguaggio binario e convertire in digitale un’immagine, questa viene
suddivisa in piccolissimi quadratini sullo schermo. Ad ogni pixel corrisponde un certo numero di bit: se
l’immagine è in bianco e nero basta usare un bit per ogni pixel (1= pixel neri; 0= pixel bianchi), per immagini a
colori serviranno più bit per ciascun pixel. (per un’immagine di 256 colori serve 1 byte = 2^8 bit).

3.DAGLI ATOMI AL BIT


All'inizio della rivoluzione digitale, i computer si limitavano a trattare i numeri ed a fare calcoli; solamente in un
momento successivo, tali elaboratori iniziarono a svolgere altre funzioni più precise.
 DIGITALIZZAZIONE DELLE INFORMAZIONI: processo che permette di trasformare i computer da semplici macchine di
calcolo a quello che sono oggi, mediante un processo di registrazione, rappresentazione e conversione delle
informazioni analogiche in digitale.
Questa trasformazione avviene attraverso la codifica delle informazioni in un flusso di bit che permette al computer di
processarle nel proprio linguaggio.
Le informazioni si trasformano in FILE, ciascuno dei quali ha un proprio formato specifico: testo (ASCII), audio (mp3),
immagini (bmp, gif, jpeg, svg), video (avi, mov, mpeg, divX).
Una volta che l’informazione si converte in file, essa acquista dei vantaggi:

 Free: è possibile trasmetterla a costi irrisori, prossimi allo zero;


 Perfect: il file trasmesso non subisce perdite di qualità e resta identico all’originale;
 Instant: trasmissione/passaggio del file rapida e istantanea

ES: libro cartaceo e libro digitale.

Questo processo è ulteriormente semplificato grazie al miglioramento delle TECNICHE DI COMPRESSIONE. Esse
riducono la dimensione dei file attraverso la diminuzione di bit necessari a rappresentare una certa informazione, senza
alternarla. (ES: canzone mp3).

Il processo di digitalizzazione prende avvio negli anni ’90.


Viene prodotta la prima macchina fotografica digitale con il conseguente crollo della Kodak.
4.DALLE INFORMAZIONI AI DATI
Grazie al processo di digitalizzazione, ossia di conversione delle informazioni analogiche in digitali, l'umanità dispone
oggi di un immenso patrimonio di informazioni. Ma per comprendere a pieno la portata di questa rivoluzione, dobbiamo
aggiungere un tassello importante:

LA DATIZZAZIONE (DATIFICATION)  la trasformazione delle informazioni digitali in dati. Questa trasformazione


presuppone la capacità di misurazione e di registrazione delle informazioni, in modo da poterle analizzare.

A partire dell’invenzione della scrittura, si è giunti alla creazione dell’unità di misura del watt per misurare l’energia
elettrica.

Tra i progressi registrati, ricordiamo l’abbandono del sistema numerico romano e l'adozione dei numeri arabi su base
decimale, che permise di svolgere CALCOLI computazionali in maniera più semplice. In questo ambito, riveste un ruolo
di fondamentale importanza l’invenzione della PARTITA DOPPIA: il primo caso in assoluto di rilevazione standardizzata
di dati.

Digitalizzazione e datizzazione sono alla base della rivoluzione digitale.

ES 1: Un progresso importantissimo avviene alla fine degli anni ’70 con l’invenzione del GPS (GLOBAL POSITIONING
SYSTEM): un sistema di satelliti lanciati in orbita che, una volta giunti nello spazio inviano segnali ad appositi ricevitori
che si trovano sulla terra. Nata per usi militari, adesso è utilizzabile anche per usi civili grazie alla diffusione di chip molto
economici che possono essere facilmente inseriti in qualsiasi dispositivo digitale (es: smartphone).

ES 2: Un altro esempio importante da menzionare è GOOGLE BOOKS. Nel 2004 Google annunciò la propria volontà di
rendere disponibili online tutti i libri presenti sulla Terra fino a quel momento disponibili solo in formato analogico.

Il primo step fu quello di DIGITALIZZARE i libri e renderli disponibili gratuitamente al pubblico. Una volta digitalizzato, un
libro poteva essere riprodotto e condiviso in modo istantaneo, perfetto e gratuito; ciononostante, l’utilità della
“biblioteca virtuale” di Google era ancora ridotta poiché i libri erano stati convertiti in semplici immagini, di conseguenza
non si poteva svolgere la ricerca per capitolo, paragrafo, parola.

Di conseguenza, lo step successivo fu quello di DATIZZARE l’informazione mediante un software ottico capace di
riconoscere i caratteri e di trasformare le immagini digitali in immagini leggibili dai computer. Quindi:
• Digitalizzazione: processo di conversione da analogico a digitale, ossia da atomi a bit;
• Datizzazione: l’informazione digitalizzata viene processata dalla macchina per ottenerne ulteriori informazioni.
ES: Google Translator.
5.LA RIVOLUZIONE DEL SILICIO

Ancora negli anni ‘60 il computer erano macchinari molto ingombranti e costosi, accessibili solo ad apparati pubblici e
grandi imprese. Alla fine degli anni ’70, grazie ad Apple e IBM nasce il PERSONAL COMPUTER  tutti possono gestire un
foglio di calcolo, utilizzare stampanti domestiche, fare desktop publishing che prima era concesso solo a stamperie
professionali.

Alla nascita dei personal computer si aggiunge la nascita dei primi TELEFONI CELLULARI e SMARTPHONE (telefoni dotati
di capacità di calcolo, un proprio sistema operativo e applicazioni specifiche per connettersi ad internet). Questa
innovazione è dovuta alla continua riduzione dei processori, che diventano sempre più piccoli al punto che diviene
possibili portarli con sé. 
EVOLUZIONE: mega processori > personal computer (portatili sempre più leggeri) > smartphone.

Il passaggio fu abbastanza rapido grazie alle intuizioni di GORDON MOORE, uno dei fondatori della Intel. La sua legge, LA
LEGGE DI MOORE, afferma che i microprocessori - ossia i circuiti elettronici che sono alla base del funzionamento dei
computer - raddoppiano ciclicamente i componenti elettronici che sono in grado di contenere al loro interno. In
particolare, i progressi fatti nelle tecnologie digitali permettono di raddoppiare i componenti elettronici di un
microprocessore ogni 12-24 mesi. Questa spiega:

 perché i processori siano diventati sempre più veloci e affidabili;


 perché la potenza di uno smartphone è maggiore rispetto alla potenza di un personal computer dell’anno
precedente;
 perché i processori hanno dimensioni sempre più ridotte.
6.INTERNET E LA RETE (IL WORLD WIDE WEB)
La crescita esponenziale della capacità di calcolo dei computer ha consentito di processare quantità sempre maggiori e
complesse di informazioni.
 Un altro passaggio epocale della rivoluzione digitale è L’AVVENTO DI INTERNET e, successivamente, del WEB.

INTERNET  una rete di collegamenti informatici su scala globale che consente di connettere tra loro computer e
dispositivi – chiamati nodi – ciascuno dei quali con capacità di ricevere e trasmettere dati. La connessione tra questi nodi
può avvenire tanto mediante collegamenti fisici (ES: cavi, fibra ottica) quanto senza (wireless).

Internet è un’infrastruttura tecnologica sulla quale viaggiano i dati da un nodo all'altro della rete.

La nascita di Internet risale ad un esperimento condotto dal Dipartimento della Difesa statunitense negli anni ’50, in
piena Guerra Fredda. L’intento era quello di creare una rete distribuita di computer priva di nucleo centrale  a prova
di attacco. Questa rete prese il nome di ARPANET ed è considerata da tutti il progenitore di Internet.

A partire dagli anni ’70, Arpanet estese il suo utilizzo anche a prestigiose università americane. Ciascuna di esse era
separata dalle altre ed utilizzava il proprio linguaggio. Fondamentale fu, dunque, l’invenzione di una METALINGUA: un
sistema aperto capace di far comunicare tra loro tutte le reti create fino a quel momento, chiamato TCP/IP
(TRANSMISSION CONTROL PROTOCOL/INTERNET PROTOCOL).  nasce la rete globale, la rete delle reti.

 Passaggio successivo: NASCITA DEL WEB.

Il WEB è uno dei servizi che può funzionare su questa infrastruttura, ma non l’unico (internet accoglie molti servizi che
non implicano l’uso del web – ES: l’impiego della posta elettronica). Difatti, nasce sulle basi di internet e ne sfrutta le
caratteristiche per realizzare un sistema interconnesso di documenti multimediali ed ipertestuali.

 Passaggio successivo: NASCITA DEL WORLD WIDE WEB, per mano di Tim Berners-Lee, ingegnere inglese del
CERN di Ginevra.

Con il web si crea una banca dati ipertestuale con LINK grazie al web qualsiasi contenuto può essere rappresentato
sottoforma di pagina web che, raggruppato con altre pagine web, forma dei siti. HYPERLINK: collegamento attraverso cui
vengono connesse tutte queste pagine web e questi siti.
Questa comunicazione globale fa favorita dall’introduzione di protocolli standardizzati:

HTML (Hypertext Markup Language) per le pagine web, HTTP (Hypertext Transfer Protocol) per le comunicazioni tra
server e client, URL (Uniform Resource Locator) per l’identificazione universale ed univoca di documenti.

Berners-Lee inventò anche il primo BROWSER: un programma grazie al quale gli utenti del web possono accedere ai
contenuti.
7.ALGORITMI, CODING E INTELLIGENZA ARTIFICIALE
ALGORITMO  sequenza finita e ordinata di istruzioni chiare ed univoche. Esso ci permette di arrivare alla risoluzione di
un problema attraverso determinati procedimenti che avvengono in un tempo finito.
ES: sequenza di istruzioni per fare il caffè.
La parola “algoritmo” deriva dalla trascrizione latina del nome del matematico persiano vissuto nel IX secolo che per
primo ipotizzò questa teoria.

Per comprendere a pieno cos’è un algoritmo in ambito informatico abbiamo bisogno di definire il CODING, ossia un
programma che traduce i passaggi e le istruzioni definite dall’algoritmo in comandi rivolti al computer.

Al fine di essere eseguito da una macchina, l’algoritmo deve contenere istruzioni univoche, chiare ed esatte (non accetta
istruzioni ambigue)  l’intelligenza delle macchine non è capace di gestire informazioni vaghe, come invece riesce a
fare l’intelligenza umana.

A partire da questa netta distinzione nasce la questione dell’INTELLIGENZA ARTIFICIALE (AI)  insieme di tecnologie
capaci di eseguire compiti che normalmente richiederebbero l’impiego dell’intelligenza umana.
La concettualizzazione dell’idea di un’intelligenza contrapposta a quella umana si deve al matematico Alan Turing, il
quale nel 1950 elaborò il TURING TEST per stabilire se una macchina potesse davvero dirsi “intelligente”.

Esistono tre fasi dell’intelligenza artificiale:

1.Essa nasce nel 1956, in occasione di una riunione finanziata dalla Rockefeller Foundation, al termine della quale gli
scienziati affermarono (ipotizzarono ottimisticamente) che non vi era alcuna caratteristica dell’intelligenza umana che
un computer non fosse in grado di riprodurre. L’unica cosa necessaria per far sì che ciò accadesse era fornire alla
macchina una descrizione sufficientemente precisa del compito da svolgere, in modo da renderlo eseguibile tramite un
algoritmo. Dunque, nascono gli EXPERT SYSTEM: sistemi che davano informazioni e conoscenze precise alle macchine
mediante la logica “if then” (se accade X allora esegui Y) tipica della programmazione. Però questi mostrarono ben
presto i propri limiti; difatti, oltre essere molto dispendiosi, erano statici (le macchine non imparavano nulla di nuovo e
si limitavano ad eseguire ordini prestabiliti).

2.Si inaugura negli anni 2000 – dopo lo scetticismo diffusosi tra gli anni ’70 e ’80 (inverno dell’intelligenza artificiale).
La seconda fase è caratterizzata dal graduale abbandono dell’approccio expert system, a favore del MACHINE LEARNING
(apprendimento delle macchine): tecnologia molto sofisticata grazie alla quale i computer possono identificare modelli e
prendere decisioni, pur senza essere stati espressamente programmati per eseguire certi compiti, consentendo così alla
macchina di “apprendere dall’esperienza”.  con le tecnologie machine learning i programmi non sono più
semplicemente esecuzioni di ordini di tipo “if then”, ma adattano le proprie risposte e si migliorano in base alle
esperienze maturate.
Un tipo di machine learning molto importante è quello che si basa sulle RETI NEURALI (NEURAL NETWORK) 
una tecnologia (ispirata all’architettura della mente umana) per l’apprendimento delle macchine, in cui tante unità
elementari (nodi/neuroni artificiali) connesse tra loro si scambiano dati e informazioni.
Un’ulteriore evoluzione dei sistemi machine learning che si basano su reti neurali è quello del cosiddetto DEEP
LEARNING ed è alla base delle più moderne tecniche di impiego dell’AI, soprattutto nel riconoscimento di immagini, testi
e suoni.
I progressi dell’AI sono stati frutto della crescente disponibilità di dati (BIG DATA) su cui allenare le capacità delle
macchine.
3.La terza e attuale fase è ancora agli inizi. Finora l’AI si è sviluppata in ambiti specifici (infatti si parla di “ narrow AI”), in
quest’ultima fase, invece, la sfida è quella di far acquisire alle macchine la capacità di sviluppare ragionamenti di tipo
trasversale, capacità di apprendimento di tipo generale (GENERAL AI), capacità di articolare ragionamenti complessi e
fornire soluzioni ma anche e soprattutto di comunicare con gli esseri umani e di spiegare le ragioni delle proprie scelte.
8.I BIG DATA E L’INTERNET OF THINGS (IoT)
Molti dei progressi tecnologici raggiunti in questi anni sono dovuti alla grande disponibilità di dati.
BIG DATA  insieme di tecnologie e metodi di analisi che permettono l’utilizzo di grandi quantità di dati che possono
essere analizzati e messi in relazione tra loro creando legami e ricavandone informazioni.
Caratteristiche principali dei big data:
le tre V 
 Volume: quantità di dati generati al secondo;
 Velocità: di trasmissione e condivisione dei dati in tempo reale;
 Varietà: tipologie diverse di dati.
Grazie alla costante evoluzione del mondo digitale, sempre più oggetti della nostra quotidianità, tradizionalmente non
dotati di sensori e non connessi in rete, vengono resi intelligenti, dunque trasformati in SMART OBJECT. 
Nasce così l’INTERNET OF THINGS (IoT): una rete di oggetti fisici nei quali sono integrati dispositivi elettronici dotati di
sensori e gestiti tramite appositi software tali da consentire a questi oggetti di connettersi in rete, raccogliere e
scambiarsi dati, estendendo così la portata di internet a tutti gli oggetti fisici che compongono la nostra quotidianità
(automobili, elettrodomestici).
Questa novità comporta un cambiamento radicale, dal punto di vista dei mercati, nel modo in cui imprese concepiscono
e producono i propri beni.

La novità quantitativa (big data) si trasforma presto in qualitativa, cambiando profondamente i modi e le forme della
conoscenza. Difatti è possibile:

1. Osservazione di un evento attraverso la totalità delle informazioni a nostra disposizione;


2. Accettazione di un maggior margine di errore, perché l’incidenza negativa di un errore è minima rispetto alla
totalità e alla quantità di altri risultati accurati;
3. Passaggio da spiegazioni basate sul nesso causale (se x allora y) alla correlazione tra fenomeni (quando accade x
succede y);
4. Riutilizzo illimitato dei dati.

Nell'economia digitale i dati sono il fattore della produzione più importante.


Il sistema dei big data, seppur efficiente ed economico, ha come controparte i meccanismi di sorveglianza: per ottenere
dati bisogna osservare attività umane, registrarle ed analizzarle quindi emerge il problema della protezione degli
individui.
9.BLOCKCHAIN
BLOCKCHAIN (catena di blocchi)  tecnologia basata su un sistema di crittografia attraverso cui è possibile creare un
sistema di archiviazione sicuro, verificabile e permanente delle transizioni avvenute tra gli utenti di quella rete.
Blockchain utilizza un sistema di crittografia asimmetrica (o crittografia a chiave pubblica e privata) che si basa su due
chiavi: una per la codifica del messaggio e l’altra per la sua decodifica.

Il primo ed il più noto caso di Blockchain è BITCOIN: una criptovaluta di enorme successo, ossia una moneta il cui
funzionamento è basato sulla crittografia. Essa è stata inventata da Nakamoto.

La tecnologia della blockchain viene utilizzata per effettuare passaggi di valuta, scambio di titoli o azioni, conclusione di
contratti e organizzazione di votazioni online. Tutto ciò facendo a meno di un’autorità centrale che si fa garante della
veridicità e della autenticità di quanto accade (normalmente, perché ad una moneta sia riconosciuto un qualche valore,
è necessario che vi sia un'autorità centrale che se ne faccia garante).

ES: Se A vuole inviare a B un bitcoin, deve inoltrare una richiesta di transizione alla blockchain.
Tutti i nodi della rete si attivano per verificare l'avvenuta transazione e, effettuata la verifica, la registrano in uno dei
blocchi di cui si compone la catena. Così B riceve il suo bitcoin.
Conclusa la transazione tra due nodi della rete, i dati relativi alle transazioni sono salvati in modo permanente all'interno
di blocchi crittografici, ognuno dei quali può contenere un certo numero di transazioni.
La transazione non può essere né modificata né manomessa. Ciascuno dei nodi della rete diviene garante
dell'operazione: A e B devono conservare una copia della transazione sul proprio computer.

La particolarità di questo sistema consiste nel fatto che, per aggiungere un nuovo blocco ai precedenti, i singoli nodi
della rete sono chiamati a risolvere complessi calcoli matematici.

Oltre che per il bitcoin, blockchain ha chiaramente altri impieghi:

- Certifica lo scambio di titoli e azioni, la conclusione di contratti o l’organizzazione di votazioni online;


- Sostituisce sistemi di contabilità e di registrazione dei contratti, passaggi di valute, trasferimenti immobiliari e
tutto quello che è potenzialmente possibile registrare livello digitale facendo a meno di un'autorità centrale;

È importante concentrare la nostra attenzione su:

- SMART CONTRACT  accordi registrati dalla rete che si eseguono da soli senza bisogno dell'interazione umana
al verificarsi della condizione stabilita.
- DISTRIBUTED AUTONOMOUS ORGANIZATIONS (DAOs)  Organizzazioni digitali le cui attività vengono
eseguite automaticamente da computer.

Blockchain, così come internet, è una TECNOLOGIA DISTRIBUITA, in cui i dati non vengono memorizzati su un server
centrale, bensì su tutti i nodi della rete. Questa caratteristica consente la creazione di un grande registro privo di
un’autorità centrale e garantisce un’archiviazione sicura, verificabile, permanente e soprattutto decentralizzata.
10. LA MANIFATTURA DIGITALE E L’INDUSTRIA 4.0
La rivoluzione digitale non interessa soltanto il mondo dei bit ma anche quello degli atomi, promettendo di sovvertire il
modo in cui creiamo getti fisici.

La STAMPANTE 3D è una macchina che fabbrica oggetti attraverso un laser dotato di tre motori (due per muoversi
orizzontalmente e uno per spostarsi verticalmente) che inietta del materiale (resina, plastica, metalli) che poi si solidifica
dando vita ad oggetti tridimensionali.

Questa tecnica di manifattura viene definita ADDITIVE MANUFACTURING perché compone un oggetto fisico. Essa si
contrappone quindi alla tecnica di costruzione sottrattiva secondo cui da un pezzo di materiale grezzo si rimuovono delle
parti per ottenere il prodotto finito.

 Grazie alle stampanti 3D e all’additive manufacturing, anche la produzione di oggetti fisici diventa digitale . Essa inizia
sotto forma di bit: l'oggetto viene disegnato al computer attraverso l'uso di programmi CAD (COMPUTER AIDED
DESIGN) per la progettazione in 3D. Successivamente, il disegno (ormai trasformato in file) viene spedito ad appositi
laboratori professionali di web based manufacturing che provvedono a stamparlo nella quantità desiderata. Attorno alla
manifattura digitale nascono i FAB LAB e MAKERSPACE → luoghi che, oltre alle attrezzature meccaniche tradizionali,
hanno strumenti per la produzione digitale con stampanti 3D ed altri utensili per la fabbricazione digitale (laser cutter,
scanner tridimensionali, plotter, fresatrici e macchine a controllo numerico.
Seppur ancora agli inizi, l’addictive manufacturing potrebbe affiancare il modello di produzione industriale di massa del
XX secolo.

Grazie agli strumenti di additive manufacturing diviene possibile la cosiddetta PROTOTIPIZZAZIONE RAPIDA 
creazione di progetti su scala ridotta per mezzo della realizzazione di modelli che richiedono un investimento economico
contenuto potendo produrre un oggetto nelle quantità che desideriamo dalla singola unità migliaia di pezzi.

Contrapposizione tra due modelli di produzione di massa: il MODELLO FORDISTA (pre-rivoluzione digitale) e la MASS
COSTUMIZATION (post-rivoluzione digitale).

1. Henry Ford fondò un modello basato sull’estrema standardizzazione della produzione, dato che la modifica delle
caratteristiche di un singolo prodotto riduce l'efficienza complessiva della produzione. Possiede una gerarchia ed
una suddivisione del lavoro ben definite.
Difatti, nella produzione e distribuzione industriale, le possibilità di scelta erano limitate per ragioni economiche
e ad essere commercializzati erano solo prodotti abbastanza popolare da giustificare la fabbricazione e la loro
tenuta in magazzino da parte dei venditori al dettaglio (ES: i clienti possono scegliere l'automobile del colore che
preferiscono, purché sia nera).

2. la MASS COSTUMIZATION ribalta il modello di produzione di massa: l’avvento della digitalizzazione fa sì che un
oggetto, per essere messo in produzione, non debba più raggiungere i grandi volumi di un tempo.
La mass costumization è quella che si definisce CODA LUNGA dei prodotti di nicchia: la manifattura diffusa frutto
delle stampanti 3D consente di allungare le code dei mercati e di offrire ai consumatori beni che non avrebbero
trovato spazio nei sistemi di produzione distribuzione tradizionali.

In questo quadro di innovazione tecnologica si inserisce la questione dell’INDUSTRIA 4.0: espressione coniata in
Germania nel 2011 In occasione di un'importante fiera sulle tecnologie digitali.
DEFINIZIONE: formula attraverso cui designare universalmente un nuovo modello di produzione gestione aziendale
basato sull’automazione e sulla piena applicazione della Quarta rivoluzione industriale nella produzione di beni.
OBIETTIVO: Trasformazione delle imprese del modello fordista della produzione industriale di massa, basato sulla
gerarchia e su una ferrea suddivisione del lavoro a favore di una gestione più efficiente flessibile del ciclo produttivo
 riduzione degli sprechi, maggiore efficienza, valorizzazione del lavoro del singolo individuo, nascita di nuove figure
professionali.

Potrebbero piacerti anche