Il 0% ha trovato utile questo documento (0 voti)
802 visualizzazioni87 pagine

Sistemi Informativi e Trend Digitali

riassunto sistemi informativi

Caricato da

giulia.soggia
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
802 visualizzazioni87 pagine

Sistemi Informativi e Trend Digitali

riassunto sistemi informativi

Caricato da

giulia.soggia
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd

SISTEMI INFORMATIVI E TREND DIGITALI

Lezione 29/09/2022
Come le informazioni vengono gestite all’interno dell’organizzazione  elemento fondamentale all’interno
di ogni azienda. E come le nuove tecnologie aiutano nella gestione di tali informazioni.
Obbiettivo: terminologia di base, preparazione su quello che c’è adesso che non è la terminologia che ci
sarà tra tre anni. Strumenti metodologici che ci aiutino ad affrontare qualsiasi tipo di tecnologia.
Capire il mondo delle tecnologie.
Le risorse del pianeta si salvaguardano anche limitando l’uso della tecnologia.
Libri: sistemi formativi e trend digitali pearson 2019
Community password: digitali2023
Esame: primo appello della sessione di gennaio. Due parti: primo esame con 30 domande a risposta chiusa
Seconda parte prova orale on demand ovvero su richiesta o del prof o dello studente il cui esito fa media
aritmetica con quello dello scritto.
0: non cambia
1 corretta: 4 punti
1 sbagliata: -3
A ognuno dei voti si aggiunge 3/30
Integrare appunti al libro.
[Link]@[Link] [Link]@[Link]

CAPITOLO 1
DEFINIZIONE DI TECNOLOGIA
Si fa riferimento a tutte le metodologie tecniche relative a una particolare arte o industria, quindi,
esistono tecnologie per qualsiasi industria (alimentari, meccaniche, aeronautiche).
Tecnologie dell’informazione: tecnologie che abilitano e supportano la gestione automatizzata
dell’informazione.
Tecnologia dell’informazione e della comunicazione: strumenti, applicazioni che facilitano
l’elaborazione, la memorizzazione e la trasmissione di tati e informazioni. Rientrano i pc, i telefoni,
le applicazioni, i software in generale, la fibra ottica
CHE COSA È UN SISTEMA INFORMATIVO?
Insieme di componenti che interagiscono tra loro con l’obbiettivo di raggiungere lo scopo. Ma
quale è lo scopo e quali sono le componenti di un sistema informativo?

L’obbiettivo è quello di produrre e gestire l’informazione. L’informazione serve a decidere come


agire. Sia per l’individuo ma soprattutto per l’organizzazione avere informazioni è fondamentale.
Oggi viviamo in un mondo dove poter disporre di informazioni accurate è fondamentale per poter
prendere decisioni.
“insieme di diversi componenti che consento la produzione e la gestione dell’informazione.”

Sistema informativo aziendale: è un insieme di dati, strumenti e applicazioni, di persone e


processi che consentono all’azienda di disporre delle informazioni utili per poter prendere
decisioni che servono a far funzionare il proprio business.
Area dell’azienda che si preoccupa di produrre tutta quella informazione che poi serve all’azienda
per produrre il suo lavoro. (il sistema informativo sta dentro ATM) qualsiasi organizzazione
dispone di uno o più sistemi informativi). (sistema informativo dell’università iulm, l’informazione
che produce sono gli orari delle lezioni).
Instagram: sistema informativo di Instagram
Apple: sistema informativo di Apple
I sistemi informativi nascono molto prima delle tecnologie.
Prima le tecnologie non erano informatiche ora lo sono.
Negozio di parrucchiere: chi viene alle 3? Questa è
l’informazione di cui necessita. Segna su un blocca gli
appuntamenti non si parla di strumenti informativi tecnologici.
DATI, INFOMRAZIONE E CONOSCENZA

Hanno tre significati ben distinti.


I dati sono fatti, osservazioni, numeri e lettere
sostanzialmente privi di un significato reale per chi li riceve. Non posso prendere una decisione
sulla base del dato, ma il dato deve essere elaborato in modo accurato, ma questa elaborazione
può essere anche banale (28 come voto è un’informazione e non un dato).
Sono l’elemento più grezzo della piramide della conoscenza.
L’informazione si ottiene selezionando i dati e organizzandoli in un insieme coerente dotato di
significato. Ciò che può essere informazioni per un attore, all’interno di un contesto organizzativo,
può essere un dato per un altro attore che ha diversi scopi o necessità conoscitive e che quindi
necessita di elaborazioni diverse.
 è il risultato della selezione e dell’organizzazione dei dati in un insieme coerente.
La conoscenza è l’obiettivo dei sistemi informativi: trasformare i dati, ossia migliaia di numeri e di
lettere, informazioni che servono all’azienda per prendere decisioni. L’azienda ha bisogno che i
dati vengono aggregati in forma significativa, ovvero in informazioni, e quell’informazione può
essere il punto di partenza per poi prendere una decisione. L’informazione non basta, deve essere
contestualizzata e diventa conoscenza. Quindi le decisioni, ossia le AZIONI derivano dall’utilizzo di
questa conoscenza.
Il concetto di conoscenza appare tuttavia difficile da definire in quanto fortemente collegato alla
soggettività della rielaborazione dell’informazione. (un 28 come voto può essere interpretato
come un successo da chi possiede la media del 26, ma un insuccesso da chi possiede la media del
30).

Ci occupiamo di sistemi informativi perché oggi la maggioranza dei sistemi informativi delle
aziende utilizzano le tecnologie dell’informazione e della comunicazione (ICT) che sono strumenti
e applicazioni che facilitano l’elaborazione, la memorizzazione e la trasmissione di dati e
informazioni. Tipicamente classificate in Hardware, Software e Reti.

I sistemi informativi se automatizzati possono dire intervenire nella parte bassa della piramide,
quindi il processo di informazioni e dati, mentre la conoscenza e le decisioni rimangono
nell’autonomia della componente delle persone all’interno di un sistema.

TREND DIGITALE
Qualcosa che è in voga o in tendenza.
Digitale deriva dall’inglese digit ovvero cifra, numero. Parlando di informazioni in formato digitale
sostanzialmente possiamo dire che facciamo riferimento a un’informazione in formato numerico,
non si parla di un formato numerico qualsiasi ma si parla del sistema binario ovvero un sistema
numerico basato sul ritmo 0 ed 1. Il numero 0 ed il numero 1 sono gli unici numeri che il computer
è in grado di comprendere:
0  assenza di corrente elettrica
1  presenza di corrente elettrica
Il linguaggio binario è stato inventato per iniziare a parlare con le macchine. I primi programmatori
parlavano con i computer con una tastiera che aveva due tasti 1 e 0 e trasmettendo sequenze
diverse di 0 e 1 si riusciva a dire alla macchina cosa dovessero fare.
Quando parliamo di digitale parliamo di dati e informazioni che vengono trattati in formato 0 e 1.
Tutte le informazioni possono essere trattate come 0 e 1  processo di digitalizzazione o
convergenza ovvero trasformazione della realtà analogica in formato digitale. Oggi si parla di
digitalizzazione perché tutto quello che viene creato è già creato in formato digitale.
Il mondo analogico è un mondo dove non esiste il segnale con caratteristiche discrete, ma i valori
rappresentati sono continui, infiniti.
Quindi una rappresentazione analogica è una rappresentazione continua dei valori di una
grandezza fisica. Mentre una rappresentazione digitale, ossia quella che i computer sono in grado
di dare, è una successione di due Stati rappresentabili mediante sequenze di zero e uno.
La voce veniva trasmessa nella sua natura originaria che è una rappresentazione di tipo analogico:
variazione continua dei valori di una grandezza fisica. Oggi viene rappresentata in una forma
digitale: 0 e 1.
Orologi analogici con le lancette e l’orologio digitale.
Il suono naturalmente è rappresentato con delle onde, anche le tecnologie fino a poco tempo fa
trattavano il suono con un’onda sonora, oggi la nostra voce una volta trasmessa viene già
trasformata in 0 e 1 questo perché anche il mondo della telefonica ha subito il processo di
digitalizzazione.
La radio è una degli ultimi medium a diventare digitali: ora viene trasmessa anche in tv e sul
telefonino.
 linguaggio unico per qualsiasi tipo di contenuto e fruibile da qualunque device tecnologico ecco
perché convergenza tecnologica.
Avendo appreso che digitale significa numerico, possiamo definire la convergenza digitale come
trasformazione della realtà̀ analogica in forma digitale.
La principale opportunità̀ derivante dalla convergenza digitale è quella di poter accedere ad ogni
elemento multimediale (testo, video, audio) indipendentemente dal device che si usa.
Oggi si può affermare che l’intero patrimonio di contenuti multimediali dell’umanità̀ si sta
interamente digitalizzando. Es: la lezione la si può̀ sentire dal pc, dal telefono ecc.
Per fare un esempio, i documenti nascono come digitali, i video come digitali, i libri sono anche
in formato digitale, la voce digitale. Gli unici media che sono rimasti fuori dal processo di
digitalizzazione sono la radio (sistema DAP) e la televisione (digitale terrestre) ma si sono
digitalizzati.
Per audio digitale si intende la trasformazione dell’audio in una serie di cifre binarie per poterlo
ascoltare su un computer o inserirlo in un contesto multimediale. (prima era un’onda sonora)
Attraverso un device si possono fare chiamate ed audio per questo motivo.

IL SISTEMA BINARIO
BIT: più piccola unità che può assumere solo due aspetti: 0 e 1.

BYTE: sequenza da 8 bit. Rappresenta l’unità fondamentale del linguaggio degli elaboratori
elettronici, è la più piccola unità di memoria in grado di contenere un carattere.

Il sistema binario è un sistema basato su un’unità di informazione che il computer è in grado di


elaborare e che prende il nome di byte. Formato da 8 bit. Rappresenta l’unità fondamentale del
linguaggio degli elaborati elettronici, è la più piccola unità di memoria in grado di contenere un
carattere. 8 bit possono differenziare 256 combinazioni di 0 e 1 diverse.
8 bit consecutivi formano 1 byte che è la più piccola unità di memoria che può contenere un
carattere.

Per permettere che una lettera sia trasmessa e scritta uguale per ogni dispositivo, esistono due
principali codici:
ASCII american standard code infomration interchange ed è una tabella dove a ogni sequenza
diversa di bit è stata assegnata un numero o una lettera diversa ed è presente in ogni device. (in
tutto il mondo la lettera A maiuscola è rappresentata 0100 0001). Questo ha permesso di non
parlare più 0 e 1.
Oggi non usiamo solo lettere e numeri per dialogare con il computer ma all’interno di questi
formati esiste un tipo di tabella simile.
La prima tabella ASCII aveva solo 128 byte, quando è arrivato all’Europa si è sentita la necessità di
aggiungere dei bit compatibili per tutti i device. Oggi la tabella è di 256 byte, e questa tabella oggi
è quasi esaurita ed è diffusa sui computer di tutto il mondo.

UNICODE. è l’insieme di 2 byte (16 bit) per ciascun carattere al posto del singolo byte. Tale codice
può gestire 65 536 caratteri differenti.

ASCII codice che include i caratteri convenzionali (lettere, numeri) più simboli matematici e lettere
greche.
CIAO: occupa 4 byte di memoria se si usa un ASCII estesa e occupa 32 bit.

I MULTIPLI DEL SISTEMA BINARIO


-bit: ogni 0 e 1 è un bit
-byte:8 bit
-kilobyte: circa mille byte
-megabyte: circa un milione di byte
-gigabyte: circa un miliardo di byte
-terabyte: circa mille miliardi di byte
-petabyte: circa un milione di miliardi di byte
-exabyte: circa un miliardo di miliardi di byte
-zettabyte: circa mille miliardi di miliardi di byte
-yottabyte: circa un quadrilione di byte
Siamo arrivati a Yottabyte ma non basta più. Questa è una spiegazione di come sta aumentando in
maniera esponenziale la quantità di dati che generiamo e di cui fruiamo ogni giorno.

Circa’ perché non siamo in un sistema decimale (dove i multipli si calcolano moltiplicando x10), nel
sistema binario, invece, la base del calcolo dei multipli è 2. Perciò̀ un kilobyte non è esattamente
mille byte (10 alla terza) ma 2 alla decima. Non si moltiplica ogni volta per 1000 ma per 1024.

Ogni volta che si usa la tecnologia consumiamo il pianeta, 1 settimana di Instagram è pari a 3
automobili che viaggiano per un anno questo perché ogni volta che ci colleghiamo a Instagram
svegliamo molti server della nostra telefonia, attiviamo decine di computer nel mondo che
attivandosi usano energia sprecandola e creano inquinamento.
Abbiamo la sensazione che tutto quello che facciamo è gratis in realtà non è così perché dietro c’è
un costo sociale quello dell’inquinamento e il secondo è che quando è gratis il prodotto siamo noi.
Fare previsioni circa la tecnologia è sempre stato difficile, indipendentemente dal tipo di
tecnologia. Nel corso della storia sono state fatte diverse previsioni sbagliate, ad esempio Lord
Kelvin affermava che era impossibile far volare macchine più pesanti in aria.

INVENZIONE E INNOVAZIONE
I concetti di invenzione e innovazione, per quanto possano sembrare simile hanno due significati
completamente diversi.

Invenzione è utilizzata nel momento in cui si vuole scoprire qualcosa di nuovo. Prevede una
prospettiva unicamente tecnologica con la quale si pensano solo a cose precise.

l’innovazione serve ad introdurre sul mercato qualcosa di nuovo o manipolare invenzioni già
esistenti nell’ottica di renderle disponibili al più ampio pubblico possibile. Per le innovazioni, non
basta la tecnologia ma bisogna pensare alla prospettiva del marketing e all’impatto socioculturale.
Un tempo invenzione ed innovazione erano simultanei, mentre oggi siamo in un contesto dove
esistono numero invenzioni tecnologiche, ma capire quali di queste si trasformeranno in
innovazioni è estremamente complesso.
Se si pensa ad esempio a Tik Tok è una grande innovazione molto utilizzata ma se la guardiamo da
un altro punto di vista è un'invenzione molto banale e scontata.
Se vogliamo invece prevedere se un’invenzione si trasformerà̀ in innovazione, il paradigma
tecnologico da solo non basta. È necessario affrontare una previsione prendendo in
considerazione tre paradigmi insieme: tecnologico, quello socioculturale ovvero come reagirà̀ il
pubblico rispetto alle caratteristiche, ed il paradigma di mercato ovvero a interesse quanto
un’invenzione ha interesse ad essere spinta dalle varie industrie che rappresentano il mercato.
La complessità̀ delle previsioni del futuro rispetto alla tecnologia sta nel fatto che un tempo
invenzione e innovazione erano praticamente sinonimi, poiché́ la nuova invenzione tecnologica
quasi si trasformava in innovazione adottata. Oggi invece siamo in un contesto dove esistono
innumerevoli invenzioni tecnologiche alcune, alcuni intelligenti altri molti meno, ma capire quali
tra questi si trasformeranno in innovazione è estremamente complesso. Per questo è difficile fare
previsioni future.

INFRASTRUTTURA DEI SISTEMI INFORMATIVI (P.223)


ICT: tecnologie dell’informazione e della comunicazione sono strumenti e applicazioni che
facilitano l’elaborazione, la memorizzazione e la trasmissione di dati e informazioni. Ict non sono
uno strumento che costituisce i sistemi informativi.
Le principali componenti dell’infrastruttura dei sistemi informativi di un’organizzazione moderna
sono:
- Hardware: elementi tangibili di un elaboratore, tutto ciò che non si può toccare
- Software: ciò che è intangibile
- Reti di comunicazione
Essi sono elementi di base delle tecnologie informatiche che oggi rappresentano quegli strumenti
e applicazioni che sono una delle componenti dei SI aziendali.

Quali sono gli obbiettivi principali dell’infrastruttura dei sistemi informativi? consente di
elaborare archiviare e trasmettere (da un elaboratore all’altro) i dati.

L’infrastruttura di un SI aziendale ha tra i principali obbiettivi:


ELABORAZIONE, ARCHIVIAZIONE e TRASMISSIONE DEI DATI.
Il primo obbiettivo consiste nella trasformazione dei dati in informazioni, la quale può avvenire in
modi differenti e semplici o complicati (es: calcolo/previsione delle vendite in base ai dati storici).
Il secondo obbiettivo consiste nell’archiviare, salvare, memorizzare i dati e le informazioni
precedentemente elaborate, in modo tale da poterle utilizzare in qualsiasi momento.
Il terzo obbiettivo: grazie alle reti di comunicazione è possibile scambiare, trasmettere dati e
informazioni da una parte all’altra del mondo.

CLASSIFICAZIONE DEGLI ELABORATORI


Gli elaboratori sono le macchine costituite da Hardware e software.
È possibile classificare gli elaboratori a seconda delle loro caratteristiche di capacità elaborativa
(capacità di elaborare i dati) e di dimensioni. Diversa capacità elaborativa implica diverso
utilizzo/impiego all’interno di contesti che possono essere privati o aziendali.
In base alle caratteristiche e tipologie d’impiego:
- Supercomputer  Sono i più potenti ed i più costosi.
Essi sono utilizzati per risolvere complessi problemi scientifici, si trovano presso grandi
centri di ricerca internazionale (NASA). Supportano l’analisi di milioni di dati in un’ottica di
ricerca. Le loro dimensioni sono notevoli, possono occupare anche più stanze e il loro costo
arriva a centinaia di milioni di euro.
In ambito nazionale si segnala il Supercomputer in Italia al Cineca di Bologna che elabora
dati riguardanti il cambiamento climatico e il Coronavirus. Supercomputer Leonardo arriva
al tecnopolo
- Mainframe  sono delle grandi macchine ad uso aziendale, sono destinate alle aziende di
medio- grandi dimensioni che li impiegano come sistemi centrali di elaborazione.
Essi hanno notevoli dimensioni e hanno costi elevati (milione di euro).
Hanno elevate capacità elaborative, sono in grado di elaborare moltissimi dati in un arco
temporale estremamente ristretto. Corrisponde a un sistema centrale di elaborazione dei
dati che deriva dal core business dell’azienda, e tra le tante funzioni ha quella di
consentirne l’utilizzo da parte di più utenti contemporaneamente. (es: quando si riceve
l’estratto conto dove sono contenuti tutti i calcoli sappiamo che essi sono stati elaborati
nel backoffice).
- Minicomputer (o workstation)  sono computer che offrono delle prestazioni superiori
rispetto ai personal computer. Sono più potenti e la loro capacità di elaborare dati è
migliore rispetto ai personal computer.
Si tratta di elaboratori che hanno delle dimensioni leggermente superiori rispetto ai
microcomputer. Essi hanno un costo maggiore e possono arrivare a costare qualche decina
di migliaia di euro.
Sono elaboratori che spesso vengono utilizzati dalle aziende di medie dimensioni o da studi
associati (architetti ecc), in quanto grazie alla loro migliore capacità elaborativa rispetto ai
microcomputer sono in grado di sopportare delle applicazioni anche di grafica.
- Microcomputer essi sono elaboratori utilizzati per la produttività̀ individuale. Essi,
rappresentati dai personal computer, sono tutti gli elaboratori che utilizziamo
quotidianamente per elaborare dati e informazioni a uso personale. Essi hanno dimensioni
contenuti e possono essere collocati sopra una scrivania.
Il costo è contenuto, si aggira intorno a qualche migliaio di euro e la loro capacità
elaborativa è ugualmente limitata all’obbiettivo per cui sono stati predisposti.
- Microcontroller  è il meno potente e il meno costoso. Questi elaboratori sono
embedded, cioè incorporati all’interno di altri oggetti (elettrodomestici, semafori). A
differenza dei computer a uso generico, i microcontroller sono sistemi specializzati, cioè̀
sono ottimizzati per eseguire una ben definita serie di operazioni. In particolare, essi
saranno in grado di gestire le operazioni svolte dagli oggetti all’interno dei quali questi
microcontroller sono stati inseriti. (per esempio, sono in grado di gestire il funzionamento
degli elettrodomestici).

Gli elaboratori consento di elaborare, archiviare e trasmettere i dati. Esempio di elaborare è il pc,
lo smartphone: macchine che hanno un’anima software il cui compito è quello di elaborare,
archiviare e trasmettere i dati.

Tutti questi elaboratori elaborano, archiviano e trasmetto dati secondo 5 operazioni:


1. INPUT: Si assiste all’immissione di dati nel computer. I dispositivi di input più comuni sono
la tastiera, lo scanner, il mouse, il microfono e la telecamera. I dati da inserire possono
essere testi, numeri, immagini o suoni.
2. ELABORAZIONE: Una volta inseriti nel computer, i dati possono essere elaborati; ad
esempio, si può paragonare, classificare o sommare numeri, formattare un testo o creare
immagini e suoni.
3. OUTPUT: Per vedere (o ascoltare) il risultato dell’elaborazione sono necessari dei
dispositivi di output, come lo schermo, la stampante e gli altoparlanti. Le informazioni
ottenute possono anche essere sottoposte a un’ulteriore elaborazione, ad esempio per
integrare i suoni e le immagini in una presentazione multimediale.
4. MEMORIZZAZIONE: i dati e i programmi al momento non utilizzati vengono memorizzati su
appositi nastri o dischi in modo da poter essere recuperati in qualsiasi momento.
5. DISTRIBUZIONE: i dati possono essere stampati e distribuiti, oppure trasmessi
direttamente da un computer all’altro; un esempio è l’invio di documenti come allegati
della posta elettronica o attraverso un sito web.
A supporto di queste cinque operazioni intervengono gli elementi hardware e software.

HARDWARE
Esso è l’insieme delle componenti tangibili degli elaboratori.
È genericamente classificato in:
- Tecnologie di input o periferiche di input a supporto della prima fase: componenti
hardware che supportano l’attività̀ di introduzione dei dati all’interno di un elaboratore.
Questi dati sono introdotti in formato digitale.
es. lo scanner consente di trasformare in digitale una pagina di un documento fisico; il
microfono consente di introdurre nell’elaboratore un dato che proviene dalla voce, da un
suono.
Esempi: tastiera, dispositivi di puntamento, scanner, microfono, webcam, lettori di codici a
barre, fotocamere, RFIED

tecnologia RFID (radio frequency identification)


L’identificazione tramite radiofrequenza sta in parte sostituendo l’immissione dei dati effettuata
fino a poco tempo fa dai lettori a codice a barre.
come avviene l’immissione dei dati all’interno dell’elaboratore?
Un oggetto qualsiasi viene etichettato con un tag RFID, un’etichetta che contiene i dati relativi a
quel determinato oggetto.
Quando l’oggetto così etichettato passa nei pressi di un lettore dotato di un’antenna, i dati
memorizzati sull’etichetta vengono captati dall’antenna e quindi dal lettore. Vengono così immessi
immediatamente nell’elaboratore.
L’etichetta può avere forme e dimensioni differenti che dipendono dal contesto di utilizzo,
possono essere incapsulati oppure disposti sotto ad un’altra etichetta (gestione merce nei
magazzini, trasporto pubblico, documenti d’identità̀, sotto la cute degli animali domestici).
VANTAGGI: maggiore efficienza, i dati introdotti in questo modo possono esser inseriti in modo +
efficiente, risparmiando tempo, risorse e riducendo la possibilità̀ di commettere errori.

Un altro ambito interessante della tecnologia RFID è INTERNET OF THINGS (IOT)


è uno dei principali trend digitali.
Questo mondo in cui oltre alle persone anche gli oggetti e le cose possono essere collegate in
mondo autonomo alla rete internet è supportato da diverse tecnologie, tra cui le tecnologie RFID.

- tecnologie hardware di elaborazione: interviene la CPU ovvero microprocessore che


collabora con la memoria centrale detta RAM.
microprocessore o CPU (central processing unit)
È compito del microprocessore:
- Svolgere quelle azioni che supportano l’elaborazione di dati all’interno di un elaboratore -
interpretare ed eseguire le istruzioni per l’elaborazione dei dati
- Elaborare i dati
- Gestire e coordinare la comunicazione delle periferiche hardware (input e output) e lo scambio di
dati tra essi
- caricamento del sistema operativo
è considerato il cervello del computer, è l’elemento che supporta in via principale l’elaborazione
dei dati e che fisicamente si presenta come un sottile dispositivo (chip) di silicio su cui sono
presenti un’elevata quantità di piccoli transistor collegati tra loro con dei circuiti.
Questi elementi che troviamo sul chip sono di fatto il cervello del computer e sono elementi in
grado di elaborare i bit, che rappresentano i dati in formato digitale.
Transistor (milioni) e circuiti elettronici in ogni CPU rappresentano gli elementi in grado di
elaborare 0 e 1, i bit
Oggi le macchine che abbiamo a disposizione (smartphone, tablet, personal computer) sono più
performanti di macchine ad uso aziendale utilizzate anni fa.
Il numero di transistor determina la velocità di elaborazione dei dati da parte di un computer
anche se ci sono altri fattori

memoria centrale o primaria RAM


Memoria primaria diversa da quella secondaria
RAM, la memoria centrale, consente di memorizzare temporaneamente sia dati in corso di
elaborazione sia le istruzioni dei programmi applicativi e del software di sistema in esecuzione.
(RAM = random access memory, detta anche memoria di lavoro)
Essa serve a supportare la fase di elaborazione, in essa vengono conservati temporaneamente i
dati in corso di elaborazione e le istruzioni del programma in esecuzione ma quando spengo il
computer la memoria RAM si svuota.
La sua capacità si misura in MG e GB, maggiore è la capacità di memoria della RAM, migliori
saranno le performance.

La memoria centrale, di cui la RAM è componente essenziale, è costituita anche dalla memoria
ROM e della memoria cache.
ROM = read only memory, memoria di sola lettura, non può essere modificata
Contiene i programmi e le istruzioni di avvio o di configurazione del sistema così come sono state
predisposte dalla casa produttrice del computer.

- tecnologie hardware di output: Esse consentono il rilascio dei risultati dell’elaborazione


svolta nella fase precedente: stampanti, monitor, casse acustiche. Tali periferiche hanno
caratteristiche differenti, quindi, rilasciano output diversi.
Le casse acustiche rilasciano un output temporaneo perché́ quando le spegniamo o
spegniamo il computer l’output sparisce. Il formato di tale output è acustico.
Il monitor rilascia un output che l’utente può̀ visualizzare, immagine in movimento (video)
o statica (foto), testo... È, anche questo, un output temporaneo perché́ quando viene
spento non è più possibile visualizzare l’output.
Le stampanti rilasciano un output permanente, stampano su foglio quello che è il risultato
dell’elaborazione della fase precedente.
I touchscreen sono contemporaneamente periferici di input e output, posso sia immettere
dati che visualizzare/ascoltare il risultato dell’elaborazione.

- tecnologie hardware di memorizzazione: fase nella quale i dati vengono memorizzati


ovvero salvati per poter essere recuperati in un momento successivo.
Esse consentono di archiviare dati e informazioni, rappresentate da memoria secondaria o
di massa.
Le periferiche di archiviazione sono floppy disk (non più utilizzati), nastri magnetici, hard
disk (può essere interno o esterno), CD, DVD, memorie flash (stick USB).
L’attività di memorizzazione (archiviazione e salvataggio dei dati) oggi può essere svolta
anche in modo differente, attraverso il Cloud computing. Abbiamo, quindi, a disposizione
un’infrastruttura sofisticata attraverso la quale è possibile effettuare la memorizzazione
non più su supporti che abbiamo localmente, ma online.
La nuvola (cloud) rappresenta un’infrastruttura che di fatto è costituita da un elevatissimo
numero di computer (messi a disposizione dalle grandi aziende Apple, Microsoft,
Amazon...) sui quali noi possiamo salvare dati, documenti, immagini, video....

SOFTWARE
L’hardware da solo non basta, ma a suo supporto ci deve essere una componente software
rappresentata dagli elementi intangibili di un elaboratore.
È costituito da programmi, o insiemi di istruzioni, tramite i quali il computer esegue determinate
funzioni di elaborazione.
Il software è rappresentato da quelle istruzioni utili affinché l’elaboratore possa funzionare
correttamente.
È possibile classificarlo in due macrocategorie:
- Software di sistema
- Software applicativo: consentono di effettuare azioni specifiche, ristretta a un singolo tipo
(word per redigere un testo, Photoshop per modificare immagini...). Software applicativo:
PowerPoint, Acrobat reader, open Office ecc...
Si possono suddividere in due macrocategorie:
 - per la produttività̀ personale: per esempio sono rappresentati dal pacchetto Office o
simili (tutti quei software che utilizziamo quotidianamente per delle esigenze personali in
ambito privato ma anche aziendale, per svolgere quelle azioni specifiche che sono alla base
della nostra produttività.
 - per uso professionale vengono utilizzati in un contesto aziendale specifico, es. software
applicativi per gestire il magazzino merci, sono utilizzati dalle aziende per supportare i
processi tipici di quella determinata azienda. (software per gestire magazzino merci,
contabilità̀ aziendale

È possibile fare un’ulteriore distinzione tra i software applicativi ad uso professionale per il
mercato ORIZZONTALE e per il mercato VERTICALE.

 I software applicativi ad uso professionale per il mercato orizzontale sono programmi


applicativi dedicati allo svolgimento di attività̀ aziendali comuni a più̀ settori (calcolo buste
paga per tutti i settori).
 I software applicativi ad uso professionale per il mercato verticale sono, invece, dei
software che vengono progettati per supportare delle esigenze tipiche delle aziende che
appartengono ad un determinato settore (gestione conto corrente, gestione di un
portafoglio titoli per settore bancario).

Modalità di utilizzo e di gestione del software applicativi.


Il software applicativo viene acquistato (mediante il pagamento di una licenza) installato sulla
macchina utilizzata ad uso privato o in un contesto aziendale; alcuni software sono gratuite quindi
facilmente scaricabili dalla rete, e installati sulla macchina dell’utilizzatore. Accanto a questa
modalità se ne affianca un’altra che è quella di utilizzo dei software senza un precedente acquisto
di download e senza la necessaria installazione sul computer dell’utilizzatore. Come? Attraverso
l’infrastruttura di cloud Computing (es Google drive)

Il software di sistema viene suddiviso in:


- Sistema operativo
- Utility (programmi di servizio)
- Driver
l’elemento più importante è rappresentato dal sistema operativo
SISTEMA OPERATIVO
Il sistema operativo è elemento più importante all’interno del software.
Questo coordina l’interazione tra utenti, tecnologie hardware di elaborazione e memorizzazione,
periferiche di input e output e software applicativo.
Ha un ruolo centrale nell’ambito del corretto funzionamento dell’elaboratore, come nelle
componenti hardware era per il CPU che rappresenta il cervello del computer, nelle componenti
software è il sistema operativo a ricoprire questo ruolo.
Il sistema operativo è come un manager (supervisiona le risorse organizzative, persone, processi,
strutture) che supervisiona le risorse informatiche.
Esempi di sistema operativo sono Windows, Mac, Linux...
Un altro compito fondamentale dei sistemi operativi è quello di gestire l’interfaccia utente,
insieme di programmi specifici per consentire l’interazione dell’utente con il computer e viceversa.
In particolare, oggi, i sistemi operativi consentono di gestire l’interfaccia grafica, interfaccia che
prevede l’utilizzo di icone, immagini, colori e semplifica l’interazione tra utente e computer.
Interfaccia non è sempre stato di tipo grafico. Negli anni ‘80 l’interfaccia di Windows era
un’interfaccia a comandi che richiedeva da parte dell’utente finale l’inserimento di un comando
affinché́ il computer potesse eseguire una determinata attività (esempio Microsoft-DOS 1981,
schermo nero con righe di istruzione in verde).
L’introduzione dell’interfaccia grafica risale al 1984, anno in cui Apple presenta il proprio sistema
operativo Mac Operating Sistem, per la prima volta viene presentato al grande pubblico
un’interfaccia in cui al posto dei comandi ci sono delle icone. Icone che insieme ad altre novità̀,
come l’utilizzo del mouse, rivoluzionano il modo di utilizzo da parte dell’utente finale,
semplificandolo.
Per presentare il proprio sistema operativo Apple produce uno spot pubblicitario, che ha come
spot “On January 24th, Apple Computer will introduce Macintosh. And you’ll see why 1984 won’t
be like “1984””, facendo riferimento al romanzo di George Orwell “1984”, è un video in cui donna
distrugge un mondo cupo e grigio, che rappresenta il dominio di IBM per il lato hardware e
Microsoft per il software con il sistema operativo DOS.
Anche Microsoft nel 1985 introduce un sistema operativo con l’interfaccia grafica con il primo
Windows.
Le funzioni principali sono:
- gestione CPU
- gestione file
- gestione task: compito o attività
- esecuzione del software applicativo
- gestione dell’interfaccia. (interfaccia di tipo grafico, per esempio, ci sono le icone per
interagire con la macchina)

UTILITY SOFTWARE
I programmi di servizio o utility software svolgono operazioni legate al controllo e all’allocazione
delle risorse del computer.
In altre parole forniscono delle funzionalità̀ aggiuntive al sistema operativo e includono alcuni
software come quelli antivirus, di backup, di ripristino, per la disinstallazione, per l’identificazione
dei problemi hardware...
Tutti quei programmi che supportano il controllo e il corretto funzionamento del computer
estendendo alcune funzionalità̀ non previste dal sistema operativo.
DRIVER
I driver sono software che consentono la gestione delle periferiche (di input e output). Com’è il
driver della stampante che consente al computer di interagire con la stampante stessa.

INFRASTRUTTURE DEI SISTEMI INFORMATVI – INTERNET E WORLD E WIDE WEB (P.223)


Le reti di computer supportano la quinta fase, ovvero quella di distribuzione. Una rete di computer
può essere definita come un collegamento tra due o più computer attraverso un mezzo
trasmissivo per effettuare una trasmissione di dati.
Rete informatica: abbiamo bisogno della presenza di tre elementi costitutivi senza dei quali non si
potrebbe parlare di una rete informatica:
1. elaboratori almeno due
2. linea di trasmissione
3. protocollo di comunicazione: insieme di regole che definiscono come debba avvenir la
trasmissione dei dati tra gli elaboratori connessi tra loro attraverso uno o più mezzi
trasmissivi necessari affinché lo scambio di dati e informazioni possa avere luogo. Esempio
è il protocollo TCP/IP che è il controllo tipico di comunicazione della rete Internet, che
definisce la peculiarità della rete Internet.
le reti di computer supportano la fase di distribuzione.
Una rete di computer è un collegamento tra due o più computer attraverso un mezzo trasmissivo
per effettuare una trasmissione di dati.
Linee di trasmissione che prevedono l’utilizzo di cavi come:
 Doppino telefonico (filo di rame)
 Cavo coassiale (più̀ performante del doppino)
 Cavo a fibre ottiche (più̀ utilizzato oggigiorno, garantisce la trasmissione di grandi quantità̀
di dati in tempi estraneamente ridotti).

Linee di trasmissione senza cavo (wireless): infrarossi, Bluetooth, Wi-Fi.

 I raggi infrarossi consentono di trasferire i dati tra i nodi della rete di computer utilizzando
delle onde luminose ad alta frequenza; questa tecnologia richiede che i dispositivi siano ad
una distanza non elevata gli uni dagli altri e che non ci siano ostacoli tra essi (telecomandi
con il televisore.
 Il Bluetooth consente, come i raggi infrarossi, consente la trasmissione di una quantità̀
limitata di dati.
 La linea di trasmissione mediante la tecnologia Wi-Fi è quella più̀ utilizzata al giorno d’oggi.

I vari tipi di reti di computer possono essere suddivisi in base all’estensione:


- Reti WAN (wide area network) o reti geografiche. Coprono un’area geografica estesa,
utilizzando tecnologie e mezzi trasmissivi eterogenei.
- Reti MAN (metropolitan area network). Coprono un’area territoriale limitata a livello
cittadino.
- Reti LAN (local area network) coprono un’area territoriale limitata a un ufficio, un edificio o
un gruppo di edifici.
I vantaggi delle reti sono:
• Migliorare le comunicazioni
• Condivisione di dispositivi periferici
• Condivisione di programmi e dati
• Accesso condiviso alle basi di dati

INTERNET
Internet è una rete, o meglio una rete di reti, ovvero una rete che aggrega più reti eterogenee.
È un insieme di due o più laboratori connessi da mezzi trasmissivi e la cui comunicazione è regolata
da un protocollo.
È una rete di grandi dimensioni, dunque una WAN.
Caratteristica fondamentale di Internet è l’eterogeneità, la rete internet prevede connessioni che
vanno dai cavi, alle fibre ottiche, ai pinti radio fino ad arrivare al wi-fi che siamo abituati ad
utilizzare a casa. Non ha importanza quale sia la tecnologia che li unisce: cavi, fibre ottiche, ponti
radio, satelliti, o altro.
Non è rilevante neanche di che tipo siano i computer: dal piccolo personal computer agli
smartphone fino ad arrivare ai grandi mainframe delle multinazionali (NASA), quindi una varietà di
hardware e anche di software: sistemi Mac, sistemi windows o qualsiasi altro tipo di sistema
operativo.

Punto di forza di internet, e motivo del suo veloce espandersi, è la sua capacità di avere un
protocollo universale, adatto alla quasi totalità̀ degli elaboratori esistenti.
Il motivo di questo collante che tiene insieme tecnologie così diverse è il protocollo TCP/IP, ovvero
il protocollo della rete Internet che costituisce l’insieme delle regole che definisce come i dati
vengono scambiati. Oltre ad essere un collante straordinario di sistemi eterogenei è anche un caso
forse unico nel mondo delle tecnologie (non solo le tecnologie della comunicazione).
Esso è stato inventato negli anni 60 e tutt’ora fa sì che la rete internet alla quale siamo abituati
(diversa dalla rete degli anni passati) continui a funzionare. I nostri Instagram, i nostri WhatsApp, i
nostri YouTube sono tutti strumenti che funzionano sostanzialmente sula rete Internet e grazie al
protocollo TCP/IP.

LA STORIA DI INTERNET
La nascita di Internet è data nel 1969, anche se allora internet si chiamava Arpanet. In realtà̀ il
progetto nasce qualche anno prima, come progetto militare da cui il nome “arpa” che richiama un
ente della difesa americana).
Nei primi anni cresce molto lentamente e rimane una rete sostanzialmente ad uso militare-
governativo. Nel 1972 Arpanet ha 37 nodi, ovvero 37 mainframe connessi. Negli anni ’80
all’interno di Arpanet si formarono tre network distinti: NSFnet (national science foundation
network), bitNet (beacuse it's time network), CSnet (computer science network).
Nel 1983 viene denominato Internet.
La vera svolta commerciale si ebbe tra il 1989 e il 1991 quando nacque il WWW (world wide web)
a Ginevra nel CERN.
Nel 1993 nasce il primo browser (Mosaic) per navigare su WWW.
Web e internet sono la stessa cosa? NO, internet è la rete, è l'insieme degli elaboratori, dei mezzi
trasmissivi e del protocollo TCP/IP.
Mentre invece il web è una delle applicazioni che funzionano sulla rete internet, la principale.
Anche per esempio Google è una cosa differente da queste due, Google è uno dei contenuti
disponibili sul web.

PERIODO STORICO
Si è nel pieno della guerra fredda: primo contesto indispensabile alla nascita della rete internet.
Gli USA hanno paura di un attacco militare, quindi iniziano a pensare non solo a come difendersi
dal punto di vista militare ma anche a come difendersi in termini di sostenibilità̀ della propria rete
di comunicazione.
Dall’altro lato questo è un periodo in cui l'URSS (unione sovietica) è un gruppo di nazioni molto
evoluto dal punto di vista tecnologico, il lancio del satellite Spuntik nel 1957 è visto come uno
smarco forte dal mondo americano, e il confronto con l'unione sovietica inizia a farsi complesso.

In questo senso il governo americano alla fine degli anni 50 inizio anni 60, chiede al suo
dipartimento di ricerca tecnologica per la difesa (arpa: advanced research projects agency) di
provare a progettare una rete caratterizzata dal fatto che i dati che viaggiano su questa rete siano
in grado di trovare da soli la destinazione. In altre parole, una rete dove i dati, anche in caso di un
attacco fisico alla rete stessa, siano in grado di tornare indietro e trovare autonomamente una
strada per arrivare a destinazione.

ARPA c'è la fa grazie a una startup dell'epoca la BBN Technologies, una società tecnologica fondata
da alcuni professori del Mit che sviluppano una rete telematica con le caratteristiche richieste dal
governo americano, lo fanno utilizzando un minicomputer della Honeywell sul quale furono fatti
gli esperimenti di trasmissione.
Aveva 32 Kb di memoria un processore che pulsava alla folle velocità di 1.1 mhz. Poi con questa
macchina gli esperti dell'ARPA e la BBN sviluppano e sperimentano le prime comunicazioni di
quella che poi sarebbe diventata la rete internet.

La prima comunicazione avvenne le 1969


La prima comunicazione in assoluto avviene tra l'università̀ della California Los Angeles e lo
Standford Research Institute.
Il primo messaggio trasmesso alle 22:30 del 29 ottobre 1969, il primo messaggio trasmesso sono le
due lettere LO perché̀ l'obbiettivo era quello di trasmettere la parola login ma dopo le prime due
lettere c'è stato un problema tecnico.

IL PROTOCOLLO DI COMUNICAZIONE
Il protocollo TCP/IP (trasmission control protocol / internet protocol): insieme di regole finalizzate
alla trasmissione di dati tra computer connessi alla rete internet.
Fino a qualche anno fa le reti si basavano sul concetto di commutazione di circuito: se due
persone effettuano una chiamata, e una terza prova a chiamare uno dei due la linea risulta
occupata. Nelle reti tradizionali quando due soggetti comunicavano l’uno con l’altro, la rete che li
univa era dedicata esclusivamente a quella comunicazione e non poteva essere utilizzata da terzi.

Il funzionamento di Internet, quindi del protocollo TCP/IP e di tutte le reti di nuova generazione
soprattutto le reti dati funziona sul concetto di commutazione di pacchetto e non di circuito.
Non c'è nessuna linea commutata, nessun circuito commutato dedicato a una specifica
comunicazione, quindi nel momento che io mando via internet un WhatsApp ad un amico, non c'è
nessun circuito, nessuna linea dedicata a quella comunicazione, ma i dati una volta che escono dal
mio telefonino vengono divisi in tanti piccoli pacchetti (es. un messaggio di 12 parole viene diviso
in 12 pacchetti) dove ognuno di questi pacchetti dati segue un percorso diverso per arrivare a
destinazione, e dove la scelta di quale strada seguire non è dettata da nessuna regola se non
quella di imboccare la strada più veloce.

Non importa che applicazione stiamo utilizzando, quello che sostanzialmente succede è che i dati
che noi stiamo inviando online, prima di uscire dal nostro computer vengono suddivisi dal
protocollo TCP/IP in tanti piccoli pacchetti di dati, che sono dei gruppi di 0 e di 1. Questi pacchetti
vengono imbustati virtualmente in una busta fatta di dati che contiene l'indirizzo finale del
destinatario. La foto viene divisa in tanti piccoli pacchetti viene imbustati in tante piccole buste
virtuali e viaggia per la rete in maniera quasi causale, con l0unico obbiettivo di arrivare a
destinazione il prima possibile.

Esistono degli uffici postali virtuali che sono i router che reindirizzano le buste fino a che non
arrivano a destinazione e una volta arrivati a destinazione questi pacchetti si ricompongono nel
messaggio finale.

ROUTER: finalizzato alla gestione del traffico dei pacchetti e dell’instradamento verso altre reti per
raggiungere la destinazione finale.

PROTOCOLLO TCP/IP: prende tutti i pacchetti e li rimpacchetta, li rimette insieme in un unico


messaggi.
La regola che sta alla base del protocollo TCP/IP è quella di passare per la via al momento più
libera. La rete Internet è estremamente sicura perché́ per poterla bloccare bisognerebbe bloccare
ogni singolo mezzo trasmissivo di cui la rete è composta. (miliardi di cavi e connessioni...)
Finché ci sarà̀ anche un singolo mezzo trasmissivo i pacchetti (anche se in tal caso lentamente)
continueranno a muoversi sulla rete.

COMMUTAZIONE DI CIRCUITO
La porzione di rete, di infrastruttura utilizzata per una qualche comunicazione fra mittente e
destinatario è dedicata interamente a quella specifica comunicazione. Qualora quella porzione di
rete dovesse essere distrutta andrebbe persa. La linea è già occupata da un’altra comunicazione
per questo io non riesco a raggiungere l’altra persona.

COMMUTAZIONE DI PACCHETTO
Non c’è nessuna porzione di rete, di infrastruttura che sia interamente dedicata a una specifica
comunicazione. Consente a miliardi di utenti di scambiarsi dati e informazioni
contemporaneamente in maniera super efficiente.
Le informazioni vengono divise in tanti piccoli pacchetti di dati, i quali benché abbiano la stessa
direzione vengono trasmessi secondo vie diverse in funzione del traffico di informazioni della rete
e del funzionamento della rete stessa. I dati scelgono loro la via migliore. I pacchetti scelgono da
soli la strada più libera per arrivare a destinazione nel minor tempo possibile. Arrivano in ordine
sparso, affinché funzioni in maniera efficiente questo invio di pacchetti, a ognuno di questi
pacchetti è assegnata un’intestazione composta un numero sequenziale per capire l’ordine dei
pacchetti (quale viene prima e quale dopo) e il nome del mittente e del destinatario (per capire
dove sono diretti).
Un’intestazione fatta così contente al destinatario di rimettere i pacchetti nell’ordine giusto e di
assemblare correttamente il messaggio originale.
È il TCP/IP a dividere le informazioni in diversi pacchetti, a mandarli al destinarlo e rimettere i
pacchetti in ordine.
Il TCP/IP installato sul computer del mittente assegna l’intestazione e divide l’informazione. Il
TCP/IP installato suoi router serve a indirizzare i pacchetti. Il TCP/IP sul computer del destinatario
deve ricomporre il messaggio.

COM’È POSSIBILE IDENTIFICARE I COMPUTER CONNESSI ALLA RETE?


I singoli computer della rete hanno un indirizzo univoco che mantiene le stesse regole di univocità
di qualsiasi altro sistema di comunicazione.
Questo indirizzo univoco si chiama indirizzo IP. Si tratta di un numero costituito da 4 gruppi di
numeri compresi tra 0 e 255 (es:[Link]). Ovvero un numero costituito da 4 byte.
L’indirizzo IP identifica univocamente ogni singolo device connesso a internet.
Esistono al mondo 4.2 miliardi di possibili indirizzi, si pensava essere sufficiente ma da un po’ di
tempo a questa parte vista la quantità di dispositivi connessi a internet, questo numero si è
rilevato basso per questo si sta sviluppando un nuovo modo di sviluppare l’indirizzo IP che prevede
l’utilizzo di 16 byte.

Quale tra i seguenti non è un indirizzo IP?


[Link]
[Link]
[Link] ERRATO (391 non è possibile)

Dopo del tempo, ci si è resi conto che per gli utenti finali scambiarsi dati su internet utilizzando
solo gli indirizzi IP non era agevole perché bisognava ricordarsi 4 cifre comprese tra 0 e 255, per
questo è stato introdotto un concetto supplementare: quello dei nomi di dominio che sono
stringhe di caratteri testuali, non numeri, strutturati in maniera gerarchica che si sviluppa da
destra a sinistra. ([Link])

Schema gerarchico di nominazione


1- Domini di primo livello- Top Level Domain (TLD), è la parte più a destra (.it). Può̀ essere un
dominio di tipo geografico, composti da due sole lettere e si riferiscono a uno stato (.it .uk...) o un
dominio generico composto da due o più lettere e si riferiscono a un’organizzazione (.com
organizzazione commerciale. .edu .org ...)
2- Domini di secondo livello. (iulm), le organizzazioni per affermare la presenza online devono
farsi agganciare un dominio di secondo livello al primo livello, una volta acquistato questo si
possono agganciare tutti i libelli successivi.
3- Domini di terzo livello
I domini vengono assegnati da un’autorità IANA (internet assigned numbers authority) che delega
a specifiche istituzioni l’assegnazione dei domini di secondo livello che a loro volta autorizzano una
serie di fornitori di servizi Internet denominati provider alla distribuzione dei domini stessi. Oltre
all’assegnazione dei domini l’altra funzione svolta dalla IANA è l’assegnazione del DNS domain
name system che crea l’associazione tra IP e nome di dominio. Insieme di registri salvati che
consente di tradurre l’indirizzo testuale nel rispettivo indirizzo IP numerico associato al computer
su cui quell’indirizzo testuale è salvato.

INTERNET CAPISCE QUESTI DOMONI? È stato creato un sistema “DOMAIN NAME SYSTEM”: ogni
volta che inserisco un indirizzo di tipo testuale nel browser o un messaggio di posta elettronica il
computer trasforma questo indiritto testuale in un indirizzo numerico.

WORLD WIDE WEB


Il world wide web nasce successivamente tra il 1989/91. Viene depositato presso il CERN di
Ginevra il progetto relativo allo sviluppo del WWW da parte di Tim. Berners-Lee.
Internet è la rete e il World Wide Web invece è di fatto un’applicazione che sfrutta la rete internet
per consentire lo scambio di dati e informazioni che hanno delle caratteristiche ben specifiche,
dati e informazioni che vengono scambiati attraverso il World Wide Web, sono informazioni in
formato multimediale, di diversi formati, testo, immagini, video e sono informazioni che tra di loro
sono connesse attraverso dei collegamenti ipertestuali come link.
È la presenza di collegamenti ipertestuali come link che ci consentono di passare in maniera non
lineare da un documento ad un altro, ci consentono di leggere di documenti seguendo percorsi
logici non sequenziale. Si possono seguire percorsi logici sempre diversi senza dover seguire per
forza lo stesso ordine.
Per esempio, noi ci muoviamo all’interno di un sito web utilizzando dei collegamenti o link che ci
consentono di accedere ai vari siti, attraverso un semplice click.

Il WWW è rappresentato da tutti i siti web che noi quotidianamente utilizziamo per acquisire le
informazioni e prendere atto di situazioni, in generale per consultare e i contenuti pubblicati
online.

Il sito web è caratterizzato da una pagina principale che prende il nome di HOME PAGE e prevede
che ciascuna pagina sia scritta nel linguaggio HTML (hyper text mark-up language), il quale
definisce il linguaggio utile per la formattazione e l’impaginazione di una pagina web: Determina il
modo in cui i contenuti di questi documenti devono apparire all’utente finale.
L’utilizzatore finale dal canto suo per localizzare, visualizzare correttamente queste pagine web
formattate attraverso HTML ha bisogno di utilizzare uno specifico software applicativo che
consente proprio di visualizzare queste pagine web. Questo software applicativo si chiama
Browser (Chrome, safari…). Senza browser non si può navigare nel web.
Dove risiedono queste pagine web?
Le pagine web che compongono un sito web sono scritte con un linguaggio HTML (non è l’unico
tipo di linguaggio esistente per scrivere le pagine web. Queste sono delle vere e proprie pagine
quindi dei file che vengono memorizzati su alcune macchine.
INCONSAPEVOLMENTE OGNI VOLTA CHE NOI ATTRAVERSO IL NOSTRO DEVICE NAVIGHIAMO
ALL’INTERNO DEL WEB DI FATTO STIAMO UTILIZZANDO 2 PROTOCOLLI IL TCP/IP PER CONNETTERE
IL DEVICE ALLA RETE INTERNET E L’http PER POTER VISUALIZZARE LE PAGINE WEB.

Come posso recuperare queste pagine web nel momento in cui attraverso un browser navigo nel
web? Per trovare queste pagine, dobbiamo utilizzare URL “UNIVERSAL RESOURCE LOCATOR”.
URL è l’indirizzo della pagina web che voglio visualizzare. ESEMPIO: htto:// [Link]
Si compongono di due parti fondamentali: il dominio e la http (hypertext transfer protocol) che è il
protocollo applicativo specifico, fa riferimento a una specifica applicazione, protocollo di trasporto
dell’ipertesto.
Il sistema che associa il nome di dominio e indirizzo IP è il DNS quindi quel sistema che associa il
nome di dominio [Link] all’indirizzo IP della macchina sulla quale quel determinato sito
WEB è stato memorizzato.

ATTENZIONE: non confondere i due protocolli che sono sempre regole di trasmissione, ma che
regolano due mondi diversi. Il protocollo TCP/IP è di base per la rete internet, utile perché́ i device
possano essere connessi alla rete internet. HTTP è un protocollo che serve ai device quando
l’utente utilizza quel device per visualizzare delle pagine web.
Ogni qualvolta ci connettiamo a internet utilizziamo il TCP/IP ma ogni volta che visualizziamo una
specifica pagina utilizziamo anche la http.

Esistono altri modi per sfruttare la rete Internet? Perché́ si è fatta confusione tra Internet e
WWW? Quest’ultimo punto è accaduto, perché́ fino a pochi anni fa il modo principale per
sfruttare la rete Internet era sfruttato dal WWW. Il modo che tutti avevano per scambiare dati ed
informazioni sfruttando la rete Internet era rappresentato dai siti web e da qui nasce l’utilizzo
errato dei termini come sinonimi.
Per non fare confusione possiamo cercare altri modi per sfruttare la rete Internet. Quali sono
questi modi?
Un modo è rappresentato dalla possibilità̀ di trasferire dei file, di solito di grandi dimensioni,
utilizzando la rete Internet, ma non utilizzando il WEB. Questo può avvenire con il protocollo FTP
(file transfer protocol) (che viene usato in alternativa a http) che consente ad una rete con client e
server, di scambiarsi dei file senza avvalersi del WEB. Questo protocollo oggi è ancora usato, ma in
modo ridotto rispetto a prima, in quanto esistono differenti strumenti di trasmissione di file di
grandi dimensioni come il Cloud.

Un altro protocollo applicativo che ci dimostra come sia possibile utilizzare la rete internet, ma
non il WEB è SMTP (simple mail transfer protocol), utile per il trasferimento delle mail, usato
quando vengono scambiati messaggi di posta tra mittente e destinatario.
Oggi esiste un altro contesto che spiega come Internet ed il web non siano la stessa cosa, è il
contesto delle APP.
Queste ultime sono uno strumento utile per fare delle attività̀ e scambiare dati ed informazioni,
attraverso la rete Internet, senza utilizzare il mondo del WWW. Questa rivoluzione è stata tale che
nel 2010, la rivista WIRED ha intitolato la copertina del giornale “web is dead” in un lungo
editoriale di 2 autori che sono ANDERSON e WOLF si spiega come il web si ritenga morto.
Il Web si ritiene essere morto: un esempio molto chiaro. Per comprenderlo possiamo utilizzare la
seguente immagine.

IL TITOLO È VOLUTAMENTE PROVOCATORIO E A QUESTO


ARTICOLO E’ SEGUITO UN AMPIO DIBATTITO A CUI POI SI E’
GIUNTI ALLA CONCLUSIONE CHE IN REALTA’ IL WEB NON E’
MORTO PERO’ HA VOLUTO UN PO’ SEGNARE IL PASSO
DELL’EVOLUZIONE DEL CONTESTO ONLINE RISPETTO AGLI
ANNI PRECEDENTI DOVE APPUNTO QUESTO CONTESTO
ONLINE ERA RAPPRESENTATO PRINCIPALMENTE DAI SITI
WEB. OGGI NON E’ PIU’ COSI ACCANTO AI SITI WEB CI
SONO ALTRI MODI PER SFRUTTARE LA RETE INTERNET PER
ESEMPIO TUTTO IL CONTESTO DELLE APP UTILIZZATI IN UN
AMBITO MOBILE E QUESTO OVVIAMENTE RENDE PIU’
ETEROGENEO E COMPLESSO IL MONDO DELL’ONLINE CHE I
PRIVATI MA ANCHE LE AZIENDE DEVONO GESTIRE.

EVOLUZIONE DELL’ARCHITETTURA IS/ICT – CLOUD COMPUTRING ED ECONOMIA DELLA


COLLABORAZIONE
Un SI aziendale è un insieme di persone, processi, apparecchiature e applicazioni che permettono
all’azienda di disporre delle informazioni necessarie nel posto giusto e al momento giusto,
È un sistema che ha l’obbiettivo di trasformare i dati nelle informazioni di cui le aziende hanno
bisogno per svolgere la propria attività.
La componente fondamentale sono le persone, la seconda componente fondamentale sono i
processi, la terza è data da apparecchiature e applicazioni. Questa definizione di apparecchiature e
applicazioni ci ricorda che i sistemi informativi esistono da prima delle tecnologie
dell’informazione e della comunicazione, quindi da prima delle ICT, in tale senso si parla di
information communication technology (ICT) come infrastruttura o infrastrutture dei sistemi
informativi.

(Con le lezioni successive andremo a capire come le ICT abbiamo modificato le architetture dei
sistemi informativi dai primi anni ’50 ad oggi. Ovvero i modelli con cui i sistemi informativi operano
e permettano di conseguenza alle aziende di poter lavorare).

SISTEMI INFORMATIVI E ICT: EVOLUZIONI


Schema che rappresenta la direzione dell'evoluzione dei sistemi informativi in funzione del diverso
ruolo che le ICT hanno avuto all’interno dei sistemi.

Le 3 fasi sono:
1. Sistemi informativi dove ICT ha un ruolo di supporto della produzione
All’inizio degli anni ’60 iniziano ad apparire sul mercato i primi elaboratori (mainframe) anche se i
SI esistevano già ma lavorano senza computer.
Quindi in questo periodo tante grandi organizzazioni es. banche, agenzie viaggio e supermercati
che già esistevano avevano un SI ma completamente non automatizzato quindi senza ICT.

Le aziende con l’arrivo dei primi mainframe e delle prime tecnologie iniziano ad adottarli con
quello che viene chiamato “effetto calcolatrice” ovvero un elaboratore che viene utilizzato per
supportare l’organizzazione nel fare le operazioni lunghe e ripetitive.
Viene definito effetto calcolatrice perché veniva utilizzato l’elaboratore per fare quelle cose che
noi facciamo fare alla calcolatrice quindi le cose ripetitive lunghe e più complicate per la mente
umana. Questi sono gli anni dei cosiddetti sistemi di elaborazione delle transazioni base, si parla
in tal senso di ICT con un ruolo di supporto alla produzione all’interno dei sistemi informativi.

Es. nel mondo della produzione industriale il primo mainframe viene utilizzato nella catena di
montaggio così poteva controllare la qualità̀ di essa.
Nel mondo dei supermercati il primo mainframe viene utilizzato nelle operazioni di cassa.
Nel mondo bancario il primo mainframe viene utilizzato per i calcoli dell’estratti conto. Prima del
supporto alla produzione i SI esistevano ma le ICT non ancora quindi non si può parlare di impatto
delle tecnologie sui SI.

2. Sistemi informativi dove ICT diventa anche une risorsa di business


Siamo all’inizio degli anni ’80 / meta anni ’80 dove le ICT, nel frattempo, si sono evolute e
appaiono i primi PC Personal Computer.
Si tratta di una fase rivoluzionaria nella storia delle ICT in quanto l’avvento dei PC cambia il modo
con cui i sistemi informativi e le organizzazioni utilizzano le tecnologie.
Infatti, in questo periodo le ICT diventano una vera e propria risorsa di business cioè̀ una risorsa
senza cui molte aziende non possono più operare. Es. agenzie di viaggio
In questa fase si parla di sistemi informativi gestionali, sistemi di supporto alle decisioni e sistemi
informativi aziendali in senso stretto.

3. Sistemi informativi dove ICT diventa una vera e propria arma strategica
Siamo ai giorni nostri dove la tecnologia è diventata per la maggior parte delle organizzazioni una
vera e propria arma strategica. Quindi le aziende attraverso l’uso delle tecnologie trovano nuovi
modi e modelli di competere fra di loro.

Es. Check-in online delle compagnie aree che risparmiano sulla propria forza lavoro facendo
lavorare il consumatore/cliente da casa per loro.
In questo caso si parla di uso strategico perché́ grazie alla tecnologia le compagnie aree riescono
ad operare meglio sul mercato risparmiando risultando così più̀ efficaci ed efficienti.

Altro esempio è la possibilità̀ che viene data all’utente di scegliere il proprio posto per il volo.
In questa fase all’interno delle aziende si parla di Networking, Intranet ed Enterprise resource
planning e all’esterno di Extranet, E-Commerce e Cloud Computing.

Es: FedEx
FedEx o DHL investono principalmente in ICT perché́ queste sono uno strumento indispensabile e
di risorsa di business, in quanto l’intero sistema di consegne è gestito da un sistema informativo
altamente sofisticato con sede negli USA. (un Datacenter).
Nel caso di FedEx questo Datacenter è replicato come backup in altre due parti nel mondo visto
che l’intera operatività̀ si basa sulle tecnologie e se si dovesse spegnere i corrieri non saprebbero
più̀ dove andare a consegnare.
Per evitare questo hanno investito su sistemi informativi automatizzati di backup che si trovano in
nord Europa e in una zona non dichiarata del sud est asiatico.

Queste società̀ competono sul mercato anche sulla capacità di consegna veloce e puntuale ma
anche su servizi aggiunti che offrono ai clienti solitamente basati sulla tecnologia.
Es. i servizi di tracking.

TRE MACROFASI DI SVILUPPO DEI SISTEMI INFORMATIVI IN FUNZIONE DELLE TECNOLOGIE


DELL’INFORMAZIONE DELLA COMUNICAZIONE (ICT) A PARTIRE DAGLI ANNI 60 A OGGI.
1) TECNOLOGIA USATA COME SEMPLICE STRUMENTO DI SUPPORTO ALLA PRODUZIONE: SI
PARLA DI SISTEMI DI ELABORAZIONE DELLE TRANSAZIONI
2) TECNOLOGIA CHE DIVENTA ANCHE RISORSA DI BUSINESS: SI PARLA DI SISTEMI INFORMATIVI
GESTIONALI, SISTEMI DI SUPPORTO ALLA DECISIONE, SISTEMI INFORMATIVI AZIENDALI IN
SENSO STRETTO
3) A PARTIRE DAGLI INIZI DEGLI ANNI 90 A OGGI: TECNOLOGIA UTILIZZATA COME ARMA
STRATEGICA DOVE ALL’INTERNO DELLE AZIENDE SI PARLA DI INTERNET DI ENTRERPRISES
SURPLANNING E ALL’ESTERNO SI PARLA DI E-COMMERCE DI EXTRANET.

Le forze che hanno causato queste evoluzioni sono:


- Come cambia l’uso della tecnologia in aziende in funzione del livello di management: nelle
prime fasi la tecnologia era una cosa utilizzata dalle fasce basse delle piramidi di basso
livello
- Complessità del sistema

In primo luogo, come è cambiato l’uso delle tecnologie in azienda in funzione del livello di merce.
Nelle prime fasi la tecnologia era qualcosa di utilizzato dalle facce basse della piramide aziendale: i
lavoratori di basso libello trattandosi di sistemi di elaborazione delle transizioni, l’impiegato dello
sportello, il capo di produzione in fabbrica, la cassiera al supermercato, in un primo periodo i
grandi manager si rifiutavano di usare la tecnologia e la facevano utilizzare alla segretaria. Oggi
siamo arrivati a una tecnologia in mano anche ai più alti livelli aziendali delle funzioni della
tecnologia che sono fondamentali per i più alti livelli.

Una seconda forza che invece è quella della complessità del sistema: sostanzialmente intendiamo
che ni primi anni di uso delle tecnologie all’interno dei sistemi informativi i sistemi e le architetture
erano semplici, c’era un computer all’interno delle organizzazioni. Oggi invece i sistemi informativi
sono estremamente complessi, un sistema informativo aziendale non è più soltanto tecnologia
interna all’azienda ma sono sistemi informativi le cui infrastrutture vanno all’esterno in questo
senso cloud computing è un buon esempio

LIVELLO DI MANAGMENT A CUI LA TECNOLOGIA SI RIVOLGE


UN TRIANGOLO CHE RAPPRESENTA UNA QUALSIASI
ORGANIZZAZIONE, SE RAGIONO PER FASCE ORIZZONTALI E MI
MUOVO DALLA BASE DELLA PIRAMIDE, SI TROVANO TANTE
PERSONE; MI MUOVO VERSO IL VERTICE DELLA PIRAMIDE
DOVE ALLA FINE SI TROVANO LIVELLI SEMPRE PIU’
IMPORTANTI FINO AD ARRIVARE AI SIGNOR MANAGER E SUL
VERTICE ESTREMO DELLA PIRAMIDE MI POSSO IMMAGINARE
UN AMMINISTRATORE DELEGATO NEL CASO DI UNA
SOCIETA’, UN RETTORE NEL CASO DI UNA UNIVERSITA’.
SE INVECE ANALIZZO LA PIRAMIDE PER FASCE
VERTICALI POSSO IDENTIFICARE QUELLE CHE SONO LE SINGOLE FUNZIONI AZIENDALI QUINDI QUESTA CHE
VEDIAMO È UNA RAPPRESENTAZIONE DI UNA AZIENDA GENERICA: MARKETING E VENDITE, PRODUZIONE,
FINANZA, CONTABILITA’ E RISORSE UMANE.

SE POI MISCHIO INSIEME LA DIVISIONE ORIZZONTALE CON QUELLA VERTICALE POSIZIONANDOMI


IN OGNUNO DI QUESTI QUADRILATERI POSSO IDENTIFICARE UNA SPECIFICA FIGURA QUINDI PER
ESEMPIO: SE MI METTO NEL QUADRILATERO IN BASSO A DESTRA TROVO LO STAGISTA
(OPERATIONAL) DELLE RISORSE UMANE, SE MI METTO NEL QUADRILATERO IN BASSO A SINISTRA
TROVO LO STUDENTE IULM STAGISTA NEL SALES E MARKETING DI UNA AZIENDA E VIA DICENDO.
LA PIRAMIDE È LO STRUMENTO UTILE PER QUALSIASI RAPPRESENTAZIONE DI
UN’ORGANIZZAZIONE

MUOVENDOCI VERSO IL VERTICE DELLA PIRAMIDE.


LA PRIMA TIPOLOGIA DI SISTEMA INFORMATIVO AUTOMATIZZATO PRENDE IL NOME DI TPS
(TRANSACTION PROCESSING SYSTEM) =SISTEMA DI ELABORAZIONE DELLE TRANSAZIONI. I TPS
SONO LE PRIME TIPOLOGIE DI SISTEMI INFORMATIVI AUTOMATIZZATI CHE SERVONO AD
AUTOMATIZZARE

Nelle prime fasi, la tecnologia era una cosa utilizzata dalle fasce basse delle piramidi
aziendali/lavoratori di basso livello.
Es. impiegato dello sportello e capo produzione in una fabbrica
C’è un primo periodo dove i grandi manager si rifiutavano di usare la tecnologia facendola usare
alle segretarie, mentre oggi la tecnologia è in mano anche ai più alti livelli aziendali.
Riferimento ai primi anni ’60, quindi arrivo del primo mainframe e dei primi sistemi informativi
automatizzati  La prima tipologia di SI prende il nome di TPS (Transaction Processing System)
ovvero sistema di elaborazione delle transazioni che serve ad automatizzare attività̀ ripetitive e
standard.
Verso l’inizio degli anni ’80 entrano in azienda due nuove tipologie di SI:
OAS (Office Automation System) ovvero sistema di automazione d’ufficio e sono strumenti per
uso personale che abilitano gli impiegati all’utilizzo della tecnologia per presentazioni su word,
calcoli su Excel ecc...
Sono a grandi linee quello che oggi è il pacchetto office
KWS (Knowledge Worker System) sistema di supporto ai lavoratori della conoscenza ed è un
sistema pensato per chi nella propria attività lavorativa fa della propria conoscenza l’elemento
differenziale: quindi ingeneri, architetti
Es. sistemi CAD (computer ared design) che aiutano a progettare oggetti e componenti utilizzando
un sistema automatizzato.
Quindi seconda fase di evoluzione dei sistemi informativi attraverso la tecnologia in ottica verticale
quindi di sviluppo manageriale si passa da lavoratori operativi (impiegati base) a un livello un po’
più alto i cosiddetti lavoratori della conoscenza.

C’è poi una terza fase che è la fase in cui la tecnologia arriva addirittura a toccare i livelli più alti
della piramide (il manager fino ad arrivare all’amministratore delegato), compaiono tre nuove
tipologie di sistemi informativi:
- DSS: Decision Support System
- MIS: Management Information System
- ESS: Executive Support System

Sono sistemi orientati a supportare il management, a prendere delle decisioni. Come?


Aggregando enormi quantità di dati che arrivano dalla base della piramide aziendale ma
soprattutto dati che arrivano anche dall’esterno. Più si va in alto più la quantità e le modalità di
analisi dei dati si fanno complesse a sofisticate.
ATTENZIONE SONO SISTEMI DI SUPPORTO ALLA DECISIONE, NON SIAMO ANCOFRA NELLA
DIMENSIONE DEL COMPUTER CHE DECIDE PER L’UOMO

Esempio: un DDS può̀ essere un sistema che analizzando una enorme quantità̀ di dati aiuta un
direttore marketing a decidere la strategia di prezzo, prodotto e location migliore per sviluppare il
proprio business.
Esempio McDonald’s
Esempio specifico McDonald’s che ha preso in considerazione di aprire un ristornate di fianco
all’università̀ IULM e la decisione finale è stata no.
Questa decisione è stata presa dal direttore marketing di McDonald’s aiutato da una serie di dati
che arrivano dalla base della piramide aziendale ma anche altri dati che arrivano dall’esterno
dell’azienda.
Il DDS o MIS ha indicato un alert ovvero che i clienti derivanti dalla IULM sono soggetti ad una
forte stagionalità̀ quindi periodo che va da giugno a metà settembre.
Quindi in sintesi questi sono sistemi che aiutano quotidianamente i manager a prendere decisioni
aggregando dati che arrivano dalla base ma anche dall’esterno dell’azienda.

Oggi tutti questi sistemi continuano ad esistere in azienda, ma soprattutto nelle organizzazioni di
grandi dimensioni sono integrati in un unico sistema chiamato sistema ERP (Enterprise Resource
Planning): azienda risorse pianificazione ovvero sistemi informativi orientati alla pianificazione
delle risorse di azienda.
Sono sistemi informativi che tengono insieme la contabilità̀ aziendale, sistemi orientati ai middle
management e anche i sistemi professionali. Tutti in un unico sistema informativo.
Es. principale produttore di questi sistemi è l’azienda tedesca SAP, un’azienda tedesche che è
leader nella diffusione di questi sistemi ma anche la stessa Oracle e la stessa Microsoft hanno
sviluppato sistemi informativi integrati che le aziende possono prendere e adottare e avere così
coperte tutte le funzionalità̀ tipiche di un SI sia che si tratti di livelli base o manageriali della
piramide.

La seconda forza: quella che abbiamo detto essere collegata alla complessità del sistema è un
modello classico dove grazie all’evoluzione delle architetture è un modello classico dove
l’evoluzione delle tecnologie della comunicazione sotto un profilo manageriale vengono divide in 4
grandi ere:
• BATCH  Late ’50’s early ’70’s
• REAL TIME  Early ’70’s mid ’80’s
• PC revolution  Mid ’80’s early ’90’s
• cloud computting  Today
Prima della prima fase non c’è la tecnologia.

Es. Settore bancario: La nonna va in banca a depositare un assegno.

PRIMA FASE
Una qualsiasi organizzazione ha Front Office che è quella parte di organizzazione che parla con il
cliente finale ed un Back office che è invece quella parte dell’organizzazione che non vede, non ha
un dialogo diretto con il cliente finale.
La nonna va in banca, l’operatore di sportello ha un paio di timbri e carta e penna, ha solo un
telefono fisso. L’operatore registra su un foglio di carta l’operazione della nonna e da una ricevuta
del versamento alla signora.
La signora chiede all’operatore di sapere quanto è il suo saldo totale conto corrente dopo aver
versato il suo assegno.
L’operatore può dirle che il suo saldo di conto corrente di tre giorni fa era tot, per sapere quello
nuovo deve ripassare tra tre giorni. Perché́ tra tre giorni?
Al giorno d’oggi è strano pensare che ci vogliano tre giorni per sapere un’informazione del genere.
Tre giorni perché si trattava di un sistema informativo non automatizzato, che richiedeva persone,
processi e l’analisi di dati.
Ma le applicazioni non erano legate al mondo delle tecnologie, e succedeva che tutti gli sportelli di
tutte le banche mettevano tutti i fogli di azioni registrate in degli scatoloni e un camioncino nella
notte li portava al Back office dove la mattina dopo gli operatori di esso aprivano gli scatoloni e
facevano i conti a mano su dei grandi libri contabili dove ogni pagina corrispondeva a un cliente e
su queste pagine facevano le sottrazioni, le moltiplicazioni e le addizioni rispetto a quelli che erano
stati i versamenti, i prelievi e gli eventuali interessi.
Facevano i calcoli per ciascun cliente e a fine giornata calcolavano l’estratto conto.
Il numero dell’estratto conto veniva imbustato e messo negli scatoloni, e la mattina dopo sarebbe
stato portato dal camioncino nella banca.
E la nonna tre giorni dopo riceveva l’informazione richiesta.
Questo periodo si chiama BATCH cioè a blocchi o a pezzi e si contrappone al significato di real
time.

Alla fine degli anni 50 e agli inizi degli anni 60 nasce l’informatica, nascono i primi elaboratori
(mainframe) con una capacità elaborativa estremamente limitata rispetto all’hardware a cui siamo
abituati oggi. All’interno dei front office appare un Computer. Come cambia l’esperienza del
cliente: La nonna vuole fare il suo solito versamento, l’omino al banco scriverà sul foglio le sue
operazioni sempre manualmente.
La nonna richiede l‘estratto conto e le verrà detto di ritornare tra due giorni. Perché 2?

Perché i dati al posto che processarli manualmente li elaborano utilizzando il mainframe a loro
disposizione. Gli estratti conti vengono prodotti in tempi minori.
In questi anni l’architettura prende nome di Server Base (architettura centralizzata), vi è un unico
elaboratore all’interno dell’azienda, il main frame non un personal computer, e tutta
l’organizzazione trae beneficio da un singolo computer.
SECONDA FASE
A metà degli anni ’70, l’esperienza della nonna cambia in maniera significativa perché la stessa
presentandosi in banca trova qualcosa di nuovo, uno schermo con una tastiera che prende il nome
di DumbTerminal.
Non è un computer ma è un componente hardware che permette attraverso la linea telefonica di
connettersi all’elaboratore centrale.
La nonna alla domanda del saldo del suo conto corrente trova una risposta in tempo reale perché́
l’operazione di accredito dell’assegno avviene in tempo reale.
In termine di struttura organizzativa, cambia tantissimo perché́ non c’è più̀ il camioncino e non ci
sono più̀ i lavoratori nel Back Office.
In tal senso questa fase viene chiamata fase del REAL TIME.
In termini d’architettura, essa continua ad essere centralizzata perché́ c’è solo un mainframe.
Anche se ci sono molte connessioni con i Dumb terminal, è sempre centralizzata l’architettura.
Il concetto di Real time si contrappone a quello di Batch che significa a pezzi. Quando facciamo
un’operazione in batch significa che l’elaborazione avviene successivamente all’accadimento
dell’evento.

TERZA FASE
Un sostanziale cambiamento a livello dell’architettura avviene a metà degli anni ’80, come effetto
di un’evoluzione tecnologica legata all’avvento dei personal computer.
Quindi, lo spostamento di un’informatica orientata solo a supportare l’organizzazione basata su
mainframe: minicomputer ad un’informatica basata ad un uso personale.

La nonna andando in banca trova una situazione radicalmente cambiata al front office: perché́
tutti hanno un personal computer e con esso interrogano il mainframe centrale ma possono
lavorare anche in autonomia.

Oltre al conto corrente istantaneo può chiedere un report dettagliato rispetto alla sua situazione
patrimoniale negli ultimi anni. In tal caso il personale al front office con il personal computer
riesce, con un incrocio di dati presenti sul mainframe e usando la capacità elaborativa del suo
personal computer riesce a stampare il report e a darlo nelle mani della signora.
In questo caso non si può parlare più di architettura centralizzata, ma di architettura:
DISTRIBUITA (in opposizione al nome precedente) o CLIENT SERVER.
In entrambi casi si fa riferimento al fatto che non c’è solo un elaboratore in azienda ma molti di più
di uno.

Architettura dove client e server contribuiscono congiuntamente alla produzione


dell’informazione per il sistema informativo.
ESEMPIO: il bancomat. Il server tiene il conto del mio conto corrente, che collega i client (che sono
il bancomat stesso) che sanno se richiesta l’estratto conto.
Un passaggio ad un’architettura client service che dal punto di vista dei sistemi informativi vede
per la prima volta un passaggio da una tecnologia dei SI esclusivamente orientati all’efficienza ad
una tecnologia che si orienta anche all’efficacia.

E OGGI QUEL È LARCHITETTURA PREDOMINANTE DEI SISTEMI INFORMATIVI?


Oggi la maggioranza delle aziende continua ad utilizzare un sistema client server, anche se
leggermente modificata; i client sono diventati anche telefoni e computer, e i server continuano
ad essere miniaturizzati con sempre maggior memoria, però la logica sottostante rimane la logica
del bancomat di prima.
Cioè qualsiasi tipologia di SI mette insieme una componente di elaborazione svolta da uno o più̀
client e collegata da uno o più server.

QUARTA FASE
Essa corrisponde al concetto di cloud computing: elaborazione che avviene nella Cloud. Il cloud è
un luogo non definito della rete.
La fase odierna può essere definita come la fase dove l’elaborazione avviene nella rete. il
fenomeno del cloud computing che può essere ricondotto ad un fenomeno più generale che è il
cosiddetto fenomeno dell’outsourcing (tradotto in italiano = esternalizzazione) descrive il
fenomeno tale per cui un’organizzazione decide di esternalizzazione, di dare in outsourcing alcune
delle sue attività ad aziende terze che siano più competenti nello svolgimento di quell’attività.
(AD ESEMPIO, PENSIAMO ALL’UNIVERSITA’ IULM E IL SUO OBIETTIVO È DI EDUCARE GLI STUDENTI
QUINDI ATTIVITA’ COME LA MANUTENZIONE DEL GIARDINO, LA PULIZIA DELLE AULE, LA GESTIONE
DELLE MENSE, LA SICUREZZA NEL CORSO DEGLI ANNI E’ STATA ESTERNALIZZATA QUINDI OGGI LA
MENSA DELLA IULM NON E’ GESTITA DA DIPENDENTI DELLA IULM, LE PULIZIE DELLE AULE NON
SONO EFFETTUATE DA DIPENDENTI IULM SONO ESTERNALIZZATE A SOCIETA’ TERZE CHE FANNO
SOLO ED ESCLUSIVAMENTE QUELLO DI MESTIERE)

FROM OUTSOURCING TO CLOUD COMPUTING


In passato i computer lavoravano da soli in casa o in azienda, ma grazie ad internet ora possiamo
usare il potere dei computer in un luogo completamente diverso, nella cosiddetta nuvola.
Esempio per capire il cloud.
Una fiorista è preoccupata per la consegna dei fiori, si preoccupa di assumere gli autisti e
mantenere operativi i furgoni, ma questa responsabilità̀ la rende nervosa.
Il budget è limitato e la questione delle consegne è costosa, inoltre, è difficile stimare il numero di
furgoni necessari.
L’attività̀ soffre se il numero di consegne diminuisce; poi scopre che c’è un’azienda di consegna
che può̀ utilizzare a necessità con moltissimi furgoni che può̀ pagare solo ciò che usa.
Affida cosi le consegne a questa azienda.
Anni dopo raccoglie i frutti di questa scelta, e ora ha diversi negozi, ma nuovi problemi.
Ha siti web, server e database da gestire all’interno della sua sede.
Tutto ciò ha un costo enorme, e la capacità di memoria continua ad esaurirsi e ci sono sempre
guasti ai server.
Sente parlare di cloud computing, che funziona come le consegne.
Invece di gestire le grandi tecnologie in loco ne affida i suoi dati ad un’azienda che ha tutto il
potere informatico che le serve ed è tutto protetto.
I suoi dati sono raggiungibili attraverso il web: ciò̀ vuol dire che si affiderà̀ ad una cloud company.
Grazie al cloud computing i computer non limiteranno la sua attività̀ perché́ queste aziende
hanno capacità di memoria praticamente illimitate e lei può̀ sviluppare la sua azienda senza
problemi e poiché́ vengono effettuati backup dei server in più̀ luoghi le sue informazioni sono
protette.
Ma l’aspetto migliore per lei è pagare solo per l’uso effettivo.

Grazie al cloud computing può utilizzare diversi tipi di servizi presenti nella nuvola e accessibili
soltanto attraverso il web.
Anche noi possiamo utilizzare i prodotti nella nuvola, che possano servire a E-mail, documenti,
foto sharing sono sicuri e protetti e accessibili da qualsiasi connessione internet.
Il fenomeno del cloud computing può essere ricondotto al fenomeno dell’outsourcing
(esternalizzazione). Esso descrive il fenomeno dove un’azienda decide di esternalizzare dei
processi ad aziende terze che siano più̀ competenti nello svolgimento di quell’attività̀.
Outsourcing raggruppa tutte quelle attività̀ che non rientrano nelle attività̀ primarie di un
organizzazione/azienda. ESEMPIO  La Iulm ha come obbiettivo di insegnare quindi: la pulizia
delle aule, la manutenzione dei giardini e la mensa è stata delegata a terzi.

Vi sono 5 ragioni per fare un outsourcing:


1. Do il lavoro a terzi perché io non ho la competenza.
2. Risparmiare tempo
3. Maggior efficienza
4. Controllare i costi
5. Flessibilità

Lo stesso concetto di outsourcing è lo stesso concetto tecnologizzato che è il nostro cloud


computing. Esistono oggi una serie di fornitori di servizi di cloud computing che rispondono a
questa necessità di esternalizzazione delle aziende. Quindi le aziende non vogliono più tenere i
server in casa perché sono perdite di soldi per il personale e la manutenzione, ma le preferiscono
esternalizzarle a terzi.
ESEMPIO  L’outsourcing della posta elettronica della Iulm.
C’era un piano dedicato ai server che gestivano le mail, da qualche anno invece hanno deciso che
avrebbero esternalizzare questo servizio ad un operatore esterno (Google).
Il cloud è molto diffusa nelle aziende, si sta diffondendo sempre di più̀, ma è anche un fenomeno
che riguarda a noi come individui.
Pensiamo alla posta elettronica che sul nostro telefonino, gestita in cloud.
Non c’è un luogo specifico dove sono le mie foto di Instagram o i miei video su YouTube ma posso
solo dire che sono nel cloud.
Possiamo dire che le architetture dei sistemi informativi aziendali si sono evoluti nel corso degli
anni in questo modo:
• Centralized host-centric computing (architettura centralizzata)
• Distrubuted client/server computing (architettura distribuita)
• Distributed network centric: Cloud computing

Le architetture dei sistemi informativi aziendali si sono evolute nel corso degli anni: da
un’architettura completamente centralizzata chiamata host-centric o server centri computing
perché al centro c’era solo un server o un computer, che ha caratterizzato le architetture dei
sistemi dalla fine degli anni 50 fino alla metà degli anni 80, si è poi passati a un’architettura non
più centralizzata ma distribuita: quello che viene chiamato il client/server computing dove a fronte
di uno o più server ci sono anche tanti client. Nel corso degli anni l’architettura cliente/server è
rimasta l’architettura chiave dei sistemi informativi ma quello a cui assistiamo oggi è
un’esternalizzazione sia dei server sia dei client verso il mondo della rete e quindi un’architettura
che continua si ad essere distributiva ma con al centro la rete.

Chi sono le aziende che permettono cloud computing:


• Google
• Microsoft
• Amazon (principale)
Amazon lo si conosce come business completamente differente, cioè e-commerce.
Però Amazon aumenta il proprio fatturato mettendo a disposizione le sue infrastrutture
informatiche ad aziende di poter esternalizzare i propri sistemi informativi o solamente una parte
dei propri sistemi informativi.
In funzione di quante e quali componenti delle proprie ICT l’azienda vuole esternalizzar si hanno
diverse tipologie di cloud computing:
- On premises: tengo tutto in casa non esternalizzo niente
- Software as a service: esternalizzo tutto, non tengo nulla in casa. Tutto è affidato nelle
mani di un fornitore di servizi di cloud.
- Infrastructure as a service: Si può scegliere di non esternalizzare tutto. Esternalizzo soltanto
la componente di networking, di salvataggio dei dai e dei server ma continuo a tenere in
casa una buona fetta delle componenti della tecnologia.
- platform as a service: si esternalizza tutto a parte poche cose. mi tengo in casa soltanto le
applicazioni e i dati.

CLOUD COMPUTING ED ECONOMIA COLLABORATIVA


Il problema nei prossimi anni sarà legato alla batteria dei dispositivi piuttosto che alla rete.
Da un punto di vista tecnologico vi è un limite (la connettività̀) ma è superabile; da un punto di
vista socioculturale ci sono problemi maggiori perché soprattutto convincere vecchie generazioni
che i loro dati e le loro applicazioni non saranno sui computer ma dispersi nel cloud (richiederà
qualche anno).
Dal punto di vista del mercato, fino a qualche anno fa esisteva una barriera presentata dalla
microsoft (essa non era d’accordo sull’idea di non avere più̀ salvati i propri dati sui dispositivi) ma
ormai da qualche anno anche essa si è orientato nella direzione opposta (office 365).

È credibile che il cloud diventi l’architettura predominante nei prossimi anni? SI.
GRID COMPUTING
Un’architettura informatica estesa dove grazie alle caratteristiche del cloud sarà possibile
condividere capacità elaborativa inutilizzata.
La possibilità non più tanto remota e assolutamente fattibile di unire le capacità elaborative
inutilizzate di centinaia di migliaia di computer nel mondo, per processare elaborazioni che
richiedono grande capacità elaborativa senza dover dedicare a tale capacità elaborativa un
computer o un mainframe dedicato.
Da qualche anno Telecom Italia elabora le fatturazioni mensili dei clienti (operazioni che
richiedono un enorme capacità elaborativa) grazie ad un meccanismo di grid computing che
mette insieme le capacità elaborative inutilizzate di tutti i personal computer dei dipendenti di
Telecom Italia durante la notte. Quando un dipendente di Telecom Italia va a casa, non spegne di
computer, sul quale è installata un’applicazione che prende il controllo.

Noi abbiamo visto che nelle prime tre fasi dell’evoluzione delle architetture ICT (Batch, Real Time,
PC revolution), nel batch e real tim: un’architettura di tipo centralizzata, nella fase della pc
revolution abbiamo un’architettura di tipo distributivo, le ICT hanno un impattato sulle relazioni
tra il Back Office e il Front Office.
Nel caso della nonna che va in banca, il servizio che le viene offerto varia nel momento in cui varia
la modalità con cui Back Office e Front Office parlavano tra di loro grazie alla tecnologia.

La riflessione rispetto a quello che sta succedendo oggi, quello che è successo negli ultimi 10/15
anni dell’evoluzione delle ICT è che con il cloud computing (ultima fase) quello che
sostanzialmente cambia è che, grazie alle tecnologie che nel frattempo da semplici tecnologie
informatiche (IT) sono diventate tecnologie dell’informazione e della comunicazione (ICT), oggi le
organizzazioni hanno la possibilità̀ di far partecipare virtualmente alle proprie attività̀ anche i
clienti finali o più̀ in generale gli stakeholders.

Esempio  in realtà noi quando facciamo il check-in per easy jet seduti da casa siamo anche
contenti perché risparmiamo tempo, non dobbiamo parlare con un operatore antipatico,
possiamo farlo quando vogliamo; quindi, sicuramente la tecnologia ci porta una serie di vantaggi.
Ma in realtà se ci pensiamo bene in quel momento noi siamo lavoratori part-time non retribuiti di
easy jet, lavoriamo al posto dell’operatore easy jet. Grazie alla tecnologia easy jet ci coinvolge
nell’attività̀ della propria organizzazione senza quasi che noi ce ne accorgiamo.

YouTube, Wikipedia, Trip Advisor, Airbnb, Facebook... sono tutte aziende che hanno fatto del loro
successo la capacità di far lavorare qualcun altro. Gli utenti comprano e loro guadagnano. Queste
aziende hanno avuto la capacità di coinvolgere nel proprio business soggetti esterni senza pagarli.
Siamo di fronte a giganti del business che hanno creato il proprio business su questo concetto,
sulla capacità grazie alla tecnologia di coinvolgere soggetti esterni.
Questo è un esempio di uso strategico della tecnologia. Questo è quello che è cambiato
radicalmente nel corso degli ultimi 15/20 anni grazie all’uso di nuove tecnologie: la possibilità delle
organizzazioni di far partecipare alla propria attività̀ anche soggetti esterni.

DAL CLOUD ALL’ECONOMIA COLLABORATIVA


Con economia collaborativa si fa riferimento a nuovi modelli organizzativi e di business basati
sull’uso di piattaforme digitali per connettere tra loro persone che vogliono scambiarsi beni o
servizi in modo diretto, semplice e con la minima intermediazione.
Se nell’economia tradizionale tipicamente i soggetti che partecipano ai mercati sono singoli
individui o singole istituzioni, nel mondo dell’economia collaborativa i soggetti possono essere
rappresentati da chiunque abbia degli strumenti digitali per connettersi a determinate
piattaforme.
Questa economia partecipativa può essere divisa in quattro categorie:
- Crowdsourcing
- Crowdfunding
- Sharing economy
- Gig economy
Che cos’hanno in comune quindi questi quattro mercati e perché ricadono tutti sul concetto di
economia collaborativa? Perché sono quattro mercati dove il ruolo della domanda e dell’offerta
può essere gestito dalla folla, dalla crowd. Ciò che cambia è l’oggetto dello scambio tra domanda è
offerta.
- Se l’oggetto dello scambio è il denaro, e uno dei due ruoli è giocato dalla crowd (qualsiasi
cittadino connesso alla rete), si parla di Crowdfunding.
- Se l’oggetto dello scambio è la conoscenza, si parla di Crowdsourcing
- Se l’oggetto dello scambio è un bene o un servizio, si parla di Sharing Economy.
- Se l’oggetto dello scambio è la forza-lavoro, si parla di Gig Economy.

SHARING ECONOMY
Modello economico basato su un insieme di pratiche di scambio e condivisione di beni materiali o
servizi come airbnb, uber.
Sono due piattaforme di economia collaborativa, in particolare di sharing economy, che abilitano
lo scambio di appartamenti e servizi di trasporto, basandosi sul concetto che non si tratta di
un’agenzia immobiliare tradizionale che possiede appartamenti e che li rende disponibili all’affitto,
ma si tratta di una piattaforma che unendo la crowd sia dal lato della domanda che dal lato
dell’offerta ha creato un nuovo modello di business. Stessa cosa per Uber, non si tratta di una
compagnia di taxi tradizionali che possiede una flotta di autoveicoli, ma di una piattaforma in cui
sia dal lato della domanda che dal lato dell’offerta vi è un’enorme partecipazione di chiunque:
chiunque può fare il driver, chiunque può richiedere un servizio di trasporto.
Oltre a queste due aziende continuano a nascerne in ogni ambito, qualsiasi mercato è aperto a
forme di sharing economy.

GIG ECONOMY
Un modello economico sempre più diffuso dove non esistono può le presentazioni lavorative
continuative ma si lavora on demand. È una nuova forma di lavoro, non più indeterminato e
continuativo. Il lavoro on demand è abilitato ad una piattaforma tecnologica.
In particolare, quando si fa riferimento alla gig economy si fa riferimento al mondo delle consegne
del food delivery come deliveroo che è una nuova modalità di lavoro: offre la possibilità di lavorare
appunto on demand

CROWDFUNDING
Un processo collaborativo di un gruppo di persone che utilizza il proprio denaro in comune per
sostenere progetti o gli sforzi di persone e organizzazioni. In altre parole, si fa rifermento a dei
processi collaborativi finalizzati allo scambio di denaro.

Ci sono quattro tipi di crowdfunding.


 Reward crowdfunding la folla contribuisce alla crescita di una nuova azienda,
tipicamente una startup; piattaforma in cui chiunque può̀ contribuire al finanziamento di
un’iniziativa imprenditoriale, venendo ricompensato con un reward, tipicamente con il
prodotto/servizio che si va a finanziare. La piattaforma più famosa è kickstarter
 Donation crowdfunding  donazione finalizzata al sostenimento di progetti, tipicamente
caritatevoli; collaborazione finalizzata alle donazioni. Esempi: fundly e goefoundme
 Asset crowdfunding la folla contribuisce alla crescita di una nuova azienda, tipicamente
una startup; ricevo una vera e propria partecipazione azionaria nella società in cui vado ad
investire. La più importante piattaforma si chiama siders.
 Lending crowdfunding crowdfunding finalizzata ai prestiti; piattaforma dove io posso
chiedere o erogare un prestito a terzi.

CROUWDSOURCING
È lo sviluppo collettivo di un progetto grazie alla conoscenza apportata da numerose persone
esterne all’entità che l’ha ideato.
YouTube, per esempio, non ha mai prodotto un video, i video li produciamo noi perché troviamo
nel riprodurre video un riconoscimento di tipo sociale.
Esistono tre diverse ragioni per cui una folla può decidere di contribuire ad un progetto di terzi:
- Sociale (fama/visibilità , relazioni, prestigio)  Waze (aiutare gli altri), Prezzi benzina.
- A pagamento  Zooppa (chi presenta il progetto di creatività migliore viene compensato);
Amazon Turk (piccoli lavori che possono essere eseguiti da chiunque, ma non da un pc).
-Inconsapevole  quando lavoriamo per terzi senza accorgerci.
La forma assolutamente più diffusa di crowdsourcing in sapevole è sicuramente il CAPTCHA, sta
per (completely automated public turing test to tell computers and humans apart) è un termine
coniato dai ricercatori della carnagie mellon university nel 2000, in termini più semplici è uno
strumento che serve a distinguere gli uomini dalle macchine.
È CHIARO CHE SI TRATTI DI CROWDSOURCING INCOSAPEVOLE IN QUANTO OGNUNO DI NOI
APPORTA LA SUA CONOSCENZA E NON VIENE RETRIBUITO IN NESSUN MODO PER LA
CONOSCENZA CHE APPORTA.

ICT e MERCATI DIGITALI: E-COMMERCE e NEW ECONOMY: i nuovi modelli di business nel
contesto attuale
Cerchiamo di capire come le aziende possono sfruttare i sistemi informativi e le ICT per il proprio
business
Ci sono molte aziende (YouTube, Airbnb, Uber) che hanno utilizzato la tecnologia per supportare il
proprio business-
COMMERCIO ELETTRONICO
In inglese e-commerce è attività di compravendita di beni e servizi dove le principali fasi
necessarie a portare a completamento la transazione (fasi come la comunicazione, scelta del
prodotto, contratto, pagamento ecc.) sono effettuate usando sistemi di comunicazione elettronica
e un’infrastruttura di rete.
Quindi il commercio elettronico è un’attività̀ commerciale che prevede la compravendita di beni
fisici o digitali e servizi dove le ICTs, e su tutte la rete internet, contribuiscono a portare a termine
una o più fasi di questo processo di scambio commerciale.
Le aziende iniziano a comprendere le potenzialità dell’e-commerce intorno al 95.
I beni possono essere fisici o digitali:
- Un bene digitale è un prodotto composto da bite e come tale può essere erogato attraverso
internet (Es: e-book) e recapitato in posta elettronica o con un’opera di download.
- I beni fisici sono i beni tangibili che devono esserci recapitati attraverso un negozio o un
commesso.

STRATEGIE AZIENDALI PER IL COMMERCIO ELETTRONICO


Le strategie aziendali vengono divise in tre categorie principali. Queste tre categorie si
distinguono in base al fatto che l’azienda venda i propri prodotti o servizi nel contesto fisico, nel
contesto digitale o entrambi.
 Brick and Mortar (calce e mattone)
Tutte le aziende che non svolgono attività di E-commerce cioè di commercio elettronico ma
vendono i beni e servizi solo nel contesto fisico (negozio e punti vendita) non utilizzando l’online
per vendere prodotti e servizi.
 Click Only
Tutte le aziende che vendono solamente nel contesto digitale senza il supporto di location fisiche
come negozi o distributori.
In questo contesto le aziende vengono chiamate Pure Player - Giocatori puri
Esempio: la banca ING Direct che nel passato era presente solo online, altro grande esempio è
Amazon (bookseller e poi altri oggetti).
 Click and Mortar
Azienda che unisce il mondo dell’online e il mondo fisico, ad oggi sono sempre di più le aziende
che scelgono questa strategia
È una strategia ibrida dove le aziende usano più canali contemporaneamente per interagire con i
propri clienti e vendere i propri prodotti o servizi; si parla di multicanalità̀.
Multicanalità̀  più̀ canali utili a raggiungere il cliente per uno scambio di informazioni nonché́ per
la vendita di beni e servizi. L’online si è affiancato al negozio fisico. Tutto viaggia su canali paralleli,
l’utente sceglie il negozio o il mondo online e il tutto non poteva intrecciarsi ma andava in via
parallela.
Questo concetto che negli anni si è evoluto e adattato al nostro contesto eterogeneo.

EVOLUZIONE DELLA MULTICANALITÀ


L’evoluzione della multicanalità̀ è avvenuta perché́ il Web non è più̀ l’unico contesto utilizzabile
dall’azienda per connettersi col cliente ma esiste anche per esempio la realtà̀ mobile (app).
La dicotomia tra il digitale e il fisico è più̀ sfumata rispetto al passato, in quanto oggi le aziende
hanno differenti canali per interagire col cliente.
Il concetto di multicanalità è cambiato attraverso tre step fondamentali:
Multicanalità Il concetto di multicanalità oggi è molto diverso e più complesso rispetto al passato,
esso prevede che le aziende adottino canali differenti e indipendenti tra loro per dialogare con il
cliente finale utilizzandoli per interagire col cliente in alternativa gli uni agli altri.
Quindi l’azienda ha a disposizione diversi canali: il negozio, il sito web, un catalogo che viene dato
al consumatore e gli consente di fare un acquisto a distanza attraverso delle modalità̀ tradizionali
come il Bollettino postale e l’acquisto di un bene recapitato poi a casa; diversi canali che servono
per raggiungere il cliente finale ma questi canali vengono utilizzati appunti in alternativa non in
modo complementare.
Cross-Canalità
Si parla di approccio cross-canalità quando i diversi canali vengono utilizzati in modo
complementare all’interno di un unico processo di acquisto.
Esempio: ordino online e lo ritiro in un negozio o quando provo un prodotto al negozio e lo
acquisto su un’app  questi canali iniziano a intersecarsi (es. Localizzazione attiva e arriva un
messaggio con sconto del negozio vicino a te)
Omnicanalità
Omnicanalità significa fornire interazioni simultanee senza soluzioni di continuità̀ utilizzando
differenti canali in modo tale che il cliente non interagisce con un solo canale ma con il brand nel
suo complesso per garantire la cosiddetta shopping experience.
Cioè̀ in questo approccio omnicanale, il cliente non ha più̀ la percezione dei molteplici canali
attraverso i quali può̀ interagire con l’azienda ma ha la percezione unica del brand che utilizza
diversi canali senza averne la reale percezione per interagire con l’azienda stessa.
Un esempio può̀ essere quando attraverso la geolocalizzazione il cliente riceve un messaggio
promozionale riferito a un prodotto mentre passa davanti al negozio di tale prodotto, oppure
l’utente che visiona prodotto in un contesto fisico e invece che rivolgersi al commesso del negozio
scansiona un QR e si trova sulla pagina del prodotto.
Questo tipo di approccio rende tutto molto più difficile da gestire ma richiede un livello di
coordinamento superiore.  canali usati in modo integrato da non far percepire che sono canali
diversi, lo scopo è migliorare la shopping experience .
esempio di omnicanalità —> l’utente, il cliente che all’interno di un negozio fisico visiona diversi
prodotti e nel momento in cui ha bisogno di alcune delucidazioni, con la fotocamera del cellulare
fotografa il QRcode presente sul prodotto e in modo autonomo atterra su una pagina web
dedicata alla descrizione delle caratteristiche di quel prodotto.

I PRINCIPALI TIPI DI COMMERCIO ELETTRONICO


Vengono classificati in base ai soggetti direttamente coinvolti nell’attività̀ di compravendita.
B2C (business to consumer)  azienda che vende ad un consumatore. Scambio di informazioni e
transizioni commerciali tra azienda e cliente.
Esempi: Feltrinelli, Amazon, Alitalia, Ryanair cioè tutte quelle aziende che vendono dei loro
prodotti o servizi a un consumatore finale.

Le fasi dello sviluppo del commercio elettronico B2C


FASE 1  E-information
In questa fase non avviene una vera e propria vendita di prodotti e servizi.
Ma in questa fase i siti web delle aziende vengono utilizzati per diffondere materiale
promozionale e di marketing. Quindi sono siti web in cui sono presenti informazioni pubbliche
quindi aperte a tutti, che contengono descrizione dell’azienda, prodotti venduti prezzi
caratteristiche ecc. Sono siti Web che non consentono una vera e propria transazione che
vengono definiti dei siti vetrina che permette all’azienda solo la diffusione di informazioni al
grande pubblico.
L’utilizzo di questi siti vetrina ha come vantaggi:
- È possibile raggiungere un pubblico a livello mondiale risparmiando i costi per diffondere gli
stessi materiali attraverso i media tradizionali.
- Inoltre, permette l’accesso a queste informazioni 24 ore su 24 e 7 giorni su 7.
FASE 2 E-integration
Questi siti vetrina ad un certo punto evolvono e consentono di accedere non solo a informazioni
pubbliche ma anche private; quindi, sono siti web che aggiungono una funzionalità̀ ai siti vetrina,
cioè̀ consentono al cliente finale di accedere ad informazioni pubbliche e private.
Quindi il cliente tramite user e password può̀ accedere alle informazioni che lo riguardano in
qualità̀ cliente (esempio sito di una Banca).
Si è comunque in una fase dove ancora non è possibile effettuare transazioni.
Viene chiamata E-Integration perché vi è un’integrazione dei sistemi informativi di una azienda che
contengono dati personali di un cliente con il sito web che è l’interfaccia attraverso il quale
l’utente può accedere a questi dati.
FASE 3  E-transaction
In questa fase i siti web consentono delle transazioni elettroniche quindi i clienti, oltre a poter
accedere alle informazioni pubbliche e private, possono effettuare attività di acquisto, transizioni
bancarie o transizioni di investimento.
Il ruolo dei sistemi informativi diventa fondamentale proprio perché il cliente finale che utilizza il
sito di e-commerce ormai evoluto può compiere transizioni che hanno valore legale.

I principali vantaggi di un sito e-commerce B2C


I vantaggi di un B2C sono:
- La possibilità̀ di acquisto maggiore per il cliente (si eliminano vincoli tipici dei negozi fisici): 24/7.
- Il fatto che l’azienda possa conoscere meglio il cliente perché ha tanti strumenti per tracciare le
preferenze del cliente (tramite strumenti come i Cookies l’azienda traccia un profilo del cliente in
modo tale di indirizzare i prodotti più̀ adatti a lui).
- La concessione al cliente della personalizzazione di massa, ovvero il cliente finale può
personalizzare un prodotto standard, per adeguarsi alle esigenze di clienti che hanno richieste
specifiche. Personalizzazione di massa consente alla massa di utenti e quindi non solo a una
nicchia di utenti, di chiedere un prodotto personalizzato in base alle proprie e esigenze ribadiamo
però che il sito web può̀ dare questa possibilità̀ a patto che l’azienda sia poi in grado di far fronte a
queste richieste.
- La “codalunga” ovvero la possibilità̀ che, attraverso un sito web, l’azienda possa andare incontro
non solo ai gusti mainstream della grande massa della popolazione di clienti che richiedono
prodotto standard, ma può̀ concentrarsi e soddisfare le esigenze particolari di una nicchia di utenti
che richiedono prodotti che non sono quelli mainstream ma personalizzati o comunque di nicchia
che possono essere più̀ agevolmente erogati attraverso un’attività̀ di compravendita gestita da un
sito web.
- il prezzo del prodotto finale in quanto il commercio BC2 consente in molti casi di eliminare il
ruolo del distributore arrivando direttamente al consumatore finale e quindi permette di proporre
prodotti ad un prezzo più concorrenziale. Per questo si assiste ad una disintermediazione: Questa
logica definita disintermediazione prevede che in alcuni casi l’azienda produttrice possa arrivare al
cliente finale con il proprio bene o servizio, senza necessariamente passare attraverso delle
aziende che svolgano il ruolo di distributore.

Nuovi Intermediari
Nel mondo dell’online accanto al fenomeno della disintermediazione si è assistito alla nascita di
nuovi intermediari: il contesto è più̀ complesso ed eterogeneo perché́ se è vero che l’azienda
produttrice può̀ raggiungere il cliente finale è anche vero che il cliente ha delle nuove esigenze che
possono essere soddisfatte da nuovi intermediari.
Esempio: settore del turismo dove i classici intermediari erano rappresentate dalle agenzie di
viaggio che sono state bypassate nel loro ruolo dalla possibilità̀ data all’utente finale di acquistare
biglietti aerei o pacchetti viaggi sui siti di compagnie aree o resort.
È anche vero che quando un utente deve compiere questo acquisto ha davanti a sé diverse e
numerose opzioni che non riesce a valutare in economia confrontandole; per questo si sono
introdotti nuovi intermediari che hanno captato l’esigenza del consumatore finale.
Si sono quindi posti come nuovi intermediari tra l’azienda produttrice dei servizi e il cliente finale.
Esempio: Booking e Trivago trovano un modo per soddisfare esigenze che il cliente non
riuscirebbe a soddisfare in altro modo.
Questo panorama vede accanto a un ruolo minoritario di alcuni intermediari tradizionali, un ruolo
sempre più̀ rilevante di aziende che si pongono come nuovi intermediari.
Il mondo quindi dell’online cerca di trovare delle nuove strategie tra delle strade di
disintermediazione e reintermediazione, cioè di nascita di nuovi opportunità̀ di cambia in
intermediari che trovano nuove business in un contesto che cambia in continuazione.

Svantaggi dell’eCommerce B2B


Tra gli svantaggi troviamo:
- La mancanza di fiducia verso l’azienda online per un timore che non ci sia una reale azienda o
che l’acquisto effettuato non vada a buon fine.
- La mancanza di esperienza diretta del prodotto quindi della possibilità̀ di provare e toccare il
prodotto.
- La difficoltà nella ricezione o restituzione della merce quindi timore che la merce non venga
consegnata nei tempi e nei modi prestabiliti.

SHOPIFY = è una piattaforma di e-commerce che consente di creare, personalizzare e gestire un


negozio online in maniera semplice. Shopify è una piattaforma di e-commerce che consente di
creare, personalizzare, gestire un negozio online
• 2004- in Italia dal 2018
• In cloud computing > SaaS
• Pricing misto: canone fisso + quota variabile
• Facilità d’uso

B2B (business to business)  azienda che vende ad un’altra azienda. Scambio di informazioni e
transizioni commerciali tra aziende.
Esempio: un’azienda si approvvigiona, via web, delle materie prime necessarie al proprio ciclo
produttivo
Quando un’azienda vende prodotti o servizi ad un’altra azienda; quindi, non è previsto l’intervento
di un consumatore finale.
L’attività̀ di compravendita avviene da aziende che vendono prodotti o servizi ad altre aziende.
(non sono previste transazioni)
Questo processo prevede che tra aziende ci siano processi di business, quindi degli scambi
commerciali o di informazioni solo tra operatori di un determinato settore.
In particolare, le aziende sfruttano le possibilità̀ date dal commercio elettronico B2B per il
cosiddetto E- Procurement ovvero l’approvvigionamento elettronico. Le aziende acquistano
online approvvigionamenti di beni utili alla produzione del prodotto principale.

Vari tipi di siti web B2B che vengono utilizzati dalle aziende:
Supplier Portal (portale dei fornitori)
È un sito web che consente ad un’azienda (definita acquirente) di gestire i molteplici fornitori che
utilizza per l’approvvigionamento di ciò che necessita per svolgere il proprio core business.
Di solito l’acquirente è un’azienda medio-grande dimensione che riesce attraverso il sito web a
gestire la molteplicità di fornitori con la quale interagisce quotidianamente.
Un esempio di azienda acquirenti che sfrutta dei supplier portal può essere FIAT, per poter
accedere ai servizi bisogna essere accreditati come fornitore e questo da la possibilità di accedere
e di entrare in diretto contatto con l’azienda per supportare e sostenere quelli che sono degli
scambi commerciali, un’attività di compravendita, uno scambio di informazioni personalizzate.
Customer Portal (portale delle aziende acquirenti)
Dove un’azienda fornitore utilizza il sito B2B per gestire molteplici acquirenti.
Anche in questo caso le aziende che utilizzano questi siti sono aziende di medio-grande
dimensione e un esempio può essere Boeing: Il grande pubblico può̀ visionare la homepage e
vedere delle informazioni pubbliche e generiche, ma possono accedere alle transazioni con Boeing
solo le aziende accreditate, e dovranno identificarsi attraverso uno username e una password.
Marketplace
Rappresenta una sorta di piazza del mercato dove ci sono molti fornitori e molti acquirenti che
sfruttano il sito web B2B per favorire l’incontro tra domanda e offerta.
Questi Marketplace possono essere generici, per esempio, Toboc che è un global B2B marketplace
dove aziende di vari settori possono incontrarsi ed effettuare attività̀ di compravendita di cui
necessitano.
Accanto a dei marketplace generalisti troviamo marketplace per settore esempio Fibre2Fashion
che è aperto solo ad aziende appartenenti al settore tessile.
Altro esempio è PaperIndex che è però dedicato all’industria cartaria.

C2C (consumer to consumer)  consumatore che vende ad un altro consumatore. Scambio di


informazioni e transizioni commerciali tra privati.
Esempio: una persona acquista uno smartphone da un’altra persona tramite eBay
In questo caso i consumatori privati vendono ad altri consumatori privati, e quindi prevede che le
attività di compravendita avvengono solo tra consumatori per questo le aziende non sono
direttamente coinvolte. Esempio classico è eBay quindi in generale siti che permettono la vendita
di prodotti nuovi o usati anche attraverso meccanismi di aste online.
eBay oggi però è un sito web anche B2B e B2C quindi consente anche ad aziende di vendere i
propri prodotti. Anche se è noto che la sua caratteristica principale era quella di far incontrare
consumatori privati che potevano vendere e acquistare prodotti senza l’intermediazione di
un’azienda.

C2B (consumer to business)  consumatore che vende ad un’azienda. Scambio di informazioni e


transizioni commerciali tra consumatori e aziende.
Esempio: una persona vende le sue fotografie su shutterstock
In questo caso è il consumatore privato che vende un prodotto o un servizio ad un’azienda.
È quindi un contesto abbastanza complesso dove un esempio può essere un privato che vende
immagini ad un’azienda per le loro campagne pubblicitarie.
Un esempio può essere iStockphoto che vende immagini e video prodotte da consumatori finali
(non sempre professionisti) ad altri consumatori privati o aziende.
Da qui deriva il termine Crowdsourcing (esternalizzazione di attività̀ alla folla, a una massa di
consumatori che nella logica C2B diventano i principali fornitori per le aziende).

B2E (business to employee)  tra aziende e dipendenti. Comunicazione e offerta di servizi


dall’azienda verso i propri dipendenti.
Esempio: un dipendente utilizza il portale web aziendale per modificare il proprio piano
assicurativo.)

NEW ECONOMY
A metà degli anni ’90 fu coniato il termine New Economy, tale periodo termina con l’inizio del
nuovo millennio (10 marzo 2000).
New economy è un termine che vuole contrapporre il nuovo contesto al mondo dell’offline che
fino a quegli anni aveva contraddistinto l’attività̀ di business delle aziende che sfruttavano canali
tradizionali fisici per vendere i propri beni e servizi.
La new economy vuole definire un contesto nuovo il cui focus è sul mondo dell’online.
Le aziende iniziano a capire quali siano le opportunità e i vantaggi dati da un canale nuovo (online,
rappresentato dal mondo del WWW) e così iniziano a spostare alcune attività, in particolare quelle
commerciali, su tale canale.
Tra i vantaggi si ricorda: poter vendere sostanzialmente e potenzialmente in qualsiasi parte del
mondo 24 ore su 24, 24/7.

La new economy si contrappone alla Old economy che in quegli anni sembrava aver perso il ruolo
cruciale nel contesto professionale. La new economy si propone come un contesto nuovo da cui le
aziende possono cogliere delle opportunità di business mai conosciute in precedenza.

INIZIATIVE IMPRENDITORIALI
La New economy è caratterizzata da innumerevoli iniziative imprenditoriali chiamate DOT COM
(.com).
Nel periodo della new economy le aziende sono iniziative imprenditoriali (oggi start up) che
utilizzano il sito web per vendere prodotti e servizi online. Dunque, per effettuare un’attività di e-
commerce.
Alcuni esempi di tali iniziative imprenditoriali sono:
 [Link]quotata in borsa nel 1999, consiste in una drogheria online. Vende
prodotti alimentari e deperibili, ha base a San Francisco e consegna direttamente al
domicilio degli acquirenti sulla costa ovest degli USA.
 [Link]1998, si tratta di un sito web che vende prodotti per gli animali domestici.
Vendite online e consegna al domicilio.
 [Link]1998, sito web in cui si vendono cose di vario tipo (snack, dvd) che ha come
obbiettivo non solo la vendita online, ma propone anche una serie di condizioni
vantaggiose per gli acquirenti. Promette la consegna dopo un’ora dall’acquisto senza oneri
di consegna per l’acquirente, e senza un minimo di spesa che debba essere sostenuto da
quest’ultimo.
 [Link]1997, azienda con un sito web che vende giocattoli per bambini, con
consegna a domicilio.
 [Link]1998, azienda che intende vendere all’inizio libri, e in un momento successivo
capi di abbigliamento. Tale attività̀ è svolta in modo innovativo.
 [Link]1997, nata per vendere libri online per poi in futuro vendere online tutti i
prodotti.

CORSA ALL’ACQUISTO
Attorno alla new economy e alle aziende che fanno parte di tale contesto si sviluppa una vera e
propria euforia collettiva. Un periodo in cui la maggior parte delle persone conoscono in minima
parte il mondo dell’online e delle tech companies.
Nel giro di pochi anni cambiano radicalmente la loro opinione verso tale nuovo contesto e
decidono di dare fiducia alle iniziative imprenditoriali, trasformando tale fiducia in azione concreta
quando in massa vengono acquistate le azioni di tali aziende nel momento in cui si quotano in
borsa.
Si verifica così la corsa all’acquisto delle azioni delle Dot Com nel momento in cui esse si quotano,
soprattutto presso il Nasdaq (indice dei titoli tecnologici presso la borsa americana), creando così
una bolla speculativa.
Ciò perché gli acquisti erano motivati da aspettative/previsioni di profitti in continua crescita, e
sovente non erano acquisti motivati da analisi razionali sulla base delle reali potenzialità di
espansione e crescita.
Tale corsa all’acquisto di azioni, fa salire il valore di esse a volte anche in modo esponenziale,
nonostante alla base delle iniziative imprenditoriali non ci fosse una vera e propria solidità dal
punto di vista economico-finanziario.

CRISI DEL NASDAQ


La bolla speculativa è destinata ad esplodere, e ciò accade nel marzo del 2000: crisi del Nasdaq.
Con essa si sancisce l’inizio della fine della new economy e con essa lo scoppio di questa bolla
speculativa. Complice anche la presentazione di alcuni bilanci delle società quotate, i mercati si
rendono conto che dietro a tali iniziative di business a volte vi erano delle imprese poco sostenibili
nel tempo, non in grado di generare i profitti che avevano promesso di fare. Perciò, dopo la corsa
all’acquisto dei titoli avviene la corsa alla vendita di essi. Ciò fa precipitare il valore delle azioni,
che in alcuni casi diventano delle azioni con valori estremamente ridotti.
Ciò porta ad una serie di fallimenti, anche delle aziende che sembravano promettenti ma che in
realtà riuscivano a supportare la propria attività imprenditoriale solo grazie agli ingenti
finanziamenti che ricevevano dalla quotazione in borsa.
Tali aziende, in quei pochi anni in cui erano state quotate, hanno raccolto tanti milioni di dollari in
finanziamenti.
Ma quando la crisi del Nasdaq fa cessare gli investimenti, le aziende diventano DOT BOMB cioè
fallimenti clamorosi: Webvan, Pets, Kozmo, eToys, Boo. Com in pochi anni falliscono dissipando
quel denaro che avevano racconto attraverso la quotazione in borsa.
Tali fallimenti portano con sé diverse conseguenze legate alla disoccupazione, alla dismissione di
attrezzature e locali ecc. conseguenze che hanno un impatto sull’economia reale.
Il 50% delle dot com è sopravvissuto, l’altro 50% fallì. Le peggiori 10 [Link] hanno provocato
perdite per circa 2.7 miliardi di dollari all’inizio degli anni 2000.
Un fallimento che provocò anche una forte disillusione nei confronti dell’online e delle
opportunità̀ garantite da tale canale alle aziende.

ARTICOLO TOP 10 DOT-COM FLOPS


CASO [Link]
Il sito [Link], negozio virtuale dedicato al commercio on line di abbigliamento sportivo e casual,
fu lanciato nel 1999 con grandi investimenti pubblicitari e una forte eco della stampa
internazionale. Realizzato con le più avanzate tecnologie e soluzioni grafiche, il negozio virtuale
pareva destinato a segnare una tappa fondamentale nella storia del commercio elettronico.
Il sito comprendeva un catalogo contenente quasi 4000 articoli disponibili in tre taglie diverse,
proposti in 8 diverse lingue, aggiornato in tempo reale in quanto collegato ai depositi dei 26
prestigiosi fornitori tra i quali Adidas; immagini 3D dei capi d’abbigliamento, la possibilità di
zoommare su dettagli degli articoli in vendita; una Dressing Room ovvero camerini virtuali, nei
quali era possibile vestire manichini ricreati online gli amici tramite e-mail per avere un consiglio;
una commessa virtuale – miss boo – che non solo seguiva gli utenti durante lo shopping,
commentando le scelte, ma elaborava anche per ogni cliente una scheda da proporre e le
successive visite contenenti i nuovi prodotti consoni al proprio stile di vita, e infine, un fashion
magazine virtuale interattivo senza pubblicità e scritto da grandi firme.
Le principali ragioni del flop possono essere rintracciate in una grave mancanza di risorse
finanziarie necessarie a tamponare la falla causata dai forti investimenti iniziali. Un buco da 20
milioni di sterline determinato dal lento decollo delle vendite (crisi di Nasdaq).
Il negozio virtuale perdeva 1 milione di dollari la settimana.
Negli ultimi mesi i manager della società hanno affannosamente cercato nuovi investitori nella
speranza di risanare la situazione, confortati soprattutto dalla crescita costante degli acquirenti.
Ma nessun accordo è stato concluso.
Proprio le eclatanti scelte iniziali, come il design del sito, sicuramente modernissimo ma troppo
avanzato tecnicamente per essere alla portata di computer di casa degli utenti, si sono rilevate
delle insostenibili zavorre nella crescita del sito. Nelle prime settimane, per un utente che non
disponesse di una postazione potente e veloce era praticamente impossibile accedere al negozio
virtuale.
Inoltre, vi erano problemi tecnici, il server comunicava il triste responso “impossibile visualizzare
la pagina”, un piano strategico oltre misura (apertura in 16 paesi in lingua locale, costi uguale ai
negozi reali, spese di spedizione sempre a carico del mittente), un eccesso di fiducia nel
business2consumer e nella propensione ancora acerba dei consumatori a fare acquisti via Internet
per articoli problematici come l’abbigliamento; una sostanziale imperizia dei soci fondatori –
competenze inadeguate e troppo specializzati in una sola direzione - , investimenti eccessivamente
rischiosi derivanti da analisi di mercato poco accurate e una certa leggerezza degli investitori, che
mentre all’inizio hanno portato [Link] ad essere una delle migliori start-up europee per raccolta
di finanziamenti, successivamente non hanno saputo seguire l’evoluzione dell’attività̀ ed
intervenire al momento opportuno per correggere la rotta.
QUALE LEZIONE APPRESA DAL PERIODO DELLA NEW ECONOMY?
Alla base di molti fallimenti delle dot com vi era un modello di business poco adatto, non
correttamente impostato e non adeguato a supportare il business aziendale.
Alcune iniziative imprenditoriali avevano idee di business poco interessanti e poco solide, ciò
nonostante alcune di esse diversamente avevano idee che potevano sembrare solide (come quella
di [Link]). Tuttavia, il modello di business realizzato per supportare tali iniziative non è stato
all’altezza della situazione.

MODELLO DI BUSINESS
Un modello di business costituisce la sintesi della strategia di un’azienda e delinea il modo in cui
gli obiettivi verranno raggiunti, specificando le modalità̀ attraverso le quali l’azienda crea e
distribuisce valore. Attraverso il modello di business è possibile identificare alcuni elementi chiave
come le fonti dei ricavi, come la proposta di valore dell’azienda, come l’offerta in termini di
prodotti e servizi che caratterizzano quella determinata azienda, come la clientela alla quale quella
determinata azienda si vuole rivolgere.
 Revenue modelmodello che definisce come verranno generati i ricavi; definisce quali
sono le fonti che genereranno ricavi per l’azienda (pubblicità, abbonamenti ecc.). nel caso
delle vendite quali sono prodotti e a che prezzo verranno venduti.
 Value proposition (proposta di valore) l’utilità che il prodotto/servizio offre al
consumatore.
Qual è la proposta di valore insita nel prodotto offerto dall’azienda? Cosa differenzia la mia
azienda da altre simili? Perché il consumatore dovrebbe scegliere la mia azienda?
In tal caso [Link] offriva la shopping experience che distingueva tale azienda dalle altre.
La proposta di Boo era solida e avrebbe potuto prevalere tra le altre...
 Competitive environmentanalisi dell’ambiente competitivo di riferimento. Chi sono i
concorrenti? Quali sono le loro caratteristiche? Quanto è forte la concorrenza in quel
settore?
 Marketing strategyil modello di business contiene le attività strategiche e operative
perla promozione dei prodotti/servizi venduti dall’azienda.
In tale settore le dot com si sono dimostrate capaci di comunicare i propri prodotti e i
vantaggi derivanti da essi.
Tuttavia, ciò non è sufficiente, sono necessari tutti gli elementi del modello di business e
non uno singolo di essi.
 Management teaml’esperienza, il background, la conoscenza delle persone che devono
gestire l’azienda. Nel caso di [Link] i fondatori dell’azienda hanno poi riconosciuto la
loro mancanza di conoscenza in quel determinato contesto.

ESISTE IL RISCHIO DI NUOVE BOLLE SPECULATIVE?


Si, il timore che le bolle possano di nuovo scuotere i mercati esiste.
Un timore si è avuto un decennio fa quando si sono affacciate sul mercato le aziende del mondo
social, quando si sono quotate in borsa Facebook, Linkedin, Twitter ecc.
Effettivamente, si è assistito ad un’azione speculativa che ha fatto temere che si potessero
ripresentare le situazioni già vissute a metà degli anni ’90.
UNICORNO =aziende che hanno molti capitali e molti modelli di business non molto sostenibili e
quindi il rischio è l’eccesso di fiducia in iniziative che non si dimostrano essere tali da generare i
profitti attese

E OGGI?
Il timore esiste; oggi alcune tecnologie che sono oggetto di forte attenzione sono quelle relative al
mondo dell’artificial intelligence.
Ciclicamente si assiste a delle fasi di innamoramento verso nuove tecnologie che si affacciano sul
mercato: tale euforia che porta a considerare solo gli aspetti positivi caratterizza l’opinione
pubblica e i mercati a fasi cicliche.
Ciò̀ a cui bisogna prestare attenzione è maturare una consapevolezza delle reali opportunità̀
offerte da tali tecnologie e valutarne i limiti al fine di evitare di avere delle aspettative irrealistiche
rispetto a ciò̀ che potranno fare le tecnologie in auge.

NUOVI MODELLI DI BUSINESS (componente essenziale per definire ed essenziale la strategia


aziendale, strategia che serve per il raggiungimento degli obbiettivi)
Modelli di business che supportano delle aziende che si sono inventate un nuovo modo di fare
business sfruttando la tecnologia.

LA TRASFORMAZIONE DIGITALE
È importante soffermarsi sul contesto che le aziende e i singoli individui stanno vivendo nell’epoca
contemporanea. Tale periodo è caratterizzato dalla trasformazione digitale (digital
transformation).
Essa contempla la trasformazione in bite (0,1) di molte attività normalmente svolte nel contesto
fisico. Attività anche relazionali o che prevedono lo svolgimento di transazioni, ma anche la
trasformazione di beni e servizi. Qualsiasi elemento viene trasformato in 0,1. Sempre di più i
segnali analogici in ditali rendendo i device multifunzionali. Es: lo smartphone
Vuol dire far si che sempre più attività aziendali precedentemente svolte in modo manuale dagli
esseri umani possano essere rese automatiche attraverso l’ausilio delle tecnologie
dell’informazione e della comunicazione.
In un’azienda sempre più attività sempre più processi produttivi e processi gestionali oggi
possono essere automatizzati attraverso dei sistemi informativi che si avvalgono delle ICT e che
quindi consentono di rendere in modo automatico dei processi che prima venivano svolti in
maniera manuale dalle persone.
A livello operativo le attività che sono caratterizzate da una elevata frequenza, da modalità
standard che si ripetono sempre nello stesso modo possono essere facilmente automatizzate
attraverso dei sistemi informativi che prendono il nome di TPS (TRANSACTION PROCESSING
SYSTEM) e che quindi ci rendono bene l’idea di come un’attività, un processo aziendale possa
essere svolto in modo automatizzato anziché svolto in manualmente dalle persone che
giornalmente lavorano su queste attività.

Nel contesto aziendale, la trasformazione digitale sta trasformando le aziende rendendole sempre
più automatizzate e interconnesse, alla ricerca di maggiore efficienza, innovazione e capacità di
collaborazione tra i lavoratori.
Più automatizzate significa che sempre più attività aziendali possono essere rese automatiche
attraverso l’ausilio delle tecnologie dell’informazione e della comunicazione. Ciò significa che in
azienda, sempre più processi produttivi e gestionali, oggi possono essere automatizzati tramite SI
che si avvalgono di ICT e che consentono di rendere in modo automatico tali processi che prima
venivano svolti in modo manuale dalle persone. Si riducono i tempi.
Le attività che possono essere automatizzate sono quelle ripetitive che seguono una routine,
attività standard. (es: gestione di una fattura, attività di pagamento)
Più interconnesse significa che oggi le aziende sono sempre più interconnesse tra loro e con gli
stakeholder esterni, con i clienti finali e ciò grazie allo sviluppo e all’utilizzo sempre più massiccio
delle tecnologie dell’informazione e della comunicazione.
Es: fascicolo sanitario consultabile dalla farmacia, dalla persona, dal medico di base, specialista.
Le aziende possono sfruttare le tecnologie e le reti informatiche per supportare la comunicazione
all’interno dell’azienda e anche all’esterno, lo scambio di informazioni e di documenti ma anche lo
svolgimento di transazioni che oggi sono abilitate dal contesto online.
Quindi, tale interconnessione avviene a due livelli: a livello INTRA-AZIENDALE (tra diverse parti
all’interno dell’azienda) e a livello INTER-AZIENDALE (tra l’azienda e altri soggetti).
Quarta rivoluzione industriale che si basa sulla trasformazione in formato digitale dei documenti
aziendali, delle transazioni, die processi aziendali. Questa digitalizzazione porta ad una
automatizzazione delle aziende e ad una forte interconnessione.

contro dall’automazione e interconnessione: dipendenza dalle infrastrutture tecnologiche che va


considerato, non è per forza una cosa negativa ma è un aspetto che va tenuto in considerazione.
Inquinamento digitale: la digitalizzazione porta con sé l’uso di server che portano a questo
inquinamento. Sarebbe utile avere più consapevolezza su quello che sia l’inquinamento digitale, se
ci fosse maggiore consapevolezza si potrebbe fare un bilanciamento tra l’uso digitale e il motivo
per il quale si usano questi server.
Timore che queste infrastrutture e tecnologie possano sostituire gli esseri umani nello svolgimento
di funzioni professionali. Questo timore è uno dei timori che oggi bisogna affrontare, è un timore
fondato, sicuramente il progresso tecnologico andrà in questa direzione. È un timore che
accompagna tutte le fasi di sviluppo tecnologico.
Qual è lo scopo che le aziende intendono raggiungere con tale maggiore automazione e
interconnessione? (pro)
Le aziende, attraverso la trasformazione digitale, mirano a ottenere sempre maggiore efficienza,
innovazione e capacità di collaborazione tra i lavoratori.
Efficienza significa svolgere un processo in modo più̀ rapido, riducendo i tempi, in modo meno
dispendioso (riducendo i costi legati al personale).
Capacità di collaborazione: l’interconnessione favorisce delle nuove forme di collaborazione
mediate dalle tecnologie della comunicazione.
La trasformazione digitale costringe le aziende a ripensare il proprio contesto operativo e
gestionale. Le aziende sono spinte a modificare i propri processi produttivi, anche i prodotti e i
servizi che offrono.
Le aziende possono sfruttare il contesto online per innovare il proprio modello di business, i
processi organizzativi, i prodotti e i servizi offerti. Un nuovo modo di fare impresa.

STARTUP E NUOVI MODELLI DI BUSINESS NEL MONDO DIGITALE


La DISINTERMEDIAZIONE: si pensi all’e-commerce, che consente interazione diretta tra azienda
produttrice e cliente.
La REINTERMEDIAZIONE, invece, consiste nella nascita di nuovi intermediari che si pongono come
nuovi soggetti che intermediano in modo diverso le relazioni tra azienda produttrice e
consumatore finale; nel contesto online è possibile che nascano nuove esigenze che questi nuovi
intermediare soddisfano, come ad esempio nel settore del turismo Edreams.

- Modelli di BUSINESS BASATI SU PIATTAFORME


i modelli di business su piattaforme si contrappone ai modelli basati su piattaforme.
In base ai modelli di business tradizionali che hanno una logica pipe (tubatura), le imprese
producono un bene, lo pubblicizzano e lo vendono a un consumatore finale secondo un flusso
lineare. Come, ad esempio, le aziende manifatturiere (Barilla, Ferrero).
Producono un bene che poi vendono al cliente finale con più o meno livelli di intermediazione ma
che comunque prevede un flusso lineare dal produttore al cliente finito.
Il modello di business basato su piattaforma digitale consente ad aziende e consumatori di
collaborare a creare e consumare valore.
Azienda e consumatore, in questo caso non sono più gli estremi di un flusso lineare come nel
modello di business basato sulla logica pipe.
Ma insieme questi due soggetti collaborano per creare (co-creazione) e consumare valore. Con
tale modello di business si creano ambienti digitali nei quali alcuni soggetti creano beni e servizi
che altri soggetti consumano, secondo una logica che prevede una collaborazione.
Si pensi ad esempio ad Amazon marketplace, eBay (scambio di prodotti).
Twitter, Wikipedia, YouTube (scambio di contenuti: essi sono creati dagli utenti che li mettono a
disposizione di altri utenti per il consumo), airbnb, uber. Sono aziende che non creano servizi o
prodotti ma intermediano la relazione tra qualcuno che produce e qualcuno che consuma. 
modelli basati su piattaforme.

Quali sono le condizioni perché questi modelli di business possano funzionare?


l’effetto rete, è il conetto per cui il valore di una rete o di uno strumento o applicazione basati su
una rete aumenta con l’aumentare del numero di utenti che consumano e creano beni e servizi.
Inoltre, gli utenti finali devono partecipare alla produzione e al consumo di beni e servizi. Se gli
utenti fossero solo connessi alla piattaforma senza partecipare attivamente da un lato alla
produzione e dall’ altro al consumo di questi beni e servizi la piattaforma non riuscirebbe a
supportare un business che di fatto costituisce il core business di queste aziende.
Questi modelli di business basati su piattaforme sono alla base di molte aziende che caratterizzano
la cosiddetta sharing economy, molte delle aziende che definiscono la sharing economy sono
proprio basate su modelli di business che si avvalgono di piattaforme digitali.

I modelli di ricavo possono essere molteplici, diversi rispetto al mondo fisico. per esempio, AirB&B
usa modelli di ricavo basati sulle transazioni che sono a capo dell’utente. Mentre Youtube non
pone a carico dell’utente i pagamenti, ma a carico degli inserzionisti.
Alcuni elementi di questi modelli di business sono adottati anche da aziende con modelli pipe (ad
esempio recensione dei clienti).

DIVERSI MODELLI DI RICAVO NEL MONDO DIGITALE


 Vendita tradizionale il ricavo viene generato dalla vendita di un prodotto o servizio (nel
contesto offline fisicamente, nel contesto online tramite app o sito web). Le entrate delle
aziende derivano dalle vendite. Tale modello di ricavo è tipico delle new economy
([Link]).
 Commissioni di transizione/intermediazione  si paga una commissione all’azienda in
cambio dell’aiuto nella transazione.
Esempio: Uber, AirB&B basano il proprio modello di ricavo su esso. Essi guadagnano sulle
singole transizioni.
 Licenza  gli utenti pagano un prezzo per utilizzare beni la cui proprietà̀ intellettuale è
protetta. Per esempio: software (Microsoft).
 Pubblicità̀  si forniscono ai clienti servizi gratuiti, pagati da terzi. Esempio: YouTube,
Facebook.
 Abbonamento  gli utenti pagano canoni mensili o annuali per l’utilizzo del
prodotto/servizio. Esempio: Netflix.
 Freemium  free + premium: i servizi base vengono offerti gratuitamente, ma si paga un
prezzo per funzionalità speciali o aggiuntive.
Servono a creare un’ampia platea di clienti, chiedendo il pagamento di un prezzo solo per
le versioni complete con funzioni aggiuntive.
La possibilità̀ di avere gratuitamente alcuni servizi, e la possibilità̀ di avere servizi aggiuntivi
tramite somma mediante abbonamento, combinando due modelli di ricavo.
Esempio: Dropbox
Giusto equilibro sui servizi che offre gratuitamente e su quelli su cui ci guadagna.
Questo modello di ricavo è popolare con i giochi online, come Clash of Clans.
Questi sono i modelli di ricavo che possiamo trovare nel contesto digitale ma che in alcuni casi
sono trasferiti dal contesto fisico come la vendita o l’abbonamento e sono modelli di ricavo che
costituiscono un elemento essenziale nell’ambito di un modello di business, cioè il modello di
ricavo e la componente principale di un modello di business perché definisce l’origine dei ricavi
quindi da dove arriveranno le entrate per l’azienda è quindi come poi l’azienda potrà generare
ricavi e con poi una gestione economica finanziaria dell’azienda stessa creare profitti.
Questi modelli di ricavo possono essere utilizzati anche in combinazione tra di loro quindi ci può
essere un’azienda che si avvale sia della vendita al pubblico di un prodotto, di un servizio, sai della
pubblicità per generare delle altre a supporto del proprio business

- Modelli di BUSINESS BASATI SU SERVIZI


Tale modello è centrato sul fornire prodotti come servizi on demand. In base a tale modello,
l’azienda non vende il proprio prodotto ma lo offre come servizio on demand ovvero su richiesta
dell’utente finale.
Alcuni produttori scelgono di offrire il prodotto stesso come servizio, oppure offrire servizi
operativi e di ottimizzazione, o servizi informativi, come la vendita dei dati e delle informazioni
generati dall’uso del prodotto da parte del cliente.
Es: impianto illuminazione o stampante (abbonamento). Vengono fornite le informazioni in tempo
reale, gestire il servizio guardando in tempo reale all’uso che si sta facendo della stampante.
Non sempre però questo è un risparmio, non è sempre conveniente bisogna vedere quanto
stampiamo, come stampiamo, dove viviamo (vediamo se siamo vicino a un rivenditore di cartucce
o in un posto dove anche i corrieri fanno fatica ad arrivare).
Un modello di questo tipo però fidelizza il cliente perché evita che il cliente vada a comprare una
cartuccia da un altro venditore. Il cliente tenderà sempre di più a rimanere con quella determinata
vendita e la logica è quella di vendere quasi sempre qualche servizio aggiuntivo.
“X as a service”: altro nome dato a questo modello, la x è il nome del prodotto.
(Un’azienda produttrice di motori a reazione per gli aerei, e i relativi componenti, potrebbe
decidere di basare il proprio business sulla logica pipe. Secondo tale approccio l’azienda produce
motori che vende ad altre azienda (compagnie aeree). La logica pipe, in questo caso è rispettata:
un flusso lineare di un’azienda produttrice che vende il bene ad un'altra azienda che lo acquista.
Un modello di business basato sui servizi, invece, prevede che lo stesso fornitore di motori e
relativi componenti non venda alla compagnia aerea il motore, ma venda servizi di disponibilità̀
delle attrezzature. Il servizio che vende il fornitore potrebbe essere quello di propulsione.
L’azienda cliente non deve acquistare il motore o le parti di ricambio, deve pagare le ore di utilizzo
del motore trasformando così i costi fissi in costi variabili.
Il produttore guadagna denaro per i motori effettivamente operativi, dunque, è incentivato a
migliorare la qualità̀ degli stessi. L’acquirente non acquista un bene che dovrà̀ gestire in
autonomia, ma acquista il servizio di propulsione, dunque, pagherà̀ in base all’utilizzo su richiesta
per le attività̀ di cui ha fruito. Inoltre, raccogliendo i dati derivanti dall’utilizzo dei motori, il
fornitore può̀ vendere all’acquirente anche un servizio informativo.)

- ACQUISTI DI GRUPPO
Gli acquisti di gruppo utilizzano l’effetto rete per incrementare il potere d’acquisto sugli acquirenti
e ottenere forti sconti sulla vendita di prodotti e servizi.
Esempio: Groupon
Queste società trattano con aziende locali per ottenere sconti speciali su grandi quantitativi di
prodotti o servizi e li offrono ai loro utenti sotto forma di “affare del giorno”: se un numero
sufficiente di persone sottoscrive l’impegno ad acquistare il prodotto o servizio, i clienti ottengono
sconti significativi sul prezzo di acquisto.
Questi modelli di business (acquisti di gruppo) sono davvero sostenibili?
L’azienda che offre il prodotto o servizio utilizza queste operazioni per ridurre la merce invenduta
(in caso di prodotti) o per attirare nuovi clienti.
Non sempre questo avviene: a volte capita che gli acquirenti, che ottengono prodotti con sconti,
sono clienti poco soddisfatti poiché́ le aziende non trattano allo stesso modo, con servizi di alta
qualità̀, i clienti veicolati tramite da siti che prevedono acquisti di gruppo.
Le aziende che aderiscono: potrebbero dover affrontare il rischio di perdite significative, dato che
il sito che gestisce il sistema di acquisti di gruppo generalmente trattiene una quota notevole del
prezzo pagato dal cliente (spesso intorno al 50%); inoltre, esse potrebbero non essere in grado di
stare al passo nel caso di un improvviso aumento della domanda.

LA TRASFORMAZIONE DIGITALE E I TREND DIGITALI


I trend digitali offrono di rinnovare l’azienda e di indentificare nuovi modelli di business
I trend digitali ridefiniscono il contesto digitale nel quale viviamo e nel quale le aziende operano
quotidianamente e sono:
 Social media
Internet delle cose
Intelligenza artificiale e robotica
Cloud computing: accesso on demand o su richiesta ad alcune risorse informatiche o di
immagazzinamento sui server dell’azienda che fornisce cloud computing o per avere accesso alla
capacità di elaborazione dei dati  capacità di utilizzare dei software. All’azienda interessa perché
ha dei costi variabili, io pago una quota mensile in base al servizio che uso. Garantisce
l’infrastruttura hardware e software utile anche per gli altri tipi di tecnologie.
Big data
Mobile
I trend digitali sono interconnessi alla trasformazione digitale e alla nascita di nuovi modelli di
business perché alla base dei trend ci sono aziende nuove che operano per definire tali trend
attraverso una struttura aziendale basata su un modello di business innovativo.

SOCIAL MEDIA
Inizialmente il web, metà anni 90, era un web dove l’utente era principalmente un utente passivo.
Chi pubblicava i contenuti? Le aziende che gestivano il sito web. Le informazioni che si trovavano
sul web erano informazioni che avevano un carattere istituzionale. Le informazioni arrivavano da
fonti certe.
Le cose iniziano a cambiare nei primi anni 2000 quando ci si rende conto che una possibile
evoluzione del world wide web stava in un coinvolgimento del pubblico nella creazione dei
contenuti.
Iniziano ad essere rese disponibili alcune tecnologie che favoriscono la pubblicazione di contenuti
da parte dell’utente finale.  WEB 2.0
I social media sono connessi al Web 2.0 (concetto che nasce nel 2004 in una conferenza attraverso
un’attività di Brainstorming in cui alcune persone hanno provato a identificare quali fossero le
nuove caratteristiche del contesto web che si stava delineando in quegli anni.
Il Web 2.0 è una combinazione di:
 Nuove applicazioni: per fornire un’interattività di tipo avanzato da parte di un utente
medio senza una formazione specifica. Con alcuni tipi di tecnologie favoriscono la
pubblicazione di informazioni da parte dell’utente finale. Applicazioni che consentono
all’utente di avere un ruolo più attivo. Da passivo diventa attivo. (condividi, vota,
commenta questo articolo, crea un tuo profilo utente, crea un tuo blog). Coinvolgimento
dell’utente che dedica tempo ed energie per scriver un commento a beneficio di una
comunità di utenti che neanche conosce. (recensione su TripAdvisor)
 Nuovo modo di intendere e di utilizzare la Rete, indirizzato a una sempre maggiore
partecipazione e coinvolgimento degli utenti finali nella redazione dei contenuti che
verranno pubblicati online (approccio user-generated content, UGC dove i contenuti sono
generati direttamente dell’utente finale. Contenuti che possono avere forme diverse:
possono essere testi, video, immagini, che l’utente finale genera e pubblica per dar si che
alti utenti possano prenderne visione.

La rivoluzione del web 2.0 è stata tale che il Time a dicembre del 2006 nella copertina che
annualmente viene dedicata alla persona dell’anno ha indicato l’utente della rete: la copertina ha
questo schermo con la scritta You. “Si ́ proprio tu, tu che controlli l’era dell’informazione
benvenuto nel tuo mondo”.
L’utente del web 2.0 è un utente comune, che utilizza applicazioni semplici da usare (user friendly)
per interagire con il contesto online, senza avere un background informatico specifico. Non è un
esperto della materia a cui si accinge a commentare.
L’altro elemento da considerare è il coinvolgimento dell’utente finale. La volontà di partecipare ai
contenuti da parte dell’utente finale è essenziale affinché́ il Web 2.0 possa funzionare.

Il Web 1.0 (1996) era un web principalmente di sola lettura; l’utente finale poteva acquisire i
contenuti che venivano pubblicati da istituzioni, aziende, coloro che gestivano i siti web e
pubblicavano contenuti controllati e verificati. Il numero di siti web e utenti era inferiore rispetto
a quello odierno. (45 milioni di utenti) Pochi utenti pubblicavano contenuti.
Il Web 2.0 (2006) diventa un web di scrittura e lettura. Vi sono utenti interattivi. (1 miliardo di
utenti) Aumentano gli utenti della rete globale, ancora oggi una parte dei contenuti arrivano da
fonti istituzionali certificate ma vi è maggiore possibilità̀ di collaborazione.
Collective intelligence rappresenta la conoscenza e l’esperienza condivisa tra più̀ utenti che non
sono esperti del singolo settore, ma sono un’eterogeneità̀ che contribuiscono con diversi livelli di
esperienza.
Questo ha rivoluzionato completamente il contesto dell’online perché ha creato una sorta di
mondo parallelo in cui le persone addirittura hanno trasferito la gestione delle relazioni personali.
Porta con sé dei benefici come però una serie di effetti collaterali come l’uso poco consapevole di
quello che è il mezzo.
NUOVO CONTESTO
Il nuovo contesto comporta la co-creazione di esperienze.
Il nuovo contesto presenta tante implicazioni dal punto di vista tecnologico, perché́ esso prevede
che siano rese disponibili applicazioni facili da usare.
D’altro lato ci sono una serie di implicazioni dal punto di vista sociale, che sono oggetto di studio
da diverse discipline come la sociologia.
Gli utenti hanno sviluppato il bisogno di socialità̀ (trasposizione di alcune relazioni tipiche
dell’offline in un contesto online, di cui a volte si perde il senso comune) e di una nuova
individualità̀.
È opportuno considerare alcuni aspetti rischiosi legati al Web 2.0 e alla possibilità̀ di pubblicare
contenuti che possono essere lesivi della dignità̀ o dell’immagine altrui.
Questi aspetti devono essere oggetto di attenzione per evitare situazioni che sono anche
legalmente perseguibili.
Non essendoci un controllo e una verifica a priori, le informazioni pubblicate a volte non sono
veritiere (fake news); sta agli utenti verificare l’attendibilità delle fonti.

Quali implicazioni ha il contesto del social media nel mondo aziendale?


I social media cambiano i modelli di comunicazione tra azienda e consumatore finale.
Le aziende tendono a passare da un modello di comunicazione basato sul monologo a un modello
basato sul dialogo; in base al modello tradizionale di comunicazione (monologo) le aziende
mandano dei messaggi in modo unidirezionale ai clienti finali.
L’azienda manda un messaggio, si ascolta il messaggio e infine si risponde. L’ascolto e la risposta
non è sempre così scontato perché il dialogo a volte coinvolge così tanti utenti che è difficile
ascoltarli tutti. Ma non solo, è un problema anche di tipo di qualitativo: non è facile capire cosa
dicono gli utenti dei social.
Il modello di comunicazione basato sul dialogo, invece, prevede una bidirezionalità del flusso di
informazione (del messaggio). L’azienda lancia dei messaggi, e l’utente li riceve e risponde ad essi.
Il ruolo del consumatore/utente è un ruolo attivo. Non è più̀ un utente passivo, in quanto replica e
risponde alle sollecitazioni da parte dell’azienda.
Questo nuovo contesto favorisce anche il passaparola tra utenti della rete in merito ad aspetti
positivi e negativi dei prodotti venduti dalle aziende; il 92% delle persone si fida degli earned
media (passaparola o consigli ricevuti dagli amici o dai familiari) più̀ di qualsiasi altra forma di
pubblicità̀ istituzionale.
Le recensioni scritte da altre persone sono al secondo posto tra le fonti di informazioni su
un’azienda di cui si fidano maggiormente.

INTERNET DELLE COSE (IOT: internet of things)


Rappresenta un’ampia varietà̀ di oggetti fisici, device, svariati oggetti comuni, dispositivi
indossabili che, tramite tecnologie incorporate e attraverso la rete Internet, condividono
autonomamente i dati relativi al loro stato e/o alle condizioni dell’ambiente che li circonda.
Esempi: frigorifero di casa (rileva tramite sensori che i prodotti sono terminati), sveglia digitale, il
semaforo che si trova all’incrocio (il sensore che rileva il livello di luminosità della giornata, il
sensore che rileva il mal funzionamento del semaforo) è in grado di condividere questi dati in
modo autonomo con altri sistemi informativi sfruttando la rete internet. Gli oggetti sono rivestiti
di alcune tecnologie che permettono di rilevare lo stato di salute dell’oggetto stesso o
dell’ambiente che li circonda e possono essere trasmessi in modo autonomo grazie a internet.
Lo scopo è quello di potare dei benefici che possono essere di diverso tipo: miglior utilizzo delle
risorse a beneficio degli ambienti.
Dal 1988 al 2020 il numero di device connessi è aumentato notevolmente, negli anni ’90 fino al
2008 gli oggetti connessi principali erano computer laptop ecc.; dall’inizio dell’IOT nel 2009 il tipo
di device cambia, si affiancano anche oggetti di uso comune.
Alcuni ambiti che beneficiano delle tecnologie IOT: (il numero di oggetti connessi alla rete internet
sono davvero tanti, spesso sono definiti con l’aggettivo “SMART”)
Smart home: gli oggetti della casa che hanno sensori e tecnologie che consentono ad essi
un’interconnessione per scambiare dati relativi al loro funzionamento e all’ambiente che li
circonda. L’interconnessione comprende anche il telefono del proprietario della casa.
Smart city: città che hanno l’obiettivo di rendere migliore la qualità̀ della vita attraverso
tecnologie che gestiscono meglio le risorse energetiche e i servizi pubblici. (semafori intelligenti,
arredi urbani smart, sensori wireless traffico, telecamere di controllo, sensori irrigazione, servizi
pubblici intelligenti, gestione rifiuti, controllo consumo energetico degli edifici, smart car...)
Ad esempio, il consumo degli edifici di Manhattan: gli edifici permettono di rilevare avarie e
anomalie delle infrastrutture; regolare la distribuzione di energia; di prevedere la domanda di
energie e aumentare l’efficienza energetica di intere città tutto in tempo reale.
Smart factory: sfruttano tecnologie IOT per aumentare l’automazione e l’interconnessione tra i
macchinari.
Si utilizzano sistemi cyber-physical system (CPS) che attraverso migliaia di sensori istallati sui
macchinari, consentono un’interazione e connessione continua, facendo in modo che la
produzione si possa “autocontrollare” o meglio possa essere gestita dai sistemi informativi in quasi
autonomia con un controllo remoto da parte di un essere umano che supervisiona il corretto
funzionamento delle macchine.
le Smart factory sono individuabili in quei settori industriali in cui le aziende si avvalgono di catene
di
montaggio per la produzione di un bene finale, un classico esempio é il settore automobilistico. In
questi settori le aziende tendono sempre più ad automatizzare le catene di montaggio che
vengono automatizzate e i macchinari vengono interconnessi tra di loro attraverso diversi tipi di
tecnologie tra cui anche le tecnologie IOT.
Wearable things: oggetti che possiamo indossare dotati di tecnologie IOT (settore sanitario,
marketing e advertising, sicurezza sul lavoro ecc.). Offrono opportunità in determinati contesti ma
pongono attenzione anche sugli eventuali rischi.
Es: fitness tracker, smart glasses, smart watches cioè tutti quegli oggetti che noi possiamo
indossare e che sono in grado di rilevare dei dati relativi all’oggetto stesso ma in particolare sono
in grado di rilevare dei dati relativi alla persona che indossa quel determinato oggetto.
Questi strumenti possono essere estremamente utili nell’ambito sanitario, lanciando messaggi in
caso di necessità per ricevere soccorso.
Anche le persone del marketing e della comunicazione utilizzano questi oggetti, utili perché́ sono
in grado di fornire dati precisi e dettagliati sull’utente che li utilizza, consentendo alle aziende di
effettuare operazioni di marketing dettagliate.
Sul piano della discussione viene posto il rischio della gestione di tali dati.
Intorno all’IOT c’è un grande interesse.
(Google ha annunciato l’acquisizione di Fitbit, azienda che produce wearable per 2,1 miliardi di
dollari)

Quali sono i driver di sviluppo dell’IOT, ossia gli elementi che guidano lo sviluppo di questo trend
digitale?
- Evoluzione tecnologica di chip e diminuzione dei relativi costi: presenza sul mercato di
tecnologie a prezzi accessibili.
L’accesso a tali tecnologie non è riservato a una nicchia di aziende o persone che hanno la
disponibilità̀ economica alta, ma è garantito l’accesso alla massa di persone e aziende che
intendono svilupparla.
- Evoluzione tecnologica delle trasmissioni wireless: questi oggetti devono beneficiare di una
trasmissione wireless per poter scambiare dati e informazioni.
Il Mobile 5G cioè la 5 generazione mobile è sicuramente una tappa dell’evoluzione tecnologica
degna di nota, che riscuote un grande interesse.
Vi è una correlazione tra Internet delle cose e Mobile, proprio perché questi trend digitali sono in
forte interconnessione tra loro.
Il Mobile fornisce quella trasmissione wireless di cui gli oggetti dell’IOT necessitano per scambiare
dati e informazioni.

LE SFIDE
La principale sfida dell’IOT è rappresentata dai dati e dalla loro gestione:
 Privacy e sicurezza dei dati: i dati che vengono generati e scambiati dagli oggetti dell’IOT sono
spesso sensibili, riservati e la grande sfida è rispettare la privacy e la sicurezza dei dati stessi.
 Compliance: cioè la conformità a determinati standard e norme a livello nazionale europeo e
internazionale che regolano la gestione di dati.
 Ownership dei dati: vuol dire a proprietà dei dati, a chi appartengono i dati generati
dall’oggetto? all’individuo o all’azienda che ha prodotto l’oggetto?
 Attendibilità dei dati: quanto sono attendibili i dati che provengono dagli oggetti. Questo è un
aspetto estremamente impostante perché se consideriamo che sulla base di questi dati vengono
prese delle decisioni in tempo reale è chiaro come l’attendibilità diventi un elemento di cruciale
importanza.
 Gestione dei dati: i dati che vengono raccolti devono essere analizzati e interpretati in tempo
reale per fornire informazioni all’oggetto e agire di conseguenza.
I dati che sono stati raccolti dagli oggetti connessi alla rete Internet poi devono essere analizzati in
tempo reale, questo richiede una grande capacità elaborativa che spesso le aziende non hanno a
disposizione.
Da qui due considerazioni che ci aiutano a capire perché sia tanto difficile analizzare e gestire i
dati generati dall’IOT.
Questi dati sono moltissimi (big data) e con strutture differenti l’uno dagli altri, inoltre la capacità
elaborativa necessaria non sempre è a portata delle aziende.
La seconda questione é legata alla capacità elaborativa necessaria alle macchine per analizzare
questo grande quantitativo di dati, abbiamo detto che spesso le aziende non hanno a disposizione
un’infrastruttura tecnologica adeguata in questo subentra il cloud computing cioè̀
un’infrastruttura online che a diversi livelli offre delle risorse informatiche on demand e tra queste
risorse informatiche c’è appunto la capacità di immagazzinamento dati, la capacità di analisi dei
dati
Qui si capisce la relazione tra IOT e il Cloud Computing che fornisce quell’infrastruttura tecnologica
che consente di supportare il mondo IOT e consente quell’analisi e interpretazione dei dati che le
aziende non potrebbero fare con le macchine che possiedono a meno che non siano delle grandi
aziende dell’HI TECH.

LA TELEFONIA MOBILE
Il mobile rappresenta una tendenza digitale attuale perché́ a livello globale, su una popolazione
totale di oltre 7.7 miliardi di persone, gli utilizzatori di telefoni mobili sono 5.19 miliardi.
Gli utilizzatori della rete internet sono 4.54 miliardi, mentre gli utenti attivi nei social media sono
3.80 miliardi.
Il ruolo della telefonia mobile è fondamentale all’interno di un contesto mondiale sempre più̀
interconnesso.

In Italia, in base alla ricerca effettuata da We are social:

Nel mondo: attività legate all’e-commerce

In Italia: utilizzo di Internet tramite mobile

Questi dati danno il senso del mobile come trend: rappresentano l’importanza del mobile come
trend.
IERI E OGGI
L’origine della telefonia mobile risale agli anni 70 e in particolare si fa risalire la prima telefonata
pubblica con un telefono cellulare all’aprile del 1973 quando Martin Cooper un ingegnere di
Motorola chiama da una strada di Mahnattan utilizzando il telefono che vediamo rappresentato
nella slide: il Motorola Dyna-TAC.
Il Motorola Dyna-Tac ha delle caratteristiche ben diverse dagli smartphone a cui noi oggi siamo
abituati
Il Motorola Dyna-Tac aveva un peso di 1,5 kg una durata della batteria di soli 30 minuti e
necessitava 10h per la ricarica.

La telefonia mobile prevede la suddivisione dell’intero spazio geografico coperto in piccole aree
denominate celle, al cui interno è collocata la stazione radiobase (ricetrasmittente) che si occupa
di gestire le comunicazioni.
Nella realtà le celle hanno forme circolari in quanto i confini si sovrappongono con i confini delle
celle adiacenti, per evitare che il passaggio in mobilità di un utente da una cella all’altra possa
determinare la perdita del segnale.
La stazione radiobase dell’impianto gestisce, in particolare, sia l’insieme di frequenze che il
sistema assegna alla propria cella, sia la comunità di utenti presenti al suo interno.
Essa gestisce le comunicazioni all’interno della cella e quelle degli utenti che passano da una cella
all’altra (handover).

CELLE, STAZIONI E FREQUENZE


Le stazioni radiobase sono spesso situate su torri, tetti di edifici o all’interno di strutture già
esistenti. L’handover è la procedura con la quale un terminale mobile cambia il canale e quindi la
frequenza che sta utilizzando durante una comunicazione, mantenendo attiva la comunicazione
stessa.

La telefonia mobile supporta la necessità di mantenere attive le comunicazioni per utenti che si
spostano all’interno di uno spazio geografico. A tal fine esso è stato suddiviso in celle: ogni cella ha
una stazione radiobase che gestisce le comunicazioni delle persone che sono all’interno di quella
cella.
Ma, trattandosi di comunicazioni in mobilità , è normale pensare che tali persone si spostano da
una cella all’altra spostandosi nello spazio geografico. La necessità , dunque, è quella di avere una
comunicazione stabile mentre si è in movimento.
Ciò̀ avviene attraverso la procedura di handover, che fa sì che la stazione radiobase di una cella
gestisca le comunicazioni delle persone che sono all’interno di quella cella, e gestisca anche il
passaggio di quell’utente da una cella a quella adiacente, così che la comunicazione sia garantita
anche in movimento.

lo spazio geografico è stato suddiviso in celle, ogni cella ha una stazione radiobase che gestisce le
comunicazioni delle persone che sono all’interno di quella cella però trattandosi di comunicazioni
in mobilità è normale pensare che queste si spostino da una cella all’altra mentre si spostano
all’interno di uno spazio geografico, la necessità è quindi quella di avere una comunicazione stabile
mentre sono in movimento.

LE GENERAZIONI DELLA TELEFONIA MOBILE


Esistono quattro generazioni della telefonia mobile, attualmente siamo collocati nella quarta (4G),
anche se stiamo progredendo verso la quinta generazione (5G).

Si ha un’indicazione di un arco temporale a


partire dagli anni 80 fino agli anni 200 e si
ha un’indicazione delle diverse generazioni
della telefonia mobile con i correlati servizi
offerti

Si ha subito evidenza del fatto che questi servizi sono aumentati da una generazione a quella
successiva passando da servizi di sola voce negli anni 80 a servizi che integravano la voce all’invio
di brevi messaggi di testo negli anni 90, alla generale offerta di servizi voce, internet e servizi
multimediali che ha contraddistinto la terza generazione negli anni 2000.
Prima generazione: TACS
Tacs  Total Access Cellular System (1G)
La prima generazione mobile inizia a svilupparsi a partire dagli anni ’80 e si basa sullo standard
TACS.
Si basa su un sistema di tipo analogico, quindi non ancora di tipo digitale. Consente il
trasferimento della sola voce.
Lo standard consente la comunicazione solo all’interno dei confini nazionali. Non consente,
pertanto, le chiamate dall’estero.
caratterizzata da device di grandi dimensioni e pesanti; una batteria che aveva un’autonomia
molto ristretta ed erano molto costosi, erano anche dei device che avevano uno schermo molto
piccolo: in alcuni casi era addirittura assente in altri casi invece era presente ma con una
limitazione evidente cioè lo schermo era utilizzato esclusivamente per vedere il numero di
telefono e per poter vedere quello che veniva digitato attraverso la tastiera che consentiva di fatto
solo la composizione dei numeri di telefono.
Quindi anche se più evoluti rispetto al Dyna-TAC degli anni 70 sicuramente restano dei device
particolari: grandi dimensioni, elevato peso, ridotta autonomia della batteria.
Questi telefoni venivano utilizzati in principale modo da parte di persone che acquistavano questi
telefoni per esigenze professionali, di conseguenza la diffusione presso il grande pubblico era
molto limitata

Seconda generazione: GSM


GSM  Global System for Mobile Communication
La seconda generazione è basata sulla trasmissione digitale. Contribuendo così al processo di
convergenza digitale che vede la trasformazione degli elementi presenti nel contesto fisico e dei
segnali di tipo analogico in digitale (bit).
La trasmissione digitale consente, rispetto alla prima generazione, di migliorare la qualità di
trasmissione, di migliorare la capacità di sistema, nonché la copertura del segnale e la sicurezza
delle comunicazioni telefoniche.
Inoltre, è stata garantita la piena compatibilità dei dispositivi mobili cellulari impiegati all’interno
di una comunità di paesi. Ciò grazie al concetto di roaming, che nelle reti delle comunicazioni,
indica un insieme di normative e di apparecchiature che permettono di mettere in comunicazione
due o più reti distinte.
Questo unico standard di comunicazione ha consentito la diffusione dello stesso sistema GSM
oltre i confini dell’Europa Occidentale (area in cui era stato inizialmente concepito).
Inoltre, è stata introdotta la sim card, che permette di dissociare i dati relativi all’utente (utenza
telefonica) dal device che viene utilizzato.
Inoltre, è stato possibile inviare SMS (short message service): possibilità di scambiare con altri
utenti brevi messaggi di testo. Al traffico voce, si affianca la possibilità di inviare brevi messaggi di
testo.
L’SMS contribuisce alla diffusione dei telefoni al grande pubblico.
Altro elemento che contribuisce la diffusione dei cellulari al grande pubblico è dato
dall’evoluzione dei devices stessi: prezzi accessibili, portabilità (ridotte dimensioni e peso),
schermo (consente una maggiore facilità di interazione dell’utente con il device e la scrittura degli
sms).

Nella seconda generazione iniziano a svilupparsi anche dei protocolli applicativi per rendere il web
wireless. Ovvero, per poter utilizzare i devices mobili nella navigazione sul web.
Uno di questi è il WAP, che aveva la funzione di rendere l’accesso al web praticabile anche da un
device di seconda generazione.
L’accesso alle informazioni (visibili tramite pagina web) era diverso: le informazioni erano semplici
messaggi di testo che potevano essere accessibili da parte dei device di seconda generazione.

ci sono le previsioni del tempo relative alla città di Stoccolma per


la giornata odierna e per le giornate successive, la grafica
ancorché́ semplice e tipica degli anni 90 restituisce però una idea
abbastanza immediata delle condizioni meteo: ci sono dei colori,
ci sono delle icone, ci sono dei grassetti che ci mettono in
evidenza le principali informazioni.

visibili attraverso una pagina web consultata attraverso un pc venivano trasformate in semplici
messaggi di testo che potevano essere in questo modo accessibili da parte dei device di seconda
generazione. In particolare, in questo esempio
si vede chiaramente come sullo schermo del telefonino non appaiano ne icone, ne colori, ne
grassetti o formattazioni particolari del testo, vi è un semplice messaggio di testo che reca le
informazioni principali: Stoccolma, Svezia molto nuvoloso, temperatura 19, previsione per lunedì ̀
nuvoloso. Quindi le stesse informazioni che vediamo sulla sinistra sono qui replicate in modo
estremamente semplificato così da essere accessibili attraverso un device mobile e così da essere
anche visibili attraverso un device mobile che ricordiamo è un device di seconda generazione e
quindi non ha sicuramente le caratteristiche fisiche dello smartphone che oggi noi conosciamo. I
costi di navigazione: noi oggi siamo abituati a tariffe flette estremamente vantaggiose per gli
utenti finali che consentono una navigazione sul web in generale uno scambio di dati e
informazioni sulla rete internet a dei costi molto ridotti. Non era così negli anni 90 in cui per poter
aver accesso alla rete internet e navigare sul web attraverso telefonino bisognava sostenere dei
costi estremamente elevati.

Generazione 2.5
Con l’evolversi della seconda generazione negli anni ’90 si assiste a un progressivo sviluppo
tecnologico che porta alla generazione 2.5, ovvero una generazione a metà tra la seconda e la
terza.
Essa è caratterizzata da:
 High Speed Circuit Switched Data (HSCSD)
 General Packet Radio Service (GPRS)
 Enhanced Data rates for Global Evolution (EDGE)
Tale generazione attraverso questi standard inizia ad avvicinarsi sempre di più verso la terza
generazione, consentendo sempre di più̀ lo scambio di informazioni in formato multimediale.
Consentendo una velocità di trasmissione sempre maggiore.
Questo avviene grazie allo standard GPRS che introduce il sistema di commutazione di pacchetto.
Anche i devices stessi cambiano: schermi maggiori che si avvicinano ad essere smartphone.

Terza generazione: UMTS


UMTS  Universal Mobile Telecommunication System
il così detto 3G: In questa generazione, a partire dagli anni 2000, si ha un incremento della velocità
di trasferimento dati e della possibilità di scambiare in modo massiccio informazioni di tipo
multimediale.
Si iniziata a parlare di Banda Larga anche nell’ambito del mobile perché la velocità di trasferimento
dati è in deciso aumento e riesce a supportare il trasferimento di servizi e dati multimediali.
Fase 1 download fino a 2Mbps
Fase 2 download fino a 14,4 Mbps con protocolli HSDPA
download fino a 56 Mbps con protocolli HSPA +
Lo standard di comunicazione alla base della terza generazione mobile, che consente di conciliare
la mobilità dell’utente con la crescente esigenza di multimedialità è l’UMTS.
Le video call o le vide conference o l’upload di video sul web iniziano ad essere delle attività
effettuabili anche attraverso i device mobili.

Quarta generazione: LTE


LTE  Long Tearm Evolution (4G dal 2013)
Esso è uno standard che consente una velocità estremamente elevata tanto da dare un definitivo
senso al concetto di banda larga in mobilità .
La velocità di trasferimento dei dati attraverso il 4G aumenta in modo importante tanto da
arrivare a una velocità teorica di 1 giga per secondo.
Anche i servizi sono di alta definizione: è possibile utilizzare device mobili per videoconferenze,
per accesso al cloud, per programmi in streaming. Con un livello di qualità̀ del servizio e della
trasmissione alto.
Continua a crescere anche il numero di utenti mobili così che la quarta generazione si rende in
grado di includere sempre più̀ device connessi alla rete mobile.

VERSO LA QUINTA GENERAZIONE


L’unione internazionale delle telecomunicazioni si occupa di identificare le linee guida IMT-2020
su cui si baserà il nuovo standard 5G (2020).

La quinta generazione promette di:


- Incrementare ulteriormente la velocità di trasmissione dati fino ad arrivare a promettere una
velocità massima teorica di 10GB al secondo seguendo così un passo in avanti notevole rispetto a
quanto non fosse consentito fare in termini di velocità di trasferimento dati con la generazione
precedente e ridurre i tempi di latenza ovvero sia l’intervallo di tempo che intercorre nel
momento in cui viene inviato un input ad un sistema e il momento in cui è disponibile il suo
output.
- Supportare il crescente numero di utenti e servizi accessibili da rete mobile (non solo utenti in
quanto persone fisiche, ma anche oggetti e device che in modo autonomo si connettono alla rete
internet: internet of things).
L’aumentata velocità e la riduzione della latenza permetteranno a tali oggetti interconnessi e che
si autogestiscono nel contesto digitale, quelle reazioni immediate che ci si aspetta da essi nel
momento in cui devono mettere in atto delle azioni conseguenti a degli input che hanno ricevuto.
Esempio: la smart car perché potrà beneficiare di queste caratteristiche? Perché sarà
fondamentale un tempo ridottissimo in termini di secondi tra il momento in cui il sensore rileva un
ostacolo e il momento in cui reagisce all’input frenando.
IOT e mobile sono interconnessi.
Il contesto mobile (soprattutto con la quinta generazione) sarà di supporto alla realizzazione del
contesto IOT che si ha descritto precedentemente.

SPERIMENTAZIONI 5G ITALIANE IN ATTO


Nel 2017 sono stati selezionati i progetti, la sperimentazione durerà fino al 2020 e hanno coinvolto
alcune città, tra cui l’area metropolitana di Milano.

Il 5G è oggi oggetto oggi di grande interesse anche oggetto di tante fake news che si susseguono
quello che è importante ricordare è quello che dal punto di vista tecnologico le strutture
sembrano essere in grado di fare e che dovranno essere sperimentate in tal senso e d’altro canto
quelle che sono poi eventuali problematiche connesse all’utilizzo di queste tecnologie che
sicuramente esistono così come esistono in tutti gli altri ambiti di utilizzo di tecnologie di vario
tipo.

Progetti presentati da Vodafone:


Ambulanza connessa  tramite varie tecnologie consente la condivisione in tempo reale dei
parametri vitali grazie a strumentazione diagnostica connessa e visori e videochiamate a elevata
risoluzione, tra ambulanza e il medico da remoto per diagnosticare e intervenire durante il
trasporto.
Droni per riprese aeree di sicurezza  riprese aeree per il controllo del territorio di aree sensibili
o inaccessibili, per il primo soccorso in situazioni di elevato pericolo e per il monitoraggio di aree
colpite da calamità .

La tecnologia 5G consente di trasmettere flussi video ad altissima risoluzione di pilotare i troni


rispettando i vincoli di affidabilità e latenza necessari per operare in sicurezza.

IL MOBILE NEL CONTESTO AZIENDALE


i dati che abbiamo visto ci danno evidenza di come la diffusione dei device mobili sia sempre
crescente e tutto ciò pone nelle condizioni di capire come questo nuovo contesto possa impattare
sulle attività aziendali.
Gli impatti possono essere di diverso tipo:
[Link]’utilizzo massiccio di devices mobili da parte degli utenti finali, deriva la necessità e
l’opportunità di veicolare informazioni e servizi tramite dispositivi mobile.
Sempre più utenti accedono ai servizi e alle informazioni provenienti dalle aziende e disponibili
online, tramite dispositivi mobili.
Questo dato è importante per le aziende perché quando un utente accede ai servizi o alle
informazioni disponibili nel contesto online attraverso un device mobile, utilizza uno strumento
diverso rispetto a quello che si può trovare sulla scrivania.
Le aziende devono sempre di più impegnarsi a veicolare informazioni e servizi che siano
facilmente fruibili da parte dell’utente finale tramite un dispositivo mobile che per sua natura è di
piccole dimensioni e che ha determinate funzionalità.
Tutte le iniziative veicolate tramite il canale mobile devono rispondere a questo specifico tipo di
esigenze: considerando che il mobile, assieme ad altri canali, fa parte della molteplicità di canali
oggi utilizzate dalle aziende in una logica OMNICENNEL (omnicanalità ).
L’utente ha la percezione del brand nel suo complesso e sfrutta i diversi canali in modo
complementare all’interno dello stesso processo di acquisto per portare all’estremo la propria
shopping experience, così da trovare nell’utilizzo dei diversi canali una gratificazione nella sua
attività di acquisto.

Per le aziende, ciò significa pensare a tale canale come un canale su cui effettuare mobile
markerting e advertising per raggiungere il pubblico in movimento seppur in una strategia
comune di integrazione dei diversi canali. (sms/mms, qr code)
Un altro strumento è rappresentato dal sito web: qualche anno fa essi erano consultati tramite pc
fisso con schermo di medio/grandi dimensioni.
Oggi, molti utenti consultano i siti web mediante devices mobili. Una tecnica di progettazione dei
siti web molto efficace è la Responsive web design: basata sulla tecnica responsive, pertanto un
sito adatta il proprio layout e i propri contenuti alle dimensioni del device utilizzato per la
visualizzazione del sito stesso, pertanto quando si accede a un sito web così progettato si
vedranno Layout differenti in base al device che si sta utilizzando per la navigazione questo vuol
dire che la visualizzazione di quel determinato sito web attraverso un desktop avverrà con un
Layout adeguato alle dimensioni dello schermo, lo stesso layout sarà automaticamente ridefinito
se ad accedere a quel sito web è un utente che utilizza un tablet oppure uno Smartphone, quindi
accedendo a un sito web progettato attraverso questa tecnica Responsive utilizzando un device
Mobile io non vedo quel determinato sito web semplicemente miniaturizzato e che quindi diventa
estremamente difficile da navigare, bensì vedo gli stessi contenuti però strutturati in un modo
diverso e fruibile da un Device di piccole dimensioni.

Oggi gli esempi di siti web Responsive sono numerosi e li individuiamo tutte le volte che
accediamo ad un sito web tramite un device mobile e la struttura di questo sito cambia a seconda
del device utilizzato.
Infine per poter accedere ai contenuti e ai servizi offerti dalle aziende tramite mobile le aziende
hanno a disposizione le App che abbiamo visto che sono degli applicativi che consentono di
veicolare informazioni o servizi e sempre di più vengono sfruttate per far sì che gli utenti possano
accedere con semplicità a dei contenuti che le aziende vogliono rendere disponibili attraverso il
canale mobile.

[Link] derivante da una diffusione massiccia dei device mobili è la nascita di nuovi modelli di
business
Alcune peculiarità del contesto mobile facilitano la nascita di nuovi modelli di business creati
attorno a tali funzioni:
- Geolocalizzazione (ad esempio per mobile marketing): attraverso la geolocalizzazione è possibile
identificare la posizione di un utente e fare delle promozioni ad hoc in ragione del fatto che
l’utente si trovi proprio in quella posizione; io posso inviare sul suo dispositivo mobile un
messaggio promozionale personalizzato in esclusiva per lui e solo in ragione del fatto che lui si
trovi proprio in quel momento a passare davanti al negozio.
- Mobile payment (m-payment): si identificano quelle attività e quei sistemi che consentono di
pagare attraverso il proprio cellulare.
Esempio: Mobile Proximity Payment: pagamento in prossimità̀ che avviene quando avviciniamo il
nostro telefono a un lettore per effettuare un pagamento oppure il cosiddetto Mobile Remote
Payment: il pagamento da remoto, quando utilizziamo il cellulare per effettuare un acquisto e la
somma viene scalata dal nostro credito telefonico, questo per esempio è un metodo utilizzato per
l’acquisto di alcuni servizi come il parcheggio dell’auto in determinate città .
- Mobile Commerce (m-commerce): attività di compravendita di beni e servizi attraverso
dispositivi mobile.
Rientrano in questa fattispecie anche tutte le attività di E-commerce che però sono effettuate
attraverso dei dispositivi mobili.
I sistemi che supportano il Mobile commerce pertanto devono essere progettati in modo tale da
essere efficaci nel loro contesto quindi sarà necessario considerare che gli utenti di un sistema di
Mobile commerce saranno utenti molto probabilmente in movimento, saranno utenti che
utilizzeranno dei device di piccole dimensioni e quindi con una limitata fruibilità dello schermo ma
saranno anche utenti a cui sarà possibile fornire dei servizi personalizzati in ragione delle
informazioni che l’utente stesso attraverso il device mobile renderà disponibili all’azienda come
per esempio le informazioni relative alla sua posizione raccolte dall’azienda attraverso i sistemi di
geolocalizzazione.
Vi è un legame tra social e m-commerce, ad esempio, si pensi ad Instagram che permette di
veicolare attività di compravendita a cui l’utente finale può accedere principalmente attraverso
dispositivi mobili.

LA GESTIONE DEI DATI E I TREND DIGITALI – BIG DATA


Partiamo da un dato di fatto: l’importanza dei dati al giorno d’oggi.
La copertina di The Economist, nel maggio del 2017 da il senso del valore dei dati al giorno d’oggi.
“La risorsa più̀ preziosa di valore al mondo”.
Il dato è un elemento grezzo in sé privo di significato e assume un valore quando viene
contestualizzato; quindi, quando viene analizzato, aggregato e si trasforma appunto in una
informazione che a quel punto è un elemento significativo e di valore per chi dovrà sfruttare e
utilizzare l’informazione stessa.
L’articolo si sofferma sul valore e l’importanza dei dati nel contesto odierno e paragona i dati al
petrolio, il petrolio dell’era digitale.
Esistono alcune questioni aperte sullo scenario attuale:
 Da dove arrivano i dati?
 Sono affidabili?
A chi appartengono?
Come (e dove) vengono immagazzinati, gestiti ed elaborati? E da chi?
 Quali norme ne regolano la gestione?

Perché le organizzazioni hanno bisogno di dati e informazioni attendibili?


Perché esiste una forte connessione tra un’efficace ed efficiente attività di gestione dei dati e le
performance aziendali, significa che le persone all’interno di un’azienda, prendono delle decisioni
e agiscono quotidianamente basando le loro decisioni e le loro azioni su dati di cui entrano in
possesso. Migliore sarà la qualità dei dati delle informazioni, migliore sarà la qualità delle decisioni
prese.
Avere dei dati e delle informazioni di qualità vuol dire avere dati e informazioni che sono corretti,
che non sono contraddittori, che sono completi e non parziali, che sono attendibili ed è quindi
chiaro che dati e informazioni di qualità porteranno a delle scelte migliori in quel determinato
contesto in cui noi stiamo agendo.

Qual è la criticità nel gestire e nell’immagazzinare dei dati che abbiano queste caratteristiche?
La criticità sta nel fatto che, per le aziende immagazzinare e gestire dei dati in modo che siano
sempre attuai, corretti, completi è qualcosa di estremamente difficile sia dal punto di vista
tecnologico ma anche dal punto di vista organizzativo.
Per aiutarsi, le aziende utilizzano degli strumenti appositi per la gestione dei dati. Questi strumenti
si dividono in strumenti più tradizionali e strumenti più innovativi.

DATABASE (alcuni strumenti per la gestione dei dati)


Lo strumento tradizionale per eccellenza è il database: ovvero, una raccolta organizzata di dati
correlati e strutturati; è un contenitore di dati correlati tra di loro, devono essere coerenti con
l’obbiettivo del database e devono essere raccolti e organizzati secondo una struttura ben precisa
e definita.
Il fatto che sono correlati vuol dire che sono interconnessi, non solo dati slegati tra di loro.
Il fine di un database è quello di raggruppare i dati in un primo momento, ma è anche quello di
costituire un’estrazione dei dati, un confronto dei dati attraverso delle analisi.
la progettazione di un Database è un’attività molto complessa che passa attraverso alcune fasi e
gode di alcune metodologie ben affermate, Parlando di gestione dei dati dobbiamo dire che le
aziende hanno a disposizione da ben molti anni degli strumenti che ancora oggi sono utilizzati e
che ancora oggi sono necessari per l’operatività aziendale, i Database sono un esempio di questi
strumenti anzi diremmo lo strumento per eccellenza che consente alle aziende di gestire i dati
quindi in qualsiasi realtà noi ci troveremo sicuramente un Database più o meno complesso sarà il
raccoglitore nel quale vengono fatti confluire i dati di quella determinata realtà aziendale.
Nella prima fase, il database necessita di raggruppare i dati.
Nella seconda fase necessita di utilizzare questi dati attraverso delle azioni di estrazione e
confronto.

Come avviene l’inserimento dei dati in un database e come avviene l’estrazione dei dati in un
database: l’inserimento avviene in modo strutturato, bisogna rispettare delle procedure che sono
state precedentemente definite, queste procedure dicono esattamente quale dato devo inserire e
come lo devo inserire.
Es. quando bisogna inserire nome, cognome, data di nascita.
Anche l’inserimento e l’estrazione dei dati sono attività strutturate, che seguono regole e
modalità prestabilite.
Perché si tratta di una raccolta dati strutturata? noi abbiamo un questionario con delle domande
ben precise, di solito ci sono anche delle risposte a scelta multipla che ci imbrigliano la valutazione
cosicché quei dati che poi noi inseriamo possono essere oggetto di analisi e valutazioni successive
attraverso un’estrazione e soprattutto attraverso un confronto tra i dati.
Ora proviamo a fare qualche esempio di domanda che posso porre al Database e quindi qualche
esempio di dato che io posso estrarre da questo stesso Database. Chiaramente le domande
saranno molto strutturate ad esempio quali sono i nomi e gli indirizzi dei clienti? Quindi la
domanda che posso fare per interrogare il Database chiamata Query
Quindi domande molto strutturate che vengono utilizzate proprio per estrarre dei dati che sono
stati raccolti secondo una determinata logica e che secondo quella stessa logica possono essere
estratti e poi successivamente anche comparati.
Esempio:
-quali dati posso estrapolare da un database?
-quali sono gli studenti che si identificano…?
- quali sono i nomi e gli indirizzi dei clienti della mia azienda?
- quali sono i clienti con sede in Lombardia?
- quali sono i clienti che hanno acquistato il prodotto xy nel 2019? Sono domande che vengono
utilizzare per estrarre dei dati.
Se avessi la necessità di trovare una risposta a delle domande più complesse, il database potrebbe
darmi una soluzione?
Ad esempio:
- qual è il trend previsto della quota di mercato nel sud Italia per il prodotto xy?
- qual è il tasso di crescita delle vendite previsto per il prodotto xy suddiviso per regione?
A queste domande il database non può dare una risposta, perché la struttura con la quale è stato
impostato non consente delle analisi così sofisticate su quei determinati dati che sono stati
raccolti.
Per rispondere a quelle domande invece servono dei sistemi informativi e dei contenitori di dati,
diversi dai database.
Oggi i dati provengono non solo dalla normalità delle aziende ma anche da altre fonti: per esempio
IOT

Ora però se io avessi la necessità di trovare una risposta a delle domande un po’ più complesse il
Database potrebbe darmi una soluzione? il Database non può dare una risposta perché la struttura
con la quale é stato impostato non consente delle analisi così sofisticate su quei determinati dati
che sono stati raccolti.

DSS E BI
Per rispondere a queste domande servono dei sistemi informativi che prendono il nome di
“Decision support Systems” (DSS) o “Sistemi business intelligence” (BI): essi combinano dati,
strumenti analitici e modelli per sostenere decisioni manageriali di tipo semi-strutturato.
Supportano il processo decisionale dei manager quindi di manager di livello intermedio che nella
piramide gerarchica che rappresenta in modo semplificato l’azienda si trovano a metà e questi
sistemi sono dei sistemi che supportano il processo decisionale combinando dati, strumenti
analitici e modelli appunto per sostenere delle decisioni manageriali di tipo semi-strutturato.
Consentono di fare delle analisi più sofisticate rispetto a quello che riescono a fare i semplici
database. Un sistema di supporto decisionale è composto da diversi elementi:
- Data warehouse: un contenitore di dati e i sistemi di analisi dei dati contenuti nel data
warehouse che sono sistemi di: data mining, sistemi Olap o altri tipi di sistemi.
Ciò che contraddistingue questi sistemi è rappresentato da due elementi:
il primo elemento rappresenta un raccoglitore, un magazzino dei dati che prende il nome di data
warehouse, il secondo elemento è rappresentato da questi sistemi che consentono l’analisi dei
dati che sono stati raccolti nel data ware house e possono essere di vario tipo ad esempio data
mining o olap.

DATA WARE HOUSE E SISTEMI OLAP


DSS o sistemi di BI sono composti da:
--- Archivi elettronici di dati organizzati in modo centralizzato: data warehouse, ovvero archivio di
dati raccolti da numerosi database aziendali ed eventuali fonti esterne, in grado di supportare le
attività aziendali e i processi decisionali.
La struttura dei dati di un data warehouse è diversa dalla struttura di un database; quindi nel Data
Warehouse confluiscono i dati provenienti da più fonti interne ed esterne all’azienda questi dati
vengono raccolti all’interno di questo archivio, e su questi dati saremo ora in grado di effettuare
delle analisi sofisticate, queste analisi più sofisticate sono possibili grazie all’utilizzo di sistemi
come: i sistemi di Data mining o i sistemi OLAP.
--- Sistemi OLAP (online analytical processing) e sistemi data mining: strumenti e applicazioni
necessari per l’analisi dei dati e delle informazioni contenuti dei data warehouse.
OLAP è un processo di analisi complesse di tipo multidimensionale sui dati archiviati in un data
warehouse ottimizzato per la ricerca.
Attraverso i sistemi Olap è possibile effettuare un’analisi complessa dei dati che sono archiviati
all’interno di un datawarehouse, restituendo all’utente che ha interrogato il datawarehouse, un
cubo nel quale sono presenti diverse dimensioni di analisi di un determinato fenomeno. Ed è per
questo motivo che si parla di analisi multidimensionale.
Ad esempio: il fenomeno vendite può essere analizzato da diverse prospettive, che definiscono le
dimensioni del cubo. Esse potrebbero essere il tempo, la regione e il prodotto.
Dopo che i dati sono stati consolidati in un data warehouse, il sistema Olap è in grado di analizzarli
in modo ben sofisticato, e tramite analisi multidimensionale restituisce un’informazione sintetica
(cubo) ma densa di significato.

DATA MINING
Un altro modo per analizzare i dati contenuti nel data warehouse è attraverso i sistemi di data
mining;
esso consiste nell’attività di ricerca e analisi di una grande mole di dati, utile ad estrarre concetti e
scoprire nuove informazioni. Scavare ed estrarre dai dati degli elementi che siano di valore
aggiunto.
Sono sistemi alternativi o complementari ai sistemi OLAP che contribuiscono ad analizzare i dati
presenti nei data warehouse al fine di restituire ai decisori delle informazioni utili a supportare il
loro processo decisionale; tuttavia il data mining svolge questa funzione in un modo diverso
rispetto ai sistemi olap, perché i sistemi di data mining consentono di effettuare l’esplorazione e
l’analisi di dati all’interno dei data warehouse per individuare modelli e schemi logici non espliciti
a priori.
Vuol dire che i dati contenuti nel data warehouse che vengono analizzati attraverso i sistemi di
data mining, vengono analizzati senza che colui che interroga il data ware house abbia definito a
priori una domanda che definisca la relazione prevista tra questi dati.
Esempio: la federazione di atletica americana ha utilizzato il data mining per capire quali fattori
influenzano le prestazioni di un atleta, senza avere una domanda precisa rispetto al tipo di fattore
che poteva o meno avere un’influenza sulla prestazione. Hanno raccolto un enorme quantità di
dati relativi alle performance e alle vite di essi. Il data mining aveva lo scopo di scoprire le relazioni
tra i dati al sistema stesso.

ESEMPIO DI FUNZIONE AZIENDALE CHE UTILIZZA I DATABASE E I SISTEMI DI SUPPORTO


DECISIONALE
Un esempio è rappresentato dalla funzione del marketing.
Il marketing fa largo uso dei sistemi di supporto decisionale perché ha la necessità di
comprendere gli schemi di acquisto dei clienti, o le preferenze di acquisto. Oppure, ha la
necessità di fare delle previsioni future sul comportamento dei clienti, e quindi utilizza i sistemici
di supporto decisionale proprio per supportare decisioni legate a tali ambiti.
In particolare, bisogna evidenziare che i sistemi di supporto decisionale e i database che vengono
utilizzati in modo integrato nell’ambito del marketing sono conosciuti come sistemi di CRM
(costumer relationship management), quindi sistemi per la gestione della relazione con il cliente, il
suo obiettivo è quello di migliorare tale gestione. Come? Conoscendo meglio il cliente grazie a
quelle analisi sofisticate che abbiamo visto poco fa che ci restituiscono una immagine più completa
delle interazioni tra azienda e cliente e permettono all’azienda di meglio comprendere per
esempio quali sono alcuni fattori che influenzano le decisioni di acquisto, permettono all’azienda
per esempio di definire quelli che sono alcuni schemi di acquisto attraverso i diversi canali.

BIG DATA
“Big data” vuol dire “grande quantitativo di dati, un’enorme massa di dati” che si è andata
creando sempre più intensamente negli ultimi anni.
Questa è una copertina di “The Economist” del 2010 che già titolava “il diluvio di dati” qui i dati
sono rappresentati come se fossero delle gocce di acqua e si vede un signore che tenta di
convogliare quest’acqua in poche gocce che risultano essere utili per innaffiare una piccola
piantina.
Il diluvio sarebbe inutile perché farebbe annegare la povera pianta, la metafora è chiara: i dati
sono tanti, sono tantissimi noi siamo sommersi dai dati ma tutti questi dati se non vengono in
qualche modo convogliati come lì nella copertina attraverso un ombrello messo al contrario
difficilmente risultano essere utili per noi, saremmo diversamente sommersi da
una grande mole di dati nella quale non riusciremmo ad estrarre nulla di utile, nulla di
significativo.
Big data fa riferimento al fenomeno dell’overload cioè sovraccarico informativo quando io ho
troppi dati e troppe informazioni alla fine sono sommerso e non ho ne il tempo ne la capacità di
analizzare dati e informazioni e non
sono pertanto in grado di trarre un valore da questo patrimonio enorme di dati e bisogna
sottolineare che questa enorme quantità di dati viene continuamente alimentata giorno dopo
giorno dalle attività che noi svolgiamo online che contribuiscono a generare questi dati che
costituiscono questo enorme quantitativo di dati di cui stiamo parlando
Questa enorme quantità di dati viene continuamente alimentata dalle attività online che
contribuiscono a generare questi dati che costituiscono questo enorme quantitativo di dati.
Le domande che bisogna porsi sono:
 Da dove arrivano tutti questi dati? Questi dati derivano sia da fonti interne all’azienda che da
nuove fonti esterne.

Tra le nuove fonti esterne troviamo i trend digitali di cui abbiamo già parlato, social media,
internet delle cose e mobile.
Social media: dati relativi a post, like, commenti...
IOT: tutti gli oggetti connessi alla rete generano dati che vengono scambiati in rete e costituiscono
l’elemento alla base del funzionamento dell’IOT. Es: Lampione che ha dei sensori che recepiscono
l’ambiente, si autoregola.
Mobile: tutti i dati relativi alla geolocalizzazione.
Quindi questi generano notevolmente incremento della quantità di dati potenzialmente utili alle
aziende. Potenzialmente perché se l’azienda fosse sommersa da questi dati non riuscirebbe a
trovare un valore in questo quantitativo enorme di dati, ne verrebbe completamente travolta
senza trarne vantaggio.

Quindi per poter trasformare questi dati in qualcosa di significativo, quest’ultimi devono essere
analizzati e trasformati, devono diventare informazione.
L’elemento di difficoltà sta proprio nella gestione di questi dati. Il tema della quantità dei dati è
solo uno degli aspetti dei big data.
Le caratteristiche dei big data possono essere rappresentate attraverso quattro V:
- v di volume;
- v di velocità ;
- v di varietà;
- v di veridicità.

Il volume, l’enorme quantità di dati è solo uno dei primi problemi/caratteristiche dei big data. È
anche difficile dare una quantità precisa dei dati generati e scambiati quotidianamente online,
alcuni dati però possono darci un’idea di massima del fenomeno, per esempio, si stima che 2.5
quintilioni di Bytes di dati vengano creati ogni giorno, così come si stima che la maggior parte delle
aziende negli Stati Uniti abbia almeno 100 Terabytes di dati immagazzinati. Questi numeri sono già
impressionanti ma bisogna dire che sono continuamente rivisti al rialzo.
La varietà sta a rappresentare le differenti forme di dati che vengono generati e di conseguenza
vengono poi immagazzinati per essere analizzati.
È una caratteristica che rende difficoltosa la gestione e l’analisi dei dati perché accanto ai dati
strutturati cioè quelli che troviamo nei database aziendali oggi ci sono tanti altri dati che hanno
forme differenti e queste forme differendo sono molteplici e questo rende l’analisi difficile.
Diverse forme di dati: mobile e IoT  dati di geolocalizzazione che definiscono la posizione di una
persona, dati da sensori etc.
Esempio: Feedback in merito a un prodotto/servizio
Questionario tradizionale (con domande diverse) e social media (like, post, video, gif ecc.).
La veridicità: quanto sono veri i dati che sono stati raccolti?
L’attendibilità dei dati contribuisce a rendere più complessa l’analisi dei big data. Esistono dati che
volutamente sono stati diffusi in maniera non corretta (fake news), e dati anche poco attendibili
non essendo stati analizzati in modo corretto (senza dolo, ma perché il processo di
immagazzinamento è risultato non adeguato, da ciò deriva un dato falsato).
Quindi ciò vuol dire che tra i dati non veritieri troviamo sia quei dati che sono stati volutamente
creati in tal modo quindi per esempio le fake news ma troviamo anche dei dati non attendibili
perché chi o cosa ha generato quel dato lo ha fatto in modo poco appropriato è l’esempio del
sensore che rileva la temperatura esterna e la rileva in modo non corretto, non c’è del dolo c’è una
semplice rilevazione errata di una condizione che quindi però genera un dato che è falsato cioè
che non è attendibile.

La velocità rende l’analisi e la gestione dei dati particolarmente difficile.


La velocità è caratteristica sia del processo di generazione dei dati che del processo di analisi dei
dati; perché il processo di generazione dei dati è un processo estremamente veloce, ma anche il
processo di analisi dei dati deve essere un processo veloce perché spesso queste analisi dei dati
devono avvenire in tempo reale.
Questa enorme mole di dati, con tali caratteristiche, non può essere analizzata con strumenti
tradizionali. Servono strumenti innovativi. Tra questi strumenti innovativi troviamo i big data
analytics ovvero strumenti utili ad analizzare grandi quantità di dati al fine di estrapolare “valore”;
si tratta di software che si basano su modelli statistici matematici e su algoritmi sofisticati.

Alcuni brevi casi estremamente sintetici che raccontano l’utilizzo di alcuni Big Data Analytics per
l’analisi di grandi quantitativi di dati in alcuni contesti aziendali:
Il 1 caso fa riferimento all’azienda Mediaset che utilizza una soluzione fornita da IBM Social Media
Analytics quindi che è un Big Data Analytics dove IBM ovviamente identifica l’azienda che fornisce
la soluzione, social media identifica il contesto da cui vengono tratti i dati quindi è di fatto una
soluzione Software che analizza secondo le logiche che abbiamo descritto poco fa il grande
quantitativo di dati che deriva dal mondo dei social media. Per fare cosa? Per aiutare l’azienda nel
monitoraggio del Sentiment dei clienti rispetto al Brand e rispetto ai prodotti, servizi offerti.

Il 2 caso fa riferimento all’azienda Hertz che utilizza una soluzione diversa IBM Content Analytics
che è sempre un Big Data Analytics cioè una soluzione Software sempre fornita da IBM in questo
caso che analizza il grande quantitativo di dati generato mediante sondaggi web, email e messaggi
di testo che contengono i Feedback dei clienti rispetto ai servizi offerti dall’azienda, qui lo si dice
chiaro : tutti questi dati non strutturati raccolti in questo modo rappresentano una fonte molto
preziosa per misurare il grado di soddisfazione dei propri clienti e capire quali sono i limiti del
servizio erogato che possono generare insoddisfazione nella clientela.
Il 3 caso ci racconta l’utilizzo di Big Data Analytics da parte della Nasa al fine di scoprire i segreti
dell’universo. relazione che esiste tra i Big Data e un altro trend digitale ovvero quello del Cloud
Computing. Qual è la relazione tra questi 2 trend? La relazione consiste nel fatto che
l’infrastruttura di Cloud Computing fornisce quella capacità di elaborazione dei dati necessaria per
immagazzinare prima ed analizzare dopo anche attraverso i software di Big Data Analytics questo
grande quantitativo di dati ciò vuol dire che questo grande quantitativo di dati necessita dello
spazio su computer adeguatamente potenti per essere immagazzinato prima e per essere
elaborato in un momento successivo, questo momento successivo può essere immediato se
l’analisi deve avvenire in real time oppure può essere anche in differita se le analisi non
necessitano un processo di elaborazione dei dati appunto in tempo reale. In ogni caso servono
delle infrastrutture tecnologiche che siano in grado di supportare questo tipo di analisi e
difficilmente le aziende hanno a disposizione un’infrastruttura tecnologica così potente perché
richiederebbe degli investimenti molto elevati e qui entra in gioco il Cloud Computing che con i
diversi modelli di servizio che offre è in grado di fornire quell’infrastruttura tecnologica che
permette l’immaginazione e l’analisi di questi grandi quantitativi di dati.
Per darvi un esempio questa è una veduta aerea di un Data Center di Google dove si vedono edifici
che di fatto contengono server, cioè contengono computer che sono in grado di immagazzinare
questi enormi quantitativi di dati e sono in grado poi di consentirne l’elaborazione. abbiamo
pertanto evidenza di come questo trend dei Big Data sia fortemente interconnesso con tutti gli
altri per differenti motivi.

INTELLIGENZA ARTIFICIALE – QUARTA RIVOLUZIONE INDUSTRIALE


L’intelligenza artificiale è la capacità di un computer (elaboratore elettronico nelle sue
componenti hardware e software) di simulare funzioni e ragionamenti tipici di una mente umana.
Un SI di intelligenza artificiale è un insieme di componenti hardware e software che consentono ad
una macchina di emulare alcune attività̀ tipicamente umane: quelle legate al ragionamento e
all’apprendimento.

Si fa risalire l’origine dell’intelligenza artificiale al 1955: anno in cui viene elaborata la cosiddetta
proposta di Darthmouth. In quell’anno 4 studiosi, McCarthy, Minsky, Rochester e Shannon,
elaborano una proposta di Summer school da tenersi nell’estate successiva, ovvero nel ’56.
L’obbiettivo era discutere ed esplorare quali modalità avrebbero consentito a una macchina di
“utilizzare un linguaggio naturale e di essere capace di pensiero astratto, di risoluzione di problemi
e di auto- apprendimento”.
I 4 studiosi ritenevano che ogni caratteristica dell’intelligenza umana e ogni aspetto
dell’apprendimento potessero essere descritti in modo così preciso da consentire a una macchina
di simulare tali meccanismi. Ciò che ha ispirato tale riflessione risiedeva nella convinzione che
alcuni processi tipici della mente umana quali quelli del ragionamento e dell’apprendimento
potessero essere descritti in modo così dettagliato e così preciso da far sì che tali descrizioni
potessero poi essere utilizzate per costruire macchine che fossero in grado di simulare tali
processi.

Negli anni successivi sono numerosi gli studiosi che si sono occupati di intelligenza artificiale:
1969: Herbert Simon, insieme ad Allen Newell, studiò come simulare processi e risultati tipici
dell’intelligenza umana attraverso approfonditi studi e analisi nei campi dell’artificial intelligence e
della psicologia cognitiva.
Questi studi furono così approfonditi che negli anni già negli anni ’50 si ipotizzò che nel decennio
successivo ci sarebbero state macchine in grado di competere con i campioni di scacchi.
Questa previsione si sarebbe avverata solo 40 anni dopo, nel ’96, nello storico confronto tra il
supercomputer IBM Deep Blue (con appunto un sistema di artificial intelligence) e il campione di
scacchi Kasparov.
La prima vittoria nel 1996 del supercomputer IBM sul campione umano segnò la storia
dell’intelligenza artificiale.
IBM Deep Blue è stato solo uno dei supercomputer di IBM dotati di intelligenza artificiale e sono
seguiti degli altri:
[Link] Blue green negli anni 2000
[Link] Watson che è il supercomputer che qualche anno fa, partecipando al quiz televisivo
Jeopardy ha vinto una puntata rispondendo a domande in linguaggio naturale.
Un altro esempio di sistema di intelligenza artificiale è AlphaGo, sistema sviluppato da Google
DeepMind, è noto in quanto nel 2016 ha battuto al gioco da tavolo GO il campione mondiale Lee-
Se-dol.

MACHINE LEARNING (apprendimento automatico)


Il primo elemento utile per capire come le macchine abbiano potuto acquisire tale capacità deriva
dal machine learningl.
Esso è definito nel ’59 da Arthur Samuel come quel campo di studi che fornisce ai computer la
capacità di apprendere senza essere stati esplicitamente programmati.
Cosa vuol dire? Vuol dire che tipicamente i sistemi informativi come quelli che abbiamo preso in
considerazione nell’ambito del nostro corso sono dei sistemi informativi in cui un programmatore
tramite un Software ha definito delle regole attraverso le quali questo sistema agisce.
Tramite il Machine Learning si sviluppano applicazioni che sono in grado di apprendere
autonomamente da un compito svolto. Indica quell’ambito di studi finalizzati a programmare
software che possano migliorarsi automaticamente con l’esperienza ovvero, applicazioni in grado
di apprendere autonomamente da un compito svolto. Dunque, non esiste più una regola esplicita
che è stata predefinita da un programmatore, ma esistono regole più blande che definiscono come
dev’essere svolto il compito, ma poi viene lasciato libero l’apprendimento alla macchina stessa che
tramite tanti esempi impara a svolgere tale attività sempre meglio.
Esempi: Il machine learning è molto utilizzato per il riconoscimento di immagini e di voce.
Per il riconoscimento vocale e del linguaggio naturale: Siri di Apple, Google Now, Cortana di
Microsoft, Echo di Amazon.
Ovvero sistemi che sono in grado di migliorare il riconoscimento della voce attraverso l’esperienza
quotidiana che viene effettuata tramite l’utilizzo da parte degli umani. Il sistema impara
dall’esperienza allenandosi e archiviando dati relativi con esito positivo e negativo, riuscendo ad
imparare dagli errori.
Il riconoscimento di immagini si ha tramite processi di apprendimento che prevedono che ai
sistemi siano dati numerosi esempi di immagini, tra le quali esso deve effettuare il
riconoscimento. I sistemi sono allenati tramite esempi a realizzare un determinato compito di
riconoscimento.

RISOLUZIONE DI PROBLEMI E DI ANALISI PREDITTIVE


Un altro esempio di machine learning deriva dalle applicazioni che consentono la risoluzione di
problemi e di analisi predittive.
Per esempio:
- Filtri anti-spam per eliminare la posta indesiderata prima ancora che arrivi nelle caselle e-mail.
- Scoperta di frodi: consentono di scoprire frodi effettuate con carte di credito. Sulla base di
alcune regole impostate negli algoritmi machine learning, tali strumenti sono in grado di
individuare tra migliaia di transazioni effettuate con le carte di credito, quelle transazioni risultate
come anomale.
- Sistemi di raccomandazioni in base alle preferenze dell’utente. prevedono che a un utente finale
venga suggerito, venga raccomandato un prodotto o un servizio sulla base del comportamento
magari di acquisto che il consumatore ha dimostrato di avere in un determinato periodo; sono
esempi i sistemi di raccomandazione usati anche da Amazon o da Netflix

I sistemi di machine learning sovente abilitano lo smart world che si ha descritto nella lezione
dell’IOT. Molte applicazioni dell’IOT sfruttano oltre ai sensori e alle tecnologie tipiche di esse,
anche sistemi di artificial intelligence per far sì che gli oggetti possano rilevare dei dati e agire di
conseguenza. Dunque, il mondo dell’IOT e quello dell’artificial intelligence sono strettamente
connessi.

ROBOTICA
I robot sono delle macchine che integrano i sistemi di artificial intelligence con le tecnologie
dell’IOT.
Essi sono sistemi ‘intelligenti’ in grado di svolgere compiti che richiedono capacità , a livello
cognitivo, per la manipolazione e lo spostamento di oggetti e per la locomozione.
Sono, in alcuni casi, in grado di operare autonomamente; mentre in altri casi di operare con
assistenza minima.
settori come quello automobilistico sfruttano i Robot nelle catene di montaggio e assemblaggio, in
alcuni casi le macchine sostituiscono quasi completamente le persone nelle attività̀ previste lungo
tali catene. I Robot simili a quelli qui rappresentati nella slide spesso utilizzano dei bracci meccanici
ed estremamente flessibili sono supportati sia da tecnologie di Artificial Intelligence sia da
tecnologie IOT quindi di fatto sono dei macchinari che dotati di numerosi sensori, migliaia di
sensori sono in grado di gestire in modo quasi autonomo l’intera catena di montaggio.
Altro ambito di utilizzo dei robot è il settore manifatturiero e della logistica in questi settori i
robot, per esempio, possono essere utilizzati per lo spostamento delle merci.
Kiva Robot è una macchina che viene utilizzata da Amazon per lo spostamento delle merci nei suoi
centri di raccolta e smistamento dei prodotti ed è un tipo di Robot prodotto appunto da Kiva
azienda che anni fa fu interamente acquisita da Amazon.

COBOT
Esistono poi altri tipi di Robot i cosiddetti Cobot (Collaborative robot) cioè dei Robot che
collaborano con gli esseri umani per la produzione di qualcosa.
Questi possono essere o dei macchinari che integrano e supportano l’attività degli esseri umani
lungo una catena di montaggio ad esempio, oppure possono essere delle macchine che addirittura
possono essere indossate dagli essere umani, in alcuni casi questi sono degli esoscheletri che
appunto vengono indossati dalle persone nello svolgimento di alcune attività̀ particolarmente
faticose.

UMANOIDI
Infine, esistono i Robot cosiddetti Umanoidi cioè che hanno delle sembianze umane e che sono
largamente utilizzati in diversi contesti: come maggiordomi in alcuni hotel, come camerieri in
alcuni ristoranti e così via... quindi diversi tipi di Robot dalle sembianze umane che hanno diverse
funzioni a seconda dell’ambito in cui vengono utilizzati.

DRIVER DI SVILUPPO DELL’ARTIFICIAL INTELLIGENCE


Driver di sviluppo delle tecnologie dell’Artificial Intelligence quindi gli elementi che favoriscono lo
sviluppo di queste tecnologie.
Driver di sviluppo: quello che sono gli elementi che oggi supportano lo sviluppo di questo tipo di
tecnologie:
• Da un lato assistiamo a una crescente potenza di calcolo disponibile a costi accessibili, questo è
un elemento che favorisce lo sviluppo di Artificial Intelligence. ((richiamo alla legge di Moore e al
Cloud computing, il quale fornisce ad aziende e a persone una disponibilità di potenza di calcolo
illimitata).

• L’altro Driver di sviluppo è rappresentato dalla mole di dati senza precedenti che oggi sono a
disposizione di dei sistemi di Artificial Intelligence quindi facciamo riferimento ai Big Data. Questo
è importante perché́ i sistemi di Artificial Intelligence attraverso le logiche di Machine Learning per
poter apprendere hanno bisogno di migliaia e migliaia di esempi quindi migliaia e migliaia di dati. Il
fatto che oggi questa enorme quantità di dati sia disponibile così come abbiamo visto nella lezione
dedicata ai Big Data vuol dire che i sistemi di Artificial Intelligence hanno a disposizione migliaia e
migliaia di dati sui quali basare la propria attività di apprendimento.

Dall’analisi che abbiamo fatto emerge che:


I trend digitali sono interconnessi gli uni con gli altri. Il contesto sociale in cui si vive è
caratterizzato da tale interconnessione.
I trend digitali, con altre tecnologie e altri SI in uso da decenni nei contesti aziendali e privati,
definiscono la trasformazione digitale.

INDUSTRY 4.0
Lo scenario della trasformazione digitale ha permesso lo sviluppo dell’Industry 4.0, o meglio
quarta rivoluzione industriale: una rivoluzione che contraddistingue il mondo attuale nel quale
stiamo vivendo e segue le precedenti rivoluzioni industriali.
La prima rivoluzione industriale ha portato alla nascita della macchina a vapore e conseguente
meccanizzazione della produzione grazie lo sfruttamento della potenza di acqua e vapore.
La seconda rivoluzione industriale ha portato all’introduzione dell’elettricità e del petrolio come
nuove fonti energetiche, e all’avviamento della catena di montaggio per una produzione di massa.
La terza rivoluzione industriale coincide con l’arrivo dell’informatica e delle elettronica che
incrementano ulteriormente livelli di automazione e avviano la Digital trasformation delle
fabbriche.

La quarta rivoluzione industriale è caratterizzata dall’utilizzo di una combinazione di tecnologie


atte a favorire una produzione industriale del tutto automatizzata e interconnessa.
Essa dà vita al cosiddetto concetto di industry 4.0, che approda nel 2011, in Germania.
Si viene così a definisce un nuovo paradigma economico che caratterizza il contesto lavorativo nel
quale oggi ci troviamo, cioè un contesto nel quale le tecnologie favoriscono dei livelli altissimi di
automazione e interconnessione ciò vuol dire che le tecnologie favoriscono sempre più un elevato
grado di automazione delle attività da una parte e di interconnessione di tali attività dall’altro.

un impianto di imbottigliamento supportato da tecnologie Siemens che ci da un’idea chiara di


come possa essere organizzata una fabbrica che appartiene al contesto 4.0, quindi una fabbrica
che sfrutta più tecnologie come abbiamo visto nel video precedente, alcune di queste tecnologie
fanno parte del mondo dei trend digitali che abbiamo descritto (Cloud Computing, Big Data,
Intelligenza artificiale, Robot) che di fatto supportano quella elevata automazione e
interconnessione che definisce il contesto 4.0.

INDUSTRY 4.0: OPPORTUNITÀ O MINACCIA?


Alcuni autorevoli esponenti del MIT di Boston, con altri economisti e studiosi hanno redatto la
lettera aperta sull’economia digitale: “Siamo all’inizio di un’era caratterizzata da grandi
cambiamenti tecnologici. Le innovazioni digitali stanno trasformando le imprese, l’economia e la
società, proprio come il vapore e l’elettricità fecero in passato. Come loro predecessori, i
computer e simili sono motore di grande prosperità. I progressi in hardware, software e reti
stanno migliorando le nostre vite creando un immenso valore”.
Si dice che la rivoluzione digitale che stiamo vivendo sia la miglior notizia economica del mondo.
A supporto di tale considerazione gli autori.
A supporto di tale considerazione gli autori forniscono alcuni esempi tratti dalla vita quotidiana
dove le tecnologie ad esempio le tecnologie IOT supportate da sistemi di Artificial Intelligence
migliorano la vita dei lavoratori e anche dei cittadini così come abbiamo visto noi nella nostra
lezione dedicata all’IOT per esempio.
Gli autori di questa lettera continuano poi questa analisi con la considerazione di quelle che sono
le opportunità offerte dall’economia digitale ma anche con un’attenta analisi su quelle che sono le
minacce connesse a questo nuovo contesto digitale e forniscono anche una chiave di
interpretazione molto interessante nonché delle soluzioni efficaci per poter affrontare in modo
adeguato questa rivoluzione digitale.
Dobbiamo dire che il dibattito sulla nuova rivoluzione digitale che stiamo vivendo e su quanto
questo nuovo contesto possa implicare delle opportunità o delle minacce è di fatto un dibattito
molto acceso.

Sono numerosi gli autori che si sono occupati di questo tema tra questi anche McAfee e
Brynjoffson che in un libro molto noto di qualche anno fa “ Race Against The Machine” provano a
descrivere opportunità e minacce di questo nuovo contesto digitale in cui noi stiamo vivendo.
In questo libro gli autori studiano i livelli di produttività e innovazione negli Stati Uniti tra il 2000 e
il 2007 e notano che produttività e innovazione in questo periodo sono cresciuti a ritmi sostenuti,
ciò nonostante si assiste a una contrazione dell’occupazione e a una stagnazione del reddito
medio rappresentando così un paradosso perché ci si aspetterebbe che a un aumento dei livelli di
produttività e innovazione corrisponda anche un aumento del livello di occupazione e del reddito
medio.

TIMORI
Questa analisi introduce alle domande alla base del dibattito odierno:
- la tecnologia creerà disoccupazione?
- quali saranno le trasformazioni del mercato del lavoro?
- le macchine sostituiranno i lavoratori?
- quali mansioni saranno ancora svolte dagli esseri umani? - e quali occupazioni saranno oggetto
di automazione?
Questi sono i timori principali, essi sono legati al fatto che molte macchine sono in grado di
sostituire moltissimi lavoratori.
I dati che arrivano da più contesti e da più analisi confermano tale preoccupazione. Si stima che
dal 2015 al 2020 si assisterà a una perdita di 7 milioni di posti di lavoro, due terzi dei quali
concentrati nella categoria ‘office and administrative’, di cui 5 milioni senza alcuna sostituzione.
I ricercatori di Oxford hanno stimato che negli USA il 47% dei lavori corre un alto rischio di essere
automatizzato, mentre per un altro 19% il rischio è di livello medio.
Queste analisi pongono l’accento sul timore della disoccupazione causata dall’industry 4.0

IL BINOMIO TECNOLOGIA-OCCUPAZIONE NEL PASSATO


Tale binomio è sempre stato oggetto di analisi, già nella prima rivoluzione industriale e con il
Luddismo ovvero un movimento di protesta operaria caratterizzata dal sabotaggio della
produzione industriale che di fatto era basato sulla preoccupazione che la tecnologia del tempo
potesse sostituire gli operai automatizzando le attività nelle fabbriche.
Più avanti, nel 1930, si parla di disoccupazione tecnologica nel testo di Keynes, concepita come
una malattia che sarà presente negli anni a venire ciò significa una disoccupazione causata dalla
scoperta di strumenti atti a economizzare l’uso di manodopera a una velocità tale da non riuscire a
trovare nuovi impieghi per i lavoratori in esubero.

Negli anni ’60 sulla rivista TIME viene pubblicato un articolo dal titolo The Automation Jobless. Che
di fato ci racconta la stessa cosa e quindi punta il dito sulle tecnologie che consentono
l’automazione di alcune attività e tolgono così lavoro alle persone.

Così come lo stesso tema poi torna alla fine degli anni ’70 e negli anni ’80, quando si attua la terza
rivoluzione industriale con l’ingesso dell’elettronica e dell’informatica nelle aziende. Quindi il
timore che la tecnologia qualunque essa sia possa creare disoccupazione non è un tema solo dei
giorni nostri ma è un tema che dicevamo a più riprese è stato affrontato anche nel passato seppur
in contesti completamente differenti.

BLUE COLLAR WORKER (le tute blu)


Le tecnologie descritte precedentemente automatizzano le attività svolte dai blue collar worker:
operai che lavorano in fabbrica e che operano lungo le catene di montaggio o di assemblaggio.
Tali attività, ripetitive e standard, già da tempo sono oggetto di forte automazione perché le
macchine riescono a svolgere quelle determinate attività in modo estremamente più efficiente
rispetto a quando non possa essere fatto dagli esseri umani.
Nelle smart factory cioè nelle fabbriche intelligente oggi le tecnologie come IOT e quelle legate ai
sistemi di artificial intelligence automatizzano tutta la catena di montaggio e lasciano agli umani il
ruolo di supervisori spesso a distanza.
Ma le tecnologie non minacciano solo gli operai, oggi le tecnologie, in particolare quelle di Artificial
intelligence, minacciano anche i white collar worker ovvero, i colletti bianchi cioè le persone che
lavorano negli uffici: impiegati, funzionari pubblici, insegnanti, medici... (knowledge worker)

Ci dobbiamo davvero preoccupare che le tecnologie possano sostituire i cosiddetti White-collar


worker?
Per rispondere a questo interrogativo che preoccupa molti iniziamo a vedere cosa i sistemi di
Artificial Intelligence non sanno fare: innanzi tutti i sistemi di Artificial Intelligence non sanno
replicare l’intelligenza generale tipica degli esseri umani, restando di fatto delle intelligenze
limitate (artificial narrow intelligence), intelligenza limitata vuol dire che questo tipo di intelligenza
è limitata, ristretta a determinati ambiti ben specifici e a differenza dell’essere umano non è
un’intelligenza che spazia attraverso diversi contesti

COSA I SISTEMI DI AI NON SANNO FARE?


[Link] sanno replicare l’intelligenza generale tipica degli esseri umani, restando di fatto delle
intelligenze limitate. Non è un’intelligenza che spazia in più contesti.
[Link] limite delle intelligenze artificiali il cosiddetto “Catastrophic forgetting” ovvero il
dimenticare catastrofico: i sistemi di Artificial Intelligence vengono allenati secondo le logiche del
Machine Learning a svolgere bene un compito e riescono attraverso numerosi esempi ad
apprendere in modo tale da svolgere quel determinato compito in modo eccellente, tuttavia
quando vengono allenati a svolgere un secondo compito capita che si “dimentichino” il primo,
confermando in tal modo di essere delle intelligenze limitate.

[Link] mancanza di consapevolezza: è chiaro queste macchine vengono allenate a svolgere


determinati compiti ma non hanno consapevolezza di ciò che stanno facendo. Non avrà mai la
consapevolezza di cosa si un cane e un muffin.

[Link] molto importante: i sistemi di Artificial Intelligence non sono in grado di apprendere in
modo efficace nuove capacità utilizzando pochi esempi, i sistemi di Artificial Intelligence quindi
per apprendere attraverso le logiche di Machine Learning hanno bisogno di tanti tantissimi esempi
molto di più di quanto non necessiti un uomo anche solo un bambino, quindi questo è un
importante limite dei sistemi di Artificial Intelligence cioè questi sistemi hanno bisogno di tanti
tantissimi dati da qui si capisce anche meglio l’importanza del legame tra Artificial Intelligence e
Big Data.

[Link] sistemi spesso rappresentano delle Black Box ovvero delle scatole nere. Sono
caratterizzati da bassa interpretabilità dei risultati che hanno generato. A volte generano risultati
che non è chiaro comprendere secondo quale logica siano stati prodotti. Infine, sono sistemi che
non sono in grado di replicare abilità tipicamente umane, tra le quali: effettuare ragionamenti
basati sul buon senso, avere consapevolezza di ciò che stanno facendo, capire le sfumature del
linguaggio, porre nuove domande, esprimere volontà, replicare intelligenza socio emotiva, essere
creativi.
I sistemi di Artificial Intelligence sanno rispondere a delle domande cioè sanno risolvere dei
problemi ma non sanno porre nuove domande e questa resta una caratteristica tipicamente
umana. Dunque, è difficile che possa sostituire un knowledge worker, probabilmente potrà
supportarli ma non sostituirli perché presenta tutti questi limiti.

Alcuni possibili scenari futuri: è vero che le macchine potranno svolgere in modo più efficiente
determinate attività però è anche vero che l’uomo dovrebbe:
Sfruttare le capacità e le competenze difficili da replicare da parte delle macchine quindi
bisognerebbe puntare proprio sulla formazione di quelle competenze e di quelle capacità che le
machine non saranno in grado di replicare come le mansioni che richiedono abilità cognitive
complesse che l’essere umano potrà avere un ruolo fondamentale (pensiero innovativo, creatività,
intelligenza socio emotiva, capacità di relazione sociale, flessibilità, capacità di negoziazione
persuasione, destrezza e abilità manuale.)
Altro scenario:
I lavori “a supporto” dell’evoluzione digitale e le nuove professioni
Il progresso tecnologico può cancellare alcuni tipi di lavoro ma, storicamente, nel lungo periodo
si è dimostrato essere un ‘creatore’ di occupazione. Si assiste ad un processo di sostituzione e
trasformazione non di pura distruzione.

Dovremmo spostare il focus da quella che viene definita “race against The machine” cioè una
corsa contro le macchine a un focus che prevede una “race on the machine”, in collaborazione
con le macchine per sfruttare le macchine e far svolgere attività che queste sono in grado di
svolgere in modo più efficiente di quanto non possa fare l’essere umano lasciando però alle
persone le attività che implicano quelle capacità e che le macchine non saranno mai in grado di
replicare.

APPROFONDIMENTO ARTIFICIAL INTELLIGENCE


considerazioni di Luciano Floridi; professore di filosofia e etica dell’informazione all’università di
Oxford nonché uno degli intellettuali contemporanei più autorevoli in materia di tecnologie
digitali.
In un Paper del 2017 Floridi individua, identifica come minimo comune denominatore delle
tecnologie digitali ovvero come caratteristica fondamentale a cui sia possibile ricondurre la portata
dirompente, onnipervasiva e rivoluzionaria di queste stesse tecnologie il loro “Cleaving Power”.
“IL DIGITALE TAGLIA E INCOLLA LA REALTÀ ” nel senso che unisce, divide e riunisce aspetti del
mondo, il digitale sgancia, scolla e fonde gli atomi della nostra esperienza e della nostra cultura in
un certo senso. queste stesse tecnologie in virtù di questa loro straordinaria specificità hanno la
capacità di unire e separare, di incollare e scollare, di saldare e dividere i concetti e le categorie
più generali sulla base dei quali noi diamo abitualmente forma alle nostre vite e interpretiamo il
mondo, in altre parole sulla base dei quali noi facciamo esperienza della realtà che ci circonda e di
noi stessi come parte integrante di questa stessa realtà.

Il primo esempio é un esempio di Decoupling di scollamento, separazione che riguarda i concetti


di localizzazione e di presenza. Un’esperienza davvero sempre più comune a quasi tutti noi, si
potrebbe dire che dopo tutto in una società in cui la cosiddetta frizione informazionale decresce a
vista d’occhio ovvero sia in una società in cui le tecnologie digitali consentono alle informazioni di
essere trasmesse e di circolare in modo sempre più fluido e rapido noi abbiamo a che fare sempre
più spesso magari anche quotidianamente con la radicale separazione di cui abbiamo appena
detto tra i concetti di localizzazione e di presenza anche se in modo probabilmente il più delle
volte spontaneo e inconsapevole.

Il secondo esempio: contrariamente a quello precedente questo secondo caso ritrae un caso, un
fenomeno di Coupling, ritrae in altri termini una fusione, una saldatura quella tra le nostre identità
e i nostri dati. In un mondo innervato in modo sempre più capillare è sempre più profondo dalle
tecnologie digitali noi ci identifichiamo con l’aggregato dei nostri dati personali, la nostra identità
si risolve nella galassia enorme e in costante trasformazione dei dati che ci riguardano. Si tratta
come avremo intuito di una questione estremamente complicata molto attuale e importante.

L’Artificial Intelligence infatti è un divorzio, una separazione è un caso emblematico di


Detouchment, di scollamento si tratta in breve di un fenomeno di Decoupling, di scissione tra da
un lato cosiddetta Agency ovvero la capacità di agire con successo in vista di uno scopo e dell’altro
lato il bisogno di essere intelligenti nel compiere queste stesse azioni; il bisogno di attribuire un
significato preciso e un senso complessivo a ciò che si sta facendo per raggiungere i propri
obbiettivi.

Scrive Floridi: “l’Artificial Intelligence viene intesa al meglio come un reservoir of agency, come un
bacino, un serbatoio, una riserva di azione efficiente, di capacità di agire con efficienza che può
essere usato per risolvere problemi. L’Artificial Intelligence raggiunge i suoi obiettivi nella
risoluzione dei problemi separando, scollando l’abilità di compiere una determinata operazione
con successo da ogni bisogno di essere intelligenti nel farlo.”

É utile dare la parola a un altra delle voci più eminenti del panorama filosofico contemporaneo, ci
riferiamo a John Sirl uno dei filosofi statunitensi più importanti del 900 nonché uno dei detrattori,
degli avversari più feroci dell’Artificial Intelligence intesa soprattutto nelle sue declinazioni più
estreme e fantascientifiche.
Infatti in un paper del 1980 ormai diventato un classico dal titolo “Menti, cervelli e programmi” Sirl
scrive: “il computer ha una sintassi ovvero sia é in grado di agire sulla base di regole, é in grado di
svolgere delle operazioni codificate in una serie di istruzioni ma non ha alcuna semantica ovvero
sia non è assolutamente in grado di attribuire un significato e un senso alle operazioni che sta
svolgendo ai dati che sta elaborando, pertanto se noi chiediamo a un computer quanto fa 2+2 lui
ci risponderà 4 ma non ha la minima idea che 4 significhi 4 o che significhi qualcosa in generale”.
L’Artificial Intelligence si rivela in altri termini del tutto incapace di andare oltre la correlazione
statistica tra una certa terminologia di input e un determinato output, essa si dimostra in ultima
analisi assolutamente priva della capacità semantica di riempire di significato questa stessa
correlazione, correlazione che (ricordiamo nuovamente le parole di Sirl) non è altro che il frutto
dell’abilità esclusivamente sintattica e propria dell’Artificial Intelligence di elaborare dati sulla base
di istruzioni.

Floridi: “Il problema è sempre lo stesso e riguarda tutti i software che sembrano esibire una
qualche sorta di intenzionalità : le loro capacità semantiche sono nei nostri occhi, negli occhi di
coloro che li osservano e li studiano, non nei loro codici.” Se ciò che è stato detto fin qui é
abbastanza chiaro può essere utile giunti a questo punto domandarsi in quale modo e secondo
quale logica si sviluppino le tecnologie associate all’Artificial Intelligence e di conseguenza in che
modo noi esseri umani interagiamo e interagiremo con queste stesse tecnologie.
Attraverso il processo di “enveloping” noi trasformiamo i contesti in cui sono all’opera le
tecnologie associate all’Artificial Intelligence in ambienti AI- friendly al cui interno le strabilianti
capacita computazionali di queste stesse tecnologie vengono esaltate e massimizzate, in altre
parole i sistemi e gli spazi in cui inseriamo l’Artificial Intelligence vengono riorganizzati e ripensati
affinché possa essere sfruttata al meglio la potenza di calcolo delle macchine anche a costo di
mettere ai margini del sistema stesso gli esseri umani senza per questo pretendere che queste
stesse macchine siano ciò che non possono essere ovvero agenti capaci di interpretare il mondo
come facciamo noi umani.

la necessità di concentrare la propria attenzione e i propri sforzi su coloro che sono chiamati a
pianificare, a progettare e a gestire questo stesso processo, in altri termini una volta chiarite sia la
struttura concettuale dell’Artificial Intelligence sia la logica che governa e probabilmente
governerà lo sviluppo delle tecnologie impermeate su di essa é di vitale importanza porsi le
domande giuste consapevoli che dinanzi a una nuova sfida il 1o passo da compiere nell’affrontarla
é scegliere il proprio punto di vista, scegliere una prospettiva da privilegiare. In questo senso a
proposito di domande e di prospettive possiamo prendere in prestito a titolo di esempio un paio di
interrogativi con cui altri 2 filosofi contemporanei ovvero Deborah Johnson e Mario Verdicchio
concludono un loro recente lavoro.
Scrivono Johnson e Verdicchio: “Chi deciderà quali sistemi di Artificial Intelligence costruire e
inserire in un contesto? Chi deciderà e come verranno prese queste decisioni riguardo a quali
operazioni delegare agli esseri umani e quali alle macchine?.”
Ora la risposta a queste e a simili domande é almeno per il momento piuttosto ovvia: la
progettazione, lo sviluppo e la governance di tecnologie potenti pervasive e rivoluzionarie come
quelle associate all’Artificial Intelligence sono soltanto nelle nostre mani.
Volendo parafrasare una celeberrima affermazione di Umberto Eco: “le tecnologie digitali non
sono strumenti intelligenti che aiutano persone stupide ma strumenti stupidi che possono aiutare
moltissimo persone intelligenti”.
Pertanto dinnanzi alla sfida enorme ed estremamente complicata che le tecnologie digitali,
Artificial Intelligence compresa ci sottopongono in maniera sempre più urgente e inderogabile ,
Noi saremo abbastanza intelligenti da progettare, sviluppare e utilizzare queste stesse tecnologie
in modo etico, sostenibile, pacifico e democratico?
La domanda probabilmente abbiamo incominciato a porcela su scala globale con qualche decennio
di ritardo e bene credo che non potremmo permetterci lo stesso ritardo nell’elaborare una
risposta.

DIGITAL MARKETING
Parlando di marketing si fa riferimento a tutte le attività che servono per andare sul mercato. Per
un’azienda significa progettare, creare, fare ricerca e analisi dei dati su tutte le modalità per
allineare al meglio il proprio prodotto o servizio al target di riferimento.
Rientrano nelle attività di marketing le ricerche di mercato, la definizione del packaging del
prodotto, l’identificazione del target ideale per un determinato prodotto o servizio ecc.
L’advertising è la fase finale della catena del marketing.

Il digital marketing è una componente del marketing che utilizza internet e le tecnologie online
basate sul digitale. È un termine molto ampio che comprende tutti i canali, tutte le attività, tutti i
metodi che possono essere utilizzati per progettare, fare ricerca, e promuovere un determinato
prodotto o servizio attraverso i canali digitali.

Se per Marketing e Advertising spesso c’è confusione tra i termini ancora di più c’è nel mondo
digital perché é vero che il digitale può essere anche utilizzato per le fasi di progettazione, di
ricerca quindi le fasi preliminari al lancio di un prodotto o un servizio, pensiamo per esempio alla
ricerca di mercato fatta online o l’analisi dei dati degli accessi a un determinato sito o l’analisi dei
profili che seguono una determinata pagina o social network sono tutte attività tipiche di digital o
di online marketing.

Le attività che spesso le aziende spostano sui canali digitali è proprio l’attività legata alla parte
finale del “Funnel di Marketing” ovvero quella di comunicare il proprio prodotto o servizio, quella
che quindi abbiamo chiamato la fase dell’Advertising

Spesso comunemente si parla di digital Advertising o di digital marketing come sinonimi proprio
perché la parte di Advertising pur essendo concettualmente un sotto elemento della più generale
attività di marketing nel mondo digitale è quella dove si concentra la maggior parte degli
investimenti e delle attività delle aziende.

Se i concetti di marketing e di advertising sono dei concetti ampliamente consolidati nel mondo
del business dell'organizzazione quelli invece di digital marketing/advertising sono
sostanzialmente dei concetti molto più nuovi.

NASCITA DEL DIGITAL MARKETING/ADVERTISING


Se dovessimo consolidare una data di nascita dei concetti di digital marketing/advertising sarebbe
il 1994, anno in cui appare la prima pubblicità digitale, sotto forma di banner che è un elemento
grafico call to action, che invita ad un'azione, tipicamente quella di cliccare, con l'obbiettivo di
portare l'utente ad un approfondimento di un prodotto o di un servizio.

In quel periodo su internet iniziano ad apparire contenuti rivolti alle masse, uno dei principali
produttori di contenuti che più avanti chiameremo “Publish” quindi qualcuno che pubblica i
contenuti.

Il 27 Ottobre 1994 su [Link] all’interno di una pagina che parla di contenuti tecnologici
appare un banner pubblicitario quindi un elemento grafico che contiene una “Coltuaction” quella
che viene chiamata in termini tecnici una CTA quindi un invito a cliccare per andare a visitare la
pagina di uno sponsor, in questo caso il banner era stato posizionato sul sito di [Link] da
una compagnia telefonica AteT infatti cliccando sul banner si ritrovava su una cosidetta “landing
page” , una pagina di atterraggio con “landing page” si fa riferimento a tutte quelle pagine dove
tipicamente si atterra dopo aver risposto a una “Call to Action” quindi dopo aver cliccato su un
banner pubblicitario.

La landing page è un landing page dove AT&T promuoveva le sue capacità in termini di
connettività e sviluppo di nuove applicazioni nel mondo internet; quindi, una volta “atterrato” qua
potevo scoprire per esempio che AT&T aveva sviluppato una serie di primi musei virtuali dove era
possibile informarsi su essi cliccando sulle varie posizioni.

LA NASCITA DEL DIGITAL MARKETING, LA NASCITA DEL DIGITAL ADVERTISING


Dal 1994 ad oggi sono passati 26 anni ed in questi anni è successa una vera e propria rivoluzione.
Nel 1994 c’è stato il primo Banner, quello che c'è oggi nel mondo Digital Marketing è un settore
industriale enorme in costante crescita che dà occupazione a milioni di persone nel mondo.

Questo settore del digital marketing alla fine è suddiviso in quelle che sono le varie fasi del
marketing quindi sicuramente c’è l’advertising che come vedremo é quello che pesa di più in
termine di valore, di fatturato e di investimento nelle aziende ma ci sono anche tutte le altre fasi
del marketing: l’analisi dei dati, tutto quello che è legato al mondo dei social e relazioni sociali,
tutto quello che é legato ai contenuti, alle esperienze degli utenti in digitale quindi il video
marketing, l’e-mail marketing; se ci spostiamo nel modo dei Data i mobile web Analytics quindi lo
studio dei dati rispetto al comportamento d’uso d’internet e dei telefonini da parte degli utenti.

In alcuni paesi come gli Stati Uniti la spesa di digital Advertising ha addirittura superato la spesa di
investimenti pubblicitari nella televisione che per decenni é stato il principale medium utilizzato
dalle aziende per fare pubblicità ha ampiamente superato tutti gli altri canali tradizionali: la radio,
le affissioni ecc... Ma non é solo Advertising. Le aziende utilizzano oggi gli strumenti digitali anche
per tutte le fasi preliminari all’ingresso sul mercato della comunicazione dei prodotti ai clienti.

1° CONCETTO CHIAVE è che in realtà il mondo del digital marketing è un mercato molto semplice
dove avviene uno scambio di servizi tra due soggetti principali:

Da un lato ci sono i cosiddetti Publisher: qualsiasi soggetto che grazie alle sue attività, grazie alla
sua offerta nel corso degli anni, abbia a disposizione un ingente traffico di utenti, quindi è
qualsiasi operatore (pensiamo al mondo mobile o web) che per il fatto di offrire contenuti, servizi
e contenuti a titolo gratuito all’utente finale, fa si che sul sulle sue pagine ci siano milioni di
persone che quotidianamente le visitano.
Esempio publisher: facebook, google, whatsapp, tripadvosor.
Quale è la caratteristica che accomuna i PUBLISHER indipendentemente dal prodotto o servizio
che erogano? È il fatto di erogare questo prodotto o servizio gratuitamente.

Ovviamente però i PUBLISHER hanno un problema come guadagnare se offrono i servizi


gratuitamente, essi non sanno come guadagnare.

Dall’altra lato c’è un mondo fatto dai cosiddetti Advertiser che sono tutti quei brand che
ambiscono a contattare il consumatore finale attraverso i canali digitali, ma non hanno gli
strumenti e soprattutto non hanno il traffico sufficiente sui loro siti per farlo. Quindi i brand, gli
advertiser hanno investimenti pubblicitari da mettere a disposizione, hanno soldi da investire per
raggiungere il loro target di riferimento, ma non dispongono di traffico sufficiente per raggiungere
questo pubblico di riferimento.

Le esigenze di ADVERTISER e PUBLISHER sono perfettamente complementari: da un lato


abbiamo i Publisher che hanno tanto traffico ma non sanno come monetizzarlo e dall’altro gli
Advertiser che ambiscono ad avere traffico e hanno denaro da investire in attività di marketing e
di pubblicità
L'incontro tra questi due soggetti è potenzialmente un incontro perfetto.

il PUBLISHER ha traffico e cerca denaro, l’ADVERTISER ha denaro da investire in pubblicità e cerca


traffico. Quindi nel 1994 quando tutto ha inizio il rapporto è veramente così semplice, da un lato
avevamo Wired che iniziava a pubblicare i propri contenuti gratuitamente online e quindi si
trovava di fronte al problema di come fare i soldi attraverso i contenuti pubblicati online (Wired
era abituato a vendere le riviste cartacee invece pubblicando contenuti online si trovava senza una
fonte di reddito) e dall’altra parte avevamo ATeT (l’ADVERTISER) che aveva la necessità di far
conoscere i propri prodotti e servizi a un potenziale pubblico di riferimento che guarda caso
coincideva perfettamente con i lettori di Wired e che quindi decide di investire in pubblicità sul
sito di Wired.
Esempio: l'advertiser Coca Cola, può decidere di pagare il publisher Facebook per poter mostrare
la pubblicità relativa ai suoi prodotti al pubblico che quotidianamente visita le pagine Facebook.

Come mai si è arrivati da un modello che apparentemente è così semplice dove ci sono solo due
attori l’ADVERTISING e il PUBLISHER a un industry che coinvolge centinaia di migliaia di aziende?
La ragione della necessità di coinvolgere un così elevato numero di aziende è che in realtà
Advertiser e Publisher presto si sono resi conto di non andare d’accordo.

Nello specifico succede che il publisher cerca sempre più denaro, e l'advertiser cerca sempre più
traffico qualificato, e ad un certo punto le due esigenze che erano complementari, divergono.
Per poter andare d’accordo vi era la necessità di introdurre nella catena di scambio degli
INTERMEDIARI. Introdurre nella catena di scambio una serie di soggetti in grado di mitigare le
divergenze delle esigenze dei due soggetti riportando la relazione in equilibrio.

ESEMPI INTERMEDIARI
1)Retargeting
Possibilità di riproporre ad uno stesso utente, indipendentemente dal sito del publisher che sta
visitando, la pubblicità di uno specifico brand.
Se cerco un hotel a Riccione, nelle due settimane successive, indipendentemente dal sito o
dall'app che sto visitando, troverò pubblicità di quell'hotel.
Affinché ciò avvenga, la relazione diretta tra Publisher e Advertiser non è più sufficiente.
Se io come advertiser di Hotel mi rivolgo al Corriere della Sera, lui sarà in grado di mostrare il mio
banner soltanto al suo pubblico, e non al pubblico che su un altro sito, aveva cercato quello
specifico Hotel.

2)Ad Networks / Ad Exchanges


Sono società che si occupano di individuare quali sono i Publisher migliori su cui mostrare uno
specifico messaggio pubblicitario.

3)Trade Desks
Piattaforme che aiutano gli Advertiser ad identificare, in una lista di potenziali Publisher identificati
dagli Ad Networks, quello sul quale è più conveniente pubblicare il proprio banner.

MODELLO PER CLASSIFICARE FORME DI DIGITAL MKTG


Un modello utilizzato per classificare le forme di Digital Marketing in funzione del tipo di media
disponibili si distingue tra: Earned, Owned e Paid Media. Quindi Media a pagamento (Paid Media),
Media posseduti (Owned media) e Media acquisiti (Earned Media).

Con Owned Media si fa riferimento alla possibilità di un brand di pubblicare i propri contenuti su
delle sue proprietà che possono essere il proprio sito web, la propria applicazione mobile, il
proprio blog, ecc.
Ha un punto di partenza fondamentale perché sul proprio sito fa convergere tutti i contenuti e tutti
gli utenti che sono interessati ai miei contenuti.

Oltre ai Owned Media ci sono i Paid Media quindi i media a pagamento e quindi tutte le forme
pubblicitarie a pagamento come anche il Display Advertising quindi la pubblicità basata sui
banner, ed è in questo segmento dove principalmente si verifica quel rapporto tra Banner
(advertiser) e Publisher.

Ci sono anche i cosiddetti EarnedMedia, i media acquisiti che sono quelli che negli ultimi anni
hanno generato il maggior interesse anche da un punto di vista della ricerca e delle nuove forme di
comunicazione che sono tutte quelle forme di comunicazione di Digital Marketing basate sul
passaparola (share, like, tweet, retweet, storie).

Non si tratta di tre mondi separati, ma si tratta di 3 categorie che si intrecciano in maniera molto
profonda; quindi, la loro gestione richiede grande capacità da parte di chiunque voglia utilizzare
strumenti di Digital Marketing.

L’azienda che meglio opera online è l’azienda capace di mixare perfettamente l’uso di queste 3
categorie di Media in una strategia univoca e unicomprensiva.

Il primo elemento fondamentale da comprendere parlando di Paid Media e di Digital Marketing


Paid Media e quindi di digital Advertising è comprendere quali sono le forme oggi disponibili di
pubblicità digitale per i vari brand per le varie aziende.

Se nel 1994 vi era un’unica forma quella basata su un unico formato di banner oggi esistono
decine forse centinaia di forme diverse di pubblicità sia in termini di formati ma soprattutto in
termini di obiettivi che le varie forme permettono di raggiungere quindi in funzione delle esigenze
dell’azienda che può essere quella di far scaricare un’app ai suoi clienti, far conoscere il proprio
brand, di stimolare l’acquisto sul proprio sito Internet, di evidenziare dei contenuti per poi invitare
i clienti a visitare un punto vendita fisico; quindi diversi obiettivi di comunicazione esistono
altrettanto forme di pubblicità online.

Possono essere riassunte sotto tre tipologie:


1. DISPLEY ADVERTISING
2. SEARCH ADVERTISING
3. SOCIAL MEDIA ADVERTISING
Si tratta di tre modelli di pubblicità digitale che differiscono tra di loro sia in termini di formato, sia
in base alla diversa tipologia di target utenti e le modalità con cui raggiungere gli utenti.

La vera differenziazione tra queste 3 tipologie di Advertising online si basa sulla diversa tipologia di
target di utenti che posso andare a raggiungere e le modalità con cui posso andare a raggiungere
questa tipologia di utenti.
Entrambi i 3 modelli funzionano per qualsiasi tipo di brand o azienda o qualsiasi tipo di advertiser
anche se con le differenze che andremo a vedere, mentre ovviamente in termini di PUBLISHER che
possono fornire queste 3 tipologie di Advertising diverse vi sono delle differenze nel senso che il
Display Advertising in teoria può essere offerto da qualsiasi Property Digitale sia web, sia mobile
quindi un blog piuttosto che un’applicazione che abbia traffico, se ho traffico posso posizionare
all’interno del mio sito, della mia applicazione delle pubblicità basate appunto sul concetto di
display.

DISPLAY ADVERTISING:
È la forma primaria, quella da cui tutto ha avuto inizio.
Può essere offerto da qualsiasi property digitale, sia web, sia mobile, che abbia traffico. Se ho
traffico posso posizionare nel mio sito delle pubblicità basate sul digital.

Dal punto di vista del Formato: tutto l’advertising è basato principalmente su contenuti e creatività
di tipo grafico.
Dal punto di vista del Logica target quindi il raggiungimento della clientela di riferimento, è una
forma di pubblicità dove attraverso il banner provo a contattare utenti con interessi affini con
quelli del mio prodotto o servizio (es: adidas decide di creare una forma di display advertising
cercando di posizionarla nelle pagine dei publisher, i quali hanno un traffico affine con il mio
prodotto o servizio).

I publisher possono decidere di dedicare degli spazi delle proprie proprierty digitali, per mostrare
banner o display advertising di diversi brand.
Gli spazi che un publisher dedica ai banner si chiamano PLACEMENT. Ogni publisher ha un proprio
inventory di placement che mette a disposizione del mercato ed il mercato può decidere di
acquistare un determinato pezzo di inventory in placement diversi.

Il mondo del display chiaramente si è evoluto nel corso degli anni e quindi il Display Advertising
non è più soltanto banner ma è anche VIDEO ADS quindi Advertising basato su video quelli che
appaiono prima/dopo o durante una visualizzazione di un video online; i cosiddetti INTERSITIAL
ADS che sono quelle forme di pubblicità sempre basate su creatività grafica che appaiono tra una
visita di una pagina e un’altra oppure appaiono in “pop up” che vuol dire sopra il sito che sto
visitando oppure in “pop under” che vuol dire sotto il sito che sto visitando mentre visito appunto
una pagina o in generale tutti i cosiddetti RICH MEDIA quindi: animazioni, pubblicità interattiva,
pubblicità basata su messaggi anche audio.

in termini di Display Advertising:


1. Il formato: che può essere Video ADS, Intersitial ads, RICH media, banner ads e all’interno dei
banner ads abbiamo diversi sotto formati. Il FULL BANNER 468x60 è il formato primario originale
(quello del banner del 1994) ne esistono molti altri sono tutti standardizzati in modo tale che un
brand può andare da uno specifico PUBLISHER. Leaderboard per definizione significa dimensioni
in termini di pixel 728x90.
2. Il concetto di PLACEMENT che è il posizionamento all’interno della pagina del PUBLISHER della
nostra forma di Display Advertising.
3. Il concetto di INVENTORY quindi di disponibilità da parte del PUBLISHER di diversi PLACEMENT.

IMPRESSION: la forma primaria di misurazione del display advertising. Essa corrisponde alla
visualizzazione da parte di un utente di un formato display; quindi, quando un utente vede un
banner ho un impression. Quando 10 utenti vedono lo stesso banner ho 10 impression

La visualizzazione su display avviene su criteri di targeting che non sono più basati soltanto sui
contenuti della pagina, ma anche su criteri di profilazione come la provenienza di un utente;
quindi, se andiamo su un sito straniero e vediamo la pubblicità in italiano la ragione per cui
vediamo la pubblicità in italiano è che il sito ci riconosce come provenienti dall’Italia e quindi ci fa
vedere la pubblicità più affine ai nostri interessi. (pubblicità italiana su sito straniero).

Chi decide quale pubblicità o banner mostrare in uno specifico placement o nel sito di publisher?
Sono gli AD NETWORK, società che si preoccupano di matchare gli inventory dei publisher con le
esigenze dei brand. Ad network riempirà i banner con le pubblicità più adatte al singolo utente che
sta visitando la pagina.

SEARCH ADVERTISING
È un modello introdotto con la nascita dei motori di ricerca. In questo advertising soddisfo il
desiderio di qualsiasi direttore marketing: mostrare la propria pubblicità di prodotto o servizio nel
momento in cui l’utente sta pensando a quel prodotto o servizio.
Il concetto di search advertising è diverso se nel Display advertising.
Forma di pubblicità che può essere erogata solo da publisher che lavorano nel mondo della ricerca
quindi i cosiddetti Search Engine i motori di ricerca (Google in primis) e allo stesso modo dal nome
stesso il social media advertising è invece tipicamente quella tipologia di advertising che può
essere erogata dai social media: Instagram, Facebook, Linkedin, Tik Tok, Twitter ecc.…

Il search advertising è tipicamente un advertisgin basato su formati di tipo testuali o come


introdotto da GOOGLE, la Google Shopping in cui a fronte di una ricerca da utente vengono
visualizzati anche cataloghi di prodotti e servizi.

Nel Display Advertising mostro il mio messaggio pubblicitario a un utente mentre lui sta visitando
un’altra tipologia di contenuti; nel Search Advertising mostro il mio prodotto o servizio, il mio
messaggio all’utente nel momento stesso in cui lui sta cercando quel prodotto o servizio. Il Search
Advertising nel corso degli ultimi anni è diventata una se non la forma di pubblicità online proprio
per la sua efficacia e per il suo effetto contestuale alla ricerca da parte di un utente di un prodotto
o servizio.
Terminologia comune utilizzata nel, mondo del marketing digitale:
 SEM: SEARCH ENGINE MARKETING
Il brand deve aver comprato e creato un’inserzione che Google mostra. (Annunci)
Per essere presenti nei risultati organici non serve pagare, ma l’advertiser deve aver fatto:
 SEO: SEARCH ENGINE OPTIMIZATION
Il brand deve aver ottimizzato la propria digital proprieties in modo da essere correttamente
letta dal motore di ricerca Google ed associata alla parola chiave, rispetto ai contenuti della
pagina.

Su Internet io cerco con una determinata parola chiave e ottengo 2 diversi tipi di risultati, i
cosiddetti risultati a pagamento quindi la vera e propria pubblicità, il vero e proprio Search
Advertising e i cosiddetti risultati organici; la pubblicità che può avere vari posizionamenti
all’interno dei vari motori di ricerca oggi anche in funzione del tempo (oggi Google si è stabilizzata
sulla pubblicità presente prima e dopo i risultati organici).
La pubblicità a pagamento per essere presente in questi spazi della pubblicità a pagamento il
brand deve pagare quindi il brand deve avere un budget e deve aver fatto attività di Search Engine
Marketing ovvero deve aver comprato una specifica parola chiave o un set di parole chiave e deve
aver creato un’inserzione che poi è quella che Google mostra in funzione della ricerca.
Mentre invece per essere presenti nei cosiddetti risultati organici non serve pagare (Google non
chiede nulla per visualizzare i cosiddetti organic results) ma l’azienda, l’ADVERTISER, il brand deve
aver fatto la cosiddetta attività di Search Engine Optimization ovvero deve aver ottimizzato la
propria digital Property che sia un sito, un blog o un’applicazione in modo tale da essere
correttamente letta dal motore di ricerca Google e associata alla parola chiave più rilevante
rispetto ai contenuti della pagina

SOCIAL MEDIA ADVERTISING


Pubblicità veicolata attraverso i social media.
Ogni social media ha caratteristiche peculiari, con i propri formati, svantaggi e vantaggi, e
caratteristiche in termini di target.
Ciò che differenzia il social media advertising dalle altre due forme di advertising è che nel caso del
Social media un publisher ha la possibilità di raggiungere il proprio target di riferimento
classificandolo in funzione non solo dei contenuti che sta vedendo, e di una serie di variabili
comportamentali che l’utente ha liberamente espresso nel corso della sua esperienza col social
media stesso.

Ogni azione che noi facciamo sui social network viene immagazzinata dal social network stesso e
rivenduta agli advertiser, ai brand sotto forma di targhettizzazione sempre più sofisticata, in altri
termini tutto quello che noi facciamo gratuitamente sui social network viene immediatamente
monetizzato vendendo quelle informazioni ai brand o agli advertiser in modo che essi possano
fare una pubblicità più mirata in funzione dei comportamenti degli utenti su di essi

Per la Nike è possibile fare pubblicità su Instagram, attraverso una storia sponsorizzata, e farla
vedere solo agli utenti che negli ultimi 6 mesi hanno dimostrato apprezzamento su contenuti
collegati al mondo degli sneakers. Ogni azione fatta sui social, viene immagazzinata dal social
stesso e rivenduta agli advertiser sottoforma di targhettizzazione.

Per un’azienda ha senso avere una pagina Instagram con tantissimi follower ed interazioni?
La risposta banalmente è sì, più visibilità, più possibilità di erogare il mio messaggio, più
interazione con gli utenti.
In realtà, quando creo una pagina con 20 milioni di follower, la stessa pagina può diventare uno
strumento di targhettizzazione per i miei competitor.
Essere presenti sui social media è un’ottima opportunità per entrare in contatto con i propri
potenziali clienti, ma utilizzando gli strumenti che i social mettono a disposizione, indirettamente
attiviamo la possibilità dei nostri competitor di attirare i nostri clienti e che seguono la nostra
pagina. Questo è uno dei “n” svantaggi e degli “n” aspetti da prendere in considerazione nel
momento in cui si decide quale tipologia di media, quale tipologia di Paid Media utilizzare per
condurre o per supportare la propria campagna di marketing online.

DIFFERENZE TRA PAID MEDIA DIGITALI E PAID MEDIA TRADIZIONALI


Con i Traditional Media si raggiunge un’audience limitata; inoltre, utilizzando essi, con un
messaggio pubblicitario si prova a colpire l’intera audience di riferimento.
Se si utilizza un media tradizionale (tv, stampa, radio) il messaggio una volta pubblicato non può
essere modificato: perciò non è versatile.
Utilizzando un media tradizionale si ha una comunicazione in ritardo: il messaggio va in live dopo
qualche giorno dalla creazione.
Nel mondo del Digital Marketing posso raggiungere un numero potenzialmente illimitato di
persone; inoltre, si può raggiungere specifici cluster di clientela con messaggi diversi (si possono
creare diversi banner, video ecc. che mirano una specifica clientela).

Il digital marketing si caratterizza per la sua versatilità; dunque, posso pubblicare un annuncio e in
funzione delle performance posso modificare il contenuto o sospendere la pubblicazione.
In questo mondo si ha una comunicazione immediata: il messaggio va live in pochi minuti.

I MODELLI DI PREZZO tra i due


Nel mondo tradizionale, la pubblicità è per definizione un investimento: un brand decide di
investire in una campagna di comunicazione televisiva, produce uno spot ed eroga esso tramite
una serie di canali (es: canale 5). Ogni uscita dello spot ha un costo che si paga in anticipo, ma
l’efficacia dello spot pubblicitario in quel canale la si scopre solo dopo.
I media tradizionali hanno costi fissi; si investe in anticipo, si pubblica e alla fine si scoprono i
risultati dell’annuncio, ma con strumenti non proprio trasparenti.

Il digital marketing ha dei costi variabili in base ai risultati che si ottengono.


La pubblicità può essere pagata con il modello pay per performance: mettere a disposizione un
budget e associarlo a una specifica performance.
Non si investe in anticipo senza sapere quali saranno i risultati.
Nel mondo del marketing digitale si ha la possibilità di trasformare i costi fissi in costi variabili in
funzione dei risultati ottenuti.

Esempio:
Voglio mettere un annuncio sul giornale del Corriere della Sera e mi costa 5000€. Mi aspetto che
pagando 5000€, la metà dei clienti del corriere della sera guarderanno la mia pubblicità, ma non
ne ho la certezza.
Nel Digital Marketing pagherò 5000€ un po' alla volta, e solo quando la performance che mi sono
imposto come obbiettivo sarà realmente efficace.
Per esempio, comprare un banner sul corriere della sera online viene prezzato ad impression;
ogni 1000 visualizzazione pago 2€; se il banner non verrà mai visualizzato pagherò 0€, se verrà
visualizzato 1000 volte pagherò 2€, se verrà visualizzato 10.000 volte pagherò 20€.

Il concetto PAY PER PERFORMANCE è il concetto più importante in assoluto rispetto a questo
tema.

Per quanto riguarda i media tradizionali, costa di più un annuncio sulla prima pagina, che sulla
categoria sport a pagina 28.
Nel digital marketing costa di più un annuncio nella categoria sport a pagina 28, che un annuncio
in prima pagina. (un impression a pagina 28 verrà visualizzata da utenti già in target con il mio
prodotto; a pagina 1 può essere vista da chiunque).

PRICING MODELS (pay per performance)


Nel 1984 vi era il Cost-Per-Impression (non esiste più), ogni impression paghi x. Tale modello è
crollato perché si è rilevato non significativo per gli advertiser (pur essendo una buona forma per i
publisher). Successivamente si è introdotto il Cost-Per-Thousand (CPM), che è un’evoluzione del
CPI, si paga ogni 1000 impression. Il valore di una CPM va da 5 centesimi a poco più di un dollaro. Il
mercato è stato guidato da molto tempo per i publisher, secondo i quali la forma ideale è il CPM.

Col passare del tempo, gli advertiser hanno deciso di introdurre una performance con un valore
maggiore per essi. Così è stato introdotto il Cost-Per-Click (CPC). In questa forma, l'advertiser paga
quando un utente clicca sull'inserzione. È un modello dove il click è più vicino alle esigenze
dell’advertiser.

CPM e CPC sono i due MACRO MODELLI.


Modelli con una performance ancora di maggiore valore per l’advertiser, sono tutti quei modelli
che permettono ed esso di pagare solo azioni che vanno oltre il click:
Cost-Per-Acquisition (CPA): l’adv paga quando un utente compra dall’eCommerce.
Cost-Per-Lead (CPL): l’adv paga quando un utente lascia le informazioni iscrivendosi alla
Newsletter
Cost-Per-Action (CPA): l’adv paga quando un utente compie un’azione sulla pagina sponsorizzata
(like, shares, ecc).
Essi non piacciono ai publisher perché essi non guadagnano semplicemente facendo vedere le
impression, riempiendo tutti i placement che mette a disposizione, non guadagnano neanche se
sui banner vengono fatti dei click, ma solo se l’utente dopo aver cliccato ed essere arrivato sull’app
dell’inserzionista fa qualche azione di valore.

MODELLI IBRIDI
Cost-Per-Install (CPI) / Cost-Per-Download (CPD): l’adv paga solo se l'app viene scaricata / paga
solo se l'app dopo che viene scaricata, viene anche installata.
Cost-Per-View (CPV): l’adv paga una x se l'utente dopo 5 secondi skippa la pubblicità video, o pago
di più se il cliente vede tutta la pubblicità.

I publisher ambirebbero a vendere tutto a CPM, ma gli advertiser ambirebbero a comprare tutto a
CPA o CPL.
Il mercato è posizionato per la maggioranza dei casi sul CPC (punto di mediazione di contratto tra
le esigenze di Publisher e Advertiser).

QUESTA CONTRAPPOSIZIONE DI CONTINUA MEDIAZIONE (CONTRASTO AMORE/ODIO) TRA


PUBLIHER E ADVERTISER È LA CHIAVE INTERPRETATIVA PER QUALSIASI FENOMENO CHE AVVIENE
NEL DIGITAL MARKETING.

PAROLE PIÙ USATE NEL DGTL MKTG


Bounce Rate (tasso di rimbalzo): numero di utenti che abbandonano un sito o un’applicazione
entro 5 secondi dal loro atterraggio.
Gli advertiser vorrebbero minimizzare il tasso. Se ho una campagna CPC, se il bounce rate è alto, la
performance per l'advetiser è scadente. Io pago per i click ma gli utenti non rimangono sul mio
sito. Dato estremamente negativo per l'advertiser, ma al publisher non dispiace.
Il bouce rate sull'advertising mobile raggiunge il 90%; clicchiamo sempre per sbaglio una
pubblicità.
Viral Marketing: clienti che un brand può ottenere con gli earned media. Un messaggio diventa
virale quando gli utenti lo condividono senza che l'advertiser debba pagare per quella visibilità.
Piace molto agli advetiser, ma i publisher lo detestano.
SEM e SEO: la SEO piace di più agli advertiser, ma è detestata da Google, perché se tutti i brand
riuscissero a posizionarsi nelle prime posizioni organiche senza investire in pubblicità
risparmierebbero soldi, e Google fallirebbe perché nessuno comprerebbe le sue inserzioni. Google
non elimina il concetto di SEO, perché i publisher sono tali perché hanno la capacità di generare
un enorme traffico.
Se trovassimo solo inserzioni a pagamento, non visiteremmo più Google, che non sarebbe più in
grado di vendere pubblicità a pagamento agli advertiser.
Google si trova in una posizione in cui da un lato deve continuare a mostrare risultati organici di
qualità, che portano gli utenti a visitare le pagine, e allo stesso tempo deve invogliare gli
advertiser a comprare pubblicità on top dei risultati organici perché la pubblicità è la sua
principale forma di guadagno.
Gli influencer sono delle forme innovative atipiche di publisher. Sono riusciti ad acquisire traffico
ad elevato potenziale.
Vengono visti come un'opportunità alternativa ai paid media tradizionali da parte degli advertiser,
ma vengono visti molto male dai publisher, che li vedono come concorrenti diretti del proprio
business.
CTR (click throught rate): ogni 100 visualizzazioni di un banner è avvenuto un click. Più è alto, più
significa che l'advertising sta funzionando bene in termini di visite generali. Se un publisher ha un
buon CTR lo userà come strumento di valore nella vendita all'advertiser.
Conversion Rate: stessa logica del CTR ma applicato sul sito di un advertiser. È il numero di lead
generati data una base di click.
Programmatic Avertising: forma di acquisto di spazi pubblicitari generata in maniera automatica e
su una logica di costo.
Un publisher che non riesce a vendere l'intero suo inventory, mette gli spazi rimasti su una
piattaforma di programmatic, dove viene detto che ci sono degli spazi liberi.
Gli advertiser utilizzano le piattaforme di programmatic per comprare spazi al minor prezzo
possibile senza sapere dove si trovano.
CTA (call to action): messaggio che l'advertiser attraverso il canale pubblicitario fa al suo utente di
riferimento.
Retargeting: nuovo modello di utilizzo dei Paid Media. Un brand fa retargeting quando propone lo
stesso banner pubblicitario non a un target di utenza generica ma agli utenti che hanno già
visitato il suo sito.
È possibile grazie ai Cookies.
Cookies: piccoli pezzettini di testo che ogni volta che visitiamo un’app o un sito web vengono
lasciati sul nostro device e possono essere riletti dallo stesso device.
Vanity Metrics: quelle metriche (followers, likes, ecc.) che non sono reali, ma vengono comprati al
fine di soddisfare un aspetto di vanità del brand.
Attira nuovi clienti per una ragione psicologica.

SICUREZZA ED ETICA INFORMATICA


La sicurezza assoluta non esiste (neanche nella vita reale), ma si affrontano quotidianamente dei
rischi più o meno rilevanti, cercando di mitigarli.
Esempio: quando attraversiamo la strada mettiamo in atto delle misure di mitigazione,
attraversiamo sulle strisce pedonali, guardiamo da un lato e dall’altro.

PROBLEMA DEL MONDO DIGITALE


Nella vita reale, conoscendo il rischio, si conosce la misura più appropriata.
Nel mondo digitale invece l’utente si comporta in maniera inappropriata, in quanto non si ha la
percezione dei reali rischi. Quindi, si usano degli strumenti di mitigazione del rischio inappropriati
(eccessivi o sottodimensionati).

Atteggiamento irresponsabile: molti utenti non hanno la percezione di quello che succede ai
propri dati una volta caricati sui social; dunque, molti utenti sottovalutano un possibile rischio,
come la diffusione e l’uso di dati sensibili;
Atteggiamento troppo prudente: chi non compra online per paura di inserire sul sito i dati della
carta di credito. Si pensa che con una prepagata sia più sicuro, ma non è così in realtà.

Per affrontare il tema della sicurezza bisogna affrontare due modalità: quali sono realmente i rischi
e capire quali strumenti si possono utilizzare per mitigare i rischi.

I cookies: tutti credono di avere più o meno una cultura rispetto a quest’ultimi in quanto negli
ultimi anni c’è stata una legge per cui ogni sito deve mettere “accetta tutti cookies o solo
essenziali”, introdotta una decina di anni fa da un legislatore che ha detto le persone non sanno
che comunque hanno una componente di rischio, così mettiamo per legge che loro devono
accettare.

I cookies sono dei file di testo che i siti che noi visitiamo mettono sui nostri device, che servono
per finalità tecniche. Se sono su un sito di e-commerce e sto aggiungendo cose nel carrello, una
volta che cambio pagina il carrello non si svuota.
Il web è stateless ovvero il sito non sa che sono io che continuo la mia ricerca o un’altra persona.

Esistono due tipi di cookies:


• First party cookies ➡️ io mi collego al sito, il server riceve la mia richiesta e mi restituisce la
pagina e un pezzo di testo che dice “questo utente ha già visitato questa pagina” oppure “ha
dettato la lingua” così la prossima volta che entro me la darà già in quella lingua. Tutto
sommato qui il rischio non c’è.
• Da qualche anno i cookies sono stati utilizzati per profilare gli utenti per finalità di marketing e si
sono cerati i Third party cookies ➡️ quando vado in un sito e ci sono componenti fornite da terze
parti, che hanno il diritto anch’essi di mettere un cookie sul mio computer. Es. vado sul Corriere
della Sera e c’è un banner gestito da Google che mi mette un cookie, poi vado sul sito della
Stampa, Google a questo punto va a leggere il cookies che mi ha messo in precedenza
gettandomi su quello che avevo visto e quindi mi fa veder notizie analoghe, e allo stesso tempo
mi mette un altro cookies (e quindi “scrive” un altro pezzettino su di me”). Qui abbiamo un po’
più un’invasione della privacy, in modo anonimo perché non vengono associati al nostro nome
ma solo al nostro browser, con la finalità di renderci la navigazione migliore (es. fanno vedere
pubblicità sestate per noi, piuttosto che pubblicità generiche).

PROBLEMATICHE DI SICUREZZA
Gli utenti in generale, ma in particolare i SI aziendali, sono quotidianamente sottoposti a una serie
di minacce (errori e incidenti umani, calamità naturali, rivolte e atti di terrorismo, crimini
computerizzati).

Chi sono i responsabili di queste minacce?


Responsabilità dolosa: esperti del settore (hacker, cracker e black hat hacker [criminali]);
Responsabilità colposa: errori dei dipendenti senza una reale intenzione di dolo.
Anche i dipendenti possono essere dei responsabili.

In realtà gli hacker non sono criminali, ma appassionati di tecnologie informatiche, che usano le
loro competenze per provare a violare i sistemi di terzi non con una reale finalità di dolo o lucro,
ma solo per il gusto di farlo.
L’hacker può essere assimilato a un writer che dipinge sui muri: non vuole farlo con lo scopo di
danneggiare la comunità ma per rendere visibili le sue capacità artistiche.

nelle comunità degli hacker ci sono poi i cracker (spesso definiti black hat hacker) che sono
soggetti che compiono attacchi a sistemi informatici per danneggiare un soggetto terzo. La loro
finalità è di rubare i dati. Nella stragrande maggioranza dei casi partono da uno strumento che si
chiama Malware (software che ha lo scopo di creare danni sul computer nella quale viene
inserito).

CRIMINI COMPUTERIZZATI: MALWARE


La principale forma di rischio generata dal crimine informatico fa riferimento alla creazione dei
cosiddetti MALWARE: (maliciuos+software) ma non è l’unico che esiste, abbiamo: n
 Virus: è un software che attacca altri software presenti sul pc, danneggiandoli fino a bloccare
l’attività di un sistema. La sua diffusione è facilitata dalla connessione a internet e l’uso di multi-
device;
 Worm: si diffondono senza la necessità che l’utente apra il file, ma è sufficiente essere infettati
scaricando qualcosa da un sito;
 Trojan: stessa conformazione dei worm, ma aprono la strada anche ad attacchi dall’esterno, da
qui il nome (cavallo di troia: stratagemma per attaccare);
Esempio: molti utenti vorrebbero sapere chi ha visitato il proprio profilo Instagram. Non è
possibile farlo ma qualche mese fa girava un trojan che si configurava come un software in grado
di dirvi chiunque avesse visitato il vostro profilo. Molti scaricandolo aprivano la strada a successivi
attacchi informatici.
 Spyware: software creati per spiare quanto avviene su un device, generalmente utilizzati come
passo preliminare a un attacco finalizzato ad acquisire dati sensibili.
 Ransomware: il software che chiede il riscatto. Blocca un device chiedendo un riscatto affinché
il device venga liberato. Tipicamente il riscatto viene chiesto in bitcoins (criptovaluta non
tracciabile). Esistono due tipi di ransomware:
- Locker: il device viene bloccato fino al pagamento del riscatto;
- Crypto: il device è attivo ma alcuni file vengono criptati e non più accessibili.

COME SI PRENDE UN MALWARE:


Scaricando messaggi sospetti provenienti da fonti non riconosciute;
Cadendo nella trappola del phishing.

COME CI SI DIFENDE
Attenzione e prudenza;
Installando un antivirus, aggiornando sempre il sistema operativo e i software presenti sul proprio
device, coprendo così eventuali bug.
Il mondo dei crimini computerizzati ha anche una faccia più sofisticata, e spesso i cracker fanno
uso di strumenti di altro tipo per attacchi orientati ai sistemi informativi delle organizzazioni.
In tal senso si parla di cybercrime o, se la portata degli attacchi è più estesa, di cyberwar.

SPYWARE: Sniffing e Spoofing


Negazione di servizio:
• distributed ➡️ Denial of Service (DDoS) In che modo mandano i siti o i social in down? Trovano dei
complici inconsapevoli per aiutarli nell’attacco DDoS.
• frodi, violazione dei dati, malware.

PHISHING
Esso è un attacco basato sull’utilizzo integrato di strumenti che permettono di carpire l’identità di
un utente.
(sniffing) e sostituirsi a lui (spoofing). [Spyware: sniffing e spoofing; Phishing: frodi].
“Phishing” significa ingannare un utente facendogli credere di avere a che fare con un altro
soggetto, si basa sulla sostituzione di identità .
Può avvenire ad esempio attraverso mail o messaggi sui social network (link che rindirizza a un
sito simile a quello ufficiale, ma che genera un furto di dati sensibili).
Il phishing può essere una tipologia di frode basata su aspetti tecnologici chiaramente sofisticati,
ma è anche un perfetto esempio di attacco computerizzato che fa leva sulla cosiddetta ingegneria
sociale. Il principale elemento di efficacia non è tanto la tecnologia che ci sta dietro ma la leva
emozionale che va a toccare.
Esempio: Nel phishing io posso ricevere una mail che sembra arrivare da un soggetto istituzionale
(es. una banca) ma che in realtà hanno la finalità di convincermi ad andare su un sito, che sembra
istituzionale, a lasciare i miei dati sensibili. Tentativo di farci andare su un sito terzo per farci
inserire dati sensibili che poi i cracker utilizzeranno per fini di dolo.
La forma di phishing più diffusa è quella bancaria, che negli ultimi 5 anni ha creato più truffe di
tutti.

Diverso è il caso di un’altra tipologia di attacco, che prende il nome di Distributed Denial of
Service (DDoS). È un attacco dove la leva tecnologica è fondamentale.
Esempio: un sito (Microsoft, Amazon ecc.) non è più raggiungibile quando raggiunge la sua
massima capacità di banda, ovvero non è in grado di rispondere a ulteriori richieste. Questo
avviene perché qualcuno è stato in grado di superare la soglia di connessioni che quel sito può
sostenere.

Non può farlo un hacker solo con il suo computer; infatti, gli hacker tipicamente utilizzano i
cosiddetti Zombie Computer/Bot Net, computer di vari utenti che hanno scaricato warm o trojan
che servivano per attivarsi in una determinata data, per andare a fare richieste contemporanee a
quel sito.
Invece di coinvolgere 100.000 utenti, un hacker coinvolge 100.000 device di cui prende possesso.

GESTIONE DELLA SICUREZZA


Possiamo identificare tre grandi modalità e aree di rischio:

1. Identificazione e controllo accessi: uno dei problemi più grandi è evitare che qualcuno
acceda a strumenti, software, hardware il cui accesso deve invece essere limitato solo ad
alcuni soggetti;
2. Riservatezza: il problema che si crea quando trasferiamo qualcosa attraverso la rete
internet;
3. Integrità dei dati e dei sistemi: come evitare che un malware danneggi i dati o device.
4. Ognuna di queste aree ha degli strumenti di mitigazione del rischio.
Per quanto riguarda la terza area abbiamo già detto molto precedentemente, il modo
migliore per proteggere l’integrità dei dati da parte di malware è quello di mettere in atto
delle misure di policy di prevenzione del rischio (lato aziende) e installazione di un
antivirus e costante aggiornamento del software (lato utente).

1. Identificazione e controllo accessi


Comunemente gli utenti utilizzano per proteggersi i cosiddetti meccanismi di accreditamento.
Essi sono:
- Intangibili: basati su informazioni in possesso dell’utente (username e password). Sono i più
economici ma anche più̀ vulnerabili;

- Tangibili (o misti): basati anche su elementi in possesso dell’utente.


Esempio: per prelevare non ho bisogno solo del pin ma anche della carta fisica;
Esempio: notifica push sul cellulare della propria banca per accedere al proprio conto corrente;

- Biometrici: basati anche su caratteristiche fisiche dell’utente (riconoscimento dell’impronta


digitale, della voce, dell’iride, del DNA). Sono strumenti più sicuri, ma non infallibili.
Bisogna però non esagerare, utilizzando i vari strumenti in base alla tipologia di rischio.

FIREWALL
Nel contesto aziendale esiste un’altra serie di meccanismi di controllo degli accessi: il Firewall.
(Nel gergo pompieristico sono meccanismi che permettono in caso di incendio di far evacuare le
persone e bloccare il fuoco).

Sostanzialmente un firewall è un’entità che blocca la minaccia e permette il passaggio degli


agenti positivi. Sono strumenti che vengono utilizzati da tutte le organizzazioni che operano
online.
Esempio: quando accediamo alla segreteria studenti non stiamo accedendo alla segreteria, ma
stiamo parlando al firewall della segreteria studenti.
Così la segreteria si assicura che non si tratti di un utente esterno all’università che potrebbe
utilizzare tecnologie di spoofing.

Un firewall può essere o un software o un mix di hardware e software, quindi un server che viene
posto in mezzo all’utente e la rete privata, in grado di riconoscere soggetti potenzialmente
pericolosi, facendo passare solo utenti sicuri.

Oltre ai meccanismi di accreditamento e i firewall esistono altri strumenti di identificazione e


controllo degli accessi ne esistono molti altri, come i CAPTCHA che hanno il compito di distinguere
gli uomini dalle macchine.

*domanda possibile: mettere in ordine di sicurezza, crescente decrescente o di costo modalità


intangibili, tangibili e biometrici.

2. Riservatezza
Per riservatezza si intende la garanzia rispetto al fatto che le informazioni che trasmettiamo
rimangano effettivamente riservate.

L’intero sistema si basa sulla scienza della crittografia. Essa studia il processo di trasformazione dei
dati attraverso algoritmi matematici che rendono i dati illeggibili a chi non disponga di una chiave
di decriptazione.

La crittografia non nasce col mondo del digitale, ma utilizzata in tutti i conflitti bellici degli ultimi
’70 anni, in particolare ha caratterizzato l’esito della Seconda Guerra Mondiale, in quanto
l’esercito alleato riuscì a decriptare i messaggi che venivano trasmessi da Berlino ai sottomarini
tedeschi.
La crittografia è un meccanismo abbastanza semplice.
Sistema di base: abbiamo un alfabeto di riferimento (testo in chiaro) e grazie a un algoritmo e a
una chiave modifichiamo il testo in chiaro, in un alfabeto conosciuto solo da chi possiede
l’algoritmo e la chiave.

Ciò che avviene oggi su internet è sostanzialmente la stessa cosa, solo con una complessità più
elevata:
 l’alfabeto di riferimento non è più un vettore (il nostro alfabeto) ma una matrice di 0 e 1;

 l’algoritmo, che nel primo caso è un’equazione di primo grado, nel mondo di internet è un
sistema di equazioni complesse a più parametri;

 la chiave, che nel primo caso è un singolo numero, nel mondo internet è una sequenza di
centinaia di bit.

Mettendo insieme questi elementi è chiaro che è molto arduo decifrare un testo criptato via
internet, ma non impossibile.
Esempio: carta di credito su Amazon, criptata con un meccanismo di criptografia tale che un
cracker di medie capacità e con un computer modesto impiega circa 20 anni per decifrare il
numero di carta. È ovvio che se si mettessero dietro i servizi segreti in qualche ora riuscirebbero,
ma ruota tutto intorno al rischio e allo strumento mitigato.
COME FUNZIONA LA CRITTOGRAFIA
Esistono due sistemi di crittografia:
Simmetrici (a chiave privata);
Asimmetrici (a chiave pubblica).

Sistemi simmetrici
Utente A e utente B si accordano preventivamente su quale sia l’algoritmo e la chiave di
crittografia da utilizzare.
A questo punto il messaggio viene criptato con la chiave privata, il messaggio viene trasmesso
attraverso la rete e l’utente B riesce a decriptare il messaggio.

I problemi digitali nei confronti di questo sistema sono due:


1. è necessario che i due utenti si scambino preliminarmente la chiave. Sarebbe opportuno che
questa chiave venga scambiata attraverso un canale sicuro, non lo stesso utilizzato in seguito per
mandare il messaggio.
2. Necessita un numero estremamente elevato di chiavi. Serve una chiave per ogni coppia di
utenti.

Se gli utenti sono 3 serviranno 2 chiavi ma questo numero cresce esponenzialmente, seguendo la
formula chiave=nX(n-1)/2.
Questi due elementi fanno si che questo sistema non sia adeguato per l’utilizzo nel mondo
digitale. Questi problemi sono stati risolti introducendo un modello diverso, detto “a chiave
asimmetrica”, “a chiave pubblica” o “a doppia chiave”.

Sistemi asimmetrici
Quello che cambia è il paradigma di partenza del modello: ogni utente che partecipa al sistema
possiede due chiavi, una chiave privata (tenuta nascosta) e una pubblica (disponibile a chiunque).
La regola del sistema è : quello che cripto con la chiave privata di un utente lo posso decriptare
solo con la chiave pubblica dello stesso utente. Non ci sono altre regole.

Quindi A che vuole mandare il messaggio B va nella “bacheca pubblica”, prende la chiave pubblica
di B e cripta il messaggio che gira in rete.

Nessuno sarà in grado di decriptare il messaggio se non il possessore della rispettiva chiave
privata. In questo modo si risolvono automaticamente i due limiti dei sistemi simmetrici:
 non ho più bisogno di scambiare preventivamente le chiavi, sono pubbliche;

 non ho più bisogno di generare un numero elevato di chiavi. Non ho più bisogno di una chiave
per ogni coppia di utenti e vale la formula chiave=2n.

Esempio:
Ogni volta che compriamo su Amazon e dobbiamo inserire dati sensibili ci accorgiamo che di
fianco all’URL c’è un lucchetto chiuso e il protocollo web non è più http ma https.
Significa che da quel momento in poi qualsiasi informazione che inviamo ad Amazon è un dato che
va verso Amazon criptato con un meccanismo a chiave pubblica.
In particolare, se clicchiamo sul lucchetto->certificato->dettagli scopriamo che la chiave pubblica
con cui i dati vengono criptati è una chiave chiamata RSA fatta da 2048 bit.
Dunque, nel momento in cui anche inserisco il mio numero di carta, è criptato dalla chiave
pubblica di Amazon, una chiave a 2058 bit e un hacker normalmente ci metterebbe 20 anni a
decriptarla.
L’unico soggetto che saprà decifrare il messaggio sarà Amazon, in quanto in possesso della chiave
privata corrispondente.
Chiave pubblica e chiave privata sono i due parametri necessari a risolvere un sistema di equazioni
complesse; senza di esse il sistema non ha soluzioni.

Esempio: WhatsApp.
Ogni messaggio viene criptato attraverso un sistema a due chiavi. La chiave privata è salvata
automaticamente all’interno del nostro cellulare, la chiave pubblica è disponibile in un archivio
pubblico gestito da WhatsApp.
Questa crittografia chiamata end-to-end vale solo per le comunicazioni one to one, dirette. In un
gruppo WhatsApp il sistema di criptazione salta, poiché il messaggio viene mandato non a una ma
a diverse persone; dunque, non so quale chiave pubblica utilizzare.
In realtà WhatsApp sta risolvendo anche questo problema, prevedendo la criptazione di messaggi
mandati nei gruppi con un meccanismo tale per cui il gruppo viene identificato come un utente a
sé.

*PEC (posta elettronica certificata) ha una protezione in più, è più sicura. Non solo il messaggio
può essere letto solo da chi ha le due chiavi ma deve anche avere la firma della mia chiave
pubblica. Il messaggio una volta arrivato al destinatario, quest’ultimo deve aprirlo con la sua
chiave privata e verificare la mia firma con la mia chiave pubblica.

Dal modello a chiave asimmetrica si può passare alla firma digitale, la risoluzione alla gran parte
dei problemi di sicurezza che oggi ancora il mondo digitale porta con sé.

È la crittografia a chiave asimmetrica una sicurezza assoluta della riservatezza online? NO.
La riservatezza assoluta non esiste. Certamente un sistema con una chiave a 2048 bit
statisticamente è sicura, dunque il rischio di comprare online su un sito affidabile come Amazon è
minimo. Parliamo allora di un elevatissimo grado di sicurezza, e questo modello a due chiavi è una
misura più che adeguata in un contesto come una transazione online.

L’unico modo per affrontare un qualsiasi tema che riguardi la riservatezza, sia digitale che non, in
maniera appropriata è partire dalla reale percezione del rischio.

METODI DI PAGAMENTO
Nel mondo dei pagamenti online una transazione con carta di credito è tutelata dalla legge (lato
consumatore), nel senso che se faccio una transazione online è nulla, poiché il regolamento
internazionale delle carte di credito prevede che una transazione sia valida solo con una firma.
Siccome nel mondo digitale il concetto di firma digitale ancora non è stato introdotto, le
transazioni che facciamo online sono nulle.
Dunque, ogni volta che capita di essere frodati per una transazione online per aver comprato da
un sito non affidabile, è sufficiente chiamare la società di carta di credito e chiedere di fare il
cosiddetto charge-back dell’operazione, ovvero di annullare l’operazione.
In realtà questo meccanismo difende il consumatore. I siti di e-commerce di fronte a un
meccanismo di questo tipo sono indifesi.
Un utente furbo potrebbe comprare il prodotto e, chiamando la società che ha emesso la carta,
annullare l’operazione, ottenendo però il prodotto.
Per risolvere questi problemi, qualche anno fa sono nati una serie di strumenti apparentemente a
tutela del consumatore, ma in realtà a tutela del commerciante.
Il primo tra tutti è la carta prepagata, in quanto non è una carta di credito tradizionale, ma per uso
elettronico. Significa che una carta prepagata è vero che apparentemente tutela l’utente perché il
rischio è perdere solo la somma caricata, ma la perdita è garantita, in quanto le prepagate non
prevedono il charge-back.
Quindi se si viene truffati, avendo pagato con prepagata, RIP.

Ecco perché i merchant preferiscono le prepagate (esempio Easyjet, se paghi con una prepagata
ricevi uno sconto poiché ha la certezza che una volta fatto il pagamento quei soldi non glieli può
togliere più nessuno). Con Paypal (creato da Ebay, dunque un merchant) è la stessa cosa, tutela il
merchant. Strumento ideato per evitare un charge-back diretto.

Quindi, per semplificare, se chiedessimo in giro quale sia lo strumento più sicuro per pagare
online, risponderebbero in ordine: 1) Paypal; 2) prepagata; 3) carta di credito.
Invece l’ordine è diverso: 1) carta di credito; 2) Paypal; 3) prepagata.

In ogni caso in qualsiasi sistema dove una delle due parti coinvolte sia a rischio di frode è un
sistema che non può durare a lungo.

FIRMA DIGITALE
Ecco perché da molti anni si sta ragionando sul concetto di firma digitale.
Non è la digitalizzazione della firma cartacea, ma un meccanismo in grado di produrre le stesse
garanzie dal punto di vista legale che la firma tradizionale ha nel mondo reale.

Blockchain: tecnologia alla base delle criptovalute.


Consiste in un registro (ledger) con l’elenco dei vari utenti e relativi saldi espressi in bitcoin.
Anziché essere custodito da un solo soggetto fidato che lo può aggiornare (la banca), una copia del
registro è gestita da qualsiasi soggetto (validatore) che partecipi al network.

La privacy è però garantita, dunque non vengono comunicati i nominativi, ma codici alfanumerici
riconducibili al proprietario.

In un ipotetico scambio di denaro online, i validatori si assicurano che i messaggi siano stati
mandati dalle persone corrette grazie alla firma digitale, infine si accordano sugli aggiornamenti
del registro attraverso un sistema di votazione matematico.
Questo potrebbe essere il primo passo verso l’Internet of Value.

Potrebbero piacerti anche