Sistemi Informativi e Trend Digitali
Sistemi Informativi e Trend Digitali
Lezione 29/09/2022
Come le informazioni vengono gestite all’interno dell’organizzazione elemento fondamentale all’interno
di ogni azienda. E come le nuove tecnologie aiutano nella gestione di tali informazioni.
Obbiettivo: terminologia di base, preparazione su quello che c’è adesso che non è la terminologia che ci
sarà tra tre anni. Strumenti metodologici che ci aiutino ad affrontare qualsiasi tipo di tecnologia.
Capire il mondo delle tecnologie.
Le risorse del pianeta si salvaguardano anche limitando l’uso della tecnologia.
Libri: sistemi formativi e trend digitali pearson 2019
Community password: digitali2023
Esame: primo appello della sessione di gennaio. Due parti: primo esame con 30 domande a risposta chiusa
Seconda parte prova orale on demand ovvero su richiesta o del prof o dello studente il cui esito fa media
aritmetica con quello dello scritto.
0: non cambia
1 corretta: 4 punti
1 sbagliata: -3
A ognuno dei voti si aggiunge 3/30
Integrare appunti al libro.
[Link]@[Link] [Link]@[Link]
CAPITOLO 1
DEFINIZIONE DI TECNOLOGIA
Si fa riferimento a tutte le metodologie tecniche relative a una particolare arte o industria, quindi,
esistono tecnologie per qualsiasi industria (alimentari, meccaniche, aeronautiche).
Tecnologie dell’informazione: tecnologie che abilitano e supportano la gestione automatizzata
dell’informazione.
Tecnologia dell’informazione e della comunicazione: strumenti, applicazioni che facilitano
l’elaborazione, la memorizzazione e la trasmissione di tati e informazioni. Rientrano i pc, i telefoni,
le applicazioni, i software in generale, la fibra ottica
CHE COSA È UN SISTEMA INFORMATIVO?
Insieme di componenti che interagiscono tra loro con l’obbiettivo di raggiungere lo scopo. Ma
quale è lo scopo e quali sono le componenti di un sistema informativo?
Ci occupiamo di sistemi informativi perché oggi la maggioranza dei sistemi informativi delle
aziende utilizzano le tecnologie dell’informazione e della comunicazione (ICT) che sono strumenti
e applicazioni che facilitano l’elaborazione, la memorizzazione e la trasmissione di dati e
informazioni. Tipicamente classificate in Hardware, Software e Reti.
I sistemi informativi se automatizzati possono dire intervenire nella parte bassa della piramide,
quindi il processo di informazioni e dati, mentre la conoscenza e le decisioni rimangono
nell’autonomia della componente delle persone all’interno di un sistema.
TREND DIGITALE
Qualcosa che è in voga o in tendenza.
Digitale deriva dall’inglese digit ovvero cifra, numero. Parlando di informazioni in formato digitale
sostanzialmente possiamo dire che facciamo riferimento a un’informazione in formato numerico,
non si parla di un formato numerico qualsiasi ma si parla del sistema binario ovvero un sistema
numerico basato sul ritmo 0 ed 1. Il numero 0 ed il numero 1 sono gli unici numeri che il computer
è in grado di comprendere:
0 assenza di corrente elettrica
1 presenza di corrente elettrica
Il linguaggio binario è stato inventato per iniziare a parlare con le macchine. I primi programmatori
parlavano con i computer con una tastiera che aveva due tasti 1 e 0 e trasmettendo sequenze
diverse di 0 e 1 si riusciva a dire alla macchina cosa dovessero fare.
Quando parliamo di digitale parliamo di dati e informazioni che vengono trattati in formato 0 e 1.
Tutte le informazioni possono essere trattate come 0 e 1 processo di digitalizzazione o
convergenza ovvero trasformazione della realtà analogica in formato digitale. Oggi si parla di
digitalizzazione perché tutto quello che viene creato è già creato in formato digitale.
Il mondo analogico è un mondo dove non esiste il segnale con caratteristiche discrete, ma i valori
rappresentati sono continui, infiniti.
Quindi una rappresentazione analogica è una rappresentazione continua dei valori di una
grandezza fisica. Mentre una rappresentazione digitale, ossia quella che i computer sono in grado
di dare, è una successione di due Stati rappresentabili mediante sequenze di zero e uno.
La voce veniva trasmessa nella sua natura originaria che è una rappresentazione di tipo analogico:
variazione continua dei valori di una grandezza fisica. Oggi viene rappresentata in una forma
digitale: 0 e 1.
Orologi analogici con le lancette e l’orologio digitale.
Il suono naturalmente è rappresentato con delle onde, anche le tecnologie fino a poco tempo fa
trattavano il suono con un’onda sonora, oggi la nostra voce una volta trasmessa viene già
trasformata in 0 e 1 questo perché anche il mondo della telefonica ha subito il processo di
digitalizzazione.
La radio è una degli ultimi medium a diventare digitali: ora viene trasmessa anche in tv e sul
telefonino.
linguaggio unico per qualsiasi tipo di contenuto e fruibile da qualunque device tecnologico ecco
perché convergenza tecnologica.
Avendo appreso che digitale significa numerico, possiamo definire la convergenza digitale come
trasformazione della realtà̀ analogica in forma digitale.
La principale opportunità̀ derivante dalla convergenza digitale è quella di poter accedere ad ogni
elemento multimediale (testo, video, audio) indipendentemente dal device che si usa.
Oggi si può affermare che l’intero patrimonio di contenuti multimediali dell’umanità̀ si sta
interamente digitalizzando. Es: la lezione la si può̀ sentire dal pc, dal telefono ecc.
Per fare un esempio, i documenti nascono come digitali, i video come digitali, i libri sono anche
in formato digitale, la voce digitale. Gli unici media che sono rimasti fuori dal processo di
digitalizzazione sono la radio (sistema DAP) e la televisione (digitale terrestre) ma si sono
digitalizzati.
Per audio digitale si intende la trasformazione dell’audio in una serie di cifre binarie per poterlo
ascoltare su un computer o inserirlo in un contesto multimediale. (prima era un’onda sonora)
Attraverso un device si possono fare chiamate ed audio per questo motivo.
IL SISTEMA BINARIO
BIT: più piccola unità che può assumere solo due aspetti: 0 e 1.
BYTE: sequenza da 8 bit. Rappresenta l’unità fondamentale del linguaggio degli elaboratori
elettronici, è la più piccola unità di memoria in grado di contenere un carattere.
Per permettere che una lettera sia trasmessa e scritta uguale per ogni dispositivo, esistono due
principali codici:
ASCII american standard code infomration interchange ed è una tabella dove a ogni sequenza
diversa di bit è stata assegnata un numero o una lettera diversa ed è presente in ogni device. (in
tutto il mondo la lettera A maiuscola è rappresentata 0100 0001). Questo ha permesso di non
parlare più 0 e 1.
Oggi non usiamo solo lettere e numeri per dialogare con il computer ma all’interno di questi
formati esiste un tipo di tabella simile.
La prima tabella ASCII aveva solo 128 byte, quando è arrivato all’Europa si è sentita la necessità di
aggiungere dei bit compatibili per tutti i device. Oggi la tabella è di 256 byte, e questa tabella oggi
è quasi esaurita ed è diffusa sui computer di tutto il mondo.
UNICODE. è l’insieme di 2 byte (16 bit) per ciascun carattere al posto del singolo byte. Tale codice
può gestire 65 536 caratteri differenti.
ASCII codice che include i caratteri convenzionali (lettere, numeri) più simboli matematici e lettere
greche.
CIAO: occupa 4 byte di memoria se si usa un ASCII estesa e occupa 32 bit.
Circa’ perché non siamo in un sistema decimale (dove i multipli si calcolano moltiplicando x10), nel
sistema binario, invece, la base del calcolo dei multipli è 2. Perciò̀ un kilobyte non è esattamente
mille byte (10 alla terza) ma 2 alla decima. Non si moltiplica ogni volta per 1000 ma per 1024.
Ogni volta che si usa la tecnologia consumiamo il pianeta, 1 settimana di Instagram è pari a 3
automobili che viaggiano per un anno questo perché ogni volta che ci colleghiamo a Instagram
svegliamo molti server della nostra telefonia, attiviamo decine di computer nel mondo che
attivandosi usano energia sprecandola e creano inquinamento.
Abbiamo la sensazione che tutto quello che facciamo è gratis in realtà non è così perché dietro c’è
un costo sociale quello dell’inquinamento e il secondo è che quando è gratis il prodotto siamo noi.
Fare previsioni circa la tecnologia è sempre stato difficile, indipendentemente dal tipo di
tecnologia. Nel corso della storia sono state fatte diverse previsioni sbagliate, ad esempio Lord
Kelvin affermava che era impossibile far volare macchine più pesanti in aria.
INVENZIONE E INNOVAZIONE
I concetti di invenzione e innovazione, per quanto possano sembrare simile hanno due significati
completamente diversi.
Invenzione è utilizzata nel momento in cui si vuole scoprire qualcosa di nuovo. Prevede una
prospettiva unicamente tecnologica con la quale si pensano solo a cose precise.
l’innovazione serve ad introdurre sul mercato qualcosa di nuovo o manipolare invenzioni già
esistenti nell’ottica di renderle disponibili al più ampio pubblico possibile. Per le innovazioni, non
basta la tecnologia ma bisogna pensare alla prospettiva del marketing e all’impatto socioculturale.
Un tempo invenzione ed innovazione erano simultanei, mentre oggi siamo in un contesto dove
esistono numero invenzioni tecnologiche, ma capire quali di queste si trasformeranno in
innovazioni è estremamente complesso.
Se si pensa ad esempio a Tik Tok è una grande innovazione molto utilizzata ma se la guardiamo da
un altro punto di vista è un'invenzione molto banale e scontata.
Se vogliamo invece prevedere se un’invenzione si trasformerà̀ in innovazione, il paradigma
tecnologico da solo non basta. È necessario affrontare una previsione prendendo in
considerazione tre paradigmi insieme: tecnologico, quello socioculturale ovvero come reagirà̀ il
pubblico rispetto alle caratteristiche, ed il paradigma di mercato ovvero a interesse quanto
un’invenzione ha interesse ad essere spinta dalle varie industrie che rappresentano il mercato.
La complessità̀ delle previsioni del futuro rispetto alla tecnologia sta nel fatto che un tempo
invenzione e innovazione erano praticamente sinonimi, poiché́ la nuova invenzione tecnologica
quasi si trasformava in innovazione adottata. Oggi invece siamo in un contesto dove esistono
innumerevoli invenzioni tecnologiche alcune, alcuni intelligenti altri molti meno, ma capire quali
tra questi si trasformeranno in innovazione è estremamente complesso. Per questo è difficile fare
previsioni future.
Quali sono gli obbiettivi principali dell’infrastruttura dei sistemi informativi? consente di
elaborare archiviare e trasmettere (da un elaboratore all’altro) i dati.
Gli elaboratori consento di elaborare, archiviare e trasmettere i dati. Esempio di elaborare è il pc,
lo smartphone: macchine che hanno un’anima software il cui compito è quello di elaborare,
archiviare e trasmettere i dati.
HARDWARE
Esso è l’insieme delle componenti tangibili degli elaboratori.
È genericamente classificato in:
- Tecnologie di input o periferiche di input a supporto della prima fase: componenti
hardware che supportano l’attività̀ di introduzione dei dati all’interno di un elaboratore.
Questi dati sono introdotti in formato digitale.
es. lo scanner consente di trasformare in digitale una pagina di un documento fisico; il
microfono consente di introdurre nell’elaboratore un dato che proviene dalla voce, da un
suono.
Esempi: tastiera, dispositivi di puntamento, scanner, microfono, webcam, lettori di codici a
barre, fotocamere, RFIED
La memoria centrale, di cui la RAM è componente essenziale, è costituita anche dalla memoria
ROM e della memoria cache.
ROM = read only memory, memoria di sola lettura, non può essere modificata
Contiene i programmi e le istruzioni di avvio o di configurazione del sistema così come sono state
predisposte dalla casa produttrice del computer.
SOFTWARE
L’hardware da solo non basta, ma a suo supporto ci deve essere una componente software
rappresentata dagli elementi intangibili di un elaboratore.
È costituito da programmi, o insiemi di istruzioni, tramite i quali il computer esegue determinate
funzioni di elaborazione.
Il software è rappresentato da quelle istruzioni utili affinché l’elaboratore possa funzionare
correttamente.
È possibile classificarlo in due macrocategorie:
- Software di sistema
- Software applicativo: consentono di effettuare azioni specifiche, ristretta a un singolo tipo
(word per redigere un testo, Photoshop per modificare immagini...). Software applicativo:
PowerPoint, Acrobat reader, open Office ecc...
Si possono suddividere in due macrocategorie:
- per la produttività̀ personale: per esempio sono rappresentati dal pacchetto Office o
simili (tutti quei software che utilizziamo quotidianamente per delle esigenze personali in
ambito privato ma anche aziendale, per svolgere quelle azioni specifiche che sono alla base
della nostra produttività.
- per uso professionale vengono utilizzati in un contesto aziendale specifico, es. software
applicativi per gestire il magazzino merci, sono utilizzati dalle aziende per supportare i
processi tipici di quella determinata azienda. (software per gestire magazzino merci,
contabilità̀ aziendale
È possibile fare un’ulteriore distinzione tra i software applicativi ad uso professionale per il
mercato ORIZZONTALE e per il mercato VERTICALE.
UTILITY SOFTWARE
I programmi di servizio o utility software svolgono operazioni legate al controllo e all’allocazione
delle risorse del computer.
In altre parole forniscono delle funzionalità̀ aggiuntive al sistema operativo e includono alcuni
software come quelli antivirus, di backup, di ripristino, per la disinstallazione, per l’identificazione
dei problemi hardware...
Tutti quei programmi che supportano il controllo e il corretto funzionamento del computer
estendendo alcune funzionalità̀ non previste dal sistema operativo.
DRIVER
I driver sono software che consentono la gestione delle periferiche (di input e output). Com’è il
driver della stampante che consente al computer di interagire con la stampante stessa.
I raggi infrarossi consentono di trasferire i dati tra i nodi della rete di computer utilizzando
delle onde luminose ad alta frequenza; questa tecnologia richiede che i dispositivi siano ad
una distanza non elevata gli uni dagli altri e che non ci siano ostacoli tra essi (telecomandi
con il televisore.
Il Bluetooth consente, come i raggi infrarossi, consente la trasmissione di una quantità̀
limitata di dati.
La linea di trasmissione mediante la tecnologia Wi-Fi è quella più̀ utilizzata al giorno d’oggi.
INTERNET
Internet è una rete, o meglio una rete di reti, ovvero una rete che aggrega più reti eterogenee.
È un insieme di due o più laboratori connessi da mezzi trasmissivi e la cui comunicazione è regolata
da un protocollo.
È una rete di grandi dimensioni, dunque una WAN.
Caratteristica fondamentale di Internet è l’eterogeneità, la rete internet prevede connessioni che
vanno dai cavi, alle fibre ottiche, ai pinti radio fino ad arrivare al wi-fi che siamo abituati ad
utilizzare a casa. Non ha importanza quale sia la tecnologia che li unisce: cavi, fibre ottiche, ponti
radio, satelliti, o altro.
Non è rilevante neanche di che tipo siano i computer: dal piccolo personal computer agli
smartphone fino ad arrivare ai grandi mainframe delle multinazionali (NASA), quindi una varietà di
hardware e anche di software: sistemi Mac, sistemi windows o qualsiasi altro tipo di sistema
operativo.
Punto di forza di internet, e motivo del suo veloce espandersi, è la sua capacità di avere un
protocollo universale, adatto alla quasi totalità̀ degli elaboratori esistenti.
Il motivo di questo collante che tiene insieme tecnologie così diverse è il protocollo TCP/IP, ovvero
il protocollo della rete Internet che costituisce l’insieme delle regole che definisce come i dati
vengono scambiati. Oltre ad essere un collante straordinario di sistemi eterogenei è anche un caso
forse unico nel mondo delle tecnologie (non solo le tecnologie della comunicazione).
Esso è stato inventato negli anni 60 e tutt’ora fa sì che la rete internet alla quale siamo abituati
(diversa dalla rete degli anni passati) continui a funzionare. I nostri Instagram, i nostri WhatsApp, i
nostri YouTube sono tutti strumenti che funzionano sostanzialmente sula rete Internet e grazie al
protocollo TCP/IP.
LA STORIA DI INTERNET
La nascita di Internet è data nel 1969, anche se allora internet si chiamava Arpanet. In realtà̀ il
progetto nasce qualche anno prima, come progetto militare da cui il nome “arpa” che richiama un
ente della difesa americana).
Nei primi anni cresce molto lentamente e rimane una rete sostanzialmente ad uso militare-
governativo. Nel 1972 Arpanet ha 37 nodi, ovvero 37 mainframe connessi. Negli anni ’80
all’interno di Arpanet si formarono tre network distinti: NSFnet (national science foundation
network), bitNet (beacuse it's time network), CSnet (computer science network).
Nel 1983 viene denominato Internet.
La vera svolta commerciale si ebbe tra il 1989 e il 1991 quando nacque il WWW (world wide web)
a Ginevra nel CERN.
Nel 1993 nasce il primo browser (Mosaic) per navigare su WWW.
Web e internet sono la stessa cosa? NO, internet è la rete, è l'insieme degli elaboratori, dei mezzi
trasmissivi e del protocollo TCP/IP.
Mentre invece il web è una delle applicazioni che funzionano sulla rete internet, la principale.
Anche per esempio Google è una cosa differente da queste due, Google è uno dei contenuti
disponibili sul web.
PERIODO STORICO
Si è nel pieno della guerra fredda: primo contesto indispensabile alla nascita della rete internet.
Gli USA hanno paura di un attacco militare, quindi iniziano a pensare non solo a come difendersi
dal punto di vista militare ma anche a come difendersi in termini di sostenibilità̀ della propria rete
di comunicazione.
Dall’altro lato questo è un periodo in cui l'URSS (unione sovietica) è un gruppo di nazioni molto
evoluto dal punto di vista tecnologico, il lancio del satellite Spuntik nel 1957 è visto come uno
smarco forte dal mondo americano, e il confronto con l'unione sovietica inizia a farsi complesso.
In questo senso il governo americano alla fine degli anni 50 inizio anni 60, chiede al suo
dipartimento di ricerca tecnologica per la difesa (arpa: advanced research projects agency) di
provare a progettare una rete caratterizzata dal fatto che i dati che viaggiano su questa rete siano
in grado di trovare da soli la destinazione. In altre parole, una rete dove i dati, anche in caso di un
attacco fisico alla rete stessa, siano in grado di tornare indietro e trovare autonomamente una
strada per arrivare a destinazione.
ARPA c'è la fa grazie a una startup dell'epoca la BBN Technologies, una società tecnologica fondata
da alcuni professori del Mit che sviluppano una rete telematica con le caratteristiche richieste dal
governo americano, lo fanno utilizzando un minicomputer della Honeywell sul quale furono fatti
gli esperimenti di trasmissione.
Aveva 32 Kb di memoria un processore che pulsava alla folle velocità di 1.1 mhz. Poi con questa
macchina gli esperti dell'ARPA e la BBN sviluppano e sperimentano le prime comunicazioni di
quella che poi sarebbe diventata la rete internet.
IL PROTOCOLLO DI COMUNICAZIONE
Il protocollo TCP/IP (trasmission control protocol / internet protocol): insieme di regole finalizzate
alla trasmissione di dati tra computer connessi alla rete internet.
Fino a qualche anno fa le reti si basavano sul concetto di commutazione di circuito: se due
persone effettuano una chiamata, e una terza prova a chiamare uno dei due la linea risulta
occupata. Nelle reti tradizionali quando due soggetti comunicavano l’uno con l’altro, la rete che li
univa era dedicata esclusivamente a quella comunicazione e non poteva essere utilizzata da terzi.
Il funzionamento di Internet, quindi del protocollo TCP/IP e di tutte le reti di nuova generazione
soprattutto le reti dati funziona sul concetto di commutazione di pacchetto e non di circuito.
Non c'è nessuna linea commutata, nessun circuito commutato dedicato a una specifica
comunicazione, quindi nel momento che io mando via internet un WhatsApp ad un amico, non c'è
nessun circuito, nessuna linea dedicata a quella comunicazione, ma i dati una volta che escono dal
mio telefonino vengono divisi in tanti piccoli pacchetti (es. un messaggio di 12 parole viene diviso
in 12 pacchetti) dove ognuno di questi pacchetti dati segue un percorso diverso per arrivare a
destinazione, e dove la scelta di quale strada seguire non è dettata da nessuna regola se non
quella di imboccare la strada più veloce.
Non importa che applicazione stiamo utilizzando, quello che sostanzialmente succede è che i dati
che noi stiamo inviando online, prima di uscire dal nostro computer vengono suddivisi dal
protocollo TCP/IP in tanti piccoli pacchetti di dati, che sono dei gruppi di 0 e di 1. Questi pacchetti
vengono imbustati virtualmente in una busta fatta di dati che contiene l'indirizzo finale del
destinatario. La foto viene divisa in tanti piccoli pacchetti viene imbustati in tante piccole buste
virtuali e viaggia per la rete in maniera quasi causale, con l0unico obbiettivo di arrivare a
destinazione il prima possibile.
Esistono degli uffici postali virtuali che sono i router che reindirizzano le buste fino a che non
arrivano a destinazione e una volta arrivati a destinazione questi pacchetti si ricompongono nel
messaggio finale.
ROUTER: finalizzato alla gestione del traffico dei pacchetti e dell’instradamento verso altre reti per
raggiungere la destinazione finale.
COMMUTAZIONE DI CIRCUITO
La porzione di rete, di infrastruttura utilizzata per una qualche comunicazione fra mittente e
destinatario è dedicata interamente a quella specifica comunicazione. Qualora quella porzione di
rete dovesse essere distrutta andrebbe persa. La linea è già occupata da un’altra comunicazione
per questo io non riesco a raggiungere l’altra persona.
COMMUTAZIONE DI PACCHETTO
Non c’è nessuna porzione di rete, di infrastruttura che sia interamente dedicata a una specifica
comunicazione. Consente a miliardi di utenti di scambiarsi dati e informazioni
contemporaneamente in maniera super efficiente.
Le informazioni vengono divise in tanti piccoli pacchetti di dati, i quali benché abbiano la stessa
direzione vengono trasmessi secondo vie diverse in funzione del traffico di informazioni della rete
e del funzionamento della rete stessa. I dati scelgono loro la via migliore. I pacchetti scelgono da
soli la strada più libera per arrivare a destinazione nel minor tempo possibile. Arrivano in ordine
sparso, affinché funzioni in maniera efficiente questo invio di pacchetti, a ognuno di questi
pacchetti è assegnata un’intestazione composta un numero sequenziale per capire l’ordine dei
pacchetti (quale viene prima e quale dopo) e il nome del mittente e del destinatario (per capire
dove sono diretti).
Un’intestazione fatta così contente al destinatario di rimettere i pacchetti nell’ordine giusto e di
assemblare correttamente il messaggio originale.
È il TCP/IP a dividere le informazioni in diversi pacchetti, a mandarli al destinarlo e rimettere i
pacchetti in ordine.
Il TCP/IP installato sul computer del mittente assegna l’intestazione e divide l’informazione. Il
TCP/IP installato suoi router serve a indirizzare i pacchetti. Il TCP/IP sul computer del destinatario
deve ricomporre il messaggio.
Dopo del tempo, ci si è resi conto che per gli utenti finali scambiarsi dati su internet utilizzando
solo gli indirizzi IP non era agevole perché bisognava ricordarsi 4 cifre comprese tra 0 e 255, per
questo è stato introdotto un concetto supplementare: quello dei nomi di dominio che sono
stringhe di caratteri testuali, non numeri, strutturati in maniera gerarchica che si sviluppa da
destra a sinistra. ([Link])
INTERNET CAPISCE QUESTI DOMONI? È stato creato un sistema “DOMAIN NAME SYSTEM”: ogni
volta che inserisco un indirizzo di tipo testuale nel browser o un messaggio di posta elettronica il
computer trasforma questo indiritto testuale in un indirizzo numerico.
Il WWW è rappresentato da tutti i siti web che noi quotidianamente utilizziamo per acquisire le
informazioni e prendere atto di situazioni, in generale per consultare e i contenuti pubblicati
online.
Il sito web è caratterizzato da una pagina principale che prende il nome di HOME PAGE e prevede
che ciascuna pagina sia scritta nel linguaggio HTML (hyper text mark-up language), il quale
definisce il linguaggio utile per la formattazione e l’impaginazione di una pagina web: Determina il
modo in cui i contenuti di questi documenti devono apparire all’utente finale.
L’utilizzatore finale dal canto suo per localizzare, visualizzare correttamente queste pagine web
formattate attraverso HTML ha bisogno di utilizzare uno specifico software applicativo che
consente proprio di visualizzare queste pagine web. Questo software applicativo si chiama
Browser (Chrome, safari…). Senza browser non si può navigare nel web.
Dove risiedono queste pagine web?
Le pagine web che compongono un sito web sono scritte con un linguaggio HTML (non è l’unico
tipo di linguaggio esistente per scrivere le pagine web. Queste sono delle vere e proprie pagine
quindi dei file che vengono memorizzati su alcune macchine.
INCONSAPEVOLMENTE OGNI VOLTA CHE NOI ATTRAVERSO IL NOSTRO DEVICE NAVIGHIAMO
ALL’INTERNO DEL WEB DI FATTO STIAMO UTILIZZANDO 2 PROTOCOLLI IL TCP/IP PER CONNETTERE
IL DEVICE ALLA RETE INTERNET E L’http PER POTER VISUALIZZARE LE PAGINE WEB.
Come posso recuperare queste pagine web nel momento in cui attraverso un browser navigo nel
web? Per trovare queste pagine, dobbiamo utilizzare URL “UNIVERSAL RESOURCE LOCATOR”.
URL è l’indirizzo della pagina web che voglio visualizzare. ESEMPIO: htto:// [Link]
Si compongono di due parti fondamentali: il dominio e la http (hypertext transfer protocol) che è il
protocollo applicativo specifico, fa riferimento a una specifica applicazione, protocollo di trasporto
dell’ipertesto.
Il sistema che associa il nome di dominio e indirizzo IP è il DNS quindi quel sistema che associa il
nome di dominio [Link] all’indirizzo IP della macchina sulla quale quel determinato sito
WEB è stato memorizzato.
ATTENZIONE: non confondere i due protocolli che sono sempre regole di trasmissione, ma che
regolano due mondi diversi. Il protocollo TCP/IP è di base per la rete internet, utile perché́ i device
possano essere connessi alla rete internet. HTTP è un protocollo che serve ai device quando
l’utente utilizza quel device per visualizzare delle pagine web.
Ogni qualvolta ci connettiamo a internet utilizziamo il TCP/IP ma ogni volta che visualizziamo una
specifica pagina utilizziamo anche la http.
Esistono altri modi per sfruttare la rete Internet? Perché́ si è fatta confusione tra Internet e
WWW? Quest’ultimo punto è accaduto, perché́ fino a pochi anni fa il modo principale per
sfruttare la rete Internet era sfruttato dal WWW. Il modo che tutti avevano per scambiare dati ed
informazioni sfruttando la rete Internet era rappresentato dai siti web e da qui nasce l’utilizzo
errato dei termini come sinonimi.
Per non fare confusione possiamo cercare altri modi per sfruttare la rete Internet. Quali sono
questi modi?
Un modo è rappresentato dalla possibilità̀ di trasferire dei file, di solito di grandi dimensioni,
utilizzando la rete Internet, ma non utilizzando il WEB. Questo può avvenire con il protocollo FTP
(file transfer protocol) (che viene usato in alternativa a http) che consente ad una rete con client e
server, di scambiarsi dei file senza avvalersi del WEB. Questo protocollo oggi è ancora usato, ma in
modo ridotto rispetto a prima, in quanto esistono differenti strumenti di trasmissione di file di
grandi dimensioni come il Cloud.
Un altro protocollo applicativo che ci dimostra come sia possibile utilizzare la rete internet, ma
non il WEB è SMTP (simple mail transfer protocol), utile per il trasferimento delle mail, usato
quando vengono scambiati messaggi di posta tra mittente e destinatario.
Oggi esiste un altro contesto che spiega come Internet ed il web non siano la stessa cosa, è il
contesto delle APP.
Queste ultime sono uno strumento utile per fare delle attività̀ e scambiare dati ed informazioni,
attraverso la rete Internet, senza utilizzare il mondo del WWW. Questa rivoluzione è stata tale che
nel 2010, la rivista WIRED ha intitolato la copertina del giornale “web is dead” in un lungo
editoriale di 2 autori che sono ANDERSON e WOLF si spiega come il web si ritenga morto.
Il Web si ritiene essere morto: un esempio molto chiaro. Per comprenderlo possiamo utilizzare la
seguente immagine.
(Con le lezioni successive andremo a capire come le ICT abbiamo modificato le architetture dei
sistemi informativi dai primi anni ’50 ad oggi. Ovvero i modelli con cui i sistemi informativi operano
e permettano di conseguenza alle aziende di poter lavorare).
Le 3 fasi sono:
1. Sistemi informativi dove ICT ha un ruolo di supporto della produzione
All’inizio degli anni ’60 iniziano ad apparire sul mercato i primi elaboratori (mainframe) anche se i
SI esistevano già ma lavorano senza computer.
Quindi in questo periodo tante grandi organizzazioni es. banche, agenzie viaggio e supermercati
che già esistevano avevano un SI ma completamente non automatizzato quindi senza ICT.
Le aziende con l’arrivo dei primi mainframe e delle prime tecnologie iniziano ad adottarli con
quello che viene chiamato “effetto calcolatrice” ovvero un elaboratore che viene utilizzato per
supportare l’organizzazione nel fare le operazioni lunghe e ripetitive.
Viene definito effetto calcolatrice perché veniva utilizzato l’elaboratore per fare quelle cose che
noi facciamo fare alla calcolatrice quindi le cose ripetitive lunghe e più complicate per la mente
umana. Questi sono gli anni dei cosiddetti sistemi di elaborazione delle transazioni base, si parla
in tal senso di ICT con un ruolo di supporto alla produzione all’interno dei sistemi informativi.
Es. nel mondo della produzione industriale il primo mainframe viene utilizzato nella catena di
montaggio così poteva controllare la qualità̀ di essa.
Nel mondo dei supermercati il primo mainframe viene utilizzato nelle operazioni di cassa.
Nel mondo bancario il primo mainframe viene utilizzato per i calcoli dell’estratti conto. Prima del
supporto alla produzione i SI esistevano ma le ICT non ancora quindi non si può parlare di impatto
delle tecnologie sui SI.
3. Sistemi informativi dove ICT diventa una vera e propria arma strategica
Siamo ai giorni nostri dove la tecnologia è diventata per la maggior parte delle organizzazioni una
vera e propria arma strategica. Quindi le aziende attraverso l’uso delle tecnologie trovano nuovi
modi e modelli di competere fra di loro.
Es. Check-in online delle compagnie aree che risparmiano sulla propria forza lavoro facendo
lavorare il consumatore/cliente da casa per loro.
In questo caso si parla di uso strategico perché́ grazie alla tecnologia le compagnie aree riescono
ad operare meglio sul mercato risparmiando risultando così più̀ efficaci ed efficienti.
Altro esempio è la possibilità̀ che viene data all’utente di scegliere il proprio posto per il volo.
In questa fase all’interno delle aziende si parla di Networking, Intranet ed Enterprise resource
planning e all’esterno di Extranet, E-Commerce e Cloud Computing.
Es: FedEx
FedEx o DHL investono principalmente in ICT perché́ queste sono uno strumento indispensabile e
di risorsa di business, in quanto l’intero sistema di consegne è gestito da un sistema informativo
altamente sofisticato con sede negli USA. (un Datacenter).
Nel caso di FedEx questo Datacenter è replicato come backup in altre due parti nel mondo visto
che l’intera operatività̀ si basa sulle tecnologie e se si dovesse spegnere i corrieri non saprebbero
più̀ dove andare a consegnare.
Per evitare questo hanno investito su sistemi informativi automatizzati di backup che si trovano in
nord Europa e in una zona non dichiarata del sud est asiatico.
Queste società̀ competono sul mercato anche sulla capacità di consegna veloce e puntuale ma
anche su servizi aggiunti che offrono ai clienti solitamente basati sulla tecnologia.
Es. i servizi di tracking.
In primo luogo, come è cambiato l’uso delle tecnologie in azienda in funzione del livello di merce.
Nelle prime fasi la tecnologia era qualcosa di utilizzato dalle facce basse della piramide aziendale: i
lavoratori di basso libello trattandosi di sistemi di elaborazione delle transizioni, l’impiegato dello
sportello, il capo di produzione in fabbrica, la cassiera al supermercato, in un primo periodo i
grandi manager si rifiutavano di usare la tecnologia e la facevano utilizzare alla segretaria. Oggi
siamo arrivati a una tecnologia in mano anche ai più alti livelli aziendali delle funzioni della
tecnologia che sono fondamentali per i più alti livelli.
Una seconda forza che invece è quella della complessità del sistema: sostanzialmente intendiamo
che ni primi anni di uso delle tecnologie all’interno dei sistemi informativi i sistemi e le architetture
erano semplici, c’era un computer all’interno delle organizzazioni. Oggi invece i sistemi informativi
sono estremamente complessi, un sistema informativo aziendale non è più soltanto tecnologia
interna all’azienda ma sono sistemi informativi le cui infrastrutture vanno all’esterno in questo
senso cloud computing è un buon esempio
Nelle prime fasi, la tecnologia era una cosa utilizzata dalle fasce basse delle piramidi
aziendali/lavoratori di basso livello.
Es. impiegato dello sportello e capo produzione in una fabbrica
C’è un primo periodo dove i grandi manager si rifiutavano di usare la tecnologia facendola usare
alle segretarie, mentre oggi la tecnologia è in mano anche ai più alti livelli aziendali.
Riferimento ai primi anni ’60, quindi arrivo del primo mainframe e dei primi sistemi informativi
automatizzati La prima tipologia di SI prende il nome di TPS (Transaction Processing System)
ovvero sistema di elaborazione delle transazioni che serve ad automatizzare attività̀ ripetitive e
standard.
Verso l’inizio degli anni ’80 entrano in azienda due nuove tipologie di SI:
OAS (Office Automation System) ovvero sistema di automazione d’ufficio e sono strumenti per
uso personale che abilitano gli impiegati all’utilizzo della tecnologia per presentazioni su word,
calcoli su Excel ecc...
Sono a grandi linee quello che oggi è il pacchetto office
KWS (Knowledge Worker System) sistema di supporto ai lavoratori della conoscenza ed è un
sistema pensato per chi nella propria attività lavorativa fa della propria conoscenza l’elemento
differenziale: quindi ingeneri, architetti
Es. sistemi CAD (computer ared design) che aiutano a progettare oggetti e componenti utilizzando
un sistema automatizzato.
Quindi seconda fase di evoluzione dei sistemi informativi attraverso la tecnologia in ottica verticale
quindi di sviluppo manageriale si passa da lavoratori operativi (impiegati base) a un livello un po’
più alto i cosiddetti lavoratori della conoscenza.
C’è poi una terza fase che è la fase in cui la tecnologia arriva addirittura a toccare i livelli più alti
della piramide (il manager fino ad arrivare all’amministratore delegato), compaiono tre nuove
tipologie di sistemi informativi:
- DSS: Decision Support System
- MIS: Management Information System
- ESS: Executive Support System
Esempio: un DDS può̀ essere un sistema che analizzando una enorme quantità̀ di dati aiuta un
direttore marketing a decidere la strategia di prezzo, prodotto e location migliore per sviluppare il
proprio business.
Esempio McDonald’s
Esempio specifico McDonald’s che ha preso in considerazione di aprire un ristornate di fianco
all’università̀ IULM e la decisione finale è stata no.
Questa decisione è stata presa dal direttore marketing di McDonald’s aiutato da una serie di dati
che arrivano dalla base della piramide aziendale ma anche altri dati che arrivano dall’esterno
dell’azienda.
Il DDS o MIS ha indicato un alert ovvero che i clienti derivanti dalla IULM sono soggetti ad una
forte stagionalità̀ quindi periodo che va da giugno a metà settembre.
Quindi in sintesi questi sono sistemi che aiutano quotidianamente i manager a prendere decisioni
aggregando dati che arrivano dalla base ma anche dall’esterno dell’azienda.
Oggi tutti questi sistemi continuano ad esistere in azienda, ma soprattutto nelle organizzazioni di
grandi dimensioni sono integrati in un unico sistema chiamato sistema ERP (Enterprise Resource
Planning): azienda risorse pianificazione ovvero sistemi informativi orientati alla pianificazione
delle risorse di azienda.
Sono sistemi informativi che tengono insieme la contabilità̀ aziendale, sistemi orientati ai middle
management e anche i sistemi professionali. Tutti in un unico sistema informativo.
Es. principale produttore di questi sistemi è l’azienda tedesca SAP, un’azienda tedesche che è
leader nella diffusione di questi sistemi ma anche la stessa Oracle e la stessa Microsoft hanno
sviluppato sistemi informativi integrati che le aziende possono prendere e adottare e avere così
coperte tutte le funzionalità̀ tipiche di un SI sia che si tratti di livelli base o manageriali della
piramide.
La seconda forza: quella che abbiamo detto essere collegata alla complessità del sistema è un
modello classico dove grazie all’evoluzione delle architetture è un modello classico dove
l’evoluzione delle tecnologie della comunicazione sotto un profilo manageriale vengono divide in 4
grandi ere:
• BATCH Late ’50’s early ’70’s
• REAL TIME Early ’70’s mid ’80’s
• PC revolution Mid ’80’s early ’90’s
• cloud computting Today
Prima della prima fase non c’è la tecnologia.
PRIMA FASE
Una qualsiasi organizzazione ha Front Office che è quella parte di organizzazione che parla con il
cliente finale ed un Back office che è invece quella parte dell’organizzazione che non vede, non ha
un dialogo diretto con il cliente finale.
La nonna va in banca, l’operatore di sportello ha un paio di timbri e carta e penna, ha solo un
telefono fisso. L’operatore registra su un foglio di carta l’operazione della nonna e da una ricevuta
del versamento alla signora.
La signora chiede all’operatore di sapere quanto è il suo saldo totale conto corrente dopo aver
versato il suo assegno.
L’operatore può dirle che il suo saldo di conto corrente di tre giorni fa era tot, per sapere quello
nuovo deve ripassare tra tre giorni. Perché́ tra tre giorni?
Al giorno d’oggi è strano pensare che ci vogliano tre giorni per sapere un’informazione del genere.
Tre giorni perché si trattava di un sistema informativo non automatizzato, che richiedeva persone,
processi e l’analisi di dati.
Ma le applicazioni non erano legate al mondo delle tecnologie, e succedeva che tutti gli sportelli di
tutte le banche mettevano tutti i fogli di azioni registrate in degli scatoloni e un camioncino nella
notte li portava al Back office dove la mattina dopo gli operatori di esso aprivano gli scatoloni e
facevano i conti a mano su dei grandi libri contabili dove ogni pagina corrispondeva a un cliente e
su queste pagine facevano le sottrazioni, le moltiplicazioni e le addizioni rispetto a quelli che erano
stati i versamenti, i prelievi e gli eventuali interessi.
Facevano i calcoli per ciascun cliente e a fine giornata calcolavano l’estratto conto.
Il numero dell’estratto conto veniva imbustato e messo negli scatoloni, e la mattina dopo sarebbe
stato portato dal camioncino nella banca.
E la nonna tre giorni dopo riceveva l’informazione richiesta.
Questo periodo si chiama BATCH cioè a blocchi o a pezzi e si contrappone al significato di real
time.
Alla fine degli anni 50 e agli inizi degli anni 60 nasce l’informatica, nascono i primi elaboratori
(mainframe) con una capacità elaborativa estremamente limitata rispetto all’hardware a cui siamo
abituati oggi. All’interno dei front office appare un Computer. Come cambia l’esperienza del
cliente: La nonna vuole fare il suo solito versamento, l’omino al banco scriverà sul foglio le sue
operazioni sempre manualmente.
La nonna richiede l‘estratto conto e le verrà detto di ritornare tra due giorni. Perché 2?
Perché i dati al posto che processarli manualmente li elaborano utilizzando il mainframe a loro
disposizione. Gli estratti conti vengono prodotti in tempi minori.
In questi anni l’architettura prende nome di Server Base (architettura centralizzata), vi è un unico
elaboratore all’interno dell’azienda, il main frame non un personal computer, e tutta
l’organizzazione trae beneficio da un singolo computer.
SECONDA FASE
A metà degli anni ’70, l’esperienza della nonna cambia in maniera significativa perché la stessa
presentandosi in banca trova qualcosa di nuovo, uno schermo con una tastiera che prende il nome
di DumbTerminal.
Non è un computer ma è un componente hardware che permette attraverso la linea telefonica di
connettersi all’elaboratore centrale.
La nonna alla domanda del saldo del suo conto corrente trova una risposta in tempo reale perché́
l’operazione di accredito dell’assegno avviene in tempo reale.
In termine di struttura organizzativa, cambia tantissimo perché́ non c’è più̀ il camioncino e non ci
sono più̀ i lavoratori nel Back Office.
In tal senso questa fase viene chiamata fase del REAL TIME.
In termini d’architettura, essa continua ad essere centralizzata perché́ c’è solo un mainframe.
Anche se ci sono molte connessioni con i Dumb terminal, è sempre centralizzata l’architettura.
Il concetto di Real time si contrappone a quello di Batch che significa a pezzi. Quando facciamo
un’operazione in batch significa che l’elaborazione avviene successivamente all’accadimento
dell’evento.
TERZA FASE
Un sostanziale cambiamento a livello dell’architettura avviene a metà degli anni ’80, come effetto
di un’evoluzione tecnologica legata all’avvento dei personal computer.
Quindi, lo spostamento di un’informatica orientata solo a supportare l’organizzazione basata su
mainframe: minicomputer ad un’informatica basata ad un uso personale.
La nonna andando in banca trova una situazione radicalmente cambiata al front office: perché́
tutti hanno un personal computer e con esso interrogano il mainframe centrale ma possono
lavorare anche in autonomia.
Oltre al conto corrente istantaneo può chiedere un report dettagliato rispetto alla sua situazione
patrimoniale negli ultimi anni. In tal caso il personale al front office con il personal computer
riesce, con un incrocio di dati presenti sul mainframe e usando la capacità elaborativa del suo
personal computer riesce a stampare il report e a darlo nelle mani della signora.
In questo caso non si può parlare più di architettura centralizzata, ma di architettura:
DISTRIBUITA (in opposizione al nome precedente) o CLIENT SERVER.
In entrambi casi si fa riferimento al fatto che non c’è solo un elaboratore in azienda ma molti di più
di uno.
QUARTA FASE
Essa corrisponde al concetto di cloud computing: elaborazione che avviene nella Cloud. Il cloud è
un luogo non definito della rete.
La fase odierna può essere definita come la fase dove l’elaborazione avviene nella rete. il
fenomeno del cloud computing che può essere ricondotto ad un fenomeno più generale che è il
cosiddetto fenomeno dell’outsourcing (tradotto in italiano = esternalizzazione) descrive il
fenomeno tale per cui un’organizzazione decide di esternalizzazione, di dare in outsourcing alcune
delle sue attività ad aziende terze che siano più competenti nello svolgimento di quell’attività.
(AD ESEMPIO, PENSIAMO ALL’UNIVERSITA’ IULM E IL SUO OBIETTIVO È DI EDUCARE GLI STUDENTI
QUINDI ATTIVITA’ COME LA MANUTENZIONE DEL GIARDINO, LA PULIZIA DELLE AULE, LA GESTIONE
DELLE MENSE, LA SICUREZZA NEL CORSO DEGLI ANNI E’ STATA ESTERNALIZZATA QUINDI OGGI LA
MENSA DELLA IULM NON E’ GESTITA DA DIPENDENTI DELLA IULM, LE PULIZIE DELLE AULE NON
SONO EFFETTUATE DA DIPENDENTI IULM SONO ESTERNALIZZATE A SOCIETA’ TERZE CHE FANNO
SOLO ED ESCLUSIVAMENTE QUELLO DI MESTIERE)
Grazie al cloud computing può utilizzare diversi tipi di servizi presenti nella nuvola e accessibili
soltanto attraverso il web.
Anche noi possiamo utilizzare i prodotti nella nuvola, che possano servire a E-mail, documenti,
foto sharing sono sicuri e protetti e accessibili da qualsiasi connessione internet.
Il fenomeno del cloud computing può essere ricondotto al fenomeno dell’outsourcing
(esternalizzazione). Esso descrive il fenomeno dove un’azienda decide di esternalizzare dei
processi ad aziende terze che siano più̀ competenti nello svolgimento di quell’attività̀.
Outsourcing raggruppa tutte quelle attività̀ che non rientrano nelle attività̀ primarie di un
organizzazione/azienda. ESEMPIO La Iulm ha come obbiettivo di insegnare quindi: la pulizia
delle aule, la manutenzione dei giardini e la mensa è stata delegata a terzi.
Le architetture dei sistemi informativi aziendali si sono evolute nel corso degli anni: da
un’architettura completamente centralizzata chiamata host-centric o server centri computing
perché al centro c’era solo un server o un computer, che ha caratterizzato le architetture dei
sistemi dalla fine degli anni 50 fino alla metà degli anni 80, si è poi passati a un’architettura non
più centralizzata ma distribuita: quello che viene chiamato il client/server computing dove a fronte
di uno o più server ci sono anche tanti client. Nel corso degli anni l’architettura cliente/server è
rimasta l’architettura chiave dei sistemi informativi ma quello a cui assistiamo oggi è
un’esternalizzazione sia dei server sia dei client verso il mondo della rete e quindi un’architettura
che continua si ad essere distributiva ma con al centro la rete.
È credibile che il cloud diventi l’architettura predominante nei prossimi anni? SI.
GRID COMPUTING
Un’architettura informatica estesa dove grazie alle caratteristiche del cloud sarà possibile
condividere capacità elaborativa inutilizzata.
La possibilità non più tanto remota e assolutamente fattibile di unire le capacità elaborative
inutilizzate di centinaia di migliaia di computer nel mondo, per processare elaborazioni che
richiedono grande capacità elaborativa senza dover dedicare a tale capacità elaborativa un
computer o un mainframe dedicato.
Da qualche anno Telecom Italia elabora le fatturazioni mensili dei clienti (operazioni che
richiedono un enorme capacità elaborativa) grazie ad un meccanismo di grid computing che
mette insieme le capacità elaborative inutilizzate di tutti i personal computer dei dipendenti di
Telecom Italia durante la notte. Quando un dipendente di Telecom Italia va a casa, non spegne di
computer, sul quale è installata un’applicazione che prende il controllo.
Noi abbiamo visto che nelle prime tre fasi dell’evoluzione delle architetture ICT (Batch, Real Time,
PC revolution), nel batch e real tim: un’architettura di tipo centralizzata, nella fase della pc
revolution abbiamo un’architettura di tipo distributivo, le ICT hanno un impattato sulle relazioni
tra il Back Office e il Front Office.
Nel caso della nonna che va in banca, il servizio che le viene offerto varia nel momento in cui varia
la modalità con cui Back Office e Front Office parlavano tra di loro grazie alla tecnologia.
La riflessione rispetto a quello che sta succedendo oggi, quello che è successo negli ultimi 10/15
anni dell’evoluzione delle ICT è che con il cloud computing (ultima fase) quello che
sostanzialmente cambia è che, grazie alle tecnologie che nel frattempo da semplici tecnologie
informatiche (IT) sono diventate tecnologie dell’informazione e della comunicazione (ICT), oggi le
organizzazioni hanno la possibilità̀ di far partecipare virtualmente alle proprie attività̀ anche i
clienti finali o più̀ in generale gli stakeholders.
Esempio in realtà noi quando facciamo il check-in per easy jet seduti da casa siamo anche
contenti perché risparmiamo tempo, non dobbiamo parlare con un operatore antipatico,
possiamo farlo quando vogliamo; quindi, sicuramente la tecnologia ci porta una serie di vantaggi.
Ma in realtà se ci pensiamo bene in quel momento noi siamo lavoratori part-time non retribuiti di
easy jet, lavoriamo al posto dell’operatore easy jet. Grazie alla tecnologia easy jet ci coinvolge
nell’attività̀ della propria organizzazione senza quasi che noi ce ne accorgiamo.
YouTube, Wikipedia, Trip Advisor, Airbnb, Facebook... sono tutte aziende che hanno fatto del loro
successo la capacità di far lavorare qualcun altro. Gli utenti comprano e loro guadagnano. Queste
aziende hanno avuto la capacità di coinvolgere nel proprio business soggetti esterni senza pagarli.
Siamo di fronte a giganti del business che hanno creato il proprio business su questo concetto,
sulla capacità grazie alla tecnologia di coinvolgere soggetti esterni.
Questo è un esempio di uso strategico della tecnologia. Questo è quello che è cambiato
radicalmente nel corso degli ultimi 15/20 anni grazie all’uso di nuove tecnologie: la possibilità delle
organizzazioni di far partecipare alla propria attività̀ anche soggetti esterni.
SHARING ECONOMY
Modello economico basato su un insieme di pratiche di scambio e condivisione di beni materiali o
servizi come airbnb, uber.
Sono due piattaforme di economia collaborativa, in particolare di sharing economy, che abilitano
lo scambio di appartamenti e servizi di trasporto, basandosi sul concetto che non si tratta di
un’agenzia immobiliare tradizionale che possiede appartamenti e che li rende disponibili all’affitto,
ma si tratta di una piattaforma che unendo la crowd sia dal lato della domanda che dal lato
dell’offerta ha creato un nuovo modello di business. Stessa cosa per Uber, non si tratta di una
compagnia di taxi tradizionali che possiede una flotta di autoveicoli, ma di una piattaforma in cui
sia dal lato della domanda che dal lato dell’offerta vi è un’enorme partecipazione di chiunque:
chiunque può fare il driver, chiunque può richiedere un servizio di trasporto.
Oltre a queste due aziende continuano a nascerne in ogni ambito, qualsiasi mercato è aperto a
forme di sharing economy.
GIG ECONOMY
Un modello economico sempre più diffuso dove non esistono può le presentazioni lavorative
continuative ma si lavora on demand. È una nuova forma di lavoro, non più indeterminato e
continuativo. Il lavoro on demand è abilitato ad una piattaforma tecnologica.
In particolare, quando si fa riferimento alla gig economy si fa riferimento al mondo delle consegne
del food delivery come deliveroo che è una nuova modalità di lavoro: offre la possibilità di lavorare
appunto on demand
CROWDFUNDING
Un processo collaborativo di un gruppo di persone che utilizza il proprio denaro in comune per
sostenere progetti o gli sforzi di persone e organizzazioni. In altre parole, si fa rifermento a dei
processi collaborativi finalizzati allo scambio di denaro.
CROUWDSOURCING
È lo sviluppo collettivo di un progetto grazie alla conoscenza apportata da numerose persone
esterne all’entità che l’ha ideato.
YouTube, per esempio, non ha mai prodotto un video, i video li produciamo noi perché troviamo
nel riprodurre video un riconoscimento di tipo sociale.
Esistono tre diverse ragioni per cui una folla può decidere di contribuire ad un progetto di terzi:
- Sociale (fama/visibilità , relazioni, prestigio) Waze (aiutare gli altri), Prezzi benzina.
- A pagamento Zooppa (chi presenta il progetto di creatività migliore viene compensato);
Amazon Turk (piccoli lavori che possono essere eseguiti da chiunque, ma non da un pc).
-Inconsapevole quando lavoriamo per terzi senza accorgerci.
La forma assolutamente più diffusa di crowdsourcing in sapevole è sicuramente il CAPTCHA, sta
per (completely automated public turing test to tell computers and humans apart) è un termine
coniato dai ricercatori della carnagie mellon university nel 2000, in termini più semplici è uno
strumento che serve a distinguere gli uomini dalle macchine.
È CHIARO CHE SI TRATTI DI CROWDSOURCING INCOSAPEVOLE IN QUANTO OGNUNO DI NOI
APPORTA LA SUA CONOSCENZA E NON VIENE RETRIBUITO IN NESSUN MODO PER LA
CONOSCENZA CHE APPORTA.
ICT e MERCATI DIGITALI: E-COMMERCE e NEW ECONOMY: i nuovi modelli di business nel
contesto attuale
Cerchiamo di capire come le aziende possono sfruttare i sistemi informativi e le ICT per il proprio
business
Ci sono molte aziende (YouTube, Airbnb, Uber) che hanno utilizzato la tecnologia per supportare il
proprio business-
COMMERCIO ELETTRONICO
In inglese e-commerce è attività di compravendita di beni e servizi dove le principali fasi
necessarie a portare a completamento la transazione (fasi come la comunicazione, scelta del
prodotto, contratto, pagamento ecc.) sono effettuate usando sistemi di comunicazione elettronica
e un’infrastruttura di rete.
Quindi il commercio elettronico è un’attività̀ commerciale che prevede la compravendita di beni
fisici o digitali e servizi dove le ICTs, e su tutte la rete internet, contribuiscono a portare a termine
una o più fasi di questo processo di scambio commerciale.
Le aziende iniziano a comprendere le potenzialità dell’e-commerce intorno al 95.
I beni possono essere fisici o digitali:
- Un bene digitale è un prodotto composto da bite e come tale può essere erogato attraverso
internet (Es: e-book) e recapitato in posta elettronica o con un’opera di download.
- I beni fisici sono i beni tangibili che devono esserci recapitati attraverso un negozio o un
commesso.
Nuovi Intermediari
Nel mondo dell’online accanto al fenomeno della disintermediazione si è assistito alla nascita di
nuovi intermediari: il contesto è più̀ complesso ed eterogeneo perché́ se è vero che l’azienda
produttrice può̀ raggiungere il cliente finale è anche vero che il cliente ha delle nuove esigenze che
possono essere soddisfatte da nuovi intermediari.
Esempio: settore del turismo dove i classici intermediari erano rappresentate dalle agenzie di
viaggio che sono state bypassate nel loro ruolo dalla possibilità̀ data all’utente finale di acquistare
biglietti aerei o pacchetti viaggi sui siti di compagnie aree o resort.
È anche vero che quando un utente deve compiere questo acquisto ha davanti a sé diverse e
numerose opzioni che non riesce a valutare in economia confrontandole; per questo si sono
introdotti nuovi intermediari che hanno captato l’esigenza del consumatore finale.
Si sono quindi posti come nuovi intermediari tra l’azienda produttrice dei servizi e il cliente finale.
Esempio: Booking e Trivago trovano un modo per soddisfare esigenze che il cliente non
riuscirebbe a soddisfare in altro modo.
Questo panorama vede accanto a un ruolo minoritario di alcuni intermediari tradizionali, un ruolo
sempre più̀ rilevante di aziende che si pongono come nuovi intermediari.
Il mondo quindi dell’online cerca di trovare delle nuove strategie tra delle strade di
disintermediazione e reintermediazione, cioè di nascita di nuovi opportunità̀ di cambia in
intermediari che trovano nuove business in un contesto che cambia in continuazione.
B2B (business to business) azienda che vende ad un’altra azienda. Scambio di informazioni e
transizioni commerciali tra aziende.
Esempio: un’azienda si approvvigiona, via web, delle materie prime necessarie al proprio ciclo
produttivo
Quando un’azienda vende prodotti o servizi ad un’altra azienda; quindi, non è previsto l’intervento
di un consumatore finale.
L’attività̀ di compravendita avviene da aziende che vendono prodotti o servizi ad altre aziende.
(non sono previste transazioni)
Questo processo prevede che tra aziende ci siano processi di business, quindi degli scambi
commerciali o di informazioni solo tra operatori di un determinato settore.
In particolare, le aziende sfruttano le possibilità̀ date dal commercio elettronico B2B per il
cosiddetto E- Procurement ovvero l’approvvigionamento elettronico. Le aziende acquistano
online approvvigionamenti di beni utili alla produzione del prodotto principale.
Vari tipi di siti web B2B che vengono utilizzati dalle aziende:
Supplier Portal (portale dei fornitori)
È un sito web che consente ad un’azienda (definita acquirente) di gestire i molteplici fornitori che
utilizza per l’approvvigionamento di ciò che necessita per svolgere il proprio core business.
Di solito l’acquirente è un’azienda medio-grande dimensione che riesce attraverso il sito web a
gestire la molteplicità di fornitori con la quale interagisce quotidianamente.
Un esempio di azienda acquirenti che sfrutta dei supplier portal può essere FIAT, per poter
accedere ai servizi bisogna essere accreditati come fornitore e questo da la possibilità di accedere
e di entrare in diretto contatto con l’azienda per supportare e sostenere quelli che sono degli
scambi commerciali, un’attività di compravendita, uno scambio di informazioni personalizzate.
Customer Portal (portale delle aziende acquirenti)
Dove un’azienda fornitore utilizza il sito B2B per gestire molteplici acquirenti.
Anche in questo caso le aziende che utilizzano questi siti sono aziende di medio-grande
dimensione e un esempio può essere Boeing: Il grande pubblico può̀ visionare la homepage e
vedere delle informazioni pubbliche e generiche, ma possono accedere alle transazioni con Boeing
solo le aziende accreditate, e dovranno identificarsi attraverso uno username e una password.
Marketplace
Rappresenta una sorta di piazza del mercato dove ci sono molti fornitori e molti acquirenti che
sfruttano il sito web B2B per favorire l’incontro tra domanda e offerta.
Questi Marketplace possono essere generici, per esempio, Toboc che è un global B2B marketplace
dove aziende di vari settori possono incontrarsi ed effettuare attività̀ di compravendita di cui
necessitano.
Accanto a dei marketplace generalisti troviamo marketplace per settore esempio Fibre2Fashion
che è aperto solo ad aziende appartenenti al settore tessile.
Altro esempio è PaperIndex che è però dedicato all’industria cartaria.
NEW ECONOMY
A metà degli anni ’90 fu coniato il termine New Economy, tale periodo termina con l’inizio del
nuovo millennio (10 marzo 2000).
New economy è un termine che vuole contrapporre il nuovo contesto al mondo dell’offline che
fino a quegli anni aveva contraddistinto l’attività̀ di business delle aziende che sfruttavano canali
tradizionali fisici per vendere i propri beni e servizi.
La new economy vuole definire un contesto nuovo il cui focus è sul mondo dell’online.
Le aziende iniziano a capire quali siano le opportunità e i vantaggi dati da un canale nuovo (online,
rappresentato dal mondo del WWW) e così iniziano a spostare alcune attività, in particolare quelle
commerciali, su tale canale.
Tra i vantaggi si ricorda: poter vendere sostanzialmente e potenzialmente in qualsiasi parte del
mondo 24 ore su 24, 24/7.
La new economy si contrappone alla Old economy che in quegli anni sembrava aver perso il ruolo
cruciale nel contesto professionale. La new economy si propone come un contesto nuovo da cui le
aziende possono cogliere delle opportunità di business mai conosciute in precedenza.
INIZIATIVE IMPRENDITORIALI
La New economy è caratterizzata da innumerevoli iniziative imprenditoriali chiamate DOT COM
(.com).
Nel periodo della new economy le aziende sono iniziative imprenditoriali (oggi start up) che
utilizzano il sito web per vendere prodotti e servizi online. Dunque, per effettuare un’attività di e-
commerce.
Alcuni esempi di tali iniziative imprenditoriali sono:
[Link]quotata in borsa nel 1999, consiste in una drogheria online. Vende
prodotti alimentari e deperibili, ha base a San Francisco e consegna direttamente al
domicilio degli acquirenti sulla costa ovest degli USA.
[Link]1998, si tratta di un sito web che vende prodotti per gli animali domestici.
Vendite online e consegna al domicilio.
[Link]1998, sito web in cui si vendono cose di vario tipo (snack, dvd) che ha come
obbiettivo non solo la vendita online, ma propone anche una serie di condizioni
vantaggiose per gli acquirenti. Promette la consegna dopo un’ora dall’acquisto senza oneri
di consegna per l’acquirente, e senza un minimo di spesa che debba essere sostenuto da
quest’ultimo.
[Link]1997, azienda con un sito web che vende giocattoli per bambini, con
consegna a domicilio.
[Link]1998, azienda che intende vendere all’inizio libri, e in un momento successivo
capi di abbigliamento. Tale attività̀ è svolta in modo innovativo.
[Link]1997, nata per vendere libri online per poi in futuro vendere online tutti i
prodotti.
CORSA ALL’ACQUISTO
Attorno alla new economy e alle aziende che fanno parte di tale contesto si sviluppa una vera e
propria euforia collettiva. Un periodo in cui la maggior parte delle persone conoscono in minima
parte il mondo dell’online e delle tech companies.
Nel giro di pochi anni cambiano radicalmente la loro opinione verso tale nuovo contesto e
decidono di dare fiducia alle iniziative imprenditoriali, trasformando tale fiducia in azione concreta
quando in massa vengono acquistate le azioni di tali aziende nel momento in cui si quotano in
borsa.
Si verifica così la corsa all’acquisto delle azioni delle Dot Com nel momento in cui esse si quotano,
soprattutto presso il Nasdaq (indice dei titoli tecnologici presso la borsa americana), creando così
una bolla speculativa.
Ciò perché gli acquisti erano motivati da aspettative/previsioni di profitti in continua crescita, e
sovente non erano acquisti motivati da analisi razionali sulla base delle reali potenzialità di
espansione e crescita.
Tale corsa all’acquisto di azioni, fa salire il valore di esse a volte anche in modo esponenziale,
nonostante alla base delle iniziative imprenditoriali non ci fosse una vera e propria solidità dal
punto di vista economico-finanziario.
MODELLO DI BUSINESS
Un modello di business costituisce la sintesi della strategia di un’azienda e delinea il modo in cui
gli obiettivi verranno raggiunti, specificando le modalità̀ attraverso le quali l’azienda crea e
distribuisce valore. Attraverso il modello di business è possibile identificare alcuni elementi chiave
come le fonti dei ricavi, come la proposta di valore dell’azienda, come l’offerta in termini di
prodotti e servizi che caratterizzano quella determinata azienda, come la clientela alla quale quella
determinata azienda si vuole rivolgere.
Revenue modelmodello che definisce come verranno generati i ricavi; definisce quali
sono le fonti che genereranno ricavi per l’azienda (pubblicità, abbonamenti ecc.). nel caso
delle vendite quali sono prodotti e a che prezzo verranno venduti.
Value proposition (proposta di valore) l’utilità che il prodotto/servizio offre al
consumatore.
Qual è la proposta di valore insita nel prodotto offerto dall’azienda? Cosa differenzia la mia
azienda da altre simili? Perché il consumatore dovrebbe scegliere la mia azienda?
In tal caso [Link] offriva la shopping experience che distingueva tale azienda dalle altre.
La proposta di Boo era solida e avrebbe potuto prevalere tra le altre...
Competitive environmentanalisi dell’ambiente competitivo di riferimento. Chi sono i
concorrenti? Quali sono le loro caratteristiche? Quanto è forte la concorrenza in quel
settore?
Marketing strategyil modello di business contiene le attività strategiche e operative
perla promozione dei prodotti/servizi venduti dall’azienda.
In tale settore le dot com si sono dimostrate capaci di comunicare i propri prodotti e i
vantaggi derivanti da essi.
Tuttavia, ciò non è sufficiente, sono necessari tutti gli elementi del modello di business e
non uno singolo di essi.
Management teaml’esperienza, il background, la conoscenza delle persone che devono
gestire l’azienda. Nel caso di [Link] i fondatori dell’azienda hanno poi riconosciuto la
loro mancanza di conoscenza in quel determinato contesto.
E OGGI?
Il timore esiste; oggi alcune tecnologie che sono oggetto di forte attenzione sono quelle relative al
mondo dell’artificial intelligence.
Ciclicamente si assiste a delle fasi di innamoramento verso nuove tecnologie che si affacciano sul
mercato: tale euforia che porta a considerare solo gli aspetti positivi caratterizza l’opinione
pubblica e i mercati a fasi cicliche.
Ciò̀ a cui bisogna prestare attenzione è maturare una consapevolezza delle reali opportunità̀
offerte da tali tecnologie e valutarne i limiti al fine di evitare di avere delle aspettative irrealistiche
rispetto a ciò̀ che potranno fare le tecnologie in auge.
LA TRASFORMAZIONE DIGITALE
È importante soffermarsi sul contesto che le aziende e i singoli individui stanno vivendo nell’epoca
contemporanea. Tale periodo è caratterizzato dalla trasformazione digitale (digital
transformation).
Essa contempla la trasformazione in bite (0,1) di molte attività normalmente svolte nel contesto
fisico. Attività anche relazionali o che prevedono lo svolgimento di transazioni, ma anche la
trasformazione di beni e servizi. Qualsiasi elemento viene trasformato in 0,1. Sempre di più i
segnali analogici in ditali rendendo i device multifunzionali. Es: lo smartphone
Vuol dire far si che sempre più attività aziendali precedentemente svolte in modo manuale dagli
esseri umani possano essere rese automatiche attraverso l’ausilio delle tecnologie
dell’informazione e della comunicazione.
In un’azienda sempre più attività sempre più processi produttivi e processi gestionali oggi
possono essere automatizzati attraverso dei sistemi informativi che si avvalgono delle ICT e che
quindi consentono di rendere in modo automatico dei processi che prima venivano svolti in
maniera manuale dalle persone.
A livello operativo le attività che sono caratterizzate da una elevata frequenza, da modalità
standard che si ripetono sempre nello stesso modo possono essere facilmente automatizzate
attraverso dei sistemi informativi che prendono il nome di TPS (TRANSACTION PROCESSING
SYSTEM) e che quindi ci rendono bene l’idea di come un’attività, un processo aziendale possa
essere svolto in modo automatizzato anziché svolto in manualmente dalle persone che
giornalmente lavorano su queste attività.
Nel contesto aziendale, la trasformazione digitale sta trasformando le aziende rendendole sempre
più automatizzate e interconnesse, alla ricerca di maggiore efficienza, innovazione e capacità di
collaborazione tra i lavoratori.
Più automatizzate significa che sempre più attività aziendali possono essere rese automatiche
attraverso l’ausilio delle tecnologie dell’informazione e della comunicazione. Ciò significa che in
azienda, sempre più processi produttivi e gestionali, oggi possono essere automatizzati tramite SI
che si avvalgono di ICT e che consentono di rendere in modo automatico tali processi che prima
venivano svolti in modo manuale dalle persone. Si riducono i tempi.
Le attività che possono essere automatizzate sono quelle ripetitive che seguono una routine,
attività standard. (es: gestione di una fattura, attività di pagamento)
Più interconnesse significa che oggi le aziende sono sempre più interconnesse tra loro e con gli
stakeholder esterni, con i clienti finali e ciò grazie allo sviluppo e all’utilizzo sempre più massiccio
delle tecnologie dell’informazione e della comunicazione.
Es: fascicolo sanitario consultabile dalla farmacia, dalla persona, dal medico di base, specialista.
Le aziende possono sfruttare le tecnologie e le reti informatiche per supportare la comunicazione
all’interno dell’azienda e anche all’esterno, lo scambio di informazioni e di documenti ma anche lo
svolgimento di transazioni che oggi sono abilitate dal contesto online.
Quindi, tale interconnessione avviene a due livelli: a livello INTRA-AZIENDALE (tra diverse parti
all’interno dell’azienda) e a livello INTER-AZIENDALE (tra l’azienda e altri soggetti).
Quarta rivoluzione industriale che si basa sulla trasformazione in formato digitale dei documenti
aziendali, delle transazioni, die processi aziendali. Questa digitalizzazione porta ad una
automatizzazione delle aziende e ad una forte interconnessione.
I modelli di ricavo possono essere molteplici, diversi rispetto al mondo fisico. per esempio, AirB&B
usa modelli di ricavo basati sulle transazioni che sono a capo dell’utente. Mentre Youtube non
pone a carico dell’utente i pagamenti, ma a carico degli inserzionisti.
Alcuni elementi di questi modelli di business sono adottati anche da aziende con modelli pipe (ad
esempio recensione dei clienti).
- ACQUISTI DI GRUPPO
Gli acquisti di gruppo utilizzano l’effetto rete per incrementare il potere d’acquisto sugli acquirenti
e ottenere forti sconti sulla vendita di prodotti e servizi.
Esempio: Groupon
Queste società trattano con aziende locali per ottenere sconti speciali su grandi quantitativi di
prodotti o servizi e li offrono ai loro utenti sotto forma di “affare del giorno”: se un numero
sufficiente di persone sottoscrive l’impegno ad acquistare il prodotto o servizio, i clienti ottengono
sconti significativi sul prezzo di acquisto.
Questi modelli di business (acquisti di gruppo) sono davvero sostenibili?
L’azienda che offre il prodotto o servizio utilizza queste operazioni per ridurre la merce invenduta
(in caso di prodotti) o per attirare nuovi clienti.
Non sempre questo avviene: a volte capita che gli acquirenti, che ottengono prodotti con sconti,
sono clienti poco soddisfatti poiché́ le aziende non trattano allo stesso modo, con servizi di alta
qualità̀, i clienti veicolati tramite da siti che prevedono acquisti di gruppo.
Le aziende che aderiscono: potrebbero dover affrontare il rischio di perdite significative, dato che
il sito che gestisce il sistema di acquisti di gruppo generalmente trattiene una quota notevole del
prezzo pagato dal cliente (spesso intorno al 50%); inoltre, esse potrebbero non essere in grado di
stare al passo nel caso di un improvviso aumento della domanda.
SOCIAL MEDIA
Inizialmente il web, metà anni 90, era un web dove l’utente era principalmente un utente passivo.
Chi pubblicava i contenuti? Le aziende che gestivano il sito web. Le informazioni che si trovavano
sul web erano informazioni che avevano un carattere istituzionale. Le informazioni arrivavano da
fonti certe.
Le cose iniziano a cambiare nei primi anni 2000 quando ci si rende conto che una possibile
evoluzione del world wide web stava in un coinvolgimento del pubblico nella creazione dei
contenuti.
Iniziano ad essere rese disponibili alcune tecnologie che favoriscono la pubblicazione di contenuti
da parte dell’utente finale. WEB 2.0
I social media sono connessi al Web 2.0 (concetto che nasce nel 2004 in una conferenza attraverso
un’attività di Brainstorming in cui alcune persone hanno provato a identificare quali fossero le
nuove caratteristiche del contesto web che si stava delineando in quegli anni.
Il Web 2.0 è una combinazione di:
Nuove applicazioni: per fornire un’interattività di tipo avanzato da parte di un utente
medio senza una formazione specifica. Con alcuni tipi di tecnologie favoriscono la
pubblicazione di informazioni da parte dell’utente finale. Applicazioni che consentono
all’utente di avere un ruolo più attivo. Da passivo diventa attivo. (condividi, vota,
commenta questo articolo, crea un tuo profilo utente, crea un tuo blog). Coinvolgimento
dell’utente che dedica tempo ed energie per scriver un commento a beneficio di una
comunità di utenti che neanche conosce. (recensione su TripAdvisor)
Nuovo modo di intendere e di utilizzare la Rete, indirizzato a una sempre maggiore
partecipazione e coinvolgimento degli utenti finali nella redazione dei contenuti che
verranno pubblicati online (approccio user-generated content, UGC dove i contenuti sono
generati direttamente dell’utente finale. Contenuti che possono avere forme diverse:
possono essere testi, video, immagini, che l’utente finale genera e pubblica per dar si che
alti utenti possano prenderne visione.
La rivoluzione del web 2.0 è stata tale che il Time a dicembre del 2006 nella copertina che
annualmente viene dedicata alla persona dell’anno ha indicato l’utente della rete: la copertina ha
questo schermo con la scritta You. “Si ́ proprio tu, tu che controlli l’era dell’informazione
benvenuto nel tuo mondo”.
L’utente del web 2.0 è un utente comune, che utilizza applicazioni semplici da usare (user friendly)
per interagire con il contesto online, senza avere un background informatico specifico. Non è un
esperto della materia a cui si accinge a commentare.
L’altro elemento da considerare è il coinvolgimento dell’utente finale. La volontà di partecipare ai
contenuti da parte dell’utente finale è essenziale affinché́ il Web 2.0 possa funzionare.
Il Web 1.0 (1996) era un web principalmente di sola lettura; l’utente finale poteva acquisire i
contenuti che venivano pubblicati da istituzioni, aziende, coloro che gestivano i siti web e
pubblicavano contenuti controllati e verificati. Il numero di siti web e utenti era inferiore rispetto
a quello odierno. (45 milioni di utenti) Pochi utenti pubblicavano contenuti.
Il Web 2.0 (2006) diventa un web di scrittura e lettura. Vi sono utenti interattivi. (1 miliardo di
utenti) Aumentano gli utenti della rete globale, ancora oggi una parte dei contenuti arrivano da
fonti istituzionali certificate ma vi è maggiore possibilità̀ di collaborazione.
Collective intelligence rappresenta la conoscenza e l’esperienza condivisa tra più̀ utenti che non
sono esperti del singolo settore, ma sono un’eterogeneità̀ che contribuiscono con diversi livelli di
esperienza.
Questo ha rivoluzionato completamente il contesto dell’online perché ha creato una sorta di
mondo parallelo in cui le persone addirittura hanno trasferito la gestione delle relazioni personali.
Porta con sé dei benefici come però una serie di effetti collaterali come l’uso poco consapevole di
quello che è il mezzo.
NUOVO CONTESTO
Il nuovo contesto comporta la co-creazione di esperienze.
Il nuovo contesto presenta tante implicazioni dal punto di vista tecnologico, perché́ esso prevede
che siano rese disponibili applicazioni facili da usare.
D’altro lato ci sono una serie di implicazioni dal punto di vista sociale, che sono oggetto di studio
da diverse discipline come la sociologia.
Gli utenti hanno sviluppato il bisogno di socialità̀ (trasposizione di alcune relazioni tipiche
dell’offline in un contesto online, di cui a volte si perde il senso comune) e di una nuova
individualità̀.
È opportuno considerare alcuni aspetti rischiosi legati al Web 2.0 e alla possibilità̀ di pubblicare
contenuti che possono essere lesivi della dignità̀ o dell’immagine altrui.
Questi aspetti devono essere oggetto di attenzione per evitare situazioni che sono anche
legalmente perseguibili.
Non essendoci un controllo e una verifica a priori, le informazioni pubblicate a volte non sono
veritiere (fake news); sta agli utenti verificare l’attendibilità delle fonti.
Quali sono i driver di sviluppo dell’IOT, ossia gli elementi che guidano lo sviluppo di questo trend
digitale?
- Evoluzione tecnologica di chip e diminuzione dei relativi costi: presenza sul mercato di
tecnologie a prezzi accessibili.
L’accesso a tali tecnologie non è riservato a una nicchia di aziende o persone che hanno la
disponibilità̀ economica alta, ma è garantito l’accesso alla massa di persone e aziende che
intendono svilupparla.
- Evoluzione tecnologica delle trasmissioni wireless: questi oggetti devono beneficiare di una
trasmissione wireless per poter scambiare dati e informazioni.
Il Mobile 5G cioè la 5 generazione mobile è sicuramente una tappa dell’evoluzione tecnologica
degna di nota, che riscuote un grande interesse.
Vi è una correlazione tra Internet delle cose e Mobile, proprio perché questi trend digitali sono in
forte interconnessione tra loro.
Il Mobile fornisce quella trasmissione wireless di cui gli oggetti dell’IOT necessitano per scambiare
dati e informazioni.
LE SFIDE
La principale sfida dell’IOT è rappresentata dai dati e dalla loro gestione:
Privacy e sicurezza dei dati: i dati che vengono generati e scambiati dagli oggetti dell’IOT sono
spesso sensibili, riservati e la grande sfida è rispettare la privacy e la sicurezza dei dati stessi.
Compliance: cioè la conformità a determinati standard e norme a livello nazionale europeo e
internazionale che regolano la gestione di dati.
Ownership dei dati: vuol dire a proprietà dei dati, a chi appartengono i dati generati
dall’oggetto? all’individuo o all’azienda che ha prodotto l’oggetto?
Attendibilità dei dati: quanto sono attendibili i dati che provengono dagli oggetti. Questo è un
aspetto estremamente impostante perché se consideriamo che sulla base di questi dati vengono
prese delle decisioni in tempo reale è chiaro come l’attendibilità diventi un elemento di cruciale
importanza.
Gestione dei dati: i dati che vengono raccolti devono essere analizzati e interpretati in tempo
reale per fornire informazioni all’oggetto e agire di conseguenza.
I dati che sono stati raccolti dagli oggetti connessi alla rete Internet poi devono essere analizzati in
tempo reale, questo richiede una grande capacità elaborativa che spesso le aziende non hanno a
disposizione.
Da qui due considerazioni che ci aiutano a capire perché sia tanto difficile analizzare e gestire i
dati generati dall’IOT.
Questi dati sono moltissimi (big data) e con strutture differenti l’uno dagli altri, inoltre la capacità
elaborativa necessaria non sempre è a portata delle aziende.
La seconda questione é legata alla capacità elaborativa necessaria alle macchine per analizzare
questo grande quantitativo di dati, abbiamo detto che spesso le aziende non hanno a disposizione
un’infrastruttura tecnologica adeguata in questo subentra il cloud computing cioè̀
un’infrastruttura online che a diversi livelli offre delle risorse informatiche on demand e tra queste
risorse informatiche c’è appunto la capacità di immagazzinamento dati, la capacità di analisi dei
dati
Qui si capisce la relazione tra IOT e il Cloud Computing che fornisce quell’infrastruttura tecnologica
che consente di supportare il mondo IOT e consente quell’analisi e interpretazione dei dati che le
aziende non potrebbero fare con le macchine che possiedono a meno che non siano delle grandi
aziende dell’HI TECH.
LA TELEFONIA MOBILE
Il mobile rappresenta una tendenza digitale attuale perché́ a livello globale, su una popolazione
totale di oltre 7.7 miliardi di persone, gli utilizzatori di telefoni mobili sono 5.19 miliardi.
Gli utilizzatori della rete internet sono 4.54 miliardi, mentre gli utenti attivi nei social media sono
3.80 miliardi.
Il ruolo della telefonia mobile è fondamentale all’interno di un contesto mondiale sempre più̀
interconnesso.
Questi dati danno il senso del mobile come trend: rappresentano l’importanza del mobile come
trend.
IERI E OGGI
L’origine della telefonia mobile risale agli anni 70 e in particolare si fa risalire la prima telefonata
pubblica con un telefono cellulare all’aprile del 1973 quando Martin Cooper un ingegnere di
Motorola chiama da una strada di Mahnattan utilizzando il telefono che vediamo rappresentato
nella slide: il Motorola Dyna-TAC.
Il Motorola Dyna-Tac ha delle caratteristiche ben diverse dagli smartphone a cui noi oggi siamo
abituati
Il Motorola Dyna-Tac aveva un peso di 1,5 kg una durata della batteria di soli 30 minuti e
necessitava 10h per la ricarica.
La telefonia mobile prevede la suddivisione dell’intero spazio geografico coperto in piccole aree
denominate celle, al cui interno è collocata la stazione radiobase (ricetrasmittente) che si occupa
di gestire le comunicazioni.
Nella realtà le celle hanno forme circolari in quanto i confini si sovrappongono con i confini delle
celle adiacenti, per evitare che il passaggio in mobilità di un utente da una cella all’altra possa
determinare la perdita del segnale.
La stazione radiobase dell’impianto gestisce, in particolare, sia l’insieme di frequenze che il
sistema assegna alla propria cella, sia la comunità di utenti presenti al suo interno.
Essa gestisce le comunicazioni all’interno della cella e quelle degli utenti che passano da una cella
all’altra (handover).
La telefonia mobile supporta la necessità di mantenere attive le comunicazioni per utenti che si
spostano all’interno di uno spazio geografico. A tal fine esso è stato suddiviso in celle: ogni cella ha
una stazione radiobase che gestisce le comunicazioni delle persone che sono all’interno di quella
cella.
Ma, trattandosi di comunicazioni in mobilità , è normale pensare che tali persone si spostano da
una cella all’altra spostandosi nello spazio geografico. La necessità , dunque, è quella di avere una
comunicazione stabile mentre si è in movimento.
Ciò̀ avviene attraverso la procedura di handover, che fa sì che la stazione radiobase di una cella
gestisca le comunicazioni delle persone che sono all’interno di quella cella, e gestisca anche il
passaggio di quell’utente da una cella a quella adiacente, così che la comunicazione sia garantita
anche in movimento.
lo spazio geografico è stato suddiviso in celle, ogni cella ha una stazione radiobase che gestisce le
comunicazioni delle persone che sono all’interno di quella cella però trattandosi di comunicazioni
in mobilità è normale pensare che queste si spostino da una cella all’altra mentre si spostano
all’interno di uno spazio geografico, la necessità è quindi quella di avere una comunicazione stabile
mentre sono in movimento.
Si ha subito evidenza del fatto che questi servizi sono aumentati da una generazione a quella
successiva passando da servizi di sola voce negli anni 80 a servizi che integravano la voce all’invio
di brevi messaggi di testo negli anni 90, alla generale offerta di servizi voce, internet e servizi
multimediali che ha contraddistinto la terza generazione negli anni 2000.
Prima generazione: TACS
Tacs Total Access Cellular System (1G)
La prima generazione mobile inizia a svilupparsi a partire dagli anni ’80 e si basa sullo standard
TACS.
Si basa su un sistema di tipo analogico, quindi non ancora di tipo digitale. Consente il
trasferimento della sola voce.
Lo standard consente la comunicazione solo all’interno dei confini nazionali. Non consente,
pertanto, le chiamate dall’estero.
caratterizzata da device di grandi dimensioni e pesanti; una batteria che aveva un’autonomia
molto ristretta ed erano molto costosi, erano anche dei device che avevano uno schermo molto
piccolo: in alcuni casi era addirittura assente in altri casi invece era presente ma con una
limitazione evidente cioè lo schermo era utilizzato esclusivamente per vedere il numero di
telefono e per poter vedere quello che veniva digitato attraverso la tastiera che consentiva di fatto
solo la composizione dei numeri di telefono.
Quindi anche se più evoluti rispetto al Dyna-TAC degli anni 70 sicuramente restano dei device
particolari: grandi dimensioni, elevato peso, ridotta autonomia della batteria.
Questi telefoni venivano utilizzati in principale modo da parte di persone che acquistavano questi
telefoni per esigenze professionali, di conseguenza la diffusione presso il grande pubblico era
molto limitata
Nella seconda generazione iniziano a svilupparsi anche dei protocolli applicativi per rendere il web
wireless. Ovvero, per poter utilizzare i devices mobili nella navigazione sul web.
Uno di questi è il WAP, che aveva la funzione di rendere l’accesso al web praticabile anche da un
device di seconda generazione.
L’accesso alle informazioni (visibili tramite pagina web) era diverso: le informazioni erano semplici
messaggi di testo che potevano essere accessibili da parte dei device di seconda generazione.
visibili attraverso una pagina web consultata attraverso un pc venivano trasformate in semplici
messaggi di testo che potevano essere in questo modo accessibili da parte dei device di seconda
generazione. In particolare, in questo esempio
si vede chiaramente come sullo schermo del telefonino non appaiano ne icone, ne colori, ne
grassetti o formattazioni particolari del testo, vi è un semplice messaggio di testo che reca le
informazioni principali: Stoccolma, Svezia molto nuvoloso, temperatura 19, previsione per lunedì ̀
nuvoloso. Quindi le stesse informazioni che vediamo sulla sinistra sono qui replicate in modo
estremamente semplificato così da essere accessibili attraverso un device mobile e così da essere
anche visibili attraverso un device mobile che ricordiamo è un device di seconda generazione e
quindi non ha sicuramente le caratteristiche fisiche dello smartphone che oggi noi conosciamo. I
costi di navigazione: noi oggi siamo abituati a tariffe flette estremamente vantaggiose per gli
utenti finali che consentono una navigazione sul web in generale uno scambio di dati e
informazioni sulla rete internet a dei costi molto ridotti. Non era così negli anni 90 in cui per poter
aver accesso alla rete internet e navigare sul web attraverso telefonino bisognava sostenere dei
costi estremamente elevati.
Generazione 2.5
Con l’evolversi della seconda generazione negli anni ’90 si assiste a un progressivo sviluppo
tecnologico che porta alla generazione 2.5, ovvero una generazione a metà tra la seconda e la
terza.
Essa è caratterizzata da:
High Speed Circuit Switched Data (HSCSD)
General Packet Radio Service (GPRS)
Enhanced Data rates for Global Evolution (EDGE)
Tale generazione attraverso questi standard inizia ad avvicinarsi sempre di più verso la terza
generazione, consentendo sempre di più̀ lo scambio di informazioni in formato multimediale.
Consentendo una velocità di trasmissione sempre maggiore.
Questo avviene grazie allo standard GPRS che introduce il sistema di commutazione di pacchetto.
Anche i devices stessi cambiano: schermi maggiori che si avvicinano ad essere smartphone.
Il 5G è oggi oggetto oggi di grande interesse anche oggetto di tante fake news che si susseguono
quello che è importante ricordare è quello che dal punto di vista tecnologico le strutture
sembrano essere in grado di fare e che dovranno essere sperimentate in tal senso e d’altro canto
quelle che sono poi eventuali problematiche connesse all’utilizzo di queste tecnologie che
sicuramente esistono così come esistono in tutti gli altri ambiti di utilizzo di tecnologie di vario
tipo.
Per le aziende, ciò significa pensare a tale canale come un canale su cui effettuare mobile
markerting e advertising per raggiungere il pubblico in movimento seppur in una strategia
comune di integrazione dei diversi canali. (sms/mms, qr code)
Un altro strumento è rappresentato dal sito web: qualche anno fa essi erano consultati tramite pc
fisso con schermo di medio/grandi dimensioni.
Oggi, molti utenti consultano i siti web mediante devices mobili. Una tecnica di progettazione dei
siti web molto efficace è la Responsive web design: basata sulla tecnica responsive, pertanto un
sito adatta il proprio layout e i propri contenuti alle dimensioni del device utilizzato per la
visualizzazione del sito stesso, pertanto quando si accede a un sito web così progettato si
vedranno Layout differenti in base al device che si sta utilizzando per la navigazione questo vuol
dire che la visualizzazione di quel determinato sito web attraverso un desktop avverrà con un
Layout adeguato alle dimensioni dello schermo, lo stesso layout sarà automaticamente ridefinito
se ad accedere a quel sito web è un utente che utilizza un tablet oppure uno Smartphone, quindi
accedendo a un sito web progettato attraverso questa tecnica Responsive utilizzando un device
Mobile io non vedo quel determinato sito web semplicemente miniaturizzato e che quindi diventa
estremamente difficile da navigare, bensì vedo gli stessi contenuti però strutturati in un modo
diverso e fruibile da un Device di piccole dimensioni.
Oggi gli esempi di siti web Responsive sono numerosi e li individuiamo tutte le volte che
accediamo ad un sito web tramite un device mobile e la struttura di questo sito cambia a seconda
del device utilizzato.
Infine per poter accedere ai contenuti e ai servizi offerti dalle aziende tramite mobile le aziende
hanno a disposizione le App che abbiamo visto che sono degli applicativi che consentono di
veicolare informazioni o servizi e sempre di più vengono sfruttate per far sì che gli utenti possano
accedere con semplicità a dei contenuti che le aziende vogliono rendere disponibili attraverso il
canale mobile.
[Link] derivante da una diffusione massiccia dei device mobili è la nascita di nuovi modelli di
business
Alcune peculiarità del contesto mobile facilitano la nascita di nuovi modelli di business creati
attorno a tali funzioni:
- Geolocalizzazione (ad esempio per mobile marketing): attraverso la geolocalizzazione è possibile
identificare la posizione di un utente e fare delle promozioni ad hoc in ragione del fatto che
l’utente si trovi proprio in quella posizione; io posso inviare sul suo dispositivo mobile un
messaggio promozionale personalizzato in esclusiva per lui e solo in ragione del fatto che lui si
trovi proprio in quel momento a passare davanti al negozio.
- Mobile payment (m-payment): si identificano quelle attività e quei sistemi che consentono di
pagare attraverso il proprio cellulare.
Esempio: Mobile Proximity Payment: pagamento in prossimità̀ che avviene quando avviciniamo il
nostro telefono a un lettore per effettuare un pagamento oppure il cosiddetto Mobile Remote
Payment: il pagamento da remoto, quando utilizziamo il cellulare per effettuare un acquisto e la
somma viene scalata dal nostro credito telefonico, questo per esempio è un metodo utilizzato per
l’acquisto di alcuni servizi come il parcheggio dell’auto in determinate città .
- Mobile Commerce (m-commerce): attività di compravendita di beni e servizi attraverso
dispositivi mobile.
Rientrano in questa fattispecie anche tutte le attività di E-commerce che però sono effettuate
attraverso dei dispositivi mobili.
I sistemi che supportano il Mobile commerce pertanto devono essere progettati in modo tale da
essere efficaci nel loro contesto quindi sarà necessario considerare che gli utenti di un sistema di
Mobile commerce saranno utenti molto probabilmente in movimento, saranno utenti che
utilizzeranno dei device di piccole dimensioni e quindi con una limitata fruibilità dello schermo ma
saranno anche utenti a cui sarà possibile fornire dei servizi personalizzati in ragione delle
informazioni che l’utente stesso attraverso il device mobile renderà disponibili all’azienda come
per esempio le informazioni relative alla sua posizione raccolte dall’azienda attraverso i sistemi di
geolocalizzazione.
Vi è un legame tra social e m-commerce, ad esempio, si pensi ad Instagram che permette di
veicolare attività di compravendita a cui l’utente finale può accedere principalmente attraverso
dispositivi mobili.
Qual è la criticità nel gestire e nell’immagazzinare dei dati che abbiano queste caratteristiche?
La criticità sta nel fatto che, per le aziende immagazzinare e gestire dei dati in modo che siano
sempre attuai, corretti, completi è qualcosa di estremamente difficile sia dal punto di vista
tecnologico ma anche dal punto di vista organizzativo.
Per aiutarsi, le aziende utilizzano degli strumenti appositi per la gestione dei dati. Questi strumenti
si dividono in strumenti più tradizionali e strumenti più innovativi.
Come avviene l’inserimento dei dati in un database e come avviene l’estrazione dei dati in un
database: l’inserimento avviene in modo strutturato, bisogna rispettare delle procedure che sono
state precedentemente definite, queste procedure dicono esattamente quale dato devo inserire e
come lo devo inserire.
Es. quando bisogna inserire nome, cognome, data di nascita.
Anche l’inserimento e l’estrazione dei dati sono attività strutturate, che seguono regole e
modalità prestabilite.
Perché si tratta di una raccolta dati strutturata? noi abbiamo un questionario con delle domande
ben precise, di solito ci sono anche delle risposte a scelta multipla che ci imbrigliano la valutazione
cosicché quei dati che poi noi inseriamo possono essere oggetto di analisi e valutazioni successive
attraverso un’estrazione e soprattutto attraverso un confronto tra i dati.
Ora proviamo a fare qualche esempio di domanda che posso porre al Database e quindi qualche
esempio di dato che io posso estrarre da questo stesso Database. Chiaramente le domande
saranno molto strutturate ad esempio quali sono i nomi e gli indirizzi dei clienti? Quindi la
domanda che posso fare per interrogare il Database chiamata Query
Quindi domande molto strutturate che vengono utilizzate proprio per estrarre dei dati che sono
stati raccolti secondo una determinata logica e che secondo quella stessa logica possono essere
estratti e poi successivamente anche comparati.
Esempio:
-quali dati posso estrapolare da un database?
-quali sono gli studenti che si identificano…?
- quali sono i nomi e gli indirizzi dei clienti della mia azienda?
- quali sono i clienti con sede in Lombardia?
- quali sono i clienti che hanno acquistato il prodotto xy nel 2019? Sono domande che vengono
utilizzare per estrarre dei dati.
Se avessi la necessità di trovare una risposta a delle domande più complesse, il database potrebbe
darmi una soluzione?
Ad esempio:
- qual è il trend previsto della quota di mercato nel sud Italia per il prodotto xy?
- qual è il tasso di crescita delle vendite previsto per il prodotto xy suddiviso per regione?
A queste domande il database non può dare una risposta, perché la struttura con la quale è stato
impostato non consente delle analisi così sofisticate su quei determinati dati che sono stati
raccolti.
Per rispondere a quelle domande invece servono dei sistemi informativi e dei contenitori di dati,
diversi dai database.
Oggi i dati provengono non solo dalla normalità delle aziende ma anche da altre fonti: per esempio
IOT
Ora però se io avessi la necessità di trovare una risposta a delle domande un po’ più complesse il
Database potrebbe darmi una soluzione? il Database non può dare una risposta perché la struttura
con la quale é stato impostato non consente delle analisi così sofisticate su quei determinati dati
che sono stati raccolti.
DSS E BI
Per rispondere a queste domande servono dei sistemi informativi che prendono il nome di
“Decision support Systems” (DSS) o “Sistemi business intelligence” (BI): essi combinano dati,
strumenti analitici e modelli per sostenere decisioni manageriali di tipo semi-strutturato.
Supportano il processo decisionale dei manager quindi di manager di livello intermedio che nella
piramide gerarchica che rappresenta in modo semplificato l’azienda si trovano a metà e questi
sistemi sono dei sistemi che supportano il processo decisionale combinando dati, strumenti
analitici e modelli appunto per sostenere delle decisioni manageriali di tipo semi-strutturato.
Consentono di fare delle analisi più sofisticate rispetto a quello che riescono a fare i semplici
database. Un sistema di supporto decisionale è composto da diversi elementi:
- Data warehouse: un contenitore di dati e i sistemi di analisi dei dati contenuti nel data
warehouse che sono sistemi di: data mining, sistemi Olap o altri tipi di sistemi.
Ciò che contraddistingue questi sistemi è rappresentato da due elementi:
il primo elemento rappresenta un raccoglitore, un magazzino dei dati che prende il nome di data
warehouse, il secondo elemento è rappresentato da questi sistemi che consentono l’analisi dei
dati che sono stati raccolti nel data ware house e possono essere di vario tipo ad esempio data
mining o olap.
DATA MINING
Un altro modo per analizzare i dati contenuti nel data warehouse è attraverso i sistemi di data
mining;
esso consiste nell’attività di ricerca e analisi di una grande mole di dati, utile ad estrarre concetti e
scoprire nuove informazioni. Scavare ed estrarre dai dati degli elementi che siano di valore
aggiunto.
Sono sistemi alternativi o complementari ai sistemi OLAP che contribuiscono ad analizzare i dati
presenti nei data warehouse al fine di restituire ai decisori delle informazioni utili a supportare il
loro processo decisionale; tuttavia il data mining svolge questa funzione in un modo diverso
rispetto ai sistemi olap, perché i sistemi di data mining consentono di effettuare l’esplorazione e
l’analisi di dati all’interno dei data warehouse per individuare modelli e schemi logici non espliciti
a priori.
Vuol dire che i dati contenuti nel data warehouse che vengono analizzati attraverso i sistemi di
data mining, vengono analizzati senza che colui che interroga il data ware house abbia definito a
priori una domanda che definisca la relazione prevista tra questi dati.
Esempio: la federazione di atletica americana ha utilizzato il data mining per capire quali fattori
influenzano le prestazioni di un atleta, senza avere una domanda precisa rispetto al tipo di fattore
che poteva o meno avere un’influenza sulla prestazione. Hanno raccolto un enorme quantità di
dati relativi alle performance e alle vite di essi. Il data mining aveva lo scopo di scoprire le relazioni
tra i dati al sistema stesso.
BIG DATA
“Big data” vuol dire “grande quantitativo di dati, un’enorme massa di dati” che si è andata
creando sempre più intensamente negli ultimi anni.
Questa è una copertina di “The Economist” del 2010 che già titolava “il diluvio di dati” qui i dati
sono rappresentati come se fossero delle gocce di acqua e si vede un signore che tenta di
convogliare quest’acqua in poche gocce che risultano essere utili per innaffiare una piccola
piantina.
Il diluvio sarebbe inutile perché farebbe annegare la povera pianta, la metafora è chiara: i dati
sono tanti, sono tantissimi noi siamo sommersi dai dati ma tutti questi dati se non vengono in
qualche modo convogliati come lì nella copertina attraverso un ombrello messo al contrario
difficilmente risultano essere utili per noi, saremmo diversamente sommersi da
una grande mole di dati nella quale non riusciremmo ad estrarre nulla di utile, nulla di
significativo.
Big data fa riferimento al fenomeno dell’overload cioè sovraccarico informativo quando io ho
troppi dati e troppe informazioni alla fine sono sommerso e non ho ne il tempo ne la capacità di
analizzare dati e informazioni e non
sono pertanto in grado di trarre un valore da questo patrimonio enorme di dati e bisogna
sottolineare che questa enorme quantità di dati viene continuamente alimentata giorno dopo
giorno dalle attività che noi svolgiamo online che contribuiscono a generare questi dati che
costituiscono questo enorme quantitativo di dati di cui stiamo parlando
Questa enorme quantità di dati viene continuamente alimentata dalle attività online che
contribuiscono a generare questi dati che costituiscono questo enorme quantitativo di dati.
Le domande che bisogna porsi sono:
Da dove arrivano tutti questi dati? Questi dati derivano sia da fonti interne all’azienda che da
nuove fonti esterne.
Tra le nuove fonti esterne troviamo i trend digitali di cui abbiamo già parlato, social media,
internet delle cose e mobile.
Social media: dati relativi a post, like, commenti...
IOT: tutti gli oggetti connessi alla rete generano dati che vengono scambiati in rete e costituiscono
l’elemento alla base del funzionamento dell’IOT. Es: Lampione che ha dei sensori che recepiscono
l’ambiente, si autoregola.
Mobile: tutti i dati relativi alla geolocalizzazione.
Quindi questi generano notevolmente incremento della quantità di dati potenzialmente utili alle
aziende. Potenzialmente perché se l’azienda fosse sommersa da questi dati non riuscirebbe a
trovare un valore in questo quantitativo enorme di dati, ne verrebbe completamente travolta
senza trarne vantaggio.
Quindi per poter trasformare questi dati in qualcosa di significativo, quest’ultimi devono essere
analizzati e trasformati, devono diventare informazione.
L’elemento di difficoltà sta proprio nella gestione di questi dati. Il tema della quantità dei dati è
solo uno degli aspetti dei big data.
Le caratteristiche dei big data possono essere rappresentate attraverso quattro V:
- v di volume;
- v di velocità ;
- v di varietà;
- v di veridicità.
Il volume, l’enorme quantità di dati è solo uno dei primi problemi/caratteristiche dei big data. È
anche difficile dare una quantità precisa dei dati generati e scambiati quotidianamente online,
alcuni dati però possono darci un’idea di massima del fenomeno, per esempio, si stima che 2.5
quintilioni di Bytes di dati vengano creati ogni giorno, così come si stima che la maggior parte delle
aziende negli Stati Uniti abbia almeno 100 Terabytes di dati immagazzinati. Questi numeri sono già
impressionanti ma bisogna dire che sono continuamente rivisti al rialzo.
La varietà sta a rappresentare le differenti forme di dati che vengono generati e di conseguenza
vengono poi immagazzinati per essere analizzati.
È una caratteristica che rende difficoltosa la gestione e l’analisi dei dati perché accanto ai dati
strutturati cioè quelli che troviamo nei database aziendali oggi ci sono tanti altri dati che hanno
forme differenti e queste forme differendo sono molteplici e questo rende l’analisi difficile.
Diverse forme di dati: mobile e IoT dati di geolocalizzazione che definiscono la posizione di una
persona, dati da sensori etc.
Esempio: Feedback in merito a un prodotto/servizio
Questionario tradizionale (con domande diverse) e social media (like, post, video, gif ecc.).
La veridicità: quanto sono veri i dati che sono stati raccolti?
L’attendibilità dei dati contribuisce a rendere più complessa l’analisi dei big data. Esistono dati che
volutamente sono stati diffusi in maniera non corretta (fake news), e dati anche poco attendibili
non essendo stati analizzati in modo corretto (senza dolo, ma perché il processo di
immagazzinamento è risultato non adeguato, da ciò deriva un dato falsato).
Quindi ciò vuol dire che tra i dati non veritieri troviamo sia quei dati che sono stati volutamente
creati in tal modo quindi per esempio le fake news ma troviamo anche dei dati non attendibili
perché chi o cosa ha generato quel dato lo ha fatto in modo poco appropriato è l’esempio del
sensore che rileva la temperatura esterna e la rileva in modo non corretto, non c’è del dolo c’è una
semplice rilevazione errata di una condizione che quindi però genera un dato che è falsato cioè
che non è attendibile.
Alcuni brevi casi estremamente sintetici che raccontano l’utilizzo di alcuni Big Data Analytics per
l’analisi di grandi quantitativi di dati in alcuni contesti aziendali:
Il 1 caso fa riferimento all’azienda Mediaset che utilizza una soluzione fornita da IBM Social Media
Analytics quindi che è un Big Data Analytics dove IBM ovviamente identifica l’azienda che fornisce
la soluzione, social media identifica il contesto da cui vengono tratti i dati quindi è di fatto una
soluzione Software che analizza secondo le logiche che abbiamo descritto poco fa il grande
quantitativo di dati che deriva dal mondo dei social media. Per fare cosa? Per aiutare l’azienda nel
monitoraggio del Sentiment dei clienti rispetto al Brand e rispetto ai prodotti, servizi offerti.
Il 2 caso fa riferimento all’azienda Hertz che utilizza una soluzione diversa IBM Content Analytics
che è sempre un Big Data Analytics cioè una soluzione Software sempre fornita da IBM in questo
caso che analizza il grande quantitativo di dati generato mediante sondaggi web, email e messaggi
di testo che contengono i Feedback dei clienti rispetto ai servizi offerti dall’azienda, qui lo si dice
chiaro : tutti questi dati non strutturati raccolti in questo modo rappresentano una fonte molto
preziosa per misurare il grado di soddisfazione dei propri clienti e capire quali sono i limiti del
servizio erogato che possono generare insoddisfazione nella clientela.
Il 3 caso ci racconta l’utilizzo di Big Data Analytics da parte della Nasa al fine di scoprire i segreti
dell’universo. relazione che esiste tra i Big Data e un altro trend digitale ovvero quello del Cloud
Computing. Qual è la relazione tra questi 2 trend? La relazione consiste nel fatto che
l’infrastruttura di Cloud Computing fornisce quella capacità di elaborazione dei dati necessaria per
immagazzinare prima ed analizzare dopo anche attraverso i software di Big Data Analytics questo
grande quantitativo di dati ciò vuol dire che questo grande quantitativo di dati necessita dello
spazio su computer adeguatamente potenti per essere immagazzinato prima e per essere
elaborato in un momento successivo, questo momento successivo può essere immediato se
l’analisi deve avvenire in real time oppure può essere anche in differita se le analisi non
necessitano un processo di elaborazione dei dati appunto in tempo reale. In ogni caso servono
delle infrastrutture tecnologiche che siano in grado di supportare questo tipo di analisi e
difficilmente le aziende hanno a disposizione un’infrastruttura tecnologica così potente perché
richiederebbe degli investimenti molto elevati e qui entra in gioco il Cloud Computing che con i
diversi modelli di servizio che offre è in grado di fornire quell’infrastruttura tecnologica che
permette l’immaginazione e l’analisi di questi grandi quantitativi di dati.
Per darvi un esempio questa è una veduta aerea di un Data Center di Google dove si vedono edifici
che di fatto contengono server, cioè contengono computer che sono in grado di immagazzinare
questi enormi quantitativi di dati e sono in grado poi di consentirne l’elaborazione. abbiamo
pertanto evidenza di come questo trend dei Big Data sia fortemente interconnesso con tutti gli
altri per differenti motivi.
Si fa risalire l’origine dell’intelligenza artificiale al 1955: anno in cui viene elaborata la cosiddetta
proposta di Darthmouth. In quell’anno 4 studiosi, McCarthy, Minsky, Rochester e Shannon,
elaborano una proposta di Summer school da tenersi nell’estate successiva, ovvero nel ’56.
L’obbiettivo era discutere ed esplorare quali modalità avrebbero consentito a una macchina di
“utilizzare un linguaggio naturale e di essere capace di pensiero astratto, di risoluzione di problemi
e di auto- apprendimento”.
I 4 studiosi ritenevano che ogni caratteristica dell’intelligenza umana e ogni aspetto
dell’apprendimento potessero essere descritti in modo così preciso da consentire a una macchina
di simulare tali meccanismi. Ciò che ha ispirato tale riflessione risiedeva nella convinzione che
alcuni processi tipici della mente umana quali quelli del ragionamento e dell’apprendimento
potessero essere descritti in modo così dettagliato e così preciso da far sì che tali descrizioni
potessero poi essere utilizzate per costruire macchine che fossero in grado di simulare tali
processi.
Negli anni successivi sono numerosi gli studiosi che si sono occupati di intelligenza artificiale:
1969: Herbert Simon, insieme ad Allen Newell, studiò come simulare processi e risultati tipici
dell’intelligenza umana attraverso approfonditi studi e analisi nei campi dell’artificial intelligence e
della psicologia cognitiva.
Questi studi furono così approfonditi che negli anni già negli anni ’50 si ipotizzò che nel decennio
successivo ci sarebbero state macchine in grado di competere con i campioni di scacchi.
Questa previsione si sarebbe avverata solo 40 anni dopo, nel ’96, nello storico confronto tra il
supercomputer IBM Deep Blue (con appunto un sistema di artificial intelligence) e il campione di
scacchi Kasparov.
La prima vittoria nel 1996 del supercomputer IBM sul campione umano segnò la storia
dell’intelligenza artificiale.
IBM Deep Blue è stato solo uno dei supercomputer di IBM dotati di intelligenza artificiale e sono
seguiti degli altri:
[Link] Blue green negli anni 2000
[Link] Watson che è il supercomputer che qualche anno fa, partecipando al quiz televisivo
Jeopardy ha vinto una puntata rispondendo a domande in linguaggio naturale.
Un altro esempio di sistema di intelligenza artificiale è AlphaGo, sistema sviluppato da Google
DeepMind, è noto in quanto nel 2016 ha battuto al gioco da tavolo GO il campione mondiale Lee-
Se-dol.
I sistemi di machine learning sovente abilitano lo smart world che si ha descritto nella lezione
dell’IOT. Molte applicazioni dell’IOT sfruttano oltre ai sensori e alle tecnologie tipiche di esse,
anche sistemi di artificial intelligence per far sì che gli oggetti possano rilevare dei dati e agire di
conseguenza. Dunque, il mondo dell’IOT e quello dell’artificial intelligence sono strettamente
connessi.
ROBOTICA
I robot sono delle macchine che integrano i sistemi di artificial intelligence con le tecnologie
dell’IOT.
Essi sono sistemi ‘intelligenti’ in grado di svolgere compiti che richiedono capacità , a livello
cognitivo, per la manipolazione e lo spostamento di oggetti e per la locomozione.
Sono, in alcuni casi, in grado di operare autonomamente; mentre in altri casi di operare con
assistenza minima.
settori come quello automobilistico sfruttano i Robot nelle catene di montaggio e assemblaggio, in
alcuni casi le macchine sostituiscono quasi completamente le persone nelle attività̀ previste lungo
tali catene. I Robot simili a quelli qui rappresentati nella slide spesso utilizzano dei bracci meccanici
ed estremamente flessibili sono supportati sia da tecnologie di Artificial Intelligence sia da
tecnologie IOT quindi di fatto sono dei macchinari che dotati di numerosi sensori, migliaia di
sensori sono in grado di gestire in modo quasi autonomo l’intera catena di montaggio.
Altro ambito di utilizzo dei robot è il settore manifatturiero e della logistica in questi settori i
robot, per esempio, possono essere utilizzati per lo spostamento delle merci.
Kiva Robot è una macchina che viene utilizzata da Amazon per lo spostamento delle merci nei suoi
centri di raccolta e smistamento dei prodotti ed è un tipo di Robot prodotto appunto da Kiva
azienda che anni fa fu interamente acquisita da Amazon.
COBOT
Esistono poi altri tipi di Robot i cosiddetti Cobot (Collaborative robot) cioè dei Robot che
collaborano con gli esseri umani per la produzione di qualcosa.
Questi possono essere o dei macchinari che integrano e supportano l’attività degli esseri umani
lungo una catena di montaggio ad esempio, oppure possono essere delle macchine che addirittura
possono essere indossate dagli essere umani, in alcuni casi questi sono degli esoscheletri che
appunto vengono indossati dalle persone nello svolgimento di alcune attività̀ particolarmente
faticose.
UMANOIDI
Infine, esistono i Robot cosiddetti Umanoidi cioè che hanno delle sembianze umane e che sono
largamente utilizzati in diversi contesti: come maggiordomi in alcuni hotel, come camerieri in
alcuni ristoranti e così via... quindi diversi tipi di Robot dalle sembianze umane che hanno diverse
funzioni a seconda dell’ambito in cui vengono utilizzati.
• L’altro Driver di sviluppo è rappresentato dalla mole di dati senza precedenti che oggi sono a
disposizione di dei sistemi di Artificial Intelligence quindi facciamo riferimento ai Big Data. Questo
è importante perché́ i sistemi di Artificial Intelligence attraverso le logiche di Machine Learning per
poter apprendere hanno bisogno di migliaia e migliaia di esempi quindi migliaia e migliaia di dati. Il
fatto che oggi questa enorme quantità di dati sia disponibile così come abbiamo visto nella lezione
dedicata ai Big Data vuol dire che i sistemi di Artificial Intelligence hanno a disposizione migliaia e
migliaia di dati sui quali basare la propria attività di apprendimento.
INDUSTRY 4.0
Lo scenario della trasformazione digitale ha permesso lo sviluppo dell’Industry 4.0, o meglio
quarta rivoluzione industriale: una rivoluzione che contraddistingue il mondo attuale nel quale
stiamo vivendo e segue le precedenti rivoluzioni industriali.
La prima rivoluzione industriale ha portato alla nascita della macchina a vapore e conseguente
meccanizzazione della produzione grazie lo sfruttamento della potenza di acqua e vapore.
La seconda rivoluzione industriale ha portato all’introduzione dell’elettricità e del petrolio come
nuove fonti energetiche, e all’avviamento della catena di montaggio per una produzione di massa.
La terza rivoluzione industriale coincide con l’arrivo dell’informatica e delle elettronica che
incrementano ulteriormente livelli di automazione e avviano la Digital trasformation delle
fabbriche.
Sono numerosi gli autori che si sono occupati di questo tema tra questi anche McAfee e
Brynjoffson che in un libro molto noto di qualche anno fa “ Race Against The Machine” provano a
descrivere opportunità e minacce di questo nuovo contesto digitale in cui noi stiamo vivendo.
In questo libro gli autori studiano i livelli di produttività e innovazione negli Stati Uniti tra il 2000 e
il 2007 e notano che produttività e innovazione in questo periodo sono cresciuti a ritmi sostenuti,
ciò nonostante si assiste a una contrazione dell’occupazione e a una stagnazione del reddito
medio rappresentando così un paradosso perché ci si aspetterebbe che a un aumento dei livelli di
produttività e innovazione corrisponda anche un aumento del livello di occupazione e del reddito
medio.
TIMORI
Questa analisi introduce alle domande alla base del dibattito odierno:
- la tecnologia creerà disoccupazione?
- quali saranno le trasformazioni del mercato del lavoro?
- le macchine sostituiranno i lavoratori?
- quali mansioni saranno ancora svolte dagli esseri umani? - e quali occupazioni saranno oggetto
di automazione?
Questi sono i timori principali, essi sono legati al fatto che molte macchine sono in grado di
sostituire moltissimi lavoratori.
I dati che arrivano da più contesti e da più analisi confermano tale preoccupazione. Si stima che
dal 2015 al 2020 si assisterà a una perdita di 7 milioni di posti di lavoro, due terzi dei quali
concentrati nella categoria ‘office and administrative’, di cui 5 milioni senza alcuna sostituzione.
I ricercatori di Oxford hanno stimato che negli USA il 47% dei lavori corre un alto rischio di essere
automatizzato, mentre per un altro 19% il rischio è di livello medio.
Queste analisi pongono l’accento sul timore della disoccupazione causata dall’industry 4.0
Negli anni ’60 sulla rivista TIME viene pubblicato un articolo dal titolo The Automation Jobless. Che
di fato ci racconta la stessa cosa e quindi punta il dito sulle tecnologie che consentono
l’automazione di alcune attività e tolgono così lavoro alle persone.
Così come lo stesso tema poi torna alla fine degli anni ’70 e negli anni ’80, quando si attua la terza
rivoluzione industriale con l’ingesso dell’elettronica e dell’informatica nelle aziende. Quindi il
timore che la tecnologia qualunque essa sia possa creare disoccupazione non è un tema solo dei
giorni nostri ma è un tema che dicevamo a più riprese è stato affrontato anche nel passato seppur
in contesti completamente differenti.
[Link] molto importante: i sistemi di Artificial Intelligence non sono in grado di apprendere in
modo efficace nuove capacità utilizzando pochi esempi, i sistemi di Artificial Intelligence quindi
per apprendere attraverso le logiche di Machine Learning hanno bisogno di tanti tantissimi esempi
molto di più di quanto non necessiti un uomo anche solo un bambino, quindi questo è un
importante limite dei sistemi di Artificial Intelligence cioè questi sistemi hanno bisogno di tanti
tantissimi dati da qui si capisce anche meglio l’importanza del legame tra Artificial Intelligence e
Big Data.
[Link] sistemi spesso rappresentano delle Black Box ovvero delle scatole nere. Sono
caratterizzati da bassa interpretabilità dei risultati che hanno generato. A volte generano risultati
che non è chiaro comprendere secondo quale logica siano stati prodotti. Infine, sono sistemi che
non sono in grado di replicare abilità tipicamente umane, tra le quali: effettuare ragionamenti
basati sul buon senso, avere consapevolezza di ciò che stanno facendo, capire le sfumature del
linguaggio, porre nuove domande, esprimere volontà, replicare intelligenza socio emotiva, essere
creativi.
I sistemi di Artificial Intelligence sanno rispondere a delle domande cioè sanno risolvere dei
problemi ma non sanno porre nuove domande e questa resta una caratteristica tipicamente
umana. Dunque, è difficile che possa sostituire un knowledge worker, probabilmente potrà
supportarli ma non sostituirli perché presenta tutti questi limiti.
Alcuni possibili scenari futuri: è vero che le macchine potranno svolgere in modo più efficiente
determinate attività però è anche vero che l’uomo dovrebbe:
Sfruttare le capacità e le competenze difficili da replicare da parte delle macchine quindi
bisognerebbe puntare proprio sulla formazione di quelle competenze e di quelle capacità che le
machine non saranno in grado di replicare come le mansioni che richiedono abilità cognitive
complesse che l’essere umano potrà avere un ruolo fondamentale (pensiero innovativo, creatività,
intelligenza socio emotiva, capacità di relazione sociale, flessibilità, capacità di negoziazione
persuasione, destrezza e abilità manuale.)
Altro scenario:
I lavori “a supporto” dell’evoluzione digitale e le nuove professioni
Il progresso tecnologico può cancellare alcuni tipi di lavoro ma, storicamente, nel lungo periodo
si è dimostrato essere un ‘creatore’ di occupazione. Si assiste ad un processo di sostituzione e
trasformazione non di pura distruzione.
Dovremmo spostare il focus da quella che viene definita “race against The machine” cioè una
corsa contro le macchine a un focus che prevede una “race on the machine”, in collaborazione
con le macchine per sfruttare le macchine e far svolgere attività che queste sono in grado di
svolgere in modo più efficiente di quanto non possa fare l’essere umano lasciando però alle
persone le attività che implicano quelle capacità e che le macchine non saranno mai in grado di
replicare.
Il secondo esempio: contrariamente a quello precedente questo secondo caso ritrae un caso, un
fenomeno di Coupling, ritrae in altri termini una fusione, una saldatura quella tra le nostre identità
e i nostri dati. In un mondo innervato in modo sempre più capillare è sempre più profondo dalle
tecnologie digitali noi ci identifichiamo con l’aggregato dei nostri dati personali, la nostra identità
si risolve nella galassia enorme e in costante trasformazione dei dati che ci riguardano. Si tratta
come avremo intuito di una questione estremamente complicata molto attuale e importante.
Scrive Floridi: “l’Artificial Intelligence viene intesa al meglio come un reservoir of agency, come un
bacino, un serbatoio, una riserva di azione efficiente, di capacità di agire con efficienza che può
essere usato per risolvere problemi. L’Artificial Intelligence raggiunge i suoi obiettivi nella
risoluzione dei problemi separando, scollando l’abilità di compiere una determinata operazione
con successo da ogni bisogno di essere intelligenti nel farlo.”
É utile dare la parola a un altra delle voci più eminenti del panorama filosofico contemporaneo, ci
riferiamo a John Sirl uno dei filosofi statunitensi più importanti del 900 nonché uno dei detrattori,
degli avversari più feroci dell’Artificial Intelligence intesa soprattutto nelle sue declinazioni più
estreme e fantascientifiche.
Infatti in un paper del 1980 ormai diventato un classico dal titolo “Menti, cervelli e programmi” Sirl
scrive: “il computer ha una sintassi ovvero sia é in grado di agire sulla base di regole, é in grado di
svolgere delle operazioni codificate in una serie di istruzioni ma non ha alcuna semantica ovvero
sia non è assolutamente in grado di attribuire un significato e un senso alle operazioni che sta
svolgendo ai dati che sta elaborando, pertanto se noi chiediamo a un computer quanto fa 2+2 lui
ci risponderà 4 ma non ha la minima idea che 4 significhi 4 o che significhi qualcosa in generale”.
L’Artificial Intelligence si rivela in altri termini del tutto incapace di andare oltre la correlazione
statistica tra una certa terminologia di input e un determinato output, essa si dimostra in ultima
analisi assolutamente priva della capacità semantica di riempire di significato questa stessa
correlazione, correlazione che (ricordiamo nuovamente le parole di Sirl) non è altro che il frutto
dell’abilità esclusivamente sintattica e propria dell’Artificial Intelligence di elaborare dati sulla base
di istruzioni.
Floridi: “Il problema è sempre lo stesso e riguarda tutti i software che sembrano esibire una
qualche sorta di intenzionalità : le loro capacità semantiche sono nei nostri occhi, negli occhi di
coloro che li osservano e li studiano, non nei loro codici.” Se ciò che è stato detto fin qui é
abbastanza chiaro può essere utile giunti a questo punto domandarsi in quale modo e secondo
quale logica si sviluppino le tecnologie associate all’Artificial Intelligence e di conseguenza in che
modo noi esseri umani interagiamo e interagiremo con queste stesse tecnologie.
Attraverso il processo di “enveloping” noi trasformiamo i contesti in cui sono all’opera le
tecnologie associate all’Artificial Intelligence in ambienti AI- friendly al cui interno le strabilianti
capacita computazionali di queste stesse tecnologie vengono esaltate e massimizzate, in altre
parole i sistemi e gli spazi in cui inseriamo l’Artificial Intelligence vengono riorganizzati e ripensati
affinché possa essere sfruttata al meglio la potenza di calcolo delle macchine anche a costo di
mettere ai margini del sistema stesso gli esseri umani senza per questo pretendere che queste
stesse macchine siano ciò che non possono essere ovvero agenti capaci di interpretare il mondo
come facciamo noi umani.
la necessità di concentrare la propria attenzione e i propri sforzi su coloro che sono chiamati a
pianificare, a progettare e a gestire questo stesso processo, in altri termini una volta chiarite sia la
struttura concettuale dell’Artificial Intelligence sia la logica che governa e probabilmente
governerà lo sviluppo delle tecnologie impermeate su di essa é di vitale importanza porsi le
domande giuste consapevoli che dinanzi a una nuova sfida il 1o passo da compiere nell’affrontarla
é scegliere il proprio punto di vista, scegliere una prospettiva da privilegiare. In questo senso a
proposito di domande e di prospettive possiamo prendere in prestito a titolo di esempio un paio di
interrogativi con cui altri 2 filosofi contemporanei ovvero Deborah Johnson e Mario Verdicchio
concludono un loro recente lavoro.
Scrivono Johnson e Verdicchio: “Chi deciderà quali sistemi di Artificial Intelligence costruire e
inserire in un contesto? Chi deciderà e come verranno prese queste decisioni riguardo a quali
operazioni delegare agli esseri umani e quali alle macchine?.”
Ora la risposta a queste e a simili domande é almeno per il momento piuttosto ovvia: la
progettazione, lo sviluppo e la governance di tecnologie potenti pervasive e rivoluzionarie come
quelle associate all’Artificial Intelligence sono soltanto nelle nostre mani.
Volendo parafrasare una celeberrima affermazione di Umberto Eco: “le tecnologie digitali non
sono strumenti intelligenti che aiutano persone stupide ma strumenti stupidi che possono aiutare
moltissimo persone intelligenti”.
Pertanto dinnanzi alla sfida enorme ed estremamente complicata che le tecnologie digitali,
Artificial Intelligence compresa ci sottopongono in maniera sempre più urgente e inderogabile ,
Noi saremo abbastanza intelligenti da progettare, sviluppare e utilizzare queste stesse tecnologie
in modo etico, sostenibile, pacifico e democratico?
La domanda probabilmente abbiamo incominciato a porcela su scala globale con qualche decennio
di ritardo e bene credo che non potremmo permetterci lo stesso ritardo nell’elaborare una
risposta.
DIGITAL MARKETING
Parlando di marketing si fa riferimento a tutte le attività che servono per andare sul mercato. Per
un’azienda significa progettare, creare, fare ricerca e analisi dei dati su tutte le modalità per
allineare al meglio il proprio prodotto o servizio al target di riferimento.
Rientrano nelle attività di marketing le ricerche di mercato, la definizione del packaging del
prodotto, l’identificazione del target ideale per un determinato prodotto o servizio ecc.
L’advertising è la fase finale della catena del marketing.
Il digital marketing è una componente del marketing che utilizza internet e le tecnologie online
basate sul digitale. È un termine molto ampio che comprende tutti i canali, tutte le attività, tutti i
metodi che possono essere utilizzati per progettare, fare ricerca, e promuovere un determinato
prodotto o servizio attraverso i canali digitali.
Se per Marketing e Advertising spesso c’è confusione tra i termini ancora di più c’è nel mondo
digital perché é vero che il digitale può essere anche utilizzato per le fasi di progettazione, di
ricerca quindi le fasi preliminari al lancio di un prodotto o un servizio, pensiamo per esempio alla
ricerca di mercato fatta online o l’analisi dei dati degli accessi a un determinato sito o l’analisi dei
profili che seguono una determinata pagina o social network sono tutte attività tipiche di digital o
di online marketing.
Le attività che spesso le aziende spostano sui canali digitali è proprio l’attività legata alla parte
finale del “Funnel di Marketing” ovvero quella di comunicare il proprio prodotto o servizio, quella
che quindi abbiamo chiamato la fase dell’Advertising
Spesso comunemente si parla di digital Advertising o di digital marketing come sinonimi proprio
perché la parte di Advertising pur essendo concettualmente un sotto elemento della più generale
attività di marketing nel mondo digitale è quella dove si concentra la maggior parte degli
investimenti e delle attività delle aziende.
Se i concetti di marketing e di advertising sono dei concetti ampliamente consolidati nel mondo
del business dell'organizzazione quelli invece di digital marketing/advertising sono
sostanzialmente dei concetti molto più nuovi.
In quel periodo su internet iniziano ad apparire contenuti rivolti alle masse, uno dei principali
produttori di contenuti che più avanti chiameremo “Publish” quindi qualcuno che pubblica i
contenuti.
Il 27 Ottobre 1994 su [Link] all’interno di una pagina che parla di contenuti tecnologici
appare un banner pubblicitario quindi un elemento grafico che contiene una “Coltuaction” quella
che viene chiamata in termini tecnici una CTA quindi un invito a cliccare per andare a visitare la
pagina di uno sponsor, in questo caso il banner era stato posizionato sul sito di [Link] da
una compagnia telefonica AteT infatti cliccando sul banner si ritrovava su una cosidetta “landing
page” , una pagina di atterraggio con “landing page” si fa riferimento a tutte quelle pagine dove
tipicamente si atterra dopo aver risposto a una “Call to Action” quindi dopo aver cliccato su un
banner pubblicitario.
La landing page è un landing page dove AT&T promuoveva le sue capacità in termini di
connettività e sviluppo di nuove applicazioni nel mondo internet; quindi, una volta “atterrato” qua
potevo scoprire per esempio che AT&T aveva sviluppato una serie di primi musei virtuali dove era
possibile informarsi su essi cliccando sulle varie posizioni.
Questo settore del digital marketing alla fine è suddiviso in quelle che sono le varie fasi del
marketing quindi sicuramente c’è l’advertising che come vedremo é quello che pesa di più in
termine di valore, di fatturato e di investimento nelle aziende ma ci sono anche tutte le altre fasi
del marketing: l’analisi dei dati, tutto quello che è legato al mondo dei social e relazioni sociali,
tutto quello che é legato ai contenuti, alle esperienze degli utenti in digitale quindi il video
marketing, l’e-mail marketing; se ci spostiamo nel modo dei Data i mobile web Analytics quindi lo
studio dei dati rispetto al comportamento d’uso d’internet e dei telefonini da parte degli utenti.
In alcuni paesi come gli Stati Uniti la spesa di digital Advertising ha addirittura superato la spesa di
investimenti pubblicitari nella televisione che per decenni é stato il principale medium utilizzato
dalle aziende per fare pubblicità ha ampiamente superato tutti gli altri canali tradizionali: la radio,
le affissioni ecc... Ma non é solo Advertising. Le aziende utilizzano oggi gli strumenti digitali anche
per tutte le fasi preliminari all’ingresso sul mercato della comunicazione dei prodotti ai clienti.
1° CONCETTO CHIAVE è che in realtà il mondo del digital marketing è un mercato molto semplice
dove avviene uno scambio di servizi tra due soggetti principali:
Da un lato ci sono i cosiddetti Publisher: qualsiasi soggetto che grazie alle sue attività, grazie alla
sua offerta nel corso degli anni, abbia a disposizione un ingente traffico di utenti, quindi è
qualsiasi operatore (pensiamo al mondo mobile o web) che per il fatto di offrire contenuti, servizi
e contenuti a titolo gratuito all’utente finale, fa si che sul sulle sue pagine ci siano milioni di
persone che quotidianamente le visitano.
Esempio publisher: facebook, google, whatsapp, tripadvosor.
Quale è la caratteristica che accomuna i PUBLISHER indipendentemente dal prodotto o servizio
che erogano? È il fatto di erogare questo prodotto o servizio gratuitamente.
Dall’altra lato c’è un mondo fatto dai cosiddetti Advertiser che sono tutti quei brand che
ambiscono a contattare il consumatore finale attraverso i canali digitali, ma non hanno gli
strumenti e soprattutto non hanno il traffico sufficiente sui loro siti per farlo. Quindi i brand, gli
advertiser hanno investimenti pubblicitari da mettere a disposizione, hanno soldi da investire per
raggiungere il loro target di riferimento, ma non dispongono di traffico sufficiente per raggiungere
questo pubblico di riferimento.
Come mai si è arrivati da un modello che apparentemente è così semplice dove ci sono solo due
attori l’ADVERTISING e il PUBLISHER a un industry che coinvolge centinaia di migliaia di aziende?
La ragione della necessità di coinvolgere un così elevato numero di aziende è che in realtà
Advertiser e Publisher presto si sono resi conto di non andare d’accordo.
Nello specifico succede che il publisher cerca sempre più denaro, e l'advertiser cerca sempre più
traffico qualificato, e ad un certo punto le due esigenze che erano complementari, divergono.
Per poter andare d’accordo vi era la necessità di introdurre nella catena di scambio degli
INTERMEDIARI. Introdurre nella catena di scambio una serie di soggetti in grado di mitigare le
divergenze delle esigenze dei due soggetti riportando la relazione in equilibrio.
ESEMPI INTERMEDIARI
1)Retargeting
Possibilità di riproporre ad uno stesso utente, indipendentemente dal sito del publisher che sta
visitando, la pubblicità di uno specifico brand.
Se cerco un hotel a Riccione, nelle due settimane successive, indipendentemente dal sito o
dall'app che sto visitando, troverò pubblicità di quell'hotel.
Affinché ciò avvenga, la relazione diretta tra Publisher e Advertiser non è più sufficiente.
Se io come advertiser di Hotel mi rivolgo al Corriere della Sera, lui sarà in grado di mostrare il mio
banner soltanto al suo pubblico, e non al pubblico che su un altro sito, aveva cercato quello
specifico Hotel.
3)Trade Desks
Piattaforme che aiutano gli Advertiser ad identificare, in una lista di potenziali Publisher identificati
dagli Ad Networks, quello sul quale è più conveniente pubblicare il proprio banner.
Con Owned Media si fa riferimento alla possibilità di un brand di pubblicare i propri contenuti su
delle sue proprietà che possono essere il proprio sito web, la propria applicazione mobile, il
proprio blog, ecc.
Ha un punto di partenza fondamentale perché sul proprio sito fa convergere tutti i contenuti e tutti
gli utenti che sono interessati ai miei contenuti.
Oltre ai Owned Media ci sono i Paid Media quindi i media a pagamento e quindi tutte le forme
pubblicitarie a pagamento come anche il Display Advertising quindi la pubblicità basata sui
banner, ed è in questo segmento dove principalmente si verifica quel rapporto tra Banner
(advertiser) e Publisher.
Ci sono anche i cosiddetti EarnedMedia, i media acquisiti che sono quelli che negli ultimi anni
hanno generato il maggior interesse anche da un punto di vista della ricerca e delle nuove forme di
comunicazione che sono tutte quelle forme di comunicazione di Digital Marketing basate sul
passaparola (share, like, tweet, retweet, storie).
Non si tratta di tre mondi separati, ma si tratta di 3 categorie che si intrecciano in maniera molto
profonda; quindi, la loro gestione richiede grande capacità da parte di chiunque voglia utilizzare
strumenti di Digital Marketing.
L’azienda che meglio opera online è l’azienda capace di mixare perfettamente l’uso di queste 3
categorie di Media in una strategia univoca e unicomprensiva.
Se nel 1994 vi era un’unica forma quella basata su un unico formato di banner oggi esistono
decine forse centinaia di forme diverse di pubblicità sia in termini di formati ma soprattutto in
termini di obiettivi che le varie forme permettono di raggiungere quindi in funzione delle esigenze
dell’azienda che può essere quella di far scaricare un’app ai suoi clienti, far conoscere il proprio
brand, di stimolare l’acquisto sul proprio sito Internet, di evidenziare dei contenuti per poi invitare
i clienti a visitare un punto vendita fisico; quindi diversi obiettivi di comunicazione esistono
altrettanto forme di pubblicità online.
La vera differenziazione tra queste 3 tipologie di Advertising online si basa sulla diversa tipologia di
target di utenti che posso andare a raggiungere e le modalità con cui posso andare a raggiungere
questa tipologia di utenti.
Entrambi i 3 modelli funzionano per qualsiasi tipo di brand o azienda o qualsiasi tipo di advertiser
anche se con le differenze che andremo a vedere, mentre ovviamente in termini di PUBLISHER che
possono fornire queste 3 tipologie di Advertising diverse vi sono delle differenze nel senso che il
Display Advertising in teoria può essere offerto da qualsiasi Property Digitale sia web, sia mobile
quindi un blog piuttosto che un’applicazione che abbia traffico, se ho traffico posso posizionare
all’interno del mio sito, della mia applicazione delle pubblicità basate appunto sul concetto di
display.
DISPLAY ADVERTISING:
È la forma primaria, quella da cui tutto ha avuto inizio.
Può essere offerto da qualsiasi property digitale, sia web, sia mobile, che abbia traffico. Se ho
traffico posso posizionare nel mio sito delle pubblicità basate sul digital.
Dal punto di vista del Formato: tutto l’advertising è basato principalmente su contenuti e creatività
di tipo grafico.
Dal punto di vista del Logica target quindi il raggiungimento della clientela di riferimento, è una
forma di pubblicità dove attraverso il banner provo a contattare utenti con interessi affini con
quelli del mio prodotto o servizio (es: adidas decide di creare una forma di display advertising
cercando di posizionarla nelle pagine dei publisher, i quali hanno un traffico affine con il mio
prodotto o servizio).
I publisher possono decidere di dedicare degli spazi delle proprie proprierty digitali, per mostrare
banner o display advertising di diversi brand.
Gli spazi che un publisher dedica ai banner si chiamano PLACEMENT. Ogni publisher ha un proprio
inventory di placement che mette a disposizione del mercato ed il mercato può decidere di
acquistare un determinato pezzo di inventory in placement diversi.
Il mondo del display chiaramente si è evoluto nel corso degli anni e quindi il Display Advertising
non è più soltanto banner ma è anche VIDEO ADS quindi Advertising basato su video quelli che
appaiono prima/dopo o durante una visualizzazione di un video online; i cosiddetti INTERSITIAL
ADS che sono quelle forme di pubblicità sempre basate su creatività grafica che appaiono tra una
visita di una pagina e un’altra oppure appaiono in “pop up” che vuol dire sopra il sito che sto
visitando oppure in “pop under” che vuol dire sotto il sito che sto visitando mentre visito appunto
una pagina o in generale tutti i cosiddetti RICH MEDIA quindi: animazioni, pubblicità interattiva,
pubblicità basata su messaggi anche audio.
IMPRESSION: la forma primaria di misurazione del display advertising. Essa corrisponde alla
visualizzazione da parte di un utente di un formato display; quindi, quando un utente vede un
banner ho un impression. Quando 10 utenti vedono lo stesso banner ho 10 impression
La visualizzazione su display avviene su criteri di targeting che non sono più basati soltanto sui
contenuti della pagina, ma anche su criteri di profilazione come la provenienza di un utente;
quindi, se andiamo su un sito straniero e vediamo la pubblicità in italiano la ragione per cui
vediamo la pubblicità in italiano è che il sito ci riconosce come provenienti dall’Italia e quindi ci fa
vedere la pubblicità più affine ai nostri interessi. (pubblicità italiana su sito straniero).
Chi decide quale pubblicità o banner mostrare in uno specifico placement o nel sito di publisher?
Sono gli AD NETWORK, società che si preoccupano di matchare gli inventory dei publisher con le
esigenze dei brand. Ad network riempirà i banner con le pubblicità più adatte al singolo utente che
sta visitando la pagina.
SEARCH ADVERTISING
È un modello introdotto con la nascita dei motori di ricerca. In questo advertising soddisfo il
desiderio di qualsiasi direttore marketing: mostrare la propria pubblicità di prodotto o servizio nel
momento in cui l’utente sta pensando a quel prodotto o servizio.
Il concetto di search advertising è diverso se nel Display advertising.
Forma di pubblicità che può essere erogata solo da publisher che lavorano nel mondo della ricerca
quindi i cosiddetti Search Engine i motori di ricerca (Google in primis) e allo stesso modo dal nome
stesso il social media advertising è invece tipicamente quella tipologia di advertising che può
essere erogata dai social media: Instagram, Facebook, Linkedin, Tik Tok, Twitter ecc.…
Nel Display Advertising mostro il mio messaggio pubblicitario a un utente mentre lui sta visitando
un’altra tipologia di contenuti; nel Search Advertising mostro il mio prodotto o servizio, il mio
messaggio all’utente nel momento stesso in cui lui sta cercando quel prodotto o servizio. Il Search
Advertising nel corso degli ultimi anni è diventata una se non la forma di pubblicità online proprio
per la sua efficacia e per il suo effetto contestuale alla ricerca da parte di un utente di un prodotto
o servizio.
Terminologia comune utilizzata nel, mondo del marketing digitale:
SEM: SEARCH ENGINE MARKETING
Il brand deve aver comprato e creato un’inserzione che Google mostra. (Annunci)
Per essere presenti nei risultati organici non serve pagare, ma l’advertiser deve aver fatto:
SEO: SEARCH ENGINE OPTIMIZATION
Il brand deve aver ottimizzato la propria digital proprieties in modo da essere correttamente
letta dal motore di ricerca Google ed associata alla parola chiave, rispetto ai contenuti della
pagina.
Su Internet io cerco con una determinata parola chiave e ottengo 2 diversi tipi di risultati, i
cosiddetti risultati a pagamento quindi la vera e propria pubblicità, il vero e proprio Search
Advertising e i cosiddetti risultati organici; la pubblicità che può avere vari posizionamenti
all’interno dei vari motori di ricerca oggi anche in funzione del tempo (oggi Google si è stabilizzata
sulla pubblicità presente prima e dopo i risultati organici).
La pubblicità a pagamento per essere presente in questi spazi della pubblicità a pagamento il
brand deve pagare quindi il brand deve avere un budget e deve aver fatto attività di Search Engine
Marketing ovvero deve aver comprato una specifica parola chiave o un set di parole chiave e deve
aver creato un’inserzione che poi è quella che Google mostra in funzione della ricerca.
Mentre invece per essere presenti nei cosiddetti risultati organici non serve pagare (Google non
chiede nulla per visualizzare i cosiddetti organic results) ma l’azienda, l’ADVERTISER, il brand deve
aver fatto la cosiddetta attività di Search Engine Optimization ovvero deve aver ottimizzato la
propria digital Property che sia un sito, un blog o un’applicazione in modo tale da essere
correttamente letta dal motore di ricerca Google e associata alla parola chiave più rilevante
rispetto ai contenuti della pagina
Ogni azione che noi facciamo sui social network viene immagazzinata dal social network stesso e
rivenduta agli advertiser, ai brand sotto forma di targhettizzazione sempre più sofisticata, in altri
termini tutto quello che noi facciamo gratuitamente sui social network viene immediatamente
monetizzato vendendo quelle informazioni ai brand o agli advertiser in modo che essi possano
fare una pubblicità più mirata in funzione dei comportamenti degli utenti su di essi
Per la Nike è possibile fare pubblicità su Instagram, attraverso una storia sponsorizzata, e farla
vedere solo agli utenti che negli ultimi 6 mesi hanno dimostrato apprezzamento su contenuti
collegati al mondo degli sneakers. Ogni azione fatta sui social, viene immagazzinata dal social
stesso e rivenduta agli advertiser sottoforma di targhettizzazione.
Per un’azienda ha senso avere una pagina Instagram con tantissimi follower ed interazioni?
La risposta banalmente è sì, più visibilità, più possibilità di erogare il mio messaggio, più
interazione con gli utenti.
In realtà, quando creo una pagina con 20 milioni di follower, la stessa pagina può diventare uno
strumento di targhettizzazione per i miei competitor.
Essere presenti sui social media è un’ottima opportunità per entrare in contatto con i propri
potenziali clienti, ma utilizzando gli strumenti che i social mettono a disposizione, indirettamente
attiviamo la possibilità dei nostri competitor di attirare i nostri clienti e che seguono la nostra
pagina. Questo è uno dei “n” svantaggi e degli “n” aspetti da prendere in considerazione nel
momento in cui si decide quale tipologia di media, quale tipologia di Paid Media utilizzare per
condurre o per supportare la propria campagna di marketing online.
Il digital marketing si caratterizza per la sua versatilità; dunque, posso pubblicare un annuncio e in
funzione delle performance posso modificare il contenuto o sospendere la pubblicazione.
In questo mondo si ha una comunicazione immediata: il messaggio va live in pochi minuti.
Esempio:
Voglio mettere un annuncio sul giornale del Corriere della Sera e mi costa 5000€. Mi aspetto che
pagando 5000€, la metà dei clienti del corriere della sera guarderanno la mia pubblicità, ma non
ne ho la certezza.
Nel Digital Marketing pagherò 5000€ un po' alla volta, e solo quando la performance che mi sono
imposto come obbiettivo sarà realmente efficace.
Per esempio, comprare un banner sul corriere della sera online viene prezzato ad impression;
ogni 1000 visualizzazione pago 2€; se il banner non verrà mai visualizzato pagherò 0€, se verrà
visualizzato 1000 volte pagherò 2€, se verrà visualizzato 10.000 volte pagherò 20€.
Il concetto PAY PER PERFORMANCE è il concetto più importante in assoluto rispetto a questo
tema.
Per quanto riguarda i media tradizionali, costa di più un annuncio sulla prima pagina, che sulla
categoria sport a pagina 28.
Nel digital marketing costa di più un annuncio nella categoria sport a pagina 28, che un annuncio
in prima pagina. (un impression a pagina 28 verrà visualizzata da utenti già in target con il mio
prodotto; a pagina 1 può essere vista da chiunque).
Col passare del tempo, gli advertiser hanno deciso di introdurre una performance con un valore
maggiore per essi. Così è stato introdotto il Cost-Per-Click (CPC). In questa forma, l'advertiser paga
quando un utente clicca sull'inserzione. È un modello dove il click è più vicino alle esigenze
dell’advertiser.
MODELLI IBRIDI
Cost-Per-Install (CPI) / Cost-Per-Download (CPD): l’adv paga solo se l'app viene scaricata / paga
solo se l'app dopo che viene scaricata, viene anche installata.
Cost-Per-View (CPV): l’adv paga una x se l'utente dopo 5 secondi skippa la pubblicità video, o pago
di più se il cliente vede tutta la pubblicità.
I publisher ambirebbero a vendere tutto a CPM, ma gli advertiser ambirebbero a comprare tutto a
CPA o CPL.
Il mercato è posizionato per la maggioranza dei casi sul CPC (punto di mediazione di contratto tra
le esigenze di Publisher e Advertiser).
Atteggiamento irresponsabile: molti utenti non hanno la percezione di quello che succede ai
propri dati una volta caricati sui social; dunque, molti utenti sottovalutano un possibile rischio,
come la diffusione e l’uso di dati sensibili;
Atteggiamento troppo prudente: chi non compra online per paura di inserire sul sito i dati della
carta di credito. Si pensa che con una prepagata sia più sicuro, ma non è così in realtà.
Per affrontare il tema della sicurezza bisogna affrontare due modalità: quali sono realmente i rischi
e capire quali strumenti si possono utilizzare per mitigare i rischi.
I cookies: tutti credono di avere più o meno una cultura rispetto a quest’ultimi in quanto negli
ultimi anni c’è stata una legge per cui ogni sito deve mettere “accetta tutti cookies o solo
essenziali”, introdotta una decina di anni fa da un legislatore che ha detto le persone non sanno
che comunque hanno una componente di rischio, così mettiamo per legge che loro devono
accettare.
I cookies sono dei file di testo che i siti che noi visitiamo mettono sui nostri device, che servono
per finalità tecniche. Se sono su un sito di e-commerce e sto aggiungendo cose nel carrello, una
volta che cambio pagina il carrello non si svuota.
Il web è stateless ovvero il sito non sa che sono io che continuo la mia ricerca o un’altra persona.
PROBLEMATICHE DI SICUREZZA
Gli utenti in generale, ma in particolare i SI aziendali, sono quotidianamente sottoposti a una serie
di minacce (errori e incidenti umani, calamità naturali, rivolte e atti di terrorismo, crimini
computerizzati).
In realtà gli hacker non sono criminali, ma appassionati di tecnologie informatiche, che usano le
loro competenze per provare a violare i sistemi di terzi non con una reale finalità di dolo o lucro,
ma solo per il gusto di farlo.
L’hacker può essere assimilato a un writer che dipinge sui muri: non vuole farlo con lo scopo di
danneggiare la comunità ma per rendere visibili le sue capacità artistiche.
nelle comunità degli hacker ci sono poi i cracker (spesso definiti black hat hacker) che sono
soggetti che compiono attacchi a sistemi informatici per danneggiare un soggetto terzo. La loro
finalità è di rubare i dati. Nella stragrande maggioranza dei casi partono da uno strumento che si
chiama Malware (software che ha lo scopo di creare danni sul computer nella quale viene
inserito).
COME CI SI DIFENDE
Attenzione e prudenza;
Installando un antivirus, aggiornando sempre il sistema operativo e i software presenti sul proprio
device, coprendo così eventuali bug.
Il mondo dei crimini computerizzati ha anche una faccia più sofisticata, e spesso i cracker fanno
uso di strumenti di altro tipo per attacchi orientati ai sistemi informativi delle organizzazioni.
In tal senso si parla di cybercrime o, se la portata degli attacchi è più estesa, di cyberwar.
PHISHING
Esso è un attacco basato sull’utilizzo integrato di strumenti che permettono di carpire l’identità di
un utente.
(sniffing) e sostituirsi a lui (spoofing). [Spyware: sniffing e spoofing; Phishing: frodi].
“Phishing” significa ingannare un utente facendogli credere di avere a che fare con un altro
soggetto, si basa sulla sostituzione di identità .
Può avvenire ad esempio attraverso mail o messaggi sui social network (link che rindirizza a un
sito simile a quello ufficiale, ma che genera un furto di dati sensibili).
Il phishing può essere una tipologia di frode basata su aspetti tecnologici chiaramente sofisticati,
ma è anche un perfetto esempio di attacco computerizzato che fa leva sulla cosiddetta ingegneria
sociale. Il principale elemento di efficacia non è tanto la tecnologia che ci sta dietro ma la leva
emozionale che va a toccare.
Esempio: Nel phishing io posso ricevere una mail che sembra arrivare da un soggetto istituzionale
(es. una banca) ma che in realtà hanno la finalità di convincermi ad andare su un sito, che sembra
istituzionale, a lasciare i miei dati sensibili. Tentativo di farci andare su un sito terzo per farci
inserire dati sensibili che poi i cracker utilizzeranno per fini di dolo.
La forma di phishing più diffusa è quella bancaria, che negli ultimi 5 anni ha creato più truffe di
tutti.
Diverso è il caso di un’altra tipologia di attacco, che prende il nome di Distributed Denial of
Service (DDoS). È un attacco dove la leva tecnologica è fondamentale.
Esempio: un sito (Microsoft, Amazon ecc.) non è più raggiungibile quando raggiunge la sua
massima capacità di banda, ovvero non è in grado di rispondere a ulteriori richieste. Questo
avviene perché qualcuno è stato in grado di superare la soglia di connessioni che quel sito può
sostenere.
Non può farlo un hacker solo con il suo computer; infatti, gli hacker tipicamente utilizzano i
cosiddetti Zombie Computer/Bot Net, computer di vari utenti che hanno scaricato warm o trojan
che servivano per attivarsi in una determinata data, per andare a fare richieste contemporanee a
quel sito.
Invece di coinvolgere 100.000 utenti, un hacker coinvolge 100.000 device di cui prende possesso.
1. Identificazione e controllo accessi: uno dei problemi più grandi è evitare che qualcuno
acceda a strumenti, software, hardware il cui accesso deve invece essere limitato solo ad
alcuni soggetti;
2. Riservatezza: il problema che si crea quando trasferiamo qualcosa attraverso la rete
internet;
3. Integrità dei dati e dei sistemi: come evitare che un malware danneggi i dati o device.
4. Ognuna di queste aree ha degli strumenti di mitigazione del rischio.
Per quanto riguarda la terza area abbiamo già detto molto precedentemente, il modo
migliore per proteggere l’integrità dei dati da parte di malware è quello di mettere in atto
delle misure di policy di prevenzione del rischio (lato aziende) e installazione di un
antivirus e costante aggiornamento del software (lato utente).
FIREWALL
Nel contesto aziendale esiste un’altra serie di meccanismi di controllo degli accessi: il Firewall.
(Nel gergo pompieristico sono meccanismi che permettono in caso di incendio di far evacuare le
persone e bloccare il fuoco).
Un firewall può essere o un software o un mix di hardware e software, quindi un server che viene
posto in mezzo all’utente e la rete privata, in grado di riconoscere soggetti potenzialmente
pericolosi, facendo passare solo utenti sicuri.
2. Riservatezza
Per riservatezza si intende la garanzia rispetto al fatto che le informazioni che trasmettiamo
rimangano effettivamente riservate.
L’intero sistema si basa sulla scienza della crittografia. Essa studia il processo di trasformazione dei
dati attraverso algoritmi matematici che rendono i dati illeggibili a chi non disponga di una chiave
di decriptazione.
La crittografia non nasce col mondo del digitale, ma utilizzata in tutti i conflitti bellici degli ultimi
’70 anni, in particolare ha caratterizzato l’esito della Seconda Guerra Mondiale, in quanto
l’esercito alleato riuscì a decriptare i messaggi che venivano trasmessi da Berlino ai sottomarini
tedeschi.
La crittografia è un meccanismo abbastanza semplice.
Sistema di base: abbiamo un alfabeto di riferimento (testo in chiaro) e grazie a un algoritmo e a
una chiave modifichiamo il testo in chiaro, in un alfabeto conosciuto solo da chi possiede
l’algoritmo e la chiave.
Ciò che avviene oggi su internet è sostanzialmente la stessa cosa, solo con una complessità più
elevata:
l’alfabeto di riferimento non è più un vettore (il nostro alfabeto) ma una matrice di 0 e 1;
l’algoritmo, che nel primo caso è un’equazione di primo grado, nel mondo di internet è un
sistema di equazioni complesse a più parametri;
la chiave, che nel primo caso è un singolo numero, nel mondo internet è una sequenza di
centinaia di bit.
Mettendo insieme questi elementi è chiaro che è molto arduo decifrare un testo criptato via
internet, ma non impossibile.
Esempio: carta di credito su Amazon, criptata con un meccanismo di criptografia tale che un
cracker di medie capacità e con un computer modesto impiega circa 20 anni per decifrare il
numero di carta. È ovvio che se si mettessero dietro i servizi segreti in qualche ora riuscirebbero,
ma ruota tutto intorno al rischio e allo strumento mitigato.
COME FUNZIONA LA CRITTOGRAFIA
Esistono due sistemi di crittografia:
Simmetrici (a chiave privata);
Asimmetrici (a chiave pubblica).
Sistemi simmetrici
Utente A e utente B si accordano preventivamente su quale sia l’algoritmo e la chiave di
crittografia da utilizzare.
A questo punto il messaggio viene criptato con la chiave privata, il messaggio viene trasmesso
attraverso la rete e l’utente B riesce a decriptare il messaggio.
Se gli utenti sono 3 serviranno 2 chiavi ma questo numero cresce esponenzialmente, seguendo la
formula chiave=nX(n-1)/2.
Questi due elementi fanno si che questo sistema non sia adeguato per l’utilizzo nel mondo
digitale. Questi problemi sono stati risolti introducendo un modello diverso, detto “a chiave
asimmetrica”, “a chiave pubblica” o “a doppia chiave”.
Sistemi asimmetrici
Quello che cambia è il paradigma di partenza del modello: ogni utente che partecipa al sistema
possiede due chiavi, una chiave privata (tenuta nascosta) e una pubblica (disponibile a chiunque).
La regola del sistema è : quello che cripto con la chiave privata di un utente lo posso decriptare
solo con la chiave pubblica dello stesso utente. Non ci sono altre regole.
Quindi A che vuole mandare il messaggio B va nella “bacheca pubblica”, prende la chiave pubblica
di B e cripta il messaggio che gira in rete.
Nessuno sarà in grado di decriptare il messaggio se non il possessore della rispettiva chiave
privata. In questo modo si risolvono automaticamente i due limiti dei sistemi simmetrici:
non ho più bisogno di scambiare preventivamente le chiavi, sono pubbliche;
non ho più bisogno di generare un numero elevato di chiavi. Non ho più bisogno di una chiave
per ogni coppia di utenti e vale la formula chiave=2n.
Esempio:
Ogni volta che compriamo su Amazon e dobbiamo inserire dati sensibili ci accorgiamo che di
fianco all’URL c’è un lucchetto chiuso e il protocollo web non è più http ma https.
Significa che da quel momento in poi qualsiasi informazione che inviamo ad Amazon è un dato che
va verso Amazon criptato con un meccanismo a chiave pubblica.
In particolare, se clicchiamo sul lucchetto->certificato->dettagli scopriamo che la chiave pubblica
con cui i dati vengono criptati è una chiave chiamata RSA fatta da 2048 bit.
Dunque, nel momento in cui anche inserisco il mio numero di carta, è criptato dalla chiave
pubblica di Amazon, una chiave a 2058 bit e un hacker normalmente ci metterebbe 20 anni a
decriptarla.
L’unico soggetto che saprà decifrare il messaggio sarà Amazon, in quanto in possesso della chiave
privata corrispondente.
Chiave pubblica e chiave privata sono i due parametri necessari a risolvere un sistema di equazioni
complesse; senza di esse il sistema non ha soluzioni.
Esempio: WhatsApp.
Ogni messaggio viene criptato attraverso un sistema a due chiavi. La chiave privata è salvata
automaticamente all’interno del nostro cellulare, la chiave pubblica è disponibile in un archivio
pubblico gestito da WhatsApp.
Questa crittografia chiamata end-to-end vale solo per le comunicazioni one to one, dirette. In un
gruppo WhatsApp il sistema di criptazione salta, poiché il messaggio viene mandato non a una ma
a diverse persone; dunque, non so quale chiave pubblica utilizzare.
In realtà WhatsApp sta risolvendo anche questo problema, prevedendo la criptazione di messaggi
mandati nei gruppi con un meccanismo tale per cui il gruppo viene identificato come un utente a
sé.
*PEC (posta elettronica certificata) ha una protezione in più, è più sicura. Non solo il messaggio
può essere letto solo da chi ha le due chiavi ma deve anche avere la firma della mia chiave
pubblica. Il messaggio una volta arrivato al destinatario, quest’ultimo deve aprirlo con la sua
chiave privata e verificare la mia firma con la mia chiave pubblica.
Dal modello a chiave asimmetrica si può passare alla firma digitale, la risoluzione alla gran parte
dei problemi di sicurezza che oggi ancora il mondo digitale porta con sé.
È la crittografia a chiave asimmetrica una sicurezza assoluta della riservatezza online? NO.
La riservatezza assoluta non esiste. Certamente un sistema con una chiave a 2048 bit
statisticamente è sicura, dunque il rischio di comprare online su un sito affidabile come Amazon è
minimo. Parliamo allora di un elevatissimo grado di sicurezza, e questo modello a due chiavi è una
misura più che adeguata in un contesto come una transazione online.
L’unico modo per affrontare un qualsiasi tema che riguardi la riservatezza, sia digitale che non, in
maniera appropriata è partire dalla reale percezione del rischio.
METODI DI PAGAMENTO
Nel mondo dei pagamenti online una transazione con carta di credito è tutelata dalla legge (lato
consumatore), nel senso che se faccio una transazione online è nulla, poiché il regolamento
internazionale delle carte di credito prevede che una transazione sia valida solo con una firma.
Siccome nel mondo digitale il concetto di firma digitale ancora non è stato introdotto, le
transazioni che facciamo online sono nulle.
Dunque, ogni volta che capita di essere frodati per una transazione online per aver comprato da
un sito non affidabile, è sufficiente chiamare la società di carta di credito e chiedere di fare il
cosiddetto charge-back dell’operazione, ovvero di annullare l’operazione.
In realtà questo meccanismo difende il consumatore. I siti di e-commerce di fronte a un
meccanismo di questo tipo sono indifesi.
Un utente furbo potrebbe comprare il prodotto e, chiamando la società che ha emesso la carta,
annullare l’operazione, ottenendo però il prodotto.
Per risolvere questi problemi, qualche anno fa sono nati una serie di strumenti apparentemente a
tutela del consumatore, ma in realtà a tutela del commerciante.
Il primo tra tutti è la carta prepagata, in quanto non è una carta di credito tradizionale, ma per uso
elettronico. Significa che una carta prepagata è vero che apparentemente tutela l’utente perché il
rischio è perdere solo la somma caricata, ma la perdita è garantita, in quanto le prepagate non
prevedono il charge-back.
Quindi se si viene truffati, avendo pagato con prepagata, RIP.
Ecco perché i merchant preferiscono le prepagate (esempio Easyjet, se paghi con una prepagata
ricevi uno sconto poiché ha la certezza che una volta fatto il pagamento quei soldi non glieli può
togliere più nessuno). Con Paypal (creato da Ebay, dunque un merchant) è la stessa cosa, tutela il
merchant. Strumento ideato per evitare un charge-back diretto.
Quindi, per semplificare, se chiedessimo in giro quale sia lo strumento più sicuro per pagare
online, risponderebbero in ordine: 1) Paypal; 2) prepagata; 3) carta di credito.
Invece l’ordine è diverso: 1) carta di credito; 2) Paypal; 3) prepagata.
In ogni caso in qualsiasi sistema dove una delle due parti coinvolte sia a rischio di frode è un
sistema che non può durare a lungo.
FIRMA DIGITALE
Ecco perché da molti anni si sta ragionando sul concetto di firma digitale.
Non è la digitalizzazione della firma cartacea, ma un meccanismo in grado di produrre le stesse
garanzie dal punto di vista legale che la firma tradizionale ha nel mondo reale.
La privacy è però garantita, dunque non vengono comunicati i nominativi, ma codici alfanumerici
riconducibili al proprietario.
In un ipotetico scambio di denaro online, i validatori si assicurano che i messaggi siano stati
mandati dalle persone corrette grazie alla firma digitale, infine si accordano sugli aggiornamenti
del registro attraverso un sistema di votazione matematico.
Questo potrebbe essere il primo passo verso l’Internet of Value.