Sei sulla pagina 1di 30

ICT SOCIETÀ E INFORMAZIONE

08.10.21

Capitolo 1
Breve introduzione storia dell’informatica

I primi fondamenti nacquero nel III secolo A.C quando Euclide per primo definì un metodo ‘’ a
passi’’ intuitivo che ci porta ad affrontare step per step, usato inizialmente per calcolare il massimo
comune divisore. Usato fino a che un persiano matematico, mille anni dopo, pubblicò un metodo a
passi per risolvere equazioni di 2° grado, metodo che nella traduzione chiamò ‘’algoritmo’’. I
metodi a passi ‘’algoritmi’’ sono il fondamento della programmazione. Non esisterebbe un software
se non partissimo da questa metodologia di approccio.
Intorno al 1834, Charles Baddage ebbe l’idea di creare un calcolatore, una macchina differenziale,
non riuscì a realizzarla perché gli mancavano fondamentali componenti tecnologici. Mentre lui
teorizzava questa macchina, c’era un fisico americano, Joseph Henry che inventava il relè,
dispositivo che azionato a corrente chiudeva i moschetti al passaggio o meno di un flusso di
corrente (quando si spegneva la corrente rimanevano aperti), si creava una situazione di ‘’on and
off’’, situazione tecnologica alla base del funzionamento del computer. Si tratta proprio di quelle
componenti che sarebbero serviti a Baddage.
Accanto a questo occorrono delle parti teoriche, Boole inventò una particolare algebra, con due
numeri, 0, che corrisponde al nessun passaggio di corrente, o falso, e l’1, che corrisponde al
passaggio di corrente, cioè il vero. Due sole condizioni il sì e il no. Con questi soli numeri riesce a
sviluppare una matematica algebra di Boole, alla base dell’uso di un motore di ricerca, tutta la
sua algebra sta alla base di un’interrogazione di un motore di ricerca, per esempio quando
cerchiamo su Google. Risultati che troviamo attraverso gli operatori logici che noi usiamo che
stanno alla base dell’algebra di Boole, per includere o escludere risultati di ricerca. Boole capì che
usando il relè, non era solo in grado di calcolare, ma che sarebbe stato in grado di ragionare,
proprio sulla base del vero o falso, 0 o 1, alla base della progettazione informatica e dei software,
che altro non fanno che combinare gli impulsi di 0 e 1, cioè gli unici che riescono a comprendere.
Calcolo + logica + tecnologia di base = le fondamenta per la nascita e lo sviluppo dei calcolatori
erano state poste, siamo più o meno a metà del 19° secolo. In informatica viene già considerato
vecchio quello che è nuovo oggi.
Nel 19° secolo, intorno al 1888, Burroghs, grazie a un’intuizione, decide di lasciare il suo lavoro in
banca e fondò una società per produrre le sue macchine calcolatrici, nel 1986 venne costituita la
Unisys, con una fusione tra Burroghs e Sperry Corposation, tutt’ora operativa.
Il tutto sul sistema visto in precedenza, anche se i tempi sono stati lunghi. Da qui parte
un’accelerazione, dovuta all’acquisizione di nozioni più avanzate di volta in volta, e nel 1906
arriviamo a una nuova invenzione di Forest, il triodo, più performante del relè, usa una
tecnologia diversa, ma la funzione è la stessa, il passaggio o meno di corrente. Questa valvola viene
composta da tre elettrodi, anodo, catodo e griglia, viene chiamata anche valvola termoionica. Il
metallo riscaldato crea vibrazioni, viene inglobato in un contenitore, perché solo in uno spazio
vuoto è possibile che questi elettrodi fossero attratti da un polo all’altro, era necessario inglobarli
perché altrimenti si sarebbero neutralizzate. Da qui possiamo creare nuove tecnologie che ci
permettono di visualizzare il risultato di quello che stiamo facendo. Una di queste tecnologie è il
tubo catodico migliorato o cinescopio di Zworykin nel 1929, con le stesse componenti del triodo,
catodo, vuoto spinto, un anodo, abbiamo un generatore di corrente continua che lavora sul catodo,
i neutroni vengono spinti nel tubo e alla fine c’è uno schermo riflettente che permette la
visualizzazione delle immagini, è il precursore della televisione, la tecnologia con la quale si
sarebbero realizzati i primi monitor.
Nel 1936, Zurse, ingegnere tedesco considerato il padre del moderno computer, a soli 26 anni
costruì la Z1, la prima macchina calcolatrice digitale brevettate, digitale, arriva dalla contrazione di
due parole, digit di cifra, numero, cioè 0 e 1, due volari. Tutto ciò che vi3ne codificato attraverso
questi due numeri si parla di digitale. Quando parliamo invece di trasmissioni meccaniche,
tensioni elettriche e onde parliamo di analogico, differente dal digitale. Quando parliamo di
digitale non parliamo di elettronica. Il digitale è alla base di tutto quello che è la comunicazione
dalla nascita della Z1 ai nostri giorni.

Con l’avvento della guerra, con il suo carico di distruzione, fanno da volano per le innovazioni, la
Seconda guerra mondiale risalgono la diffusione dello strumento informatico in determinati
ambienti, primi fra tutti quelli militari e poi della produzione bellica. Necessità di produzione più
grande e trasmissione di informazioni, cercare di diventare più moderni quindi più forti. Nascono i
tecnici della computabilità. Alan Turing sviluppa una macchina, modello astratto di computer, non
una vera e propria macchina, ma rimane a livello teorico, si basa su algoritmi e computabilità.
Cerca di rendere automatica la macchina da scrivere. Per poterlo fare si base sull’interrogativo di
Hilbert, se in line di massima potrebbe esistere un metodo attraverso il quale un qualsiasi
enunciato meccanico si possa stabilire se è vero o falso e come può essere utilizzato. Sulla base di
questo metodo arrivò a capire che una macchina riesce a lavorare su un nastro, con tante caselle,
dove possiamo registrare valori, dati, anche semplici simboli, vengono registrati e letti, registrati
grazie a delle testine di lettura e (input del dato) e lettura (output sul nastro). Arrivare a stabilire
che sulla tabella di un nastro puoi scrivere sia testine di input che di output è alla base delle
memorie di massa, per esempio le pendrive, floppy disc, qualsiasi disco magnetico sulla quale
noi abbiamo la possibilità di scrivere ed estrapolare dati quando li scriviamo, come supporto
periferico di input e output. Alla base della macchina di Turing c’era questa intuizione. Testine per
scrivere e leggere.
All’inizio del secolo, prima fase del 1900, Church, matematico e logico americano, che mentre
Turing inventa questa macchina, definisce un concetto computazionale, della risoluzione dei
problemi, quando risolvibili si dicono decidibili, o ricorsivo; quindi, se un algoritmo è calcolabile o
no, se è calcolabile abbiamo fondato la teoria per poter realizzare programmi informatici che
funzionano.
Abbiamo tutto quello che serve per parlare di un computer, componenti elettroniche e logiche,
teorie delle computabilità, se c’è un decidibile e se un algoritmo può essere risolto.

Sempre lo stesso Zurse costruisce nel 1941 la Z3, composta da tantissimi relè, 1600, rappresenta il
primo calcolatore elettronico digitale, la prima macchina digitale realmente esistente,
memorizzava 64 byte ed eseguiva una moltiplicazione in 4 secondo. Oggi quando parliamo di un
computer di media potenza un’operazione viene fatta in un miliardesimo di secondo.
Nel 1911 la IBM era un colosso nella produzione di strumenti di calcolo e memorizzazione di dati,
nel 1948 costruì il SSEC, un calcolatore in grado di memorizzare 50 kilobyte di dati, più di 21400
relè e 13500 valvole. Questa macchina rispetto alla altre riesce a memorizzare i programmi che
servono ad eseguire le operazioni; quindi, non devo darle le indicazioni ogni volta per eseguire le
operazioni, ma già aver inserito e memorizzato il programma per svolgere le funzioni per cui è
stata creata. Macchina costosissima e difficile da usare. Non era ancora deputata la produzione a
livello industriale, solo militari e di ricerca.

Con la fine della guerra anni ’60, nascono le prime forme di trasmissione di dati a distanza, le
prime rete, ARPANET, la tv è in tutte le case con il tubo catodico. Negli anni ’90
- Tecnologia di telecomunicazione abbiamo una nuova tecnologia sulla quale si basa la
trasmissione di impulsi dati dal digit, 0 e 1, i transistor, non viene più utilizzato il filo
metallico ma il silicio alla base delle piastre per i computer, con proprietà semico duttori.
- ElettronicaVengono assemblate le unità di calcolo, in un computer vanno a convivere
varie unità.
- AlgoritmicaTutta la scienza basata sull’algoritmo viene usata per la creazione di
applicazione.
Tutto questo porta alla nascita dell’ICT moderna, i primi fruitori furono le banche, che avevano
bisogno di tenere memoria dei flussi e delle operazioni contabili, anche nelle aziende più grosse,
con l’automazione dei magazzini, memoria e conto delle scorte.

Negli anni ’70 la trasformazione nel campo della tecnologia inizia a vedere un ICT che da pochi si
allarga ai molti, ma non ancora alla portata di tutti, anche perché utilizzano linguaggi particolari,
spesso linguaggi di alto livello, cioè capaci di dare istruzioni all’elaboratore che si avvicina al
linguaggio umano. Le sintassi per quanto vicine erano ancora abbastanza complesse per un utente
normale, ma che destinano il software a una platea più ampia, nascono i primi software
commerciali (scorte di magazzino per esempio), primi software per gli studi professionali. Tutto
questo porta a una prima diffusione della ICT. Si sviluppa a suo fianco l’industria del software,
intorno agli anni ’70 si comincia a parlare di ‘’start up’’ nel settore di software, che spingono lo
sviluppo tecnologico del paese e creano molti posti di lavoro, si comincia a parlare di cibernetica.
Proprio in questo periodo nascono le prime grandi aziende, come la Intel, che nasce come fabbrica
di componenti elettroniche, calcolatori, a lei si deve la creazione di un microprocessore, impiantato
su un elaboratore Altair 8800, il primo che le famiglie potevano permettersi, il microprocessore
oggi è una piastrina, ed è sempre più miniaturizzato. Il microprocessore è un circuito elettronico
miniaturizzato che costituisci l’unità di calcolo del computer. Utilizzano tecnologie particolari che
permettono una velocità di calcolo maggiore e la possibilità di ottenere informazioni in tempo più
immediato.

Nascono i ‘’mostri sacri’’. Nel 1975 Allen e Gates fondano la Microsoft, l’anno dopo, nel 1976 si
fonda la Apple.
Nel 1981 nasce il primo PC commerciale della IBM, il P101, nasce come macchina che fa i conti, ma
è il predecessore dei computer di oggi perché memorizza, ha un sistema operativo, un software di
base che è ‘’la benzina’’ che ti permette di far girare anche gli altri programmi l’MS/DOS, prima
interfaccia a comando.
Il primo computer della Apple, il Macintosh, con proprio sistema operativo, il macOS, è quello che
noi utilizziamo oggi sui PC Apple.
Il 1990 fa da spartiacque da un’informatica per pochi a quella per molti, nasce il Windows 3.1 che
riesce ad avere la più grande diffusione, grazie all’introduzione del mouse, puntatore periferica di
input, che mi permette di interagire su una particolare grafica, aprendo oggetti a cui sono legate
operazioni, cioè le icone, che costituiscono l’interfaccia grafica tra la macchina e l’utente con
caratteristica di essere user-friendly, molto intuitiva. Vado a dare un comando, sempre 0 e 1, su
un’icona che è rappresentata da una figura, rendendo tutto molto più semplice.

Quello che nasce con Windows viene preso da Bill Gates e lo rende più diffondibile nelle abitazioni,
questo permetterà una grande diffusione dello strumento informatico. Jobs fa anche di più, se Bill
Gates continuava sulla strada tradizionale, Jobs capì che doveva far parte degli arredi di
abitazione, differenziando i propri computer. In pochi anni il computer cambia anche l’aspetto,
nelle dimensioni e nella gradevolezza visiva. Il computer da sé fa poco, se rimane scollegato dalla
rete.
Nel 1991 Tim Barners-Lee, ricercatore del CERN di Ginevra, inventa il World Wide Web, che
permette di navigare più velocemente e in modo più ampia, sulle basi delle tecnologie di
trasmissione in rete utilizzata secondo i sistemi ARPANET, finanziata dal dipartimento di difesa
americana, per mandare messaggi da uno stato all’altro nel periodo di guerra fredda. Nel 1993 il
CERN la rende pubblica, portando alla diffusione dei computer in rete a partire dal 1995, portando
all’inizio dell’era di internet.
Internet oltre. A favorire la diffusione del computer nell’ambito domestico, per uso ludico, non
solo professionale, favorisce la nascita di ulteriori colossi, i gig-internet, per esempio Google. Nel
1998 due studenti, Page e Brin creano un algoritmo che sfrutta le relazioni tra i siti presenti in rete
e cerca di arrivare a definire dei risultati di ricerca più attendibili possibili, utilizzando l’algebra di
Boole che permette di avere risultati più o meno concreti quando uso gli operatori Booleani.
Partirono dall’idea che più link ha una pagina, più quella pagina è meritevole, nasce l’idea di
indicizzare i risultati di ricerca e nasce Google.
Un altro esempio è Amazon, libreria online che alla fine negli anni ’90 si occupa nella vendita di
altri prodotti lanciandosi nella vendita e-commerce, anche il Marketplace che permette di vendere
e comprare prodotti usati.
Altri sono Facebook, Alibaba, tutta la messaggistica, Booking.

Quando parliamo di informatica c’è da avvisarsi che c’è sempre un rovescio della medaglia, cioè
tutto ciò che riguarda i temi etici per l’utilizzo consapevole degli strumenti.
29.10.21
Il modello OSI segue uno standard di riferimento che viene definito da un’organizzazione
internazionale chiamata ISO.
Composto da sette livelli gerarchici, per un determinato protocollo di comunicazione e i dati
possano viaggiare in rete.
Il modello osi si compone di questi sette livelli gerarchici dal più alto:
7. trasporto dei dati applicazione,
6. Presentazione,
5. Sessione
4. Trasporto, TCP transmission control protocol
3.rete i pacchetti permettono di raggiungere l’informazione in maniera corretta, IP internet
protocol
2. collegamento
1. che trasporta il bit, livello fisico.

Per ognuno dei livelli ci sono acronimi diverse, nel primo si trova l’adsl per esempio.
PPP (o P3) post office protocol, regole dedite alla gestione di un’applicazione, in questo caso per la
posta elettronica, esistono in rete dei nomi trasformamiti in rete, il DNS, l’HTTP.

Il modello OSI, se noi visualizziamo le proprietà della nostra rete troviamo l’indirizzi IP del nostro
computer, qual è il server. Quando parliamo di posta elettronica possiamo avere delle richieste
particolari, relativi alla posta elettronica crittografata, che indica l’utilizzo della password per
visualizzare un messaggio, in questo caso noi stiamo parlando di ‘’server DS’’.
Il livello 4 di computazione di pacchetto.
Quando inviamo una mail con allegato un documento, viene scomposta in pacchetti, i pacchetti
vengono scomposto due diversi nodi della rete, e poi rimandati al destinatario che avrà il compito
di rimettere insieme i pacchetti come erano partiti. Indirizzo IP del mittente e del destinatario, un
numero di sequenza dove ci sono i dati del pacchetto, un numero di riscontro che invia un
messaggio di ricezione o di fallimento, vuol dire che c’è stato un problema di trasmissione nel
collegamento (accade molto con la posta elettronica certificata), fino ad arrivare alla composizione
vera e propria dei dati, quelli presi in carico del DCP, per poter viaggiare in rete e poi arrivare a
destinazione.
Il cloud computing

Quando parliamo di rete parliamo anche di cloud, sono tantissime tecnologie informatiche che
consentono da remoto di utilizzare risorse hardware e software sulla rete, noi ne facciamo ricorso
anche quando usiamo il sistema e-mail dell’università.
A seconda delle infrastrutture e dei servizi pubblici possiamo distinguere un cloud pubblico,
provider che si rivolge a più clienti che da questo fornitore acquistano il cloud, la possibilità di
accedere ai servizi che un’azienda mette a disposizione a tutti coloro che vogliono aderire a quel
cloud. Privato, quando un’azienda usa una sua forma di cloud, es. la cattolica e ibrido (insieme di
pubblico e privato).
I modelli di servizi
1. Sono diversi posso avere dei servizi che sono software as a service, un fornitore del servizio
cloud che lo viene fornito direttamente a chi lo utilizzo, applicazioni, software. Nel
momento in cui fornisce un’applicazione al cliente che usa direttamente quella applicazione
(SaaS).

2. Nel momento in cui il fornitore del cloud mette a disposizione delle piattaforme che
vengono utilizzate da un provider che poi le mette a disposizione del pubblico, come un
intermediario. Platform as a service.

3. Se invece mi fornisce un’infrastruttura, un server dove posso mettere una certa quantità di
storage si parla di fornitura di infrastruttura, il terzo modello di cloud. Infrastructure as a
server.
Noi abbiamo la gestione interna fatta da applicazioni, dati, sistema operativo, archiviazione dati,
nel mettere a disposizione le strutture il cloud mi dice di avere delle piattaforme disponibili in rete,
se invece vado a verificare che ci sia la disponibilità della piattaforma di un servizio che metto a
disposizione, il livello completo ce l’ho quando oltre alle infrastrutture ho anche il software.

Software
Unità minima compresa dall’elaboratore il bit, lo 0 e l’1, ma un elaboratore lavora con la base di un
software, distinguiamo due tipi di software, quello di sistema e quello applicativo. Non è altro che
l’insieme delle istruzioni che dice al computer come svolgere una determinata funzione.
Il software di sistema è quello che permette al sistema applicativo di girare sul computer, cioè
l’insieme di istruzioni che gestisce le informazioni interne ed esterne al software per far funzionare
il software applicativo.
Il software di base o di sistema è molto più semplice, senza grandi operazioni, ma senza il quale
non potremmo utilizzare l’elaboratore, sistema operativo per esempio. lavorano a stretto contatto
con l’hardware, permettendogli di funzionare, Windows, iOS per esempio. questo è composto dal
sistema operativo, che contiene le informazioni per il corretto funzionamento del computer,
gestiscono le risorse del computer, permette di eseguire le applicazioni dell’utente, tutto ciò che è
fisico e presiede le operazioni di input e output. A fianco abbiamo anche delle utilità, tutti i
programmi diagnostici, se ci sono dei problemi di rete o se il sistema operativo non è stato caricato
in maniera corretta; permette installazione e disinstallazione, quando abbiamo bisogno di
configurare un’applicazione; il driver di periferiche. Il sistema operativo è formato da un insieme
di programmi che gestiscono le operazioni più elementari del computer. Per esempio, quando
facciamo una pulizia del disco, gestiscono le memorie, gestiscono le CPU e le periferiche,
qualunque essi siano.
Tra le funzioni principali abbiamo la funzione di BOOT, parte all’avvio del computer e corrisponde
al processo di caricamento del S.O. nella memoria principale (centrale) del computer. In questa
fase il BIOS copia alcuni programmi del S.O. nella memoria principale e poi le va a leggere, lo
prende dal disco fisso. Rimane attivo fino allo spegnimento del computer, non devono essere
caricate tutte le informazioni ma solo quelli necessari al momento.
Un’altra funzione principale è quella di gestire le CPU, il Kernel (supervisore)viene caricato nella
memoria e rimane fino allo spegnimento, non potremmo altrimenti gestire i programmi applicativi
e la memoria. Altra funzione è quella di gestire i file, interi programmi come Word.
L’estensione è una sigla che mi dice quale programma è associato ad un documento, che poi
vengono rielaborati, dopo non riusciremmo neanche ad aprirlo senza.
Gestione del file del S.O. che ne registra la posizione di memorizzazione, ma anche lo spostamento,
l’operazione di cancellazione, copia.
Tra le funzioni c’è la gestione dei task: un task è una singola operazione. I computer che operano
multitasking possono lavorare su più processi contemporaneamente. Per esempio, la manda in
stampa, stiamo lavorando con un sistema multi tasking.
Gestisce le risorse ma non solo quelle legate ai software, anche quelle legate agli hardware
(periferiche tipo stampante).
Il sistema operativo viene classificato anche in base ai modi di operare. Se quando accendiamo il
computer il sistema operativo viene caricato per intero nella memoria centrale, il sistema operativo
viene chiamato residente. Se viene caricato solo il nucleo, il supervisor, il blocco più importante
nella RAM, viene chiamato non residente, se devo caricare altri ‘’pezzi’’ (moduli transienti) me li
porterà per svolgere una determinata funzione.
Un sistema operativo che opera in monoprogrammazione e multiprogrammazione, se in un
determinato momento gestisce un solo programma si parla di monoprogrammazione, se invece
riesce a un un intervallo a eseguire più programmi è multiprogrammazione.
Si divide in proprietario e standard: il primo è creato per un apposito elaboratore e funziona solo
con quell’hardware, il secondo può girare su hardware differenti.
Accanto al sistema operativo abbiamo le utility, altro software che permette la comunicazione tra
dispositivi di input e output ed il computer.
Programmi di servizio (utilities) ci sono quelle legate al controllo e all’allocazione delle risorse del
computer. Per esempio, i problemi hardware, la copia dio dati.
I sistemi operativi più noti
Il sistema DOS, prima interfaccia a comando, non confondere il sistema operativo e la piattaforma,
composta da sistema operativo e altri modelli di microprocessori.
Macintosh (MacOS): può essere utilizzato solo su questo computer della Apple, prima interfaccia
utente con le icone, interfaccia grafica utente. Nel 1998 Apple che già si era dotata di questa
interfaccia grafica si dota anche dell’IMAC, internet Mac che permette di andare in rete.
La Microsoft affianca alle icone l’uso delle finestre, nasce Windows, dalla versione 3.1 in avanti è il
preferito dagli utenti. È gettonato perché utilizza l’interfaccia grafica user friendly. Possiamo
utilizzare le icone, diventa intuitivo, senza bisogno di grosse conoscenze.
La sua fortuna è data dal fatto che gira su più hardware, e fa girare più software applicative, da un
certo punto applica lo standard plug and play, basta attaccare una periferica senza bisogno di
software di funzionamento del driver delle periferiche.
Linux realizzato nel 1991 da Trovalds, pensa di renderlo disponibile alla comunità, prese il codice
sorgente con il quale era stato creato il software, open source, cioè una sorgente aperta, reso
disponibile a tutti, vuol dire non assoggettarle a copyright. Nel momento in cui disponiamo il
codice sorgente possiamo adattare quel software alle nostre disponibilità.
Obbligo morale che chi lo rende più forte, apporta modifiche, lo ricondivide.
Microsoft Windows NT/2000 sistema operativo multitasking per server di rete e Unix/Solaris
dotato di funzionalità di rete.

I software applicativi
Software commerciale, detto Sw proprietario, soggetto a copyright, acquistiamo la licenza d’uso
Software di dominio pubblico, non soggetto a diritto d’autore, spesso disponibile su internet.
Con il copyleft un autore concede l’uso, la copia, la modifica e la distribuzione del suo programma
a condizione che venga garantito che i diritti originari dell’opera, primo fra tutti la gratuità, siano
mantenuti.
Software SHAREWARE, coperto da diritto d’autore, disponibile su internet, è distribuito
gratuitamente ma per un uso continuativo occorre acquistarlo.
Software FREEWARE, coperto da diritto d’autore, completamente gratuito.
Software RENTALWARE, a noleggio, può essere molto costoso, pagando un canone d’affitto.

A seconda di quello che fanno possiamo individuare quelli per intrattenimento, personali, per
educazione e riferimento, produttività.
Software particolari, come quello di presentazioni in PowerPoint, quelli finanziari o di
impaginazione elettronica (DTP publishing), per la gestione di progetti, spesso accompagnati da
periferiche particolari.

Software online
Application service provider, sono i provider che mettono a disposizione un software applicativo
che può essere noleggiato, lo si usa per il tempo necessario.
Tra questi software in affitto i più popolari sono quelli Enterprise Resource Planning, quelli che
permettono alle grosse aziende di gestire le relazioni tra client e server direttamente.

Classificazione dei dati


Rappresentazione grafica non elaborata che si trasforma in informazione può essere classificato
come numerico, alfanumerico, come simbolo, dal punto di vista del formato, se ho una voce, è un
dato in formato audio, può essere in formato testo, immagine, se è abbellito o lavorato in modo che
sia in un certo modo può essere formattato o no. Può essere un dato in input e uno in output,
rappresentati in maniera diversa.
Il dato è importante se è integrato, utilizzato e condiviso in archivi comuni in più aree funzionali.
Mi permettono di avere informazioni trasmesse in maniera ottimale. In questo modo posso
trasportarlo in maniera più corretto, per esempio il limite della velocità di elaborazione del dato, se
i dati sono condivisi posso razionare i cicli di lavoro.
Se un dato è disponibile, tutti riescono ad avere l’informazione corrette, razionato il ciclo di lavoro
reso disponibile.
Integrare i dati vale a dire anche evitare che venga ripetuto inutilmente, quel dato deve essere
disponibile sempre, o evitare che ci siano errori di inserimento.
Viene garantita l’integrità del dato, come corretto e chiaro. Sono inoltre ridotti i costi. Questo mi
rende la disponibilità di avere i presupposti per cui il dato sia disponibile in ogni funzione
aziendale. Obiettivi principali che ci si fissa quando si creano archivi comuni.
Nel momento in cui devo realizzare quelli obiettivi è importante che alla base ci sia un’acquisizione
corretta del dato, per avere dei dati correttamente integrati.
I dati una volta acquisiti, una volta stabiliti e capito a cosa servono, è importante che dal punto di
vista logico, abbia un livello indipendentemente dal punto di vista fisico, indipendentemente da
dove io lo conservi. Se si modifica la struttura logica del dato, se vado a correggere o la indico come
in modo diverso, l’accesso al dato deve essere sempre garantito nello stesso modo. Memorizzazione
logica e fisica dei dati.
In base a come sono organizzati i dati possiamo parlare di due tipologie di organizzazioni, in
archivio o in data base.
L’archivio è un file, un dato a sé, possiamo averlo quando ci riferiamo ad un certo soggetto,
esempio archivio scorta di magazzino, vengono memorizzati con supporto magnetico. L’accesso
potrebbe essere un altro tipo di supporto come un disco magnetico, con una chiave, o in maniera
sequenziale scorrendo fino a che non trovo quello che cerco, il dato potrebbe essere riprodotto,
limite della ridondanza. Il data base è una collezione unica di dati, nel Data Base troviamo il
concetto di ridondanza superato, è uno e disponibile per uno e dappertutto, il dato è integrato.

File e file system


Il file è un contenitore di dati in formato digitale, il file ha un nome e un’estensione. Il nome serve
a identificare il contenuto, l’estensione consente al sistema operativo al sistema operativo del
computer quale programma usare per aprirlo.
Una directory, cartella è un contenitore di file.
Il file system è lo schema mediante il quale le directory e i file sono disposti e organizzati nel
dispositivo di archiviazione. Da una root, io ho le sottocartelle. Schema secondo il quale io trovo
disposte le directory e le sottodirectory. Sono all’interno dei dischi.
Nel file system la root principale è il nome del disco.
I tipi di file.
Il nome, che contiene informazioni sul contenuto, un’estensione del programma, sono solitamente
separati da un punto. Esempio .txt .pdf .pptx, è un documento
Un documento che termina con un’estensione di tipo .exe, contiene un programma, è quindi
eseguibile.
Alcuni file contengono informazioni con un particolare linguaggio di programmazione, lo vediamo
associato ad un’estensione di programmazione.
Abbiamo dei file associati alle immagini, possiamo averne diversi, una di queste è l’immagine di
tipo raster, composta da diversi pixel, matrice di punti. Sono delle tecniche che presentano un
difetto, nel momento che io ingrandisco le immagini, sgranano, sono in formato per lo
più .jpg .bng.
Si parte da queste matrici di punti per avere la risoluzione corretta.
I file di immagini più professionali sono quelle di tipo vettoriale, sono quelle realizzate con disegni
di grafica particolare, ingrandendole non sgranano. .drv
Nei file audio le tracce vengono compresse in formato .mp3, possono essere tecniche lossy, nel
momento in cui viene compresso, su una memoria di massa, può perdere un po' di qualità
impercettibile, altre che non sono compresse .waw.
Alcuni file video sono realizzati con particolari tecniche di compressione, .mp4 (lossy), .avi.

Organizzazione dei file-directory


Abbiamo una directory, che posso organizzare su un disco, che permette di organizzare i dati in
cartelle e sotto.
Unità di memorizzazione
Per convenzione vengono contraddistinte da lettere A e B per floppy.
Quando parliamo di file facciamo riferimento anche ai percorsi, dove identifichiamo dal primo
passaggio fino al nome del file. Sono memorizzati sui dischi attraverso il nome e il percorso.
Partendo dalla root, arrivo al nome del file seguito dall’estensione  percorso assoluto, tutto
descritto, quando ne ho solo una parte parlo di  percorso relativo
C:\documenti(directory)\relazioni(subdirectory)\trattato psico(nome del file)
Se viene memorizzato su nastro può essere solo sequenziale. I diversi file vengono memorizzati in
sequenza sul nastro magnetico.
L’accesso diretto permette di avere accesso solo al dato, non in sequenza, per esempio con i CD.
Sul disco trovo un’area particolare, la directory 0 ma è organizzato secondo una FAT, tabella di
allocazione file, indica la posizione fissa dei dati sul disco.
5.11.21

I dati organizzarti in database


I dati sono informazione grezza, che non dice nulla se non accumunati ad altri dati, con la quale
elaborazione si riceve un’informazione. I dati possono essere organizzati, sia in archivio che in
database, con la registrazione in nastro con memoria sequenziale o in disco. I dati possono essere
organizzati in database, o DBMS, il database è l’insieme dei dati, il DBMS è il software di gestione
dei dati (database management sistem), che contiene tutte le istruzioni necessarie per poter
inserire e poter interrogare il programma e in maniera corretta i dati all’interno del database, nel
database i dati vengono conservati con misure tra cui appunto anche quella del RECORD. Il
database è organizzato secondo delle strutture, che tengono conto di quali siano le gerarchie, le
caratteristiche e come siano funzionalmente legati l’uno all’altro, parliamo anche di un insieme di
tecnologie, che servono a comparare i dati tra loro, per ottenere una risposta ad un’interrogazione,
tutte queste tecnologie devono condurre all’unico obiettivo dell’integrazione dei dati, che devono
essere disponibili in qualunque punto dell’azienda.
Si hanno più elementi nel database, più campi formano il record, più record danno vita alla tabella
(file) e tante tabelle creano il database.
Un record è l’elemento principale del database, contiene le caratteristiche esaustive e di un’unita
univocamente determinata, nel su contesto d’uso.
Organizziamo i dati in database perché posso considerarli in maniera indipendente l’uno dall’altra
ma anche indipendentemente l’uno dall’altro, indipendentemente dal programma utilizzato per la
gestione, teniamo separate la struttura logica e la memorizzazione fisica di quei dati.
Quando facciamo riferimento ad un campo (unità minima del database è il carattere come numi,
simboli che costituiscono il campo, che potrebbe essere anche solo un numero) più campi correlati
fra di loro costituiscono un record, bisogna mantenere l’integrità di quello che va a rappresentare.
Un file è una raccolta di record correlati, all’interno di una struttura devono essere correlati
correttamente, in maniera integra. Quando raccogliamo questi file, arriviamo a costituire un
database, che mi dice come vengono caratterizzati i campi, fino ad ottenere i file, che fanno
riferimento a delle tabelle.
I campi a cui facciamo riferimento hanno delle proprietà, che servono a identificarli, vengono
chiamate chiavi. Il campo che si chiama chiave primaria è quella che mi identifica in maniera
univoca un record, posso trovare delle chiavi secondarie, con proprietà referenziali, e altri campi.
Oltre ad avere i campi così identificati dobbiamo verificare come possiamo rappresentare disporre
e organizzare i dati per inserire e ricercare i dati per avere un tipo piuttosto che un altro di
database.
I modelli di database possono essere differenti a seconda delle necessità, ci sono quelli più gestibili
con un determinato modello, dipende anche dalla realtà che si vuole rappresentare.
Uno è di tipo top-down, abbiamo dei campi e dei record disposti secondo una loro gerarchia, di
livello superiore o inferiore. Questo database utilizza un modello gerarchico, il campo principale
sta più in alto, definito record genitore, ma anche root, che poi va definirsi nel particolare. È un
livello piuttosto vecchio ma anche rigido, perché difficilmente modificabile, stabilita in origine, nel
momento in cui io scendo mi trovo a duplicare in maniera non necessaria dei dati, ottengo la
ridondanza dei dati, la ripetizione inutile di un dato in un database, non è opportuna perché non
solo determina uno spreco di lavoro, ma anche perché a determinare una disposizione molto alta
nel database di memoria.
Nel modello di database gerarchico il ‘’genitore’’ si diramano diversi ‘’figli’’ dai quali si diramano
diversi ‘’nipoti’’ ecc. si possono anche interrompere la dove non è più necessario. Non è possibile la
struttura inversa, ad un figlio deriva un solo genitore. La struttura ad albero è utile per le ricerche
dicotomiche (divisione in più parti di segmenti).
Database a rete o reticolare, posso partire da qualunque punto del database per raggiungere il
dato, io devo comunque sempre risalire una rete per trovare il dato. Ogni record può essere un
punto di accesso. In questo caso però abbiamo che ad ogni record ‘’figlio’’ possono fare capito più
record ‘’genitori’’. Questo perché vengono a crearsi delle relazioni maggiori, non sono più
strutturati a livelli così immutabili, anche se si scorre in maniera diversa rimane comunque
abbastanza rigido.
I tipi di database di tipo reticolare, costituisce un’estensione del record gerarchico, non più
dall’alto verso il basso, non c’è una gerarchia fissa come nel modello gerarchico.
Questo tipo di database si presta benissimo a costituire le reti neurali, che costituisce la base
dell’intelligenza artificiale, simulando le sinapsi del cervello.
Nel database possiamo svolgere diverse funzioni, possiamo inserire un nuovo record, cancellarlo o
modificarlo, o ricercarlo.
Il database relazionale si basa su relazioni create nel database stesso, è un modello flessibile
composto di uno o più tabelle a doppia entrata, cioè contenenti campi-colonne e
record-righe/tuple.
Le tabelle sono collegate da connettori, relazioni, che costituiscono le chiavi da cui partiamo.
Queste caratterizzano il campo che identificano univocamente il dato. Posso modificarla quando
voglio, è modificabile a posteriori.
L’handicap di questo tipo di database è dato dal fatto che pe poter svolgere delle ricerche impego
delle capacità elaborative notevoli, è oneroso, ma mi permettono di gestirle in maniera più
semplice nonostante il grande volume di dimensioni.
Se relazionato correttamente manteniamo l’integrità referenziale del database. I vantaggi del
database di tipo relazionale,
 una volta inserito il dato è disponibile ovunque
 l’aggiornamento viene condiviso con tutti i dati, aggiornati, precisi,
 riduzione delle ridondanze, inserito una sola volta
 si può accedere solo se autorizzati

Il modello relazionale nasce negli anni ’70 da Codd, ''due dati diventano un’informazione se hanno
una relazione tra di essi’’, se non relazioniamo non abbiamo un’informazione.
È dalla relazione che posso generare un’informazione, ‘’parlare’’ il database. Sulla base delle
relazioni Codd riuscì a creare un metodo per la realizzazione di un database.

Database con modello ad oggetti, nasce intorno al 1980, possibile svincolare le informazioni di
un database dalla tecnologia che mi serve per rendere fruibile quell’informazione.
Utilizzo piattaforme diverse per fruire di quell’informazione.

Un ulteriore tipo di database è quello schmaless o NOSQL, deriva sempre da quello ad oggetti,
ma riesce a memorizzare informazioni complesse anche diverse tra loro. Si prendono dei dati
grezzi (ad esempio i big data) e si ottiene una particolare tecnologia, e li inseriamo in un
raccoglitore NOSQL, dove posso trovare dati di qualsiasi natura, vengono esaminate e gestite fonti
eterogenee.
Non è tra i più diffusi.

Modello relazionale
La progettazione di un database si pone degli obiettivi
Gli obiettivi di una buona progettazione sono:
- rispetto dei requisiti: deve permettere di gestire le informazioni che servono, e solo quelle
che servono
- integrità dei dati: evitare le ridondanze, per tenere il database posizionato su chiavi
univoche
- efficienza delle interrogazioni: deve essere semplificato, per evitare ‘’navigazioni’’
complicate.
La prima fase è analizzare i requisiti del database, i requisiti funzionali. Seguirà una fase di
progettazione data da tre set diversi, la prima è uno schema concettuale, un’idea, seguita da una
progettazione logica, dove devo tenere conto di come devono essere realizzati diversi argomenti
per funzionare. Segue uno schema fisico, una progettazione fisica vera e propria.
Per arrivare ad una vera e propria realizzazione.
Fase analisi Fase di progettazione Fase di realizzazione

Analisi dei Progettazione Progettazione Progettazione


Realizzazione database
requisiti concettuale logica fisica

Analisi dei requisiti


Noi dobbiamo intanto cercare di capire a cosa ci serve, quali requisiti deve avere.
Nella prima fase entra in gioco il progettista (data administrator) vero e proprio, che lavoro a
stretto contatto con un campione degli utenti di questo database. In questa fase si stabiliscono i
destinatari, quali sono le informazioni che deve memorizzare e quali funzioni devono interagire.
Dalla fase di analisi esce un documento con dei requisiti, sui quali si va a lavorare, per realizzare il
database.

Fase di progettazione-concettuale
L’entità è un elemento del mondo reale che noi schematizziamo e rendiamo astratto.
Gli attributi quantifica l’entità e costituiscono la chiave primaria, quando prendiamo un’entità e ne
valorizziamo gli attributi otteniamo un’istanza.
Quando noi inseriamo i dati, gli attributi, noi abbiamo definito l’istanza dell’entità, dando tutte le
specifiche.
Nella progettazione concettuale non dobbiamo mai definire un attributo che può essere ottenuto
da altri attributi del database, non ha senso ottenere lo stesso dato da due attributi, st a ame in
questa fase decidere quale inserire per ottenere un dato veritiero, aggiornato. Un attributo deve
fare riferimento ad un solo dato logico. Non posso mettere insieme due attributi insieme perché
non hanno senso logico, altrimenti rischio di avere informazioni non corrette.
Nel caso la caratteristica fosse una sola non variabile non avrebbe senso inserirlo tra gli attributi
(se produco solo auto blu non devo mettere dentro l’attributo del colore blu, perché faccio
riferimento ad un solo dato).
Nel progettarlo devo anche tener conto delle tipologie delle relazioni, quante istanze di un’entità
vado a mettere in relazione con istanze dell’altra entità correlata.
Metodologia
La cardinalità di una relazione indica quante istanze di un’entità possono essere in relazione con
istanze dell’altra entità correlata.
Un numero definibile n può essere in relazioni con molti prodotti (n).
Notazione
Quali sono i campi che in una tabella mi vanno a dare l’entità corretta. Ritrovo dei campi che
possono appartenere a più entità, creando il corretto rapporto di cardinalità, mantenendo la
integrità.

Fase di progettazione -logica


È spesso la prosecuzione di quella concettuale. Definito il mp0dello concettuale, restano da
definite i domini e i formati degli attributi, ‘’normalizzare’’ il modello e definire le viste.
Ad ogni attributo vado a definire che tipo di dominio appartiene, la qualità, che cosa appartiene.

Ci possono essere anomali, come la ridondanza, la cancellazione, l’inserimento.


La soluzione è definire entità e attributi, determinare le relazioni tra le entità, definire le chiavi
primarie e secondarie, definire, se necessario, delle restrizioni di input.
La normalizzazione è lo strumento che mi permette di avere dei dati organizzati
concettualmente in un modello che mi eviti i problemi di ridondanza per esempio. impedisce che
dopo il disegno concettuale e logico, vi siano problemi di ridondanza e anomali.
La prima forma di normalizzazione è quella che cerca di annullare la ripetizione del dato  1NF
La seconda forma normale, permette che gli attributi descrittivi non devono dipendere da campi
che compongono la chiave primaria.
La terza forma normale elimina le duplicazioni dei dati descrittivi, tra due tabelle diverse. Se non
lo facessi, rischierei di non avere integrità dei dati. Perché potrei avere descrizioni diverse a più
entità.
Le forme di normalizzazione sono tantissime ma basta arrivare alla terza per avere un database
accettabilmente normalizzato.

Dobbiamo scegliere il DBMS, per la gestione del database.

12.11.21
Primo quarto d’ora
Linguaggi che si succedono che sono legati all’evoluzione dei computer e alla loro diffusione, dagli
anni ’50, col codice binario, agli anni ’60 ancora molto legati all’hardware, ma che rende il
linguaggio binario mnemonico, negli anni ’70 quelli di terza generazione, detti anche procedurali,
eseguiti nella sequenza nel quale venivano scritti. Nei linguaggi di 4° generazione degli anni ‘80
sfruttano proprietà grafiche, sono orientati agli oggetti, vengono associate azioni programmate che
consentono la riusabilità, si sviluppa l’ingegneria del software.
Linguaggi di quinta generazione, legati all’era della robotica, linguaggi di quei sistemi esperti, che
cercano di sostituirsi all’uomo emulandolo.
Il software nasce seguendo dei modelli di sviluppo, tra i quali il modello a cascata, ogni. Fase di
sviluppo è necessariamente precedente alla parte successiva, per avere uno sviluppo del software.
- Fase 1 analisi dei requisiti, si individuano e documentano i requisiti che un programma, un
qualunque progetto si propone di realizzare, gli obiettivi che vogliamo raggiungere, in che
contesto vogliamo operare, se ci sono dei vincoli.
- Fase 2 studio di fattibilità, se è conveniente porre e realizzare un determinato progetto, se ci
sono alternative e arrivare al risultato, obiettivo che siamo prefissati senza il dispendio dei
costi, studio non solo di fattibilità tecnica ma anche economica
- Fase 3 quali sono le funzionalità del progetto, cosa dovrà fare il software, studiare e fare
un’analisi del sistema, in modo da arrivare ad un’idea del software che andiamo a
programmare
- Fase 4 viene disegnato, quali moduli usare, che tipo di interfaccia usare, se ci sono, quali
report bisognerà visualizzare, una suddivisione in moduli con scelta di certe componenti.
- Fase 5 il sistema può essere realizzato, acquistando licenza da parte di terzi, soggetto ad una
certa tutela di copyright, noi non acquistiamo un intero programma ma la licenza d’uso,
possiamo comprarle da altri, possiamo integrarle, svilupparle per sviluppare l’applicazione
che serve a noi.
- Fase 6 test del sistema, vado a verificare che l’applicazione funziona, se tutto quello che è
stato fatto funziona ben senza errori e che le funzionalità che gli utenti si aspettavano siano
state realizzate.
- Fase 7 implementazione del sistema, prendo il sistema e lo metto a regime addestrando gli
utenti, che ci sia una conversione del sistema precedente (magari obsoleto) e quali passaggi
devo eseguire per evitare blocchi di produzione, tutto deve essere visto nell’ottica di quello
che è la vita produttiva di tutti i giorni. Il passaggio di produzione vuol dire che il software è
perfettamente operante.
- Fase 8 manutenzione del sistema, potrebbero essere necessari degli strumenti tecnologici.
Abbiamo bisogno di sviluppare ulteriori funzionalità. È la fase più lunga, è importante
garantire una corretta produzione del sistema, e che garantisce un corretto andamento.
Il modello agile
Nel tempo gli ingegneri hanno cercato di collaborare per poter trovare dei requisiti per
l’elaborazione del software, questo a causa dei movimenti veloci del mercato, alla base di questo
c’erano dei principi, i principi sottostanti al modello agile, che tipo di software, quali collaborazioni
esterne all’azienda, disponibilità di rispondere. Proprio per stare dietro ai tempi veloci del mercato
produttivo, era necessario accordarsi su questi principi.

L’ICT governance

Negli anni ’70 comincia a diffondersi come strumento utile al produttore, l’uso del prodotto
informatico si diffonde e nascono nuove figure aziendali, coloro che sono a capo di settori dove
sono necessarie delle competenze che con quelle tecnologiche vanno a trovare anche competenze
umanistiche e sociali, questo intorno al 2010, le figure dirigenziali devono avere appunto diverse,
perché il mondo comincia ad essere vocato verso una digitalizzazione, si impone la nascita di
determinate regole, che ancora non ci sono, le regole non sono ancora dettate nonostante si stia
sviluppando.
Negli anni ’80 il governo inglese crea ITIL un insieme di pratiche, difficile stabilire quali sia un
metodo valido per tutti i settori per governare l’information technology, dobbiamo fare riferimento
ad una libreria di buone pratiche.
Questo ITIL si sviluppo secondo determinati caratteri, da un lato abbiamo il business, quello che si
vuole realizzare, dall’altro la tecnologia, il business porta a determinati servizi e grazie alla
tecnologia possiamo amministrare le informazioni, che servono a mettere in contatto le aree.
Nel campo della governance abbiamo anche diversi modelli manageriali, che servono a gestire
diversi livelli, che servono a loro volta a misurare quali bisogni soddisfare, le esigenze degli utenti e
allo stesso tempo garantirli. Abbiamo figure manageriali che si occupano delle figure commerciali
economiche, anche quelli che si occupano di anticipare quali infrastrutture andranno a essere utili
all’azienda, qui entra in gioco anche la figura necessaria per garantire la continuità nel tempo del
servizio. Altra necessità è che non solo garantisca il miglior rapporto qualità costo, ma anche che
garantisca le esigenze appartenenti all’azienda, non può essere troppo settorializzato.
Tutte queste figure rendono l’information Technologies adatte alle esigenze della azienda.
Sistema informativi adottati dall’UE, nel 2006 la NIS, recepita in Italia 2 anni dopo, che dice quali
siano le misure minime per la sicurezza delle reti in Europa. L’Italia affianca la CSIRT, che
affianca, insieme ad altri paesi europei, il computer security incident response team, per
rispondere ad eventuali gravi incidenti informatici, questo grazie ad una struttura sovranazionale
che è quella europea che ci permette di collaborare con gli altri stati.
La direttiva NIS, quando abbiamo una società che comincia ad informarsi in tutti gli ambiti
governati dall’ICT, bisogna stabilire quale sia la misura minima, il livello comune a tutti i paesi
dove le reti possono essere ritenute al sicuro, questa direttiva contiene tutte le regole per garantire
un elevato modello di sicurezza.

Non necessariamente a cascata, lo sviluppo del software può essere anche a spirale, noi creiamo un
prototipo, un primo embrione di quello che può essere utilizzato in atri settori, che viene in base
alla necessità all’implementazione del software per l’azienda. fino alla fase della manutenzione. Si
deve sempre rendere operativo il software, dove si interrompe la manutenzione si riparte con
l’analisi dei requisiti.

Porta ad una sempre più diffusa convergenza digitale, possiamo parlare di convergenza digitale
quando più strumenti sono tra loro collegati e possono far confluire tutti verso un unico apparato,
device. Oggi noi con un unico elemento possiamo sostanzialmente fare tutto. Alla fine degli anni
’80 nascono i primi cellulari, di carattere analogico, è possibile solo telefonare, pesa un chilo e ha
batteria che dura solo tra i 30 e i 60 minuti.
All’inizio degli anni ’90 cominciano ad essere GSM, cioè digitali, con un peso di 300 grammi e con
durata di batteria tra 7 e 8 ore. Intorno alla fine degli anni ’90 si diffonde internet e si diffondono i
PC, nascono le ‘’dotcom’’, nascita dell’e-commerce. All’inizio degli anni 2000 si sviluppa l’e-
commerce, i PC si apprestano a superare i desktop, inizia la diffusione del Wi-Fi, nascono i social
network, nascono i social network, nascono smartphone e i tablet. Verso la fine degli anni 2000
nascono i tablet, i PC portatili superano i laptop, le app, molte dotcom chiudono ma altre
diventano big internet e poi gig internet (grandissime aziende in rete come Google), le banche sono
on-line e l’e-commerce si consolida, smartphone e tablet di diffondono. Tra il 2010 e 2020,
vediamo che tutto il mercato del mobile sono orientati tra smartphone e tablet, prima usati per uso
personale o professionale, oggi invece non facciamo a fare a meno delle app, anyhow, anytime,
anywhere, dobbiamo avere a disposizione tutto subito e in qualunque modo, viviamo
costantemente attaccati ad internet.
Tutto questo attraverso un unico device che è lo smartphone.
Accanto alla convergenza verso un unico strumento abbiamo anche un’evoluzione del web.
Partendo dalla fine degli anni ’50, siamo in piena guerra fredda, sempre in competizione, la Russia
mette in orbita ARPA, agenzia che serve per sviluppare i servizi in tema di gestione dell’ambiente
esterno per superare i sovietici. Si crea ARPA NET, momento in cui si comincia a diffondere la
rete, che serve a permettere lo scambio di informazioni in sicurezza tra un punto all’altro dei
sistemi strategici statunitensi, in modo che i sovietici non potessero entrare in possesso delle
informazioni, nascita dei sistemi di codificatura.
Negli anni ’60 nasce la comunicazione in pacchetto, base per la trasmissione in rete, con questa il
messaggio viene scomposto, affiancato ad etichette e poi mandato in rete. Questo rende più sicura
la rete, posso individuare un pacchetto senza arrivare all’informazione completa.
Nel 1969 c’è un passaggio di informazioni tra computer, si stabiliscono una stessa lingua per poter
parlare e che permettono all’informazione di essere comunicata in un certo modo ed arrivare a
destinazione. Nasce il NCP, network control protocol che noi scriviamo ogni volta che vogliamo
scaricare o caricare qualcosa in rete.
Nel 1971 nasce la posta elettronica, la mail, per identificarlo si scelse il @, che indica a livello
internazionale la trasmissione tramite posta.
Si sviluppa per tutti gli anni ’70, fino che alla fine la rete NCP comincia a mettere in comunicazione
tra loro più di una sola università, quando riescono a connettersi, si arriva ad uno sviluppo e ad
una ricerca maggiore che portano anche allo scambio di informazioni che servono anche per le
ricerche universitarie, USENET.
Nel 1989 con la diffusione del TCP/IP le reti cominciano a collegarsi tra di loro. Nel 1989
ARPANET viene abbandonata, perché non più sufficiente per i computer che sono connessi,
internet è la nuova rete.
Nel 1993 il CERN di Ginevra inventa il www. Che permette di scandagliare, navigare sui nodi di
rete, grazie a Tim Barners-Lee, che vuole che il web non sia proprietà di nessuno, e che sia
disponibile a tutti, perché proprietà di tutti.
Nel 1995 nascono i motori di ricerca, il primo utilizzo di internet prevedeva la conoscenza o di un
indirizzo numerico di una pagina web o della sua trasformazione in caratteri Alpha numerici, ora
invece bastano le parole chiavi, Microsoft crea Explorer. Nel 1999 si hanno più di un milione di siti
web.

Il www. Schematicamente è una ragnatela di dimensione mondiale, troviamo dei nodi, che
possiamo navigare tramite i link, collegamenti ipertestuali, che mi rende possibile scoprire tutte le
informazioni di qualsiasi tipo, a questi link si accede perché a ogni computer è attribuito ad un
indirizzo IP, posso aprire le pagine destinate a essere rese disponibile su internet.
Se ho un documento e desidero che sia reso accessibile posso pubblicarlo, sarà legato al dominio di
primo e secondo livello in maniera che sia reso disponibile a chiunque voglia accedersi, una volta
registrato il dominio, dentro posso pubblicare qualsiasi documento e collegarli tramite link.
Il web come tutto quello che è legato all’informatica è caratterizzato da sigle.
Anche nel web abbiamo delle ere, fino al 2000 avevamo il WEP 1.0, sola lettura, cioè tutti i siti
mettevano a disposizione contenuti statici, non aggiornati, non avevano nulla di multimediale, si
trattava di siti di pura consultazione. Il WEB 2.0, tra 2000 e 2005 è un web che permette di
leggere e scrivere, puoi partecipare alla formazione dei contenuti del web, per esempio scaricare i
propri documenti o caricarli. Il WEB 3.0, tra 2006 e 2016, vengono impiegate le prime tecniche di
intelligenza artificiale. Il web riesce a gestire le mie richieste come se fosse una persona umana.
Con il WEB 4.0 noi abbiamo un web interattivo in tempo reale. Sempre tramite intelligenze
artificiali, ma possiamo comunque interagire con elementi multimediali in tempo reale.
Molto probabilmente il WEB 5.0 sarà un web dove lui stesso prenderà le decisioni, che si
sostituisce all’uomo.

Commercio elettronico

Oggi il commercio elettronico valga qualcosa come 4 milioni di miliardi di dollari, tra i paesi l’Asia
è il primo.
Ci sono paesi che difficilmente immaginiamo come utilizzatori di commercio elettronico, anche
l’Italia è in coda a livello europeo, i tipi di commercio elettronico che possiamo fare sono:
- Il B2B, fatto tra aziende, che ha bisogno di materie e prodotti finiti, lo prende da un’altra
azienda
- B2C, noi consumatori ci riferiamo ad altre aziende per l’acquisto online o tramite portali di
intermediari
- C2C quando le transazioni avvengono tramite privati, senza aziende, spesso un soggetto
terzo funge da garante.
Quando li apportiamo a tecnologie mobile
- M2C, mobile to consumer, ha alcuni svantaggi, per dimensioni
- C2B da consumatore aziende, il privato va da lei, spesso succede con video o foto
- B2A aziende private e pubblica amministrazione che diventa consumatore di beni e servizi,
tiene conto delle esigenze dei compiti della pubblica amministrazione
- C2A consumatori particolari e amministrazione, per esempio commercialisti, CAF si
rendono distributori di un servizio offerto dalla pubblica amministrazione.

La digitalizzazione non ha influito solo sul privato ma anche della Pubblica Amministrazione,
ancora obsoleta, ma del quale si può definire l’E-government, con l’uso di tecnologie legate all’uso
di molte competenze che servono a migliorarne i servizi, rafforzare quelle che sono le politiche
pubbliche e migliorare i processi demografici. Tutto questo dato dalla Commissione Europeo, con
piani che puntano ad incentivare la pubblica amministrazione. Tutti i servizi dovrebbero essere
digitalizzati tranne per coloro che non dispongono di internet. Che scelgono di non appartenere a
questo mondo digitalizzato.
L’E-government dice che una richiesta può essere avanzata alla pubblica amministrazione una sola
volta, una volta inseriti i dati, dovrebbero essere disponibili a tutte le amministrazioni, in più i
servizi dovrebbero esclusivi, alla portata di tutti, considerare la comunità nel complesso e
accessibili, anche a chi ha poche competenze informatici. Deve esserci attenzione nel processo di
digitalizzazione, anche per determinate categorie di amministrazione, per avere possibilità di
scambiare tra di loro le informazioni e permettere ai cittadini di poter modificare i propri dati,
controllarli e vedere come vengono trattati. Possibile anche che i cittadini siano resi partecipi dalle
iniziative della Pubblica Amministrazione. Tutti i servizi dovrebbero avere anche la caratteristica
di poter valicare i confini nazionali. I servizi dovrebbero essere interoperabili, cioè dato che siamo
all’interno dell’UE, i dati devono essere resi in maniera tale che un servizio possa essere utilizzati
in Italia ma anche Francia o Spagna.
Agnedo con un principio di security by design, garantendo la protezione dei dati e la sicurezza della
produzione del servizio da rendere, garantendo tutto ciò che riguarda i miei dati.
Abbiamo una pubblica amministrazione che lavora in questo processo che tende alla
digitalizzazione tramite delle norme, adottate in un testo unico che viene aggiornato
periodicamente e che riguardano la pubblica amministrazione, il codice dell’amministrazione
digitale prevede la comunicazione di un piano triennale per l’informatica nella pubblica
amministrazione, quali sono i suoi obiettivi, AgID.
Art3, stabilisce cos’è l’identità digitale, e il domicilio digitale
Art8, promuove alfabetizzazione informatica ai cittadini, permettere la connettività in tutti i luoghi
pubblici.
Intera sezione 3, dedicata a cosa deve fare l’amministrazione per dotarsi di tecnologie digitali, e
come promuoverle, già si protrae da tanto in questo senso, ma non è facile digitalizzare una PA con
mezzi senza ritorno economicizzabile.
Esempio di digitalizzazione è la carta elettronica, lo SPID, attraverso identificazione unica,
strumenti che vanno bene in tutta Europa.
Con convergenza digitale parliamo anche l’apertura dell’ICT nella vita di ognuno, anche elementi
culturale, come musei digitalizzati, digital art, sistemi e tecnologie per restauri e recupero di
ambienti.
Anche il sistema archivistico nazionale, per mettere a disposizione i documenti e riproduzioni
digitali a tutti coloro che vogliono consultarle.
Anche la computer art, sviluppatasi dagli anni ’60, possibilità di realizzare attraverso il computer
senza matite ma con caratteri della stampante, codice binari, lettere e simboli.
Nel campo della lettura, con l’e-book non più i costi del cartaceo, acquistabili tramite Wi-Fi.
L’uso dell’inchiostro elettroforetico che permette di leggere in formato elettronico dei testi con una
tecnica che permette di disegnare la pagina, per non stancare gli occhi.
Biblioteche culturali, come la biblioteca digitale italiana.

19.11.21
Convergenza digitale

La rappresentazione digitale si vede con passaggio da uno stadio all’altro, quella analogica è a
onde.
Quando si parla di convergenza digitale, dobbiamo parlare di file multimediali, si parla di
immagini, audio o video, che serve per realizzare un unico oggetto, in questo caso siamo in
presenza di un oggetto che ha le caratteristiche della multimedialità, tanti modi di esprimere un
determinato concetto o documento.
Si parla di convergenza digitale quando parliamo di tecniche di digitalizzazione, cioè che mi dicono
come fare un documento di natura digitale, spesso lo realizzo direttamente, quando lavoro un file
in Word o Excel, per esempio, se uso strumenti come fotocamere ho la possibilità di realizzare
direttamente degli oggetti di carattere digitale. Possiamo anche ricorrere a strumenti di
conversione digitale, come lo scanner. Il modem serve a modulare l’impulso analogico in caratteri
digitali per rendere quindi in digitale il segnale ricevuto.
È necessario che quel file per essere memorizzato il file abbia bisogno di una tecnica di
compressione, come file compresso tramite software che ci permette di comprimerlo, come per
esempio winzip, per i quali non c’è una perdita di informazioni (lossless). C’è una certa ratio della
compressione, cioè la percentuale di compressione possibile.
Per file multimediali di grossa dimensione che occupano spazio la tecnica è lossy, c’è una perdita di
informazioni, questo qualcosa che perdiamo è talmente minima che non la avvertiamo.
Tutto questo permette ad arrivare a realizzare documenti digitali, per esempio e-book, libro in
formato digitale, che le case editrici cercano di osteggiare per controbattere alla concorrenza che
non è comunque arrivato dove si presumeva.
Molto spesso si fa riferimento alle immagini digitali, quelle che vediamo e modifichiamo e usiamo
attraverso uno strumento elettronico, che spesso si scontra con il problema della qualità. La
qualità è data dalla risoluzione, come la visualizzo e come viene resa una volta che la stampo su
supporto cartaceo. Questa definita risoluzione, che si misura attraverso il dots per inch o punti
(pixel - unità minima del monitor) per pollice. Rappresentare l’immagine tramite pixel vuol dire
usare la tecnica del Bit Mapping, che riprende la risoluzione dell’immagine.
Tanto più un’immagine è nitida, maggiore il numero di pixel, ma dobbiamo tener conto anche di
altri elementi, ad esempio l’equilibrio cromatico, l’uniformità e il tipo di carta.
Altro formato su cui si va a lavorare è il formato audio, tutto, anche la voce viene digitalizzata,
viene restituita in formato analogico a chi ascolta. Un qualunque audio può essere
multimedializzato e anche reso in contesti multimediali, allego un file audio a delle immagini per
esempio. questo avviene tramite il Pulse Code Modulation. Le onde che rappresentano il segnale
multimediale, questo sistema di registrazione legge la forma dall’onda rappresentata dal segnale
analogico per la sua codifica in digitale. Alta qualità che si ottiene con approssimazione così
accurato che non riusciamo a fare una distinzione facilmente.
Il PCM lavora tramite gli impulsi codificati in sistema binario. In questo modo quello che era il
segnale analogico è entrato nello strumento di codifica e viene restituito in formato digitale.
Il video digitale avviene tramite la digitalizzazione di più fotogrammi, e alla digitalizzazione del
sonoro che li accompagna. Con la crescita del digitale siamo riusciti ad avere dei file dove i video
animati digitalizzati sono molto più realistici.
Abbiamo anche le tecniche di grafica tridimensionale, tramite accorgimenti di prospettiva e
ombreggiature con il processo di modellazione.
Nell’industria dell’intrattenimento è molto usata, con molti prodotti e modelli di servizio, in un
mondo basato sulla comunicazione sempre più fruibili. Questo ha portato ad uno sviluppo degli
strumenti che affiancano i file multimediali, la digitalizzazione viene spinta e si hanno strumenti di
servizio più adatti, fruibili, con costi più ragionevoli rispetto al passato.
Di televisione digitale possiamo parlare di qualità e prestazioni con notevoli vantaggi rispetto alla
televisione tradizionale.
L’apparecchio tv si è trasformato per lo sviluppo di servizi interattivi, non solo strumento per la
visione.
Quando parliamo di televisione digitale dobbiamo capire come viene trasmessa, via cavo, via
satellite-dove serve l’antenna il satellite e il decoder, digitale terrestre-dove serve solo il decoder,
via web, cioè tramite computer o smart tv.
La televisione è diversa, con diverse caratteristiche, la televisione digitale è diffusa capillarmente.
Possiamo ora ricevere segnali in qualsiasi parte ci troviamo, ha diversa copertura, più ampia
rispetto a quella via cavo.
La radio digitale (digital radio broadcasting), permette di fruire di contenuti multimediali, con
programmi interattivi, servizi di diffusione di dati e testi oltre a servizi addizionali, come il traffico.
Questo può essere correlato al programma che ascoltiamo o trasparente cioè staccato dal brano
trasmesso, non collegato.
Il cinema digitale unisce l’animazione a riprese dal vivo. Pur essendo costosa, costa meno degli
attori veri, favorisce la diffusione di corsi d’animazione digitale. Permette di riadattare pellicole
tradizionali che possiamo digitalizzare.
La digitalizzazione non solo intrattenimento ma anche formazione e cultura, come l’e-learing, gli
aspetti vantaggiosi è che costa meno, non è legata agli orari, essere seguita più volte.
Gli svantaggi sono che è più difficile da realizzare, c’è una fascia di attenzione più corta.
Le modalità per fornirle sono i software come moodle, per erogare corsi a distanza, disponibile per
chiunque voglia realizzare dei servizi di formazione online, perché open source.
Ci sono anche altri modelli.
I tipi di corsi possibili sono sostanzialmente due, il primo dove gli studenti possono intervenire con
il docente collegati da casa, presenza di entrambe le parti, oppure in remoto, con lo studente
registra la lezione e può rivederla, penalizzato dal fatto che non può interagire. in ambito
universitario e scolasti, ma anche nelle aziende e pubbliche amministrazioni.
Viene applicata anche all’ambito della medicina, con la formazione generalizzata di medici tramite
forum, assistenza psicologica, ma anche per l’utilizzo di tecniche mediche e chirurgiche nuove, che
ci permettono di praticare da remoto. Ma non solo, possiamo avere anche la creazione di materiale
medico e dell’organizzazione sanitaria.
La teleassistenza in ambito sanitario per la monitorizzazione del paziente, interpretazione di dati
simulati con capacità di intervenire, ricovero virtuale di pazienti che non sono in grado di
muoversi.
Anche gli interventi chirurgici a distanza, che evolve il sistema del medico, richiedendo
competenze tecnologiche prima non richieste, nuove professionalità, con tecnici che realizzano
robot con la mentalità e l’approccio del medico.
Ict anche al servizio della giustizia, con l’informatica giuridica documentaria, con ricerche
dell’informazione attraverso gli ipertesti, e ricerca di sentenze e procedimenti per parole chiave,
ricerca di leggi norme e testi legali e giuridici per termini e link.
E informatica giuridica meta documentaria, con l’intelligenza artificiale applicata al diritto, istruire
robot all’analisi logica ed interpretazione delle norme per fornire pre-sentenze, un risultato
preliminare rispetto agli strumenti tradizionali e alternative di interpretazione.
Esiste un regolamento, eIDAS che stabilisce quali sono le specifiche tecniche per cui si possa
arrivare all’interpretazione delle persone fisiche e giuridiche, avere una validazione temporale, cioè
la certezza che è stata inviata in un certo momento.

Digital forensics, insieme di tecniche di indagine che mi permette di recuperare, analizzare e


recuperare prove digitali, che trovo in rete o su strumenti digitali e periferiche di memorizzazione,
che devono essere state comunicate in precedenza, dobbiamo essere sicuri che non siano state
eliminate, che quello che andiamo a reperire non siano ste modificate. Per questo esistono queste
pratiche.
Quando parliamo di informatica giuridica è necessario distinguere tra il diritto dell’informatica,
qui rientrano tutti gli aspetti legati all’uso di strumenti elettronici che hanno carattere civilistico e
penalistico, tutti i crimini che possono essere realizzati con l’ausilio di uno strumento informatico,
o violando uno strumento informatico. Come anche la tutela dei diritti di colui che ha ideato il
software, copyright per esempio.
Informatica del diritto, utilizzo di strumenti evoluti per la formulazione di testi normativi, questa è
la legimatica, software evoluti che velocizzano il procedimento.
Informatica al servizio della finanza,
i pagamenti elettronici, come il BANCOMAT, ATM Aitomated Teller Machine, nato nel 1965,
dall’intuizione di Shepard-Barron che ebbe l’idea di progettare una macchina per prelievi h24.
E successivamente di pagare.
Pagamenti elettronici, compresa la carta di credito che nasce prima del bancomat per una
questione di necessità.
Ideata nel 1949, da Frank Mc Namara, uomo d’affari che si trova senza liquidità addosso, creò la
diners. È stato uno dei fattori abilitanti all’e-commerce, oggi affiancata da altri strumenti.

Con il trading on-line, entra in vigore la dematerializzazione forte degli strumenti finanziari: i titoli
sono delle scritture contabili non più documenti cartacei. Con lo sviluppo di internet si è
sviluppato anche l’acquisto in borsa senta l’uso di intermediari.
Nuovi tipi di società con fornitura di particolari servizi con strumenti elettronici.
Nascono le fintech, imprese finanziare che operano solo online e che riducono i costi delle
commissioni. Insurtech sono invece deputate a fornite servizi assicurativi.
Tutti i servizi sono in via di sviluppo proprio perché trovano gradimento da parte dell’offerta, costi
sempre inferiori.
Regtech, utilizzo delle tecnologie per il controllo e il monitoraggio delle normative.

Il deep web
Si riferiscono al mondo sommerso di internet dove si incontra tutto il contrario del lecito.
È cinquemila volte maggiore della rete internet in chiaro, rappresenta il 96% della rete, è tutto ciò
che Google non ti proporrà mai nei risultati di ricerca.
Esistono vari strati del net, il deep web, il charter web e il marians web.
Nel deep web vi si trovano i canali di comunicazione degli hacker e cracker, che a differenza degli
hacker compie attacchi informatici per ottenere un guadagno o creare danni a terzi.
Nel charter web si muovono anche i trafficanti di armi, droga, jihadisti.
Nel marianas web non sappiamo cosa ci sia, ma si pensa rappresenti l’80% di internet, non è facile
arrivarci.
Per accedere al deep web sono necessari browser ad hoc, in grado di leggere protocolli di rete
diversi sa http.
Avere comunque i protocolli di rete e un browser non è tutto, dovrà affiancarsi un motore di
ricerca. Il programma più utilizzato è il Tor (the onion router), utilizzato anche nei paesi dove è
presente una censura. Questi browser garantiscono l’anonimato assoluto nella navigazione,
nasconde l’indirizzo IP.
Lo usano anche i terroristi, per caricare il materiale di propaganda e diffondere tramite i social. È
una versione modificata di FireFox.
Oltre al browser serve il motore di ricerca, questo è Torch.
Sul deep web si paga attraverso la moneta virtuale, il bitcoin, che forma un portafoglio elettronico,
col quale fare acquisti in rete, priva di fisicità.
Uno dei più famosi negozi è il Silk Road, utilizzato principalmente per l’acquisto di droga. Tutti
questi accordi avvengono tramite mail criptate o direttamente nelle chat del dark web, materiale
consegnato materialmente o tramite spedizione.
AlphaBay, è l’Amazon dell’illegalità.
A contrastare il deep web c’è la polizia postale delle comunicazioni, una specialità della polizia
dello stato, con 20 compartimenti nazionali. Molto spesso chi lavora in questo settore lavora sotto
copertura, con autorizzazione della procura, che viene autorizzato a effettuare reati per l’indagine,
è stata istituita assistenza psicologica e costante per chi si occupa di queste indagini
sottocopertura.
Operazione Babylon, una delle più famose, indagini, perquisizioni informatiche e domiciliari,
questo market-place tra i più famosi, è stato il primo sequestro in Europa e il secondo al mondo di
un market place.

26.11.21

Social network
L’Italia non rimane indietro rispetto all’utilizzo dei social, la pandemia ha solo aumentato il
bisogno dell’utilizzo dei media per la comunicazione.
I social possono rappresentare anche la forma di guadagno.
Le pagine più pubblicate sono i blog, siti all’interno dei quali il blogger pubblica contenuti:
recensioni, opinioni, conoscenze ed esperienze.
Nascono gli influencer, persone che riescono a guadagnare la fiducia di altre persone su internet.
Diventa una professione: possono essere ingaggiate a pagamento per recensioni.
Huda Kattan prima in graduatoria mondiale, con 36 milioni di followers, pagata per ogni post, al
sesto posto c’è Chiara Ferragni con più di 16 milioni di followers.
Tra i principali social network facebook è tra i più noti, non ha un target né obiettivi prefissati, per
questo si può chiamare generalista. Permette di creare profili e caricare foto e video, inviare
messaggi e tenersi in contatto con amici e familiari, ora va verso il metaverso, l’attività di un social
può essere condivisa su un altro.
Instagram nasce come app per apparecchi mobili, permette di condividere video e foto e scattarli
sia pubblicamente che privatamente.
Tra gli altri social Snapchat, incrocio tra messaggistica e social network, condividendo foto e video
della durata massima di 10 secondi, che possono essere inviati a più amici. Si può assegnare un
tempo, in modo da eliminare la foto. In determinati social network, esiste lo storytelling, dove si
può raccontare la propria stori.
Dal punto di vista lavorativo esiste linkedin, tutto ciò che viene pubblicato vuole mantenere o
sviluppare i rapporti con i contatti professionali e le pubblicazioni, questo vuole essere più
professionale.
Anche Pinterest permette di realizzare bacheche e condivisione multidimensionali.
I social diventano più specializzati.
Nell’ambito dei blog esistono microblog, come twitter e Tumblr, serve per la diffusione di notizie,
specie in ambiente politico e giornalistico.
Nel momento in cui parliamo di social facciamo riferimento alle community, cioè l’interazione di
persone accumunate da una passione.
Le community sono un po’ come i forum, nel momento in cui ci iscriviamo siamo tenuti ad
occuparci del tema trattato. Sono amministrate da un admin che è in grado di cancellare i post
delle persone che vanno fuori argomento.
Una community può essere:
- Nodo-centrica, ogni appartenente alla community ha un insieme di caratteristiche proprie
distintive.
- Gruppo-centrica, le connessioni sono all’interno del gruppo visto nel suo insieme, in questo
caso il singolo è uno dei tanti componenti.
- Network-centrica, considera una rete (paritetica) di community all’interno di una rete nel
suo insieme.
- Gerarchico centrica, considera una gerarchia di community, è come la nodo-centrica ma
senza essere paritetica, rappresentata a livelli gerarchici diversi.
La crittografia è un sistema di scrittura che utilizza i codici in grado di rendere segreta
l’informazione, o meglio, usa un algoritmo matematico che agisce a una sequenza di caratteri,
trasformandola.
La necessità di mantenere segrete le informazioni risale già ai tempi degli ebrei, passa per gli
spartani, i romani, attraversa i millenni. Il concetto base della crittografia è l’utilizzo della chiave di
cifratura. A seconda che si impieghi una sola chiave o due, possiamo distinguere tra crittografia
simmetrica, chiara e unica o asimmetrica una delle due è custodita l’altra resa pubblica.
Oggi la cifratura dei messaggi viene effettuata usando particolari software.

La crittografia simmetrica
Utilizza una sola chiave di cifratura, vale a dire un solo algoritmo. Nel momento in cui io decido di
usare una chiave di cifratura, devo prima inviare la chiave di cifratura del messaggio.
Non può essere veloce come sistema, non è sicuro in quanto non si può prevedere la circolazione di
numerose chiavi.
Per poter giungere a destinazione, il destinatario deve usare la stessa chiave di cifratura per
decifrare il messaggio.
Nella crittografia asimmetrica, una pubblica per decodificare, la chiave privata è in mano solo al
proprietario, è segreta e non deve essere condivisa, mentre su quella pubblica è nota a tutti i
corrispondenti. Pur sapendo la chiave pubblica non si è in grado di risalire a quella privata.
La chiave 1 cripta il messaggio, la chiave 2 è in grado di leggere il messaggio ma chi scrive la chiave
2 interdipendente e scrive un messaggio ha bisogno della chiave 1 per leggerlo.
Sono interdipendenti, i messaggi criptati con c1 possono essere letti solo da c2, i messaggi criptati
da c2 possono essere letti solo da c1.
La crittografia assume un ruolo importantissimo in una società dove quasi tutto si basa sulla
comunicazione: basta pensare alle transazioni che quotidianamente si compiono in rete e al denaro
che viene movimentato in Internet, spesso denaro in rete virtuale, la criptovaluta. Alla base della
criptovaluta c’è la blockchain, è la crittografia asimmetrica (che è il fondamento di tutta la
comunicazione sicura sul web).
Possono essere anche delle comunicazioni che necessariamente devono essere sicure in quanto
hanno un calore reale, chiamate in giudizio per la veridicità di alcuni fatti.
La firma digitale è una firma elettronica che garantisce con sicurezza l’identificazione di chi firma e
la sua volontà di firmare.
Evoluzione del sistema a chiave pubblica, permette riservatezza e autenticità, utilizzo di chiave
privata di mittente con la chiave pubblica del destinatario formano la impronta digitale.
Dal 2005 è obbligatorio l’utilizzo nella pubblica amministrazione.
Quando si parla di crittografia, assumono un ruolo importante gli accorgimenti di riservatezza, ma
anche le policy di sicurezza che integrità e disponibilità delle informazioni, per avere dati e sistemi
informativi tutelati. Dividiamo la sicurezza fisica, e quella logica, cioè tutela dei rischi come
impiego fraudolento e non autorizzato.
È importante l’integrità dei dati.
Sicurezza fisica= misure di protezione atte a garantire la sicurezza delle sedi e degli elaboratori, e il
ripristino del sistema in casi di emergenza, ma anche insieme di procedure e dispositivi che
governano:
- Accesso ai locali server
- Accesso ai file
- Sistema di registrazione delle transazioni (file log) che memorizza ogni tentativo di accesso ai dati

funzione di Audit
Registrazione di ogni transazione e di ogni operazione eseguita
Controllo manuale e automatico per verificare che i dati siano gestiti correttamente durante tutte
le fasi di trattamento
Distruzione corretta di materiale di scarto per evitare diffusione di informazioni e/o password.

Backup e Piano di recupero


- backup in funzione del valore strategico dei dati
- Per proteggersi da eventi disastrosi. Un piano di recupero coinvolge hw, sw, dati,
personale
La differenza tra privati e uffici pubblici come banche e poste, devono farlo molto più spesso, co,
una frequenza maggiore rispetto a quella dei privati.
Possono essere elaborati dei piani di recupero, che entra in moto in determinati momenti.
Perché il piano di recupero permette di vedere l’ultima operazione accaduta per poter ripristinare i
dati.

Blockchain e criptovalute
Abbiamo la possibilità di effettuare pagamenti virtuali, se distribuissi chiave 1 a tutti, potrebbero
criptare i propri messaggi che soltanto io che posseggo C2 osso leggere.
Il pagamento che io ho fatto online viaggia criptato, quel pagamento poi può essere letto perché
possiede la chiave privata legata a quell’utente, lo legge ed effettua il pagamento.
Per questo poi si immette il proprio PIN, in modo che possa leggere il pagamento.
Tutto questo è dovuto al meccanismo di hashing.
È l’applicazione di una funzione matematica (hash function) che un software specifico calcola
applicandola a un testo o a qualunque contenuto digitale per criptarlo. Non funziona all’inverso:
l’hash non è capace di decodificare un testo, ed è estremamente raro (se l’hash è ben studiata) che
due testi diversi possano avere lo stesso hash.
Posso usarla per sapere se qualcuno ha cambiato il mio messaggio, perché questo impedisce che
questa chiave venga usata per ottenere lo stesso risultato.
Questo rende sicuro l’utilizzo della chiave.
Il meccanismo di hashing per la blockchain
Primo passo per garantire la sicurezza e la veridicità delle transazioni nella blockchain, ovvero che
le informazioni originali non siano state modificate
1. A fa una transazione con B (qualunque essa sia), ad esempio un pagamento o il
trasferimento di una proprietà;
2. La transazione diventa un blocco (funzionalità della piattaforma blockchain)
3. A mette il testo della transazione in chiaro ed il valore dell’hash criptato per formare la
transazione stessa da inserire nel «libro mastro»
4. A cripta l’hash con la sua chiave privata, che così diventa leggibile a tutti con la chiave
pubblica, ma non modificabile

• Tutti i membri della rete (la «chain») conoscono la chiave pubblica di A, che può anche
essere inserita nel blocco; quindi, possono decriptare l’hash e leggerlo
• GARANZIA: se il messaggio in chiaro è quello originale e non ha subito modifiche, allora se
gli applico l’hashing il suo hash sarà uguale a quello contenuto nel blocco. Tutti possono
fare questa prova ed essere sicuri che il testo in chiaro è quello originale e nessuno l’ha
modificato.

Se si «legano» le transazioni (i
blocchi) riportando l’hash
della transazione precedente
«metto in sicurezza» tutta la
catena: se qualcuno volesse
cambiare un blocco, dovrebbe cambiare tutti i precedenti decodificando l’hash di tutti (per
falsificarlo) e dovrebbe farlo per almeno il 51% di tutti i partecipanti alla rete (si dice «attacco
51%»).

Il funzionamento della blockchain


1. A fa una transazione con B (qualunque essa sia), ad esempio un pagamento o il
trasferimento di una proprietà
2. La transazione diventa un blocco (funzionalità della piattaforma blockchain)
3. Il blocco (che è un file) viene inviato a tutti i partecipanti della rete
4. i partecipanti approvano la transazione come valida e la ritrasmettono sulla rete (dicono alla
piattaforma blockchain che è valida)
5. la transazione diventa parte della catena
6. i minatori provano che è impossibile cambiare il contenuto del blocco con la crittografia e il
loro lavoro è compensato con un importo nella criptovaluta della piattaforma (è la «Proof of
Work»), dimostrano che è talmente complicato che nessun singolo individuo potrebbe
riuscirci (meglio: avrebbe una probabilità bassissima di farcela, nell’ordine di 1 su centinaia
di miliardi).

Percorso garantito dal punto di vista logico.

Etica ed informatica

Un po’ tutte le scienze hanno a che fare con l’informatica, quando parliamo di informatica e mondo
della comunicazione, parliamo di un mondo costantemente connesso, che non ha confini. La Terra
è già stata conquistata: divisa in Stati, ognuno con le sue Leggi e i suoi ordinamenti, ha confini
fisici per delimitare gli stati, ogni Stato ha una sua connotazione culturale ed etica. A differenza di
questo il cyberspazio, non ha confini fisici, e non ha stati, è difficile stabilire delle regole.
In questo spazio chi stabilisce le leggi è l’etica. L’etica è un ramo della filosofia che si occupa più
specificamente della sfera delle azioni buone o cattive e non già di quelle giuridicamente permesse
o proibite o di quelle politicamente più adeguate. Il comportamento etico è un’attività di pensiero
che attinge ciò che è costante e uniforme al di là del variare dei fenomeni, con l’ambizione di
definire le strutture permanenti della realtà e di indicare norme universali di comportamento.
È tutto un tema filosofico, che non fa riferimento a temi tecnici.

I principi etici
 Agisci come vorresti che agissero tutti (Kant, 1785)
 Anche se la capacità di imbrogliare è segno di acutezza e di potere, l'intenzione di
imbrogliare è senza dubbio segno di cattiveria o di debolezza (Cartesio, 1619-1630)
 Il mondo è un posto pericoloso, non a causa di quelli che compiono azioni malvagie ma per
quelli che osservano senza fare nulla (Einstein)
 Tutti i cattivi precedenti hanno avuto inizio come misure giustificabili (Giulio Cesare)
 Un’azione è giusta se produce la massima utilità non per la persona che la fa ma per tutte le
persone su cui influisce (Bentham, 1789)
 Evita di fare quello che rimprovereresti agli altri di fare (Talete)
 L’autore è riconosciuto titolare di diritti sull’opera, per il fatto della creazione. Ogni
individuo ha diritto alla protezione degli interessi morali e materiali derivanti da ogni
produzione scientifica, letteraria e artistica di cui egli sia autore (Dichiarazione Universale
dei Diritti dell’Uomo)

Non è vero che ciò che viene pubblicato su internet sia liberamente utilizzabile: non va confuso il
“liberamente disponibile” con il “liberamente utilizzabile”.
È liberamente disponibile perché si trova su internet, posso accedervi, posso scaricare un
documento se mi viene permesso, posso leggerlo, ma riprodurlo o utilizzarlo in un proprio lavoro è
un’altra cosa.
Violerei un principio etico (qualunque cosa ha un proprietario) e legale: la proprietà è riconosciuta
in (quasi) tutte le giurisdizioni mondiali.
DIGITAL DIVIDE
Distanza che c’è tra chi ha l’accesso alle tecnologie ICT e chi non lo ha, totalmente o parzialmente.
Oggi include anche l’accesso alla rete ad alta velocità, i servizi di banda larga e la capacità di
utilizzare le tecnologie ed i servizi.

• Divario Digitale = disuguaglianze sperequazione nella distribuzione delle risorse ICT tra
paesi e popolazioni, anche al loro interno.
• Incapacità di usufruire delle tecnologie e della conoscenza- fattori di mancanza di sviluppo
economico e sociale determinano un aumento del digital divide, favorito anche da
mancanza di infrastrutture e servizi
• Progetti e finanziamenti spesso inadeguati
• Mancanza di cultura digitale e mancanza economica.

Non accedere alla rete (e più in generale alla tecnologia) comporta un divario nella capacità di
sviluppo che aumenta al trascorrere del tempo.
Non è un fenomeno collegato alla zona geografica, dipende anche dal titolo di studio posseduto:
chi possiede una laurea è più probabile che ne faccia uso.
TECNOSTRESS
Divario tra la lotta con sé stessi per accettare la tecnologia informatica e identificarsi in modo
eccessivo con la tecnologia informatica stessa, da una parte il rifiuto di accettare il computer,
dall’altra un’attrazione eccessiva verso lo stesso.
A A A – ANYTIME, ANYHOW, ANYWHERE
Vantaggi:
• Ricerche scientifiche
• Creazione di nuove relazioni (personali, business)
• Musica, film, contenuti su smartphone, tablet, pc
• Allarmi su scala globale (meteo, sicurezza, …)
Svantaggi:
• Toglie tempo alle relazioni
• Sempre contattabili (non si «stacca» mai)
• Influenzabili
• «spiabili» (privacy)
• Nuove patologie
Disturbi psichici

Nomofobia
Acronimo di fobia no-mobile-phone. Paura ossessiva di non essere raggiungibili al cellulare.
FoMO.
Acronimo di Fear Of Missing Out: paura di essere esclusi o emarginati dal gruppo al quale si
appartiene, desiderio di essere sempre connesso per controllare.
Selfities
Consiste nel sentirsi costretti a postare continuamente selfie e sempre di più.

‐ Dal giapponese «isolarsi»: dipendenza patologica molto grave che colpisce l’uso eccessivo
del PC soprattutto nelle relazioni sociali. Il soggetto che entra nel percorso che lo porterà ad
essere hikikomori si isola gradualmente dalla realtà e vive nella sua stanza attaccato al PC
perdendo cognizione del tempo, dell’alternanza giorno/notte e delle persone che non
abbiano la stessa sindrome, con le quali interagisce via PC.
‐ Difficile sapere quanti ne sono affetti, si stimano circa 100'000 persone in Italia.
‐ Si diventa hikikomori dopo 6 mesi di isolamento e il «ritiro» è mediamente fra i 3 e i 10
anni.

Altre patologie
Killselfie
Abbreviazione di «selfie killer». Selfie estremi realizzati allo scopo di ottenere la massima visibilità
e «like». Mettono in generale a rischio la vita.

Hate speech ed hater


Gli hate speech sono offese basate su discriminazioni etniche, sessuali, religiose, razziali, ecc. e gli
hater sono coloro che le commettono. Il digitale amplifica e consente di nascondersi dietro
nickname.
Troll
E’ un utente, ben camuffato, dietro il quale vi può essere un soggetto o un’organizzazione. Entrano
nelle chat e nei post allo scopo di fuorviare, disturbare o anche manipolare gli orientamenti (voto,
gradimenti, acquisti, ecc.). La shitstorm digitale è una delle armi più utilizzate, cioè una raffica di
denigrazioni false.

Qualità della tecnologia

Non esiste una regola per definire la «soglia minima di qualità», è il mondo degli utenti che
giudica:
• recensioni
• post sui social
• chat e blog

3.12.21
5G

È un insieme di apparati che messi insieme vengono uniti alla rete più veloce in modo che si possa
trovare una risposta più immediata alle esigenze di connessione, permette di avvicinarsi a quello
che è l’internet, a trasmettere informazioni immediate senza che ci sia bisogno di un intervento
umano, posso avere dispositivi intelligenti che comunicano in tempo reale con altri dispositivi
intelligenti senza intervento umano

Edge computing
È una rete di microcalcolatori (molto micro – 1x1x0,2cm, ad esempio – e sempre più micro e
sempre più potenti) che possono equipaggiare le celle dei ripetitori Wi-Fi (rete mesh), possibilità
di avere una rete potente, questi robot appositamente programmati possono decidere quali sono i
dati da trasmettere che interessano ad un elaboratore centrale anch’esso dotato di capacità
decisionale autonoma.
Oggi si parla di robotica, dove l’intelligenza digitale è già realtà, i computer, opportunamente
programmati, possono risolvere problemi che superano la capacità umana, ma non possono
imparare, ragionare e decidere autonomamente. Intelligenza che possiamo definire debole,
possiamo programmarli in modo che emulino le capacità degli uomini ma non riescono a decidere
autonomamente.
I computer, opportunamente programmati, possono imparare, ragionare e decidere
autonomamente, si parla in questo caso di intelligenza artificiale forte.
Tutto viene programmato tramite algoritmi, sono il motore logico, sono sempre metodi e passi,
hanno un ruolo nell’intelligenza artificiale, facciamo riferimento alle reti neurali che basandosi
sulle stesse sinapsi che mettono in trasmissione le aree del cervello trasmettendo l’impulso ai
neuroni, su questo tipo di attività si poggia anche la rete neurale. In questo caso si sostituiscono i
neuroni con le memorie elettroniche, e con il software le sinopsi, che capisce come mettere in
collegamento tra loro le aree elettroniche.

Algoritmi genetici
Modello di apprendimento automatico il cui approccio deriva da analogie con le mutazioni
genetiche della teoria dell’evoluzione: come la natura trova rimedio ai propri errori con le
mutazioni, i sistemi di Intelligenza Artificiale possono correggersi trovando strade alternative
migliori.
Non sono strumenti che imparano, ma ottimizzatori.
Nel funzionare, provano soluzioni alternative che confrontano con quelle precedenti: se ne trovano
una migliore delle precedenti, l’adottano (decidendo da sé…).
Altre tecniche
Vi sono tantissime altre tecniche per disegnare «il motore logico» di un robot, praticamente
infinite. Il «Santo Graal» (l’algoritmo definitivo) dell’intelligenza artificiale è la tecnica che si
determina da sé, impara da sé e trova altre tecniche migliori senza intervento umano e che un
robot che la possiede può insegnarla ad altri robot.

Cybersecurity
Diritto dell’informatica e informatica del diritto
Comma 3 dell’articolo 595 del Codice penale: è punita “ogni offesa recata col mezzo della stampa o
qualsiasi altro mezzo di pubblicità” (Regio Decreto del 1930). Il reato di diffamazione si compie
quando sussistono 3 requisiti:
1. assenza dell’offeso,
2. offesa alla reputazione,
3. comunicazione con più persone.
I mezzi tradizionali sono la pubblicità o la stampa, oggi è difficile, in quanto viene verificata, si
cerca di evitare le offese.
Per quanto riguarda invece l’utilizzo dei mezzi digitali, è difficile che siano filtrati, è molto più
semplice raggiungere più persone.
È infatti anche più facile che sia diffusa più facilmente.

Il diritto nell’informatica
La diffamazione diventa più facile, possiamo anche ricattare, diffamare con atteggiamenti più duri,
di sopruso e sconfinare nel campo del cyberbullismo e del cyberstalking, c’è quindi grazie allo
strumento informatico un viralità più ampia, l’uso dello strumento è uno dei fattori più abilitanti.
Problema etico: far capire alle famiglie e ai giovani la portata del danno che può arrecare
Problema legale: le misure di contrasto in Italia sono nella Legge 71/2017. 15 anni dopo la
conoscenza del fenomeno: troppi. Una legge come questa è intrinsecamente delicata, ma gli iter
per la tecnologia vanno velocizzati.

Attacchi informatici
4 miliardi di individui connessi, un vero e proprio mondo virtuale, dove, al pari del mondo reale,
circolano persone perbene e criminali.
Nel mondo virtuale però i fenomeni si manifestano in modo diverso, la sociologia è differente, i
comportamenti degli individui diversi. Lo stesso individuo si comporta diversamente nel virtuale
rispetto al reale.
Contrastare la cybercriminalità è diverso dal contrastare la criminalità tradizionale.
Proteggere il PC non vuol dire essere certi che nessuno potrà mai impossessarsi dei nostri dati, ma
se lo facciamo, magari i professionisti veri, quelli in grado di violarlo non sprecheranno il loro
talento per rubare il contenuto di quel PC.
Rispondere a questi tre interrogativi può aiutare a comprendere meglio la criminalità informatica
CHI? - l’AUTORE
Chi è il cybercriminale? Molte discipline intervengono nella profilazione del criminale informatico
(psicologi, sociologi, giuristi…) cioè fare il profiling. Qui intervengono le professionalità legati al
mondo giuridico o della sociologia.
PERCHE? - QUAL E? IL MOTIVO ALLA BASE DEL CYBERCRIME
Sapere cosa spinge il cybercriminale mi aiuta a erigere migliori barriere di sicurezza. È difficile
trovare una risposta sul perché ma potremmo proteggerci meglio.
DOVE? - IN QUALE CONTESTO SI COMPIE IL CYBERCRIME?
Se navigo su siti sicuri, se evito il dark web, potrò ritenermi (relativamente) al riparo dalla
criminalità informatica.

L’hacker è un intellettuale che vuole mettere alla prova sé stesso per dimostrare di essere più bravo
o trovare difetti nella sicurezza dei sistemi come se fosse un gioco di enigmistica.
Non fa danno, ma è comunque un’azione illegale ed è punita (severamente).
Possiamo però stare ragionevolmente tranquilli: come privati cittadini, non siamo divertenti, per
loro sarebbe impresa troppo facile, manca con noi il gusto della sfida.
Sono una specie però in via di estinzione: le pene introdotte non sono per nulla divertenti. Ora gli
hacker si esercitano in vere e proprie “palestre” messe a disposizione dai fornitori di antivirus e
partecipano a gare di abilità, tutto perfettamente legale. I fornitori di antivirus hanno dei validi
test, gli hacker l’opportunità di misurarsi fra loro.

Cosa prevede l’art.art. 615 ter Codice penale- accesso abusivo


Chiunque abusivamente si introduce in un sistema informatico o telematico protetto da misure di
sicurezza ovvero vi si mantiene contro la volontà espressa o tacita di chi ha il diritto di escluderlo, è
punito con la reclusione fino a tre anni.
La pena è della reclusione da uno a cinque anni:
1) se il fatto è commesso da un pubblico ufficiale o da un incaricato di un pubblico servizio…;
2) se per commettere il fatto si usa violenza sulle cose o alle persone…;
3) se si danneggia o interrompe il funzionamento del sistema, dei dati, delle informazioni o dei
programmi in esso contenuti.
La pena può raggiungere gli otto anni di reclusione se i fatti riguardino sistemi informatici o
telematici di interesse militare o relativi all'ordine o alla sicurezza pubblica o alla sanità o alla
protezione civile.

Cracker
Sono i “cattivi”: si introducono nel sistema per fare danno o appropriarsi delle risorse informatiche
per scopi illeciti, per arrecare danni a terzi. Molto temuti:
• distruggono files
• introducono virus
• si appropriano del controllo dei PC per usarli per fare spam, tentativi di violazione di
password, attacchi informatici, ecc.
• si appropriano dell’identità informatica /digitale per commettere illeciti a nome di altri (e
facendola franca)

Hactivist
Versione «impegnata» del cracker: hanno motivazioni ideologiche e politiche, si sentono
«giustizieri» del web.
Non di rado godono dell’amicizia e simpatia del popolo della rete per effetto delle loro azioni (ma
non è legale farsi giustizia da sé, ci sono le forze dell’ordine e la magistratura per questo).
Un caso è stato quello di Anonymous: nel febbraio 2017 violarono circa 5000 siti nel dark web e
pubblicarono i nomi di frequentatori e pubblicatori di materiale pedopornografico
Cyberspia
Gli «007» versione virtuale: lo spionaggio si è spostato sul cyberspazio (ci sono più informazioni
da trafugare introducendosi nel sistema informativo di un’azienda o di un ente governativo che
introducendosi nella sede dell’azienda o dell’ente governativo)
Cyberterrorista
Nuova forma di terrorismo, molto preoccupante: tutto o quasi poggia su infrastrutture
informatiche. Immaginate se:
• venisse introdotto un virus informatico nel sistema di controllo di una centrale nucleare, nel
sistema di smistamento del traffico ferroviario, ecc.
• venisse messo fuori uso il sistema informatico di distribuzione dell’energia elettrica o del
gas
Cybercombattente
È un soldato informatico che combatte una guerra a tutti gli effetti, solo che lo fa con un computer
e non con i carri armati. Programma attacchi digitali e non è meno pericoloso di chi compie
attacchi con armi «tradizionali».
Gli attacchi digitali sono compiuti verso reti di paesi considerati nemici o verso obiettivi specifici.
Un esempio:
L’attacco che sarebbe stato condotto dal governo di Israele e dal Pentagono nel 2011 per sabotare e
rendere inutilizzabile la centrale nucleare di Natanz, in Iran, attraverso Stuxnet, un virus
informatico creato da Israele.

I fenomeni legati alla cybercriminalità sono in aumento, come la diffusione di malware

Principali tipologie di attacco sferrate ad un sistema telematico.

Zero-day attack
L’attacco che non si è mai verificato prima, la novità assoluta. Esiste sempre uno (o più) zero day
attack, perché l’inventiva di 4 miliardi di persone non ha limite (e c’è sempre una prima volta).
Pericoloso perché sconosciuto e da ciò che non si conosce, non si sa come difendersi. Recenti
normative obbligano a comunicare se si è subìto un attacco in modo da diffondere la notizia e
contrastare l’attacco.
Tra le varie tipologie di attacco c’è l’E-mail account takeover.
Consiste nel rubare gli indirizzi di email in Outlook o altro sistema di posta elettronica, ricavandoli
anche dai campi “da”, “a”, “cc” e “ccn”, dei PC violati.
Cosa se ne fanno? Sono preziosi. Sono indirizzi validi e attendibili, possono superare le barriere
degli anti-spam e degli anti-virus ed essere usati per inviare mail fraudolente o diffondere
malware.
Noi (e gli antivirus) pensiamo che tali mail siano state mandate da persone conosciute e attendibili
e rischiamo di rimanere infettati.
È sempre bene non aprire MAI allegati provenienti da indirizzi e-mail non ben conosciuti o con
contenuti sospetti.
Phishing
Le comunicazioni elettroniche sembrano provenire da mittenti autentici, contengono un
collegamento ipertestuale attraverso il quale l’ignaro utente viene così dirottato verso un sito clone
(ad es. del proprio istituto di credito). L’inserimento delle proprie credenziali consente al phisher
di accedere al vero conto corrente online della vittima.
Obiettivo del phisher= carpire username e password del conto corrente online di un utente per
distrarre somme di denaro avendo cura di non lasciare traccia dei movimenti.
Il phishing di norma viene attuato tramite posta elettronica, inviando lo stesso messaggio a
migliaia di destinatari.
Di solito ci sono macroscopici errori ortografici, che ci fanno capire.
Si parla di smishing quando vengono inviati SMS.
Se l’azione è condotta verso destinatari specifici, quali ad esempio impiegati di alto livello, si parla
di spear phishing.

Credential repaly
Come sono composte? Contengono – tutto o in parte – nome, cognome, data di nascita, codice
fiscale, nome e cognome di parenti, ecc.? È più semplice decodificarla: non è difficile risalire a
queste informazioni e a fare un software che le combina e prova in automatico.
Molto spesso ci sono dei controlli di sicurezza dove viene richiesto di riscrivere codici per
individuare i robot, prove in automatico.
Social engineering
E’ una manipolazione psicologica che utilizza lo strumento informatico per portare a compimento
la truffa.
Si procurano le credenziali di un utente (basta solo venire in possesso di una fattura o anche dal
sito web di un’azienda), come ad esempio il nome, cognome, azienda per cui lavorano, funzione
che rivestono, banca che utilizzano.
Contattano il malcapitato, all’interno di una scenografia appositamente costruita per distogliere
l’attenzione e lo convincono a fare le operazioni che vogliono.
Call forwarding
Il cyberpirata invia una mail o un messaggio con un allegato. Scaricando l’allegato, si installa un
software (facilmente reperibile nel dark web) che avvisa il cyberpirata quando l’infettato fa una
conversazione o chat o altro.
Il cyberpirata può ascoltare e/o registrare la conversazione, anche tramite un software apposito
che registra in automatico.
Una volta carpite le informazioni può utilizzarle per ricatti e scopi illeciti.
Spoofing
Fare «spoofing» significa mascherare l’identità digitale e può avvenire in vari modi.
• spoofing dell’indirizzo IP: si inviano messaggi usando un IP mittente simile o uguale ad uno
attendibile, in modo da ingannare i controlli;
• spoofing di e-mail: invio di mail usando indirizzi attendibili (eventualmente ottenuti
tramite e-mail account takeover);
DDoS
Acronimo di Distributed Denial of Service, attacco con il quale un team di cybercriminali puntano
a mettere fuori servizio un sito o un servizio informatico bombardandolo di richieste. I server
attaccati provano a soddisfare le richieste finché non vanno fuori servizio perché le risorse sono
tutte saturate.
Viene condotto principalmente verso enti governativi, banche, imprese di servizio etc.
Serve semplicemente a riempire di richieste il server per mandarlo in palla.
Injection
Un cyberpirata intercetta sulla rete un comando impartito dall’utente e ci inserisce (“inietta”)
qualche istruzione per far eseguire al programma che le riceve ciò che gli serve (ad esempio
ottenere dati dell’utente senza autorizzazione).
Cross-site scripting (XSS)
Un cyberpirata usa una schermata di richiesta informazioni di un’azienda (lecita, ma debole dal
punto di vista della sicurezza) con la quale attraverso il PC dell’attaccato – che funziona da tramite
– accede al server dell’azienda.
Security misconfiguration
Non è una tecnica, ma una debolezza che deriva da errori di configurazione dei software di
sicurezza e/o non aggiornamento dei sistemi operativi e delle applicazioni. Se vi era una falla e non
è stata risolta, il cyberpirata la può usare per introdursi.
Sensitive data exposure
Non è una tecnica, ma una debolezza: non vengono adeguatamente protetti i dati sensibili che
sono il primo obiettivo di un hacker.
Cross-site request forgery (CSRF o XSRF)
Molti siti (ad esempio google o wikipedia) non verificano l’intenzionalità della richiesta, cioè se
l’utente vuole davvero connettersi: dovrebbero chiedergli le credenziali oppure porgli una
domanda esplicita «vuoi davvero connetterti»?
E’ un’operazione che impegna risorse macchina e le risorse macchina sono costose soprattutto per
chi non può permettersene troppe (come ad esempio wikipedia). Ciò espone con maggiore facilità
ad attacchi DDoS.

Usare componenti con vulnerabilità (a volte anche conosciute)


Non è una tecnica, ma una debolezza affine alla security misconfiguration e molto comune: le app
che scarichiamo usano moltissimi programmi (interfacce – o API «application program
interface» – ad altri programmi, driver del sistema operativo, ecc.) ed è facile che qualcuno abbia
lacune che un cyberpirata possa usare. Sappiamo che ci sono, ma aggiornare tutto frequentemente
è laborioso e spesso non viene fatto.

ICMP (Internet Control Message Protocol) flood


Quando si riceve un messaggio di errore dalla rete il programma che abbiamo utilizzato (ad
esempio un browser) lo riceve senza troppi controlli tranne – ma non tutti i browser lo fanno–
controllare che provenga da fonte attendibile. Se un hacker è bravo a fare spoofing e farsi accettare
come fonte attendibile, può lanciare tantissimi messaggi di quel tipo e mandare «in tilt» il
computer attaccato.

«SYN» indicano messaggi sincroni, quando cioè il richiedente attende la risposta del server o
viceversa.
La richiesta di connessione ad un server (o ad un sito) è un messaggio sincrono: «mi hai chiesto di
collegarti. OK, va bene, puoi collegarti, aspetto che tu mi dia le credenziali».
Invece di collegarsi, l’attaccante fa spoofing e invia un’altra richiesta e così via finché il server ha
troppe richieste in attesa senza risposta e va in tilt.
SYN (SYNcronize) flood

http post dos attack


Difetto di progettazione di molti siti web: la richiesta di connessione ha un campo nel quale viene
memorizzato un messaggio che fa parte della richiesta, ma sono stati programmati per accettare
messaggi molto lunghi, anche 2 giga. L’attaccante fa la richiesta di connessione, ma invia a velocità
ridottissima il messaggio (1 byte ogni 2-3 minuti, appena un po’ sotto il time-out). Invia quindi
molte richieste di questo tipo finché il server è tutto occupato ad aspettare i lentissimi
completamenti… ed è indisponibile per le richieste degli utenti veri.
Cryptolocking (ransomware)
Attraverso qualche tecnica (injection, phishing, allegati infetti, ecc.) si colloca un programma sul
computer della vittima che utilizza meccanismi di crittografia per cifrare le informazioni
rendendole illeggibili.
Il programma inizia a replicarsi e a cambiare nome ed agisce così per molto tempo, anche mesi, in
modo da infettare anche i backup. Quindi si attiva, cripta le informazioni e se l’utente vuole di
nuovo accedervi, deve pagare un riscatto. Neppure i backup lo aiutano perché sono infetti anche
quelli.

Keylogging
Attraverso qualche tecnica (injection, phishing, allegati infetti, ecc.) si colloca un programma sul
computer della vittima che registra ciò che la vittima scrive e lo comunica al cyberpirata.
• può conoscere le credenziali di accesso al PC dell’attaccato
• può conoscere le credenziali che usa l’attaccato per accedere ai siti ai quali è registrato
(banca, social, ecc.)
• può intercettare conversazioni e comunicazioni private
• ………
I token con le password usa e getta sono efficaci, ma per connettersi al proprio PC non si usano 
non accedono alla banca ma alle informazioni residenti sul PC.

Le normative per il sostegno alla protezione dei servizi ICT


La direttiva NIS (Network Information Security)
Direttiva UE che ha l’obiettivo di conseguire un elevato livello di sicurezza delle reti e dei sistemi
informativi tramite specifiche misure organizzative e di diffusione delle informazioni fra gli stati
membri.
• Individua gli operatori di servizi essenziali e i fornitori di servizi digitali ai quali chiede di
avere appropriate misure di cybersecurity
• Chiede agli stati membri di dotarsi di uno CSIRT (Computer Security Incident Response
Team), NIS autority nazionali e cooperare con gli altri stati membri (rete CSIRT)
scambiandosi informazioni sugli attacchi e gli incidenti gravi subiti.
NIST – Cyber Security Framework e framework nazionale italiano
Fornisce un completo (e aggiornato) quadro sinottico di tutti gli ausili e best practices che si
possono utilizzare nell’implementare e manutenere il framework che un ente governativo o
un’impresa possono definire per governare il proprio impianto di sicurezza informatica. Il cuore
del framework schematizza la struttura del processo di gestione della cybersecurity.

IDENTIFY: comprensione ed identificazione del contesto aziendale, degli asset che supportano i
processi critici di business e dei relativi rischi associati.
PROTECT: misure per la protezione dei processi di business e degli asset aziendali,
indipendentemente dalla loro natura informatica.
DETECT: definizione e modalità di attuazione di attività finalizzate all’identificazione tempestiva
degli incidenti di sicurezza informatica
RESPOND: definizione e modalità di attuazione delle attività in risposta al verificarsi di un
incidente di sicurezza informatica (misure reattive).
RECOVER: definizione e modalità di attuazione delle attività di ripristino dei processi e dei servizi
impattati da un incidente informatico.

Digital forensics
Traducibile come “disciplina digitale forense” è un ambito complesso tecnicamente e
giuridicamente ed in continua e sostenuta espansione ed evoluzione.
Possibile che la difesa potrebbe obiettare che le prove potrebbero essere state manipolate, in
quanto non sono state recuperate nella maniera appropriata.
- Disk forensics
Uno dei primi aspetti trattati: le informazioni probanti erano contenute principalmente nei dischi
fissi o nei supporti di memoria fisica non volatile.
Se si sospetta che un supporto di memoria possa contenere prove, deve essere immediatamente
sequestrato ed affidato ad una società terza specializzata, riconosciuta ed accreditata dalle autorità.
Questa provvederà a proteggere il supporto da operazioni di scrittura e generare un hash code
(vedi il paragrafo sulle criptovalute del Cap.4) del contenuto quindi lo sigilla.
Non si lavora più sugli originali, ma su copie la cui conformità è garantita dall’hash.
- Web forensics
Gli autori di illeciti sul web possono essere individuati e puniti se si riesce a garantire la
producibilità di prove che consistono in tracce digitali sul web come accessi, visualizzazioni,
messaggi, mail…
Molto più complesso della disk forensics:
• coinvolge provider di servizi di hosting
• necessita di acquisire log file e di acquisirli secondo specifiche procedure per garantirne
l’autenticità e originalità
• necessita di acquisire tutti gli strumenti utilizzati per l’illecito (malware, IP spoofed, tracce
digitali di passaggio – migliaia di pagine visitate, ecc.)
- Web forensics
Immaginate di dover seguire i movimenti e le azioni digitali che un bravo cybercriminale ha
lasciato in giro per il web… può richiedere mesi e serve una grandissima competenza.
- Mobile forensics
E’ un PC che qualche volta telefono ma è anche una fotocamera, una videocamera, un registratore
di voce e suoni ed è anche sempre connesso sia alla rete di trasmissione dati del provider di
telefonia, sia agli innumerevoli access point (non tutti peraltro sicuri) Wi-Fi. se il telefono è
rinvenuto acceso, evitare di spegnerlo:
‐ potrebbe non essere possibile bypassare i meccanismi di protezione
‐ potrebbero esserci attivi sistemi di cancellazione dei dati allo spegnimento
‐ occorre isolarlo dalla ricezione di segnali (cambiano i contenuti)
se è rinvenuto spento:
‐ non provare ad accenderlo
‐ utilizzare particolari procedure per acquisire i dati dalla memoria (è analoga ad un
hard disk)
‐ utilizzare particolari procedure per fare la copia della scheda SIM

Potrebbero piacerti anche