Sei sulla pagina 1di 74

Sbobine esame d’informatica,

prof.Fabrizio Corona
Elementi di Informatica
Università Telematica Giustino Fortunato (UNIFORTUNATO)
73 pag.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Corso di informatica
Modulo 1
Lezione 1.2 – Il calcolatore
Il protagonista della scena dell’informatica e l’artefice dell’informatizzazione è il calcolatore
digitale o definito anche come computer o elaboratore e quindi la macchina dedicata
all’elaborazione automatica delle informazioni digitali, macchina dotata di capacità universali
in questo ambito.
Il calcolatori sono entrato ormai nella nostra vita quotidiana, tutti conosciamo ormai le
straordinarie capacità delle macchine per l’elaborazione dell’informazione e gli elementi sono:
 L’elaboratore è in grado di compiere operazioni matematiche ad altissima velocità , una
calcolatrice comune ad esempio è superiore a qualsiasi essere umano nel calcolo
aritmetico.
 È in grado di registrare enormi quantità di informazioni in spazi ridottissimi. Questo
fenomeno è chiamato “miniaturizzazione”, un disco ottico di pochi centimetri di
diametro che è in grado di contenere un’intera enciclopedia e allo stesso modo di ritrovare
i dati richiesti con un incredibile rapidità .
 Trasmetta informazioni a grandi distanze e con enorme velocità . Due calcolatori situati
a migliaia di km di distanza, sono in grado di scambiarsi milioni di informazioni in
pochi secondi.
 È in grado di governare quelli che sono i dispositivi meccanici che compiono
operazioni di precisione come ad esempio i robot.
 È in grado di eseguire programmi che svolgono compiti molteplici quale l’elaborazione di
testi, la gestione di archivi, l’effettuazione di calcolo scientifico, gestione della contabilità .
I calcolatori ormai sono diffusi in tute quelle che sono le attività produttive, amministrative e
professionali, dove sono in grado di offrire prestazioni sempre più elevate a costi sempre più
bassi.
Essi sono componenti essenziali all’interno della nostra società e senza di essi cesserebbero di
funzionare le banche, le fabbriche, le scuole, gli alberghi, i tribunali, ma anche i mezzi pubblici,
diventerebbe inutilizzabile la possibilità di utilizzare apparecchiature mediche,
elettrodomestici. Telefoni ecc. L’ipotetica e contemporanea interruzione di tutti i calcolatori
nel mondo equivarrebbe alla paralisi totale.
Il funzionamento del calcolatore è dovuto dalla combinazione di due componenti, da un lato
l’Hardware che rappresenta l’insieme di dispositivi materiali (ciò che noi possiamo toccare con
mano) e che elaborano l’informazione stessa e dall’altro lato troviamo il software ossia l’insieme
dei programmi informatici che governano il funzionamento del calcolatore, andando ad indicare
in un modo preciso ed univoco le elaborazioni da seguire.

Macchine e algoritmi per elaborare l’informazione


L’idea di poter utilizzare dispositivi immateriali per l’informazione non è un’idea nuova, l’alba
o ad esempio, risale a circa 7 mila anni fa e anche l’idea di definire metodi precisi per elaborare
le informazioni ha una lunga storia. Ad esempio Euclide, grande matematico greco, inventò un
famoso algoritmo proprio per effettuare il alcool del Massimo Comune Divisore. Il nome
algoritmo però deriva da un matematico persiano e i suoi scritti contribuirono ad introdurre
in Europa i decimali e l’Algebra, in particolar modo lui indicò le regole precise da seguire passo
dopo passo e che noi andiamo ad utilizzare. Sin dalle scuole elementari per aggiungere,
sottrarre, moltiplicare e dividere quelli che sono i numeri decimali. Questi possiamo definirli
come degli algoritmi che ci sembrano anche banali a volte, ma che rappresentano poi un enorme
progresso rispetto alle precedenti tecniche per poter eseguire calcoli numerici.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Un altro soggetto che andò a costruire uno strumento elettronico fu Blaise Pascal, che nel
17esimo secolo realizzò la pascalina, ossia una macchina in grado di compiere addizioni e
sottrazioni e il matematico Leibniz perfezionò la pascalina, costruendo un apparecchio in
grado di eseguire anche le moltiplicazioni.
Sia la Pascalina che la macchina di Leibniz erano automatiche ma meccaniche, quindi non
erano elettroniche, esse quindi funzionavano grazie ad una serie di ingranaggi a delle ruote
dentate e non mediante il passaggio di elettroni, cosa che avviene nei computer moderni. Queste
macchine potevano eseguire di volta in volta solo una delle operazioni rientranti nella loro
competenza, ad esempio una sola addizione, una sola sottrazione e così via. Per questo non
possiamo definirle come macchine programmabili, non potevano di fatto eseguire
automaticamente un’intera combinazione di tale operazioni secondo poi quelle che erano le
indicazioni da noi fornite.

Delle prime macchine programmabili sono nate da Joseph Marie Jacquard con un telaio e
Charles Babbage che ideò una macchina per calcolare i logaritmi che fu realizzato da Lady
Augusta Ada Lovelace, la prima programmatrice della storia. Lei quindi immagino che il
motore analitico di Babbage potesse giocare a scacchi e persino comporre musica anticipando
quelle che sono oggi le ricerche di intelligenza artificiale.
Negli anni 30 si ottennero alcuni risultati fondamentali, nel campo della teoria degli algoritmi
da parte di grandi logici e matematici come Alan Turing, Kurt Godel e Alonso Church, in
particolare si giunse poi alla formulazione della tesi Church-Turing, secondo la quale qualsiasi
problema algoritmico, può essere risolto utilizzando delle macchine semplici in grado di svolgere
poche operazioni elementari. Successivamente si stabilì anche la possibilità di realizzare
macchine universali, capaci di elaborare qualsiasi tipo di algoritmo ed eseguono una
procedura definita e astratta, ossia che non è finalizzata ad un particolare risultato, essa
consiste nell’eseguire qualsiasi programma che venga fornito alla macchina, andando poi ad
applicare e a dagli input per tali programmi.
I moderni calcolatori, corrispondono al concetto di macchina universale e proprio la loro
universalità gli fa avere la capacità di accogliere non solo i dati ma anche i programmi, possono
quindi eseguire qualsiasi programma consistenti in operazioni su numeri binari e confrontati
tra tali numeri, applicandolo poi a qualsiasi combinazione di dati.
Infine poi si determinò anche l’equivalente di tutte le macchine universali, cioè quest’ultime
opportunamente programmate è in grado di eseguire qualsiasi algoritmo. Quindi ciascuna
macchina universale è in grado di eseguire anche l’algoritmo che determina il
funzionamento di qualsiasi altra macchina universale, e di conseguenza ogni
macchina universale, una volta programmata secondo l’algoritmo che descrive il
funzionamento di una diversa macchina universale è in grado di elaborare anche i
programmi scritti per quest’ultima e quindi di fatto ogni macchina universale è in
grado di emulare qualsiasi altra macchina universale.

Lezione 1.3 – La macchina di von Neumann


La macchina di von Neumann ha portato alla realizzazione degli elaboratori elettronici.
Per trovare i primi calcolatori moderni, dobbiamo spostarci al tempo della seconda guerra
mondiale, quando i primi calcolatori furono inventati contemporaneamente ma
indipendentemente nei vari paesi in guerra.
In Inghilterra ad esempio un gruppo di matematici ed ingegneri guidato da Alan Turing,
realizzò il Colossus nel 1941, un calcolatore elettronico non programmabile. Il colossus fu
impiegato con successo nel decifrare i codici utilizzati per la comunicazione dell’esercito tedesco.
In contrapposizione a questo in Germania invece, Kondral Zuse, tra la fine degli anni ’30 e
l’inizio degli anni ’40 realizzò lo Z3, il primo calcolatore programmabile, basato sul sistema
binario. Questo calcolatore trovò qualche impiego nella progettazione di aeroplani. Infine
negli Stati Uniti tra il 1941 e il 1945 presso l’università della Pennsylvania fu realizzato
l’ENIAC basato ancora su un sistema decimale. Questo fu utilizzato per calcolare quelle che
sono le traiettorie dei proiettili.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
All’inizio degli anni ’50 avvenne il salto tecnologico che consentì di passare ai primi veri
calcolatori moderni. Si tratta della registrazione del programma stesso all’interno della
memoria del calcolatore e ciò consentiva di accedere on rapidità alle singole istruzioni da
eseguire, ma soprattutto compiere anche salti condizionati.
La memorizzazione interna del programma caratterizza proprio la macchina di von Neumann,
l’architettura adottata nei moderni calcolatori, definita negli anni ’40 da un gruppo di lavoro cui
partecipava il matematico statunitense von Neumann.
L’elaboratore era composto da due unità :
 L’unità di controllo
 L’unità di calcolo
Costituiscono l’unità centrale di elaborazione (la CPU) detta anche processore.
Essi attuano una
Stratta cooperazione, l’unità di controllo identifica l’istruzione da eseguire in relativi dati, la
seconda invece esegue l’operazione.
Dati ed istruzioni vengono prelevati dalla memoria centrale, definita anche memoria
principale, primaria o interna, nella quale vengono trasferiti i risultati delle elaborazioni. La
memoria centrale è un dispositivo di memorizzazione ad alta velocità di lettura e scrittura,
tipicamente volatile (ossia che si cancella quando il calcolatore si spegne). Essa deve essere
distinta da quelle che sono le memorie di massa, dette anche periferiche, costituite da dispositivi
capaci di contenere permanentemente grandi quantità di informazioni. Affinché le informazioni
che sono contenute all’interno delle memorie di massa, sia i dati che i programmi, possano essere
elaborati dall’unità centrale di elaborazione, esse devono essere trasferite all’interno della
memoria centrale, la sola che è direttamente accessibile all’unità centrale.
Ciò significa che l’esecuzione di un software residente su un disco di un computer ne comporta
poi la sua duplicazione, il software deve essere quindi copiato nella memoria centrale.
Il modello di von Neumann quindi, oltre che dalla memorizzazione del programma è anche
poi caratterizzato dalla natura sequenziale dell’elaborazione, le istruzioni vengono eseguite
una alla volta e dopo ogni istruzione si passa poi alla successiva o a quella indicata dalla
precedente istruzione di salto.
L’architettura di von Neumann fu adottata nel calcolatore Edvac nel 1952 dove contribuì
proprio lo stesso von Neumann e divenne poi lo standard cui si sarebbero ispirati tutti i maggiori
produttori.

Lezione 1.4 – Le leggi di Moore


L’unità centrale di un calcolatore può considerarsi istituita da una complessa combinazione di
interruttori, azionati poi dal calcolatore stesso che cambiano posizione nel orso dell’elaborazione
lasciando passare la corrente elettrica o interrompendo nel flusso. Per realizzare e connettere
tali interruttori si sono utilizzate nel corso degli anni delle tecnologie sempre più avanzate he
hanno consentito di ridurre le dimensioni dei calcolatori, ma allo stesso tempo di aumentarne
la potenza. Negli esperimenti degli anni ’30, si utilizzavano ancorai relè (apparecchiature
elettromeccaniche che sotto l’effetto della corrente muovono una linguetta metallica attivando
un contatto). I relè ancora oggi vengono utilizzati su alcuni dispositivi come ad esempio i
campanelli elettronici. Nei primi calcolatori elettronici i relè furono sostituiti da valvole
termoioniche (tubi a vuoto che contenevano un elettrodo all’interno). Si passò poi ai transistor
(dispositivi formati da materiali semiconduttori), erano di piccolissime dimensioni che sono stati
combinati poi in circuiti elettrici miniaturizzati.
La grande invenzione degli anni ’70 fu il microprocessore, si tratta di un circuito
integrato che comprende l’intera unità centrale di elaborazione, realizzato in un unico chip.
Gli anni seguenti poi hanno visto una rapidissima crescita sia nel numero di transistor inclusi
in un microprocessore, sia poi nella velocità dei microprocessori stessi. Ciò ha consentito poi
alla realizzazione di microcalcolatori, quindi calcolatori la cui unità centrale di elaborazione è
costituita da un unico microprocessore, sempre più potenti ma allo stesso tempo sempre
meno costosi. I microcalcolatori si sono presto diffusi negli ambienti di lavoro e nelle
case divenendo poi calcolatori perdonali, ciò che noi adesso definiamo personal
computer

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
destinati quindi all’uso individuale. Essi hanno consentito l’ingresso dell’informatica
in tutti gli ambiti della vita individuale e sociale.
Il microprocessore grazie alla sua estrema miniaturizzazione ha potuto introdursi nei più
svariati macchinari e dispositivi tecnologici, dalla automobile alla lavatrice, alla cyclette al
telefono, consentendo l’integrazione dell’informatica con le più svariate tecnologie.
L’enunciazione più famosa al riguardo è quella fatta da Gordon Moore, grazie alla sua prima
legge di Moore formulata nel 1964. Secondo la legge di Moore la potenza dei
calcolatori raddoppia circa ogni 2 anni. Tale legge che delinea una crescita
rapidissima, anzi sempre più accelerata che è stata finora confermata: i calcolatori
di oggi sono 1000 volte più potenti di quelli disponibili fino a 20 anni fa e circa
1milione di volte più potenti di quelli disponibili 40 anni fa.
Si discute sulla continuazione digitale della crescita che dovrà poi scontrarsi prima o poi con i
limiti fisici della miniaturizzazione, ad un certo punto raggiugneremo delle dimensioni così
piccole da rendere impossibile la realizzazione o il funzionamento dei circuiti. Resta aperta però
la possibilità che una crescita ulteriore sia poi consentita dal passaggio a tecnologie che sono
completamente diverse rispetto a quelle che siamo abituai ad utilizzare, come quelle ottiche che
sostituiscono la luce agli elettroni, o quelle quantistiche che sfruttano certi effetti atomici e
subatomici. L’altra faccia dello sviluppo tecnologico nel settore dei microprocessori e data
dalla seconda legge di Moore, secondo la quale il costo dello sviluppo di un circuito
integrato raddoppia ad ogni nuova generazione di microprocessori. La seconda legge
spiega perché pochissime imprese sono in grado di progettare nuovi microprocessori
per il microcalcolatore ed infatti noi abbiamo non più di 3-4 imprese che sono in
grado di dominare il mercato dei microprocessori e la INTEL ne copre circa il 90% di
produzione e della vendita.
Le leggi di Moore quindi descrivono proprio un evoluzione di quelli che sono i microprocessori e
spiegano proprio perché sono pochissime le aziende che sono in grado di poter reggere la
realizzazione e l’implementazione di questi, perché al di là del fenomeno della
miniaturizzazione, c’è un’attività di ricerca sulla capacità di poter rendere quel singolo
strumento molto più potente e performante. La seconda legge di Moore invece va a descrivere
il costo della produzione del processore che va a raddoppiarsi ogni volta che nasce una nuova
generazione di quest’ultimi, ed esempio questo è il motivo per il quale noi ci troviamo dei
processori di generazione I7 di nona generazione sei vendono ancora gli I7 di quinta generazione,
perché si deve poi ammortizzare nel corso degli anni il costo di realizzazione del processore
stesso.

Lezione 1.5 – La nascita del personal computer


L’invenzione del microprocessore ha consentito la nascita del personal computer, il
cosiddetto microcalcolatore destinato all’uso da parte del singolo individuo, nella sua attività
professionale o domestica. Si sono così aperti nuovi enormi spazi alla diffusione
dell’informatica: non solo quindi l’effettuazione di complessi calcoli numerici, o la gestione di
dati concernenti grandi organizzazioni, ma anche le attività professionali, il gioco, la fruizione e la
preparazione di opere dell’intento (l’era rari e, musicali, cinematografiche, multimediali). Per
rispondere a queste esigenze, si sono poi presentati in forme nuove ai classici calcolatori di
lavoro quali i desktop che si sono poi aggiunti nuovi strumenti come i notebook, i laptop e
ultimamente anche lo smartphone, lo smartwatch. Al tempo stesso il calcolatore si è
arricchito di una serie di dispositivi ausiliari spesso uniti all’unità di elaborazione all’interno
dell’unico contenitore che possono essere dispositivi di input e output , utili per inviare
informazioni all’utente o per ricevere dallo stesso, tra questi troviamo la tastiera, stampante,
scanner, schermo, mouse e dispositivi di memorizzazione secondari detti memoria di massa utili
per registrare e conservare dati i programmi come dischi rigidi, nastri, masterizzatori, lettore
DVD e CD. Un ulteriore esempio di integrazione tra calcolatore e telecomunicazioni è
rappresentato dai notebook, calcolatori portatili dalle piccole dimensioni e dal costo ridotto.
Il personal computer dava avvio all’era “anarchica” dell’informatica individuale, caratterizzata
dall’interazione esclusiva, individuale, caratterizzata dall’interazione esclusiva,

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
tendenzialmente monogamica, tra il singolo e il suo calcolatore personale. Prima dell’avvento
del personal computer si poteva accedere a risorse informatiche solo collegandosi a grandi
elaboratori, condivisi da più utenti e gestiti da un centro di calcolo. Ciò comportava l’esigenza
di inserirsi nell’ambito di una struttura organizzata e di sottoporsi alle sue regole. In cambio
vi era la possibilità di accedere a risorse condivise e di comunicare con gli altri utenti del
centro di calcolo. Grazie al personal computer invece, ogni individuo poteva disporre in piena
autonomia delle proprie risorse informatiche, poteva sviluppare liberamente la propria
creatività .

Lezione 1.6 – il modello client-server e peer to peer

Il modello client-server

In questo modello noi abbiamo un rapporto che si va a creare all’interno della rete stessa dove
il server rappresenta il soggetto che fornisce servizi ai vari clienti e i clienti sfruttato quei servizi
in modo passivo e quindi accettano le condizioni che sono previsti all’interno del server per
usufruire di servizio. Nel mondo del web noi possiamo ritrovare tantissime ipotesi di sistema
client-server in quanto questo sistema è caratterizzato dal fatto che tutte le informazioni, i
dati e i servizi sono contenuti all’interno del server.
Un esempio banale che tutti noi utilizziamo è proprio la connessione ad internet, poiché no
accediamo ad una connessione proprio grazie ad un sistema client-server. Il cliente che è il
router di casa, accede e fa si che il computer possa accedere ad un servizio che viene erogato
da un server centrale.
In un modello client server potremmo avere servizi a pagamento( ad es. la possibilità di
poter accedere ad una connessione ad internet pagando) o servizi gratuiti (ad es. l’utilizzo
della posta elettronica come gmail).
La caratteristica di questo sistema è che il cliente non è un utente che partecipa attivamente a
questa rete perché il sistema è reticolare verso il centro, cioè tutti i vari clienti che orbitano
intorno a quel server non hanno la possibilità di poter comunicare tra di loro, ma la
comunicazione è 1:1 verso il server e il server è 1 a molti, di fatto il cliente A non è in grado
di sapere quanti altri clienti usufruiranno del medesimo servizio, ed il server
erogherò il suo servizio ad uno o più soggetti a seconda di quanti sono gli utenti che
hanno deciso di partecipare a quel sistema.
Il sistema client-server già rappresenta un sistema più evoluto rispetto a quelli precedenti,
perché in passato soprattutto con l’affermazione del personal computer noi avevamo
strumenti che fra loro non comunicavano in rete, non si poteva comunicare fra un cliente ed un
altro perché ogni singolo personal computer era un noto isolato all’interno di un’abitazione
che non era connesso ad una rete di calcolatori.
Con il sistema clientelare noi abbiamo vari server che danno la possibilità di erogare dei
servizi, ma il cliente stesso accede al proprio server per comunicare l’info qualora la volesse
trasmettere ad un altro.
Ad esempio il caso dell’invio di un email, da un cliente ad un altro all’interno dello stesso
server (ad esempio utilizzano entrambi Gmail), quindi il cliente A manda il messaggio al
server che a sua volta lo trasmetterà al cliente B. Diverso è invece quando il soggetto è dotato
di casella elettronica Gmail, vuol trasmettere la propria email al server Yahoo, in questo
caso la

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
connessione viene fatta fra i due server dove il cliente trasmette al proprio server l’informazione,
che a sua volta la trasmette all’altro server per poi trasmetterla al cliente destinatario.
Degli esempi di client-server sono ad esempio Netflix, Dazn, prime video e similari poiché
l’utente che ad esempio si iscrive a Netflix paga una quota mensile per accedere a tutti quelli
che sono i film presenti su quel server.

Il modello peer to peer

In contrapposizione al client-server nasce invece il classico modello peer to peer, un modello


definito “da pari a pari”, questo modello comporta la partecipazione attiva di ogni elaboratore
sia come cliente che come servitore e quindi noi abbiamo un sistema egualitario, dove gli utenti
tra di loro sono in grado di scambiare le informazioni e non hanno più bisogno di un server
centrale che gestisca il flusso delle informazioni, perché l’informazione passa dal computer A
direttamente al computer B. Uno degli strumenti classici che è stato utilizzato soprattutto nel
passato per questa modalità di comunicazione era ad esempio “napster” , poiché dava la
possibilità di vivere una porzione del proprio computer con altri utenti e quindi poter assolvere
alla funzione di cliente e servitore. La funzione di Napster era di andare a condividere porzioni
di hard disk dei singoli computer che facevano parte del sistema peer to peer, per dare
l’opportunità a tutti i nodi di quella rete di scambiare le proprie informazioni. Con gli anni le
finalità per cui è stato utilizzato Napster non erano così tanto nobili, poiché con questo si era
affermata sempre di più la pirateria informatica e la possibilità di scambiare tra loro dati
protetti dal diritto d’autore e questo ad esempio è stato uno dei motivi per il quale poi il sistema
peer to peer è stato quasi abbandonato. Un altro problema per cui questo modello è stato
abbandonato era il sovraccarico della rete e avveniva perché ogni nodo della rete essendo cliente
e servitore può ricevere l’informazione e il dato dagli altri utenti, e allo stesso tempo tutti gli
altri utenti che partecipano alla rete, hanno la possibilità di accedere all’elaboratore stesso e
quindi si rallenta la rete stessa perché se uno dei nodi della rete è un nodo che ha una
connessione debole, rallenta l’intero sistema di nodi all’interno della rete.

Lezione 1.7 – Il modello Cloud Computing


La possibilità di realizzare delle architetture virtuali ha determinato, negli ultimi anni, la
rinnovata tendenza verso la centralizzazione. Mentre negli anni ’90 si era assistito allo
snellimento delle apparecchiature hardware (ossia la sostituzione dei microcalcolatori con i
microcalcolatori), i primi anni del 2000 sono stati caratterizzati dal ritorno dei macro-calcolatori
nei centri di calcolo più avanzati.
I nuovi macro-calcolatori sono macchine di enorme potenza che sono in grado di sostituire decine
di server di piccola o media taglia i quali vengono virtualizzati. Questo significa che i piccoli o
medio server non esistono più come entità reali distinte, ma hanno invece un’esistenza virtuale
che di fatto risulta dai processi eseguiti dal macro-calcolatore. Quest’ultimo è in grado di
simulare contemporaneamente il funzionamento di molteplici microcalcolatori, eseguendo tutti
i programmi che sarebbero stati eseguiti da questi.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Lo sviluppo delle tecnologie per la virtualizzazione e la migliorata velocità della rete, hanno
migliorato un’evoluzione dei sistemi informatici che va sotto il nome di cloud computing, che
vuol dire in italiano “elaborazione della nuvola”. Con il termine nuvola si fa riferimento alle
risorse informatiche disponibili su internet, risorse che appaiono all’utente come aspetti di
una realtà unitaria priva di dimensione fisica a cui egli può accedere ovunque si trovi. Nel
modello del cloud computing, l’utente rinuncia al possesso di proprie risorse hardware e
software, al di là della strumentazione minima necessaria per accedere alla rete, ed accede
invece alle infrastrutture hardware quali potenze di calcolo, spazio di memoria ed alle
applicazioni software acquisendole attraverso internet secondo i loro bisogni.
Gli utenti evitano quindi i acquistare e mantenere apparecchiature che per loro sarebbero molto
costose, nel modello del Cloud quindi roba piena applicazione l’idea del passaggio dalla proprietà
ai diritti di accesso, quale proprio modello organizzativo e giuridico volto a governare
l’utilizzo delle risorse.

La fornitura di servizi cloud computing è concentrata in poche imprese che offrono un’ampia
gamma di funzioni ai propri clienti, grazie a grandi infrastrutture di calcolo distribuite.
La scelta di utilizzare un fornitore di cloud è il risultato dell’attività di numerosi data center dei
centri di elaborazione di dati, ciascuno dei quali può consistere in centinaia o migliaia di
calcolatori (server farm).
Oltre a poter fruire di specifici applicazioni informatiche, gli utenti possono anche acquistare
dal fornitore di servizi di cloud, spazi di memoria o addirittura computer virtuali. Nel primo
caso l’utente acquista la disponibilità di una certa quantità di spazio di disco che risiederà su
uno o più dei computer della nuvola nel quale registrare i propri dati, nel secondo caso invece
l’utente acquista un computer virtuale risultante dall’attività di uno o più server all’interno
della nuvola, da utilizzare per le proprie elaborazioni. L’utente potrà accedere ai propri dati o
al proprio computer virtuale, semplicemente collegandosi alla rete internet ovunque egli si
trovi.

Accanto ai notevoli vantaggi, non mancano però le preoccupazioni collegate proprio alla
diffusione del modello di cloud. Tra gli svantaggi troviamo il rischio dell’oligopolio, ossia la
possibilità che poche imprese offrono questo tipo di servizio, e quindi la difficoltà proprio di poter
aver avere una grande cerchia di soggetti che utilizzano questi servizi e il secondo svantaggio
è quello del rischio della privacy di ognuno di fronte alle enormi quantità di dati presenti
nell’infrastruttura del fornitore. Altro elemento da considerare è anche la perdita del
controllo sul proprio sistema di elaborazione da parte degli utenti in quanto il fornitore del
servizio viene poi a disporre di un controllo tecnico sulle macchine e sui programmi, che potrebbe
usare anche per limitare l’attività degli utenti o indirizzarla verso i propri interessi andando
poi a comprimere la libertà dei singoli e la creatività di internet.

L’idea della virtualizzazione nasce quindi non tanto per il problema della privacy, ma per
garantire un sistema più sicuro di conservazione delle informazioni elettroniche, dei dati
digitali, e per far si che questi dati possano esser fruiti facilmente in qualsiasi parte del mondo
ovunque si trovi l’utente che ha deciso di attivare quelle credenziali .

Lezione 1.8 – I calcoli quali macchine elettroniche digitali


La breve storia del moderno calcolatore è stata caratterizzata da uno sviluppo rapidissimo.
Nonostante la rapida evoluzione che ha portato o dei cambiamenti radicali, le, caratteristiche
principali del calcolatore, sono rimaste fondamentalmente immutate, così che noi possiamo
continuare a considerare tutti i calcolatori, passati e presenti, membri di una stessa specie ossia
il moderno calcolatore.
Le caratteristiche principali del moderno calcolatore possono essere specificate in una serie
di elementi che possiamo considerare:
 I calcolatori sono digitali, ossia elaborano informazioni espresse in numeri
binari.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
 I calcolatori sono elettronici, ossia sfruttano il comportamento degli
elettroni, quindi le particelle atomiche che ruotano attorno al nucleo
dell’attimo, particelle che si spostano sui circuiti elettrici e vanno a
determinare la creazione di campi magnetici.
 I calcolatori sono programmabili, ossia che operano seguendo le indicazioni
di programmi.
 I calcolatori sono universali, ossia che ogni calcolatore è in grado di eseguire
in linea di principio ogni tipologia di algoritmo.

Uno dei fenomeni pervasivi del nostro tempo è proprio il passaggio dall’ analogico al digitale.
Si tratta di una trasformazione tecnologica che riguarda tutti noi, anche se in molti ne hanno
una conoscenza limitata.
Ad esempio con gli anni abbiamo abbandonato il giradischi analogico, a favore del lettore CD;
abbiamo abbandonato la macchina fotografica analogica a favore di quella digitale; stiamo
abbandonando piano piano il telefono analogico (quello di casa) a favore del telefono digitale
e stessa cosa vale anche per la televisione.
Le differenze fondamentali tra le tecnologie analogiche e digitali: confrontiamo ad esempio un
vecchio registratore di cassette e un moderno masterizzatore c’è. Il registratore è dotato di una
testina che percorre il nastro realizzando poi su di esso una struttura fisica che possiamo
definire “traccia”, le cui caratteristiche corrispondono proprio alle caratteristiche delle onde
sonore riprodotte che vengono rilevate dal microfono o dalla testina di lettura. La traccia quindi
è analoga alle onde sonore , per esempio possiamo assumere che la traccia magnetizzata presenti
oscillazioni più alte se il suono è più forte e il passaggio opposto si compie invece quando a
partire dalla traccia si produce il suono corrispondente. Le onde magnetizzate vengono quindi
trasformate in onde sonore analogiche, la traccia analogica è quindi continua.
Il masterizzatore di c’è invece registra il suono in una struttura che non assomiglia al fenomeno
sonoro e il suono viene espresso mediante una sequenza di numeri interi, quindi a partire da
quei numeri il lettore riproduce il suono corrispondente.

La rappresentazione digitale offre due vantaggi importanti rispetto alla rappresentazione


analogica:
 È riproducibile con assoluta precisione, in quanto la riproduzione è identica all’originale.
Con la riproduzione digitale non si perdono parti delle informazioni come nel caso dell’
analogico poiché basta riprodurre gli stessi numeri per avere una copia perfetta.

 È direttamente elaborabile dal calcolatore.

Modulo 2

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Lezione 2.2 – Hardware e
Software Il computer
Un computer (o calcolatore elettronico) È un dispositivo in grado di eseguire
automaticamente sequenze di operazioni aritmetiche o logiche. La capacità dei computer di
eseguire set di operazioni generalizzate, chiamati programmi, consente loro di svolgere
un’ampia gamma di attività . La maggior parte dei computer moderni basa il suo
funzionamento sull’architettura di von Neumann, descritta nel 1945 dal matematico John von
Neumann. Un computer basato su questa architettura è detto anche il modello di von
Neumann o computer a programma memorizzato.
L’idea principale alla base di quest’architettura è che il programma da eseguire risiede nella
memoria del computer insieme ai dati sui quali il programma deve operare. Lo schema è
basato su 5 componenti principali: la prima è l’unità di elaborazione centrale (CPU) che si
divide a sua volta in unità operativa nella quale uno dei sottosistemi più rilevanti è l’unità
aritmetica e logica. Il secondo elemento sono le memorie, che sono o le memorie di lavoro
o principale (RAM). Il terzo elemento è l’unità di Input, tramite la quale i dati vengono
inseriti nel computer per essere elaborati. Il quarto elemento è l’unità di Output, necessaria
affinché i dati elaborati possano essere restituiti all’operatore e infine il quinto elemento è il
BUS, ossia un canale che è in grado di collegare tra loro tutti le varie componenti.
All’interno dell’unità aritmetica e logica, è presente un registro definito accumulatore che
collega input e output grazie ad una speciale istruzione che carica una parola dalla memoria
all’accumulatore e viceversa. È importante sottolineare che tale architettura si distingue per
la caratteristica di immagazzinare all’interno dell’unità di memoria, sia i dati dei programmi
in esecuzione che il codice di quest’ultimi.

Hardware e software
I primi computer erano in grado di sviluppare una sola funzione: erano costruiti fisicamente per
quello e il programma che doveva svolgerla era integrato direttamente nella costruzione del
sistema. Il risultato era che ogni computer aveva una destinazione specifica: se era stato
costruito per fare somme e sottrazioni non poteva essere utilizzato per gestire i dati di una
rubrica o per scrivere dei testi. I computer attuali invece vanno oltre questo limite e offrono una
versatilità applicativa che consente di utilizzarli ormai in ogni aspetto della nostra vita, dal
lavoro al divertimento, e questo grazie al fatto che l’architettura è suddivisa in due parti,
l’hardware e il software, che interagiscono fra di loro. Tutti i componenti del computer rientrano
in una di queste due categorie.
 L’hardware è l’aspetto fisico del computer, i componenti che possiamo toccare.
L’hardware comprende vari componenti del computer come il monitor, la
tastiera, la CPU, praticamente senza di essi il computer non esisterebbe e il
software non servirebbe a nulla.
 Il software è l’aspetto non fisico che permette all’hardware di compiere le
operazioni volute dall’utente. Un modo sbrigativo per distinguere tra i due è
che tutto ciò che vediamo quando il computer è spento è l’hardware, mentre
tutto ciò che vediamo sullo schermo è generato dal software.
Il software quindi è costituito da qualsiasi programma che si carica sul
computer, come ad esempio il sistema operativo, il browser, il driver.
Essi è dunque l’insieme del codice che fornisce all’hardware del computer le
istruzioni su come funzionare.
Il computer senza software rimarrebbe una scatola con alimentatori, ventole,
cavi è l’educazione, incapaci di svolgere qualsiasi funzione.
Il software quindi è l’anima dell’hardware e trasforma un ammasso di ferraglia
in una macchina che è in grado di compiere infinite operazioni.
I due componenti hanno vita diversa, l’hardware una volta istallato raramente richiede
modifiche in quanto è difficile che si guasta, certamente con il tempo i componenti tendono ad
usurarsi aumentando la probabilità di guasti fisici, ma di fatto l’hardware resta immutabile. Il
software invece non si usura e non ha una percentuale di guasti che aumenta con il passare
del

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
tempo, tende però a diventare obsoleto e a non soddisfare più le esigenze degli utilizzatori.
D’altra parte può essere facilmente creato, modificato, aggiornato o cancellato.
Esistono diversi tipi di hardware che comprendono:
 Dispositivi di input utilizzati per l’immissione di dati nel computer (tastiera, scanner,
microfono, tavoletta grafica…);
 Dispositivi di output che permettono di visualizzare i dati (monitor, stampante,
altoparlante);
 Dispositivi di archiviazione che memorizzano i dati (possibilità di utilizzare delle unità
ottiche come il CD ROM, il disco rigido, pendrive);
 Le porte dati che consentono la connettività tra il computer e gli altri dispositivi (porte
seriali, porte parallele, porte di tipo USB);
 Case che rappresenta il contenitore per i componenti essenziali al funzionamento del
computer (rappresenta l’unità centrale di elaborazione dove troviamo la CPU, la
scheda madre, l’alimentazione, la RAM e le varie schede come quella audio, video, di
espansione);
Esistono anche diversi tipi di software che possono essere distinti in tre macro categorie:
 Software di sistema che sarebbe il software progettato per il fornire funzionalità
operative di base all’hardware del computer e consentirgli di offrire una piattaforma per
l’esecuzione del software applicativo (rappresenta il sistema operativo, i driver di
dispositivo);
 Software di programmazione che comprende programmi o applicazioni che gli
sviluppatori di software utilizzano per creare ed eseguire il debugging, mantenete o
supportare altri programmi di applicazione (sono i compilatori, i debugger, le piattaforme
per lo sviluppo dei linguaggi di programmazione);
 Software applicativo che è quello che viene sviluppato per eseguire attività specifiche.
È un insieme di programmi che consentono al computer di eseguire un lavoro di
elaborazione dati specifico per l’utente (sono programmi di contabilità , word , fogli di
calcolo, gestori di database, programmi di grafica, lettori multimediali);

L’unità centrale
Il componente fondamentale di un computer è la scheda madre, conosciuta anche
alternativamente come scheda di sistema, scheda di base o scheda piana. La scheda madre è
una scheda a circuito stampato fissata all’interno dello Chassis del computer, che provvede a
fornire l’alimentazione, le comunicazioni tra i componenti del sistema, come l’unità centrale
dell’elaborazione (CPU), la memoria e i connettori per altre periferiche di input e output.
La prima scheda madre fu quella utilizzata nel Personal Computer della IBM.
La scheda madre oltre ad essere presente nei personal computer, è anche presente nei computer
portatili, negli smartphone e nei tablet dove spesso viene definita come scheda logica.
In questi device a causa dei requisiti di menzionare delle schede, i componenti come il processore
e la memoria RAM sono proprio saldati sulla schede, inoltre poiché molti di questi dispositivi
non dispongono di opzioni di aggiornamento, non hanno slot socket per supportare l’aggiunta
o l’aggiornamento dei componenti come nel caso di una classica scheda madre nei personal
computer.
Il componente più importante della scheda madre è l’unità di elaborazione (CPU). Essa ha il
compito di gestire le istruzioni di un programma, eseguendo le operazioni aritmetiche logiche di
controllo e input output specificate da tali istruzioni. Secondo l’architettura di von Neumann,
il ciclo ripetitivo del computer è come primo punto caricare un istruzione della memoria nella
CPU, secondo punto decodificare le istruzioni in comandi, terzo punto eseguire i programmi,
quarto punto salvare i dati in memoria.
L’esecuzione delle istruzioni può rivedere operazioni aritmetiche o logiche nonché il caricamento
o la memorizzazione dei dati “da e verso la memoria”. Terminata l’esecuzione dell’istruzione il
computer recupera l’istruzione successiva dalla memoria e la esegue ripetendo il ciclo
indefinitamente fino a quando non viene incontrata un’istruzione di arresto.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Dal punto di vista logico la CPU viene di solito descritta come costituita da un’unità di
controllo (CU) e da unità aritmetica e logica (ALU). L’unità di controllo è responsabile del
mantenimento del ciclo di recupero e di esecuzione, mentre l’unità aritmetica e logica fornisce
l’hardware per le esecuzioni aritmetiche, confronti di valori e funzioni logiche.

Le altre componenti principali della scheda madre sono:


 Lo slot di espansione, è una scheda di circuito stampato che può essere inserita in un
connettore situato sulla scheda madre per aggiungere ulteriori funzionalità come una
nuova scheda video o una scheda modem;
 La ventola di raffreddamento che fa circolare l’aria all’interno del case per
raffreddare i componenti del computer;
 Il dissipatore che è in genere in alluminio e viene montato su una scheda elettronica
per abbassare la temperatura dei componenti come transistor e processori
 Il socket che sarebbe un connettore elettrico fissato sulla scheda madre e permette di
installare un componete come ad esempio i microprocessori;
 Gli slot di memoria che consente di collegare la memoria RAM al computer e a seconda
del modello di scheda madre possono essere presenti da due a quattro slot di memoria;
 L’interfaccia IDE che rappresenta l’abbreviazione di Integrated driver electronic, ed è
l’interfaccia che permette di collegare tramite appositi cavi, le unità floppy e le unità a
disco rigido al computer. Nelle schede madri più recenti questa interfaccia è stata
sostituita dall’interfaccia moderna SATA
 L’CMOS che sarebbe un ciò a semiconduttore su scheda che memorizza informazioni
indispensabili per il computer come la data, l’ora, ed è alimentato da una batteria che
consente di mantenere le informazioni anche quando il PC è spento.

Core della CPU


Viene definito core il nucleo elaborativo di un microprocessore che riceve le istruzioni ed esegue
i calcoli o le azioni che ne conseguono. I microprocessori dei primi PC avevano un solo core.
Intorno al 2005, ADM e Intel, i principali produttori mondiali di microprocessori, giunsero a
un.in cui non era più possibile aumentare la frequenza di clock virgola e puntarono su
architetture multicore, inizialmente del tipo dualcore ( due core montati sullo stesso
processore) fino poi ad evolversi con dei processori quadcore (4 core) e octacore (8 core). Come
si può intuire con due o più processori affiancati, la CPU può gestire simultaneamente il doppio
delle istruzioni al secondo con prestazioni nettamente migliori.

Lezione 2.3 – Le periferiche


Un’unità periferica indica un qualsiasi dispositivo hardware di input o di output che fa parte di
un sistema di elaborazione e che funziona sotto il controllo dell’unità di elaborazione centrale.
Esistono tre tipi di periferiche:
 Dispositivi di input che interagiscono con l’utente o inviano i dati immessi al computer
( mouse, tastiere ecc);
 Dispositivi di output che forniscono all’utente l’output generato dal computer (
monitor, stampanti ecc.);
 Dispositivi di input/output che svolgono entrambe le funzioni (CD ROM, touch screen);
Un ulteriore classificazione suddivide le periferiche in interne ed esterne, per esempio una
stampante è un dispositivo esterno che viene collegato la computer mediante un cavo, mentre
un’unità disco ottico come il CD ROM è tipicamente situata all’interno del computer. In alcuni
casi le periferiche interne sono collegate direttamente alla scheda madre e in tal senso sono
definite come periferiche integrate.
Le periferiche possono essere collegate agli altri componenti del computer tramite un cavo e una
porta in modalità wireless e sono controllate dal sistema operativo per mezzo dei driver software
(un programma che deve essere installato per consentire al sistema operativo e al computer di
riconoscere e gestire la periferica nel sistema operativo) ed un controller di periferica (un cip che

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
si interfaccia con la periferica per gestirne il funzionamento e la comunicazione con il BUS del
computer).
La porta è il punto di connessione che consente al core di interfacciassi con la periferica,
permettendo il trasferimento del segnale. Le porte possono essere suddivise in due grandi
categorie:
 Porte seriali, in cui le informazioni vengono trasferite in input o in output 1 bit alla volta;
 Porte parallele, in cui le informazioni vengono inviate con più bit contemporaneamente;
A livello fisico una porta è costituita da una presa specializzata a cui si connette una spina o un
cavo e dalla corrispondente elettronica di controllo.
Esistono numerosi tipi di porte oltre a quelle seriali e parallele e tra queste troviamo:
 Porta SCSI;
 Porta PS/2;
 Porta USB;
 Porta Ethernet;
 Porte VGA; DVI; HDMI;
 Porta FireWare;

Lezione 2.4 – Tastiera, mouse e dispositivi di puntamento


Tastiera
La tastiera è uno dei dispositivi di input primari di un computer ed è destinata
all’inserimento manuale dei dati, numerici o alfanumerici, nella memoria del computer e al
controllo del computer stesso. E simile a quella delle macchine per scrivere elettriche, ma con
alcuni tasti aggiuntivi. La tastiera può essere incorporata nell’unità centrale del computer,
come nei computer portatili, o essere una periferica esterna come nei computer desktop o
work station. Può anche essere virtuale apparendo direttamente sullo schermo del
dispositivo, soluzione adottata prevalentemente su dispositivi touchscreen come smartphone
e tablet.
Le tastiere esterne comunicano con il computer tramite collegamento USB o anche in
modalità wireless.
I simboli numerici, alfabetici e di punteggiatura sui tasti sono organizzati in vari modi che
possiamo definire layout di tastiera e la varietà di quest’ultimi dipende dalla lingua in uso. Il
layout di tastiera anglosassone è quello utilizzato come impostazione predefinita nei sistemi
operativi attualmente più diffusi ed è definito “QWERTY” proprio dalla sequenza dei caratteri
della prima riga dei tasti. Al di là del layout fisico della tastiera ogni sistema operativo consente
di modificarlo istallando una o più tastiere virtuali per consentire all’utente di effettuare l’input
con caratteri diversi dalla lingua di default, in questo modo però si perde la corrispondenza tra
i segni indicati sui tasti della tastiera fisica e il significato che il driver associa loro nella tastiera
virtuale usata per l’input.
Mouse e dispositivi di puntamento
Il mouse è un dispositivo di puntamento che rileva un movimento relativo a una superficie
piana appunto questo movimento si traduce nello spostamento di un puntatore grafico sullo
schermo per controllare e gestire l’interfaccia utente grafica. Il mouse venne ideato da
Douglas Engelbart che lo brevettò nel 1967.
Il mouse è dotato di uno o più tasti ai quali possono essere assegnati varie funzioni. La pressione
o la rapida o doppia pressione di questi tasti può corrispondere a varie azioni tra cui aprire un
file o eseguire un programma, spostando quindi il cursore su un’icona, su una cartella. Inoltre
si può selezionare un testo o un file, evidenziare e selezionare più file contemporaneamente.
Si può inoltre trascinare e rilasciare un oggetto selezionato in un punto desiderato e far
scorrere anche il contenuto dello schermo che rappresenta un operazione utile nei documenti
lunghi, pagine web ed altre applicazioni che presentano informazioni che vanno oltre lo
spazio visibile sul monitor. Per facilitare quest’operazione è spesso possibile utilizzare una
rotellina di cui è dotata la maggior parte dei mouse.

Nella famiglia dei mouse rientrano:

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
 Il mouse meccanico che presenta una pallina al di sotto di metallo o di gomma e
quando questa veniva fatta rotolare spostava il mouse e i sensori all’interno andavano
a rilevare il movimento e spostavano il puntatore del mouse sullo schermo.
 Mouse ottico o laser che utilizza uno o più l’educazione luminosi e una matrice di diodi
per rilevare il movimento.
 Trackball che sarebbe un dispositivo di puntamento che è composto da una sfera che
si muove liberamente in una cavità all’interno della quale sono presenti i sensori che
rilevano il movimento e ha un vantaggio di garantire un ottima ergonomia per la mano.
 Mouse senza filo che è collegato al computer tramite un trasmettitore con il quale
invia al computer le informazioni di movimento, attraverso onde radio, raggi infrarossi
o Bluetooth.
 Touchpad che sarebbe un dispositivo di input presente sui computer portatili e su
alcune tastiere che consente di spostare un cursore tramite le dita che può essere
utilizzato in alternativa del mouse esterno, è dotato anche di due pulsanti che consentono
di emulare il clic sinistro e destro del mouse.
 Joystic che sarebbe un altro dispositivo di input e trasforma i movimento di una leva
manovrata dall’utente in una serie di segnali che permettono poi di controllare un
programma, un’apparecchiatura o un attuatore meccanico.

Lezione 2.5 – Memorie di calcolo e memorie di massa


Memorie di calcolo
In un computer è la memoria coinvolta nelle operazioni di esecuzione delle istruzioni di
programma. È indicata come memoria principale o memoria primaria. Questa memoria viene
realizzata con tecnologie a semiconduttore nella forma di circuiti integrati a base di silicio.
In genere è collegata alla scheda madre tramite connettori che possiamo chiamare socket e
alla CPU tramite il BUS di sistema.
Il suo compito è caricare dati ed istruzioni dalla memoria di massa per passarlo poi al
microprocessore affinché vengano elaborati assimilandola ad una memoria di transito o
appoggio. Tale memoria è costituita da numerosissime celle di memoria a due stati nella quale
è possibile memorizzare un BIT. Le celle di memoria sono poi anche raggruppate in parole di
lunghezza fissa per esempio 1, 2 , 4, 8, 16, 32 BIT ecc.ogni parola è accessibile tramite un
indirizzo binario che in genere è di 8 BIT e quindi rappresenta un BYTEe costituisce un
registro di memoria.
Le operazioni che la memoria può effettuare sono tendenzialmente due: la lettura e la
scrittura. La parte di memoria associativa integrata nel processore, caratterizzata da alta
velocità e utilizzata per contenere i dati e istruzioni di utilizzo più frequente al fin di
migliorare le prestazioni del sistema, viene chiamata memori Cash.
Sono disponibili vari tipi di memorie primarie, a seconda della funzione svolta e delle loro
caratteristiche peculiari:
 La RAM, memoria di accesso casuale, che rappresenta la memoria in cui vengono
caricati i dati da elaborare. Le due forme più diffuse di RAM sono quella statica e quella
dinamica. La prima è la più costosa da produrre ma è . Generalmente più veloce e
consuma meno energia. La seconda invece è meno costosa da produrre ed è anche
quella più utilizzata.
 La ROM, memoria di sola lettura, essa è una memoria permanente ossia non volatile,
presente sulla scheda madre che contiene le istruzioni che la CPU deve caricare per
consentire l’avvio del sistema e le routine di base che prendono il nome di BIOS.
 La EPROM, essa è una memoria ROM che può essere cancellata e riprogrammata in
particolari condizioni.
Quando parliamo di firmware andiamo ad identificare la programmazione scritta nella
memoria non volatile di un dispositivo hardware, ossia quella forma di memoria ad accesso
casuale e statica, il cui contenuto resta memorizzato anche quando il dispositivo viene spento o
perde la sua fonte di alimentazione esterna. Esso viene aggiunto in fase di produzione e consente

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
di avviare un componente per permettergli idi interagire con altri componenti tramite
l’implementazione di protocolli di comunicazione o interfaccia di programmazione.
Esso può esser scritto su una memoria di sola lettura come la ROM, la EPROM, oppure su
memorie flash che più facilmente sono aggiornabili.

Memorie di massa
La cosiddetta memoria di massa costituisce l’archivio permanente dei dati leggibili e scrivibili
dal computer. Di fatto, la caratteristica principale della memoria di massa è la non volatilità ,
ovvero la possibilità di memorizzare in modo permanente i dati. Questi vengono memorizzati
nei dispositivi id memoria di massa sotto forma di file e possono essere file di programma o
file di dati che contengono informazioni come testi, immagini ecc.
Tutti i dati memorizzati sui dispositivi di archiviazione comunemente utilizzati Eni computer
desktop, server e portatili, sono poi organizzativo in un file sistem. Questo componente consente
di gestire la memorizzazione e il recupero dei file sui dispositivi di memoria all’interno di una
cerchia di cartelle e sottocartelle.
I supporti per le memorie di massa comprendono numerose tipologie e tecnologie che negli ultimi
decenni hanno avuto una notevole evoluzione per garantire l’archiviazione di quantità
sempre maggiori di dati. Ci sono una serie di memorie di massa:
 L’unità a disco rigido che sarebbe un dispositivo di memoria di massa che utilizza uno
o più dischi magnetici per l’archiviazione di dati. Un tipico disco rigido è costituito da
uno o più piatti che ruotano rapidamente realizzati in alluminio o vetro e da due testine
per ogni disco, una per lato, che si spostano alla distanza di poche decine di nanometri
dalla superficie del disco per leggere e scrivere i dati. I dati vengono registrati
magnetizzando il sottile strato ferromagnetico, depositato su entrambe le facce dei dischi.
Dopo la formattazione, ogni lato del disco è suddiviso in tracce ad anello e settori,
venendo così a costituire i cilindri virtuali.
 L’unità a disco floppy, è un tipo di unità che era destinata alla lettura e scrittura di
dischetti flessibili, quindi un tipo di memoria di massa composta da un sottile disco
magnetico flessibile inserito in un contenitore di plastica rettangolare rivestito di un
leggero tessuto che rimuove le particelle di polvere. Il funzionamento di questi dischi è
analogo a quello dei dischi rigidi con l’unica differenza che le testine di scrittura e
lettura si trovano all’interno dell’unità .
 Il disco ottico è costituito da un disco sottile di policarbonato trasparente al cui
interno è inserito un sottile foglio metallico su cui vengono registrate le informazioni
tramite un raggio laser. Le informazioni vengono memorizzate sequenzialmente in una
traccia continua a spirale, da quella più interna a quella più esterna. I dischi ottici sono
particolarmente resistenti agli agenti atmosferici e hanno una grande capacità di
memorizzazione.
Un disco ottico può essere di sola lettura, può essere scrivibile e riscrivibile.
 L’unità a nastro che consente di leggere e scrivere dati su un nastro magnetico.
Questa tecnologia è tipicamente utilizzata per l’archiviazione di dati online. I supporti a
nastro hanno un costo contenuto e una lunga durata. Essa fornisce un’archiviazione ad
accesso sequenziale.
 L’unità a stato solido che è basata su semiconduttore che utilizzano una tecnologia
allo stato solido per l’archiviazione dei dati. A differenza quindi dei dischi tradizionali
le SSD non contengono componenti meccanici in movimento, cosa che le rende più
resistenti, silenziose e con tempi di accesso più bassi.
La tecnologia SSD utilizza principalmente interfacce compatibili con i tradizionali
dischi rigidi consentente una facile intercambiabilità . Le tecnologie che consentono
alla memoria SSD di essere non volatili, ossia di conservare i dati anche in mancanza di
alimentazione è nota come tecnologia flash e tutte le memorie oggi usate nei
dispositivi mobili sono memorie flash.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Le unità flash USB note come le chiavette USB, sono dispositivi che comprendono una
memoria SSD flash con un’interfaccia e una porta USB integrata.

Lezione 2.6 – Monitor e


stampanti Il monitor
Il monitor è un dispositivo di output che consente di visualizzare immagini, testo e video
trasmessi in forma elettronica appunto in generale un monitor è composto dallo schermo, circuiti
elettronici, alimentazione elettrica, un involucro esterno con pulsanti per regolare le
impostazioni di visualizzazione. Può anche essere dotato di altoparlanti per l’audio e di altri
tipi di connettori e periferiche, come una porta USB o una webcam.
Lo schermo è il componente principale del monitor su cui vengono visualizzati testo e immagini
punto ne esistono diverse tipologie che si basano sulla tecnologia utilizzata:
 Schermo CRT, che sarebbe uno schermo a tubo catodico. Questo crea le immagini
utilizzando un tubo a raggi catodici nel quale questi ultimi sono convogliati su una
superficie fotosensibile.
 Schermo LCD, che sarebbe uno schermo a cristalli liquidi. È una tipologia di display a
schermo piatto che si basa sulle proprietà ottiche dei cristalli liquidi. Questo sottile strato
liquido viene poi intrappolato da due pannelli paralleli e trasparenti dotati di un gran
numero di contatti elettrici che applicano un campo elettrico al liquido. Ogni contatto
elettrico comanda una piccola porzione del pannello identificabile come un pixel.
 Schermo a plasma, che sarebbe una tipologia di schermo piatto utilizzata per
applicazioni video come la televisione, con dimensioni dell’immagine normalmente
superiore ai 32 pollici.
Le caratteristiche del monitor
La qualità delle prestazioni di un monitor viene valutata da alcuni parametri significativi:
 Aspect ratio, ossia il rapporto di proporzione tra larghezza e altezza del monitor.
 Risoluzione dello schermo, ossia il numero di pixel che possono essere utilizzati.
 Dimensioni visualizzabile dell’immagine, viene indicata in pollici.
 Dot pitch, sarebbe la distanza in mm tra i pixel dello stesso colore.
 Frequenza di aggiornamento, che sarebbe la frequenza di refresh del display ed è
limitata dal tempo di risposta.a frequenze più alte corrispondono poi immagini più
stabili.
 Tempo di risposta, ossia il tempo richiesto ad un pixel di passare da attivo (bianco)
ad inattivo (nero) ed è misurato in millisecondi.
 Angolo di visualizzazione, ossia l’angolo massimo dal quale è possibile visualizzare
immagini sullo schermo senza un eccessivo degrado.

Le stampanti
Una stampante è un dispositivo hardware di output esterno che riceve i dati memorizzati su
un computer o un altro dispositivo, e genera una copia a stampa. Le stampanti sono una delle
periferiche per computer più diffuse e sono comunemente utilizzate per stampare testi e foto.
Il funzionamento di una stampante prevede in genere che l’utente utilizzi un’applicazione per
predisporre il contenuto da stampare ed esegua il comando di stampa. I dati di stampa
vengono quindi inviati alla stampante che li interpreta e crea la copia fisica. Esistono
differenti tipi di stampanti in base alla tecnologia utilizzata:
 La stampante meccanica ideata da Babbage e essa utilizzava asticelle meccaniche su
cui erano impressi i caratteri in rilievo per stampare il testo.
 La stampante a matrice di punti, dove il suo principio operativo si basava
sull’utilizzo di una testina di stampa costituita da una fila verticale di 7 aghi metallici
collegati a solenoidi. La testina è posta d’avanti ad un nastro di inchiostro che scorre
orizzontalmente e quando vene applicata corrente ai solenoidi l’ago viene spinto
contro il nastro di inchiostro che colpisce la carta stampando un punto.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
 La stampante a getto di inchiostro, che sono simili alla stampante a matrici di punti
in quanto le immagini che creano sono composte da punti, in questo caso però la
testina di stampa spruzza piccolissimi punti di inchiostro sulla carta. La piccolezza dei
punto consente di ottenere una qualità maggiore a una velocità di stampa molto
elevata.
 La stampante a sublimazione di inchiostro, simile alla stampante a getto di
inchiostro che utilizza però degli stick di inchiostro solido e non fluido e produce
immagini di qualità fotografica.
 La stampante laser, dove il suo funzionamento è simile alle macchine fotocopiatrici
poiché ha un raggio laser infrarosso che viene modulato in base alla sequenza di pixel
da imprimere sul foglio. Successivamente viene poi deflesso da uno specchio rotante
su un tamburo foto sensibile e caricato elettricamente che si scarica nei punti colpiti dalla
luce. L’elettricità statica attira poi la polvere del tener che viene poi trasferito sulla
carta e il foglio passa sotto ad un rullo riscaldato ad altra temperatura che fonde il toner
facendolo aderire alla carta.
 La stampante a l’educazione che è simile alla laser con l’unica differenza che invece
di un l’aggio laser utilizza una barra l’educazione disposta nel senso della larghezza
della pagina e in un numero uguale aò numero di pixel da dover stampare.
Stampa 3D
La stampa 3D e stata inventata nel 1984 ma negli ultimi anni ha iniziato ad affermarsi
soprattutto in ambito industriale. Le stampanti 3D partono dal modello digitale di un oggetto
e lo riproducono strato dopo strato mediante tecniche additive utilizzando materiali di vario tipo
a seconda delle tecnologie utilizzate. I metodi più diffusi nella realizzazione di queste stampe
sono: La modellazione a deposizione fusa (FDM) in cui vengono depositati strati a partire
da un filamento di materiale plastico sciolto, che viene fatto in seguito indurire;
La sinterizzazione laser selettiva (SLS) in cui vengono utilizzati strati di polvere metallica
o plastica, fusa dal laser in modo selettivo sullo strato sottostante;
La stereolitografia (SLA) in cui viene usata una resina liquida fotosensibile, fatta indurire
dal laser o da una fonte di luce ultravioletta. Le applicazioni della stampa 3D hanno iniziato a
diffondersi in tutti i campi in cui è utile generare prototipi tridimensionali come il design,
l’architettura, scultura artistica e più recentemente anche nel campo delle biotecnologie.

Per Plotter invece paliamo di un dispositivo hardware simile ad una stampante che viene
utilizzato per la stampa di grafici vettoriali su grandi formati, a differenza di una normale
stampante questa può disegnare linee continue mediante penne che vengono mosse sul foglio.
Esistono in questo caso diversi tipi di plotter: Plotter a tamburo che disegnano su una carta
avvolta attorno ad un tamburo che ruota definendo una direzione del tracciato;
Plotter piani che disegnano su un foglio di carta posto su una superficie piana; I plotter
elettrostatici che disegnano su carta caricare negativamente con un toner caricato
positivamente.

Ogni stampante ha delle caratteristiche specifiche. Abbiamo l’‘interfaccia come tipo di


collegamento con il computer e può essere collegato tramite porta parallela, seriale, USB,
esistono anche stampanti Bluetooth;
Un’altra caratteristica è data dal formato della carta, quindi per le sue dimensione e spessore;
Altre caratteristiche vengono dal numero di colori, esistono quelle monocromatiche che
utilizzano solo un colore, quelle tricromatiche che utilizzano il giallo il giallo, ciano e
magenta per produrre tutti i colori compreso il nero, quelle quadricromatiche che
hanno i tre colori base più il nero, quelle esacromatiche che hanno più di due
tonalità chiare di ciano e magenta per produrre le mezze tinte di qualità maggiore;
Come caratteristica interessa anche la risoluzione di stampa perché indica il numero di punti
stampabili per unità di lunghezza;
Altra caratteristica è la velocità di stampa che identifica il numero di pagine al minuto che è in
grado di produrre la stampante.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Lezione 2.8 – Scanner e schede di espansione
Scanner
Lo scanner svolge una funzione esattamente opposta a quella della stampante nel senso che
consente di acquisire in modalità ottica documenti stampati, fotografie o diapositive, di
interpretarla come un’insieme di pixel e ricostruirne la copia fotografica sotto forma di
immagine digitale. Tale immagine può quindi essere salvata come un file nel computer e
successivamente rielaborata come programmi di ritocco o nel caso di una scansione di un
testo, convertita in un documento di testo mediante un programma di riconoscimento ottico
dei caratteri.
Esistono diverse tipologie di scanner:
 Scanner a tamburo che acquisiscono l’immagine per mezzo di tubi fotomoltiplicatori.
Questo scanner utilizza tre di questi tubi per la lettura di rosso blu e verde;
 Scanner piano che è costituito da una lastra di vetro e una matrice mobile di
fotodiodi. I sensori vengono disposti su una matrice lineare che richiede tre passaggi di
rilevazione, uno per i tre colori RGB su matrici lineari. Le immagini da acquisire
vengono poste sul vetro e coperte per coprire la luce ambiente, nel caso idi immagini
trasparenti vengono utilizzati accessori speciali per illuminarli dal lato superiore.
 Scanner a pellicole che consentono di acquisire pellicole positive o negative che
vengono collocate su un supporto all’interno dello scanner. Il supporto viene spostato
grazie all’aiuto di un motore lungo una lente a sensore;
 Scanner a mano che viene trascinato sulla superficie del documento per eseguire la
scansione dell’immagine;
 Scanner smartphone ossia la fotocamera ad alta risoluzione in dotazione ad alcuni
smartphone che possono produrre scansione di documenti di buona qualità scattando
una semplice foto.

Nella scelta dello scanner è importante considerare alcune caratteristiche come: il tipo di
connessione, uno scanner può essere collegato al computer utilizzando varie interfacce e quelle
più diffuse ora sono tramite USB e firewall; Un tipo di alimentazione cioè gli scanner piani
sono gli ideali per l’acquisizione di fogli singoli, un’alimentatore automatico invece è utile per
scansione automatica di una serie di documenti; La velocità di scansione espressa in
margine al minuto che dipende dal formato del documento e dalla risoluzione della scansione;
La risoluzione di scansione che viene misurata in punti per pollice, tanto maggiore è questo
valore tanto più definita è l’immagine acquisita;

Schede di espansione
La categoria delle periferiche comprendi altri componenti che spesso sono ormai parte
integrante della scheda madre di computer e altri dispositivi simili. Le schede di espansione
sono schede elettroniche non comprese nella dotazione standard di un computer e che, una volta
installate, ne espandono le funzionalità . Anche se i progressi degli ultimi decenni in fatto di
miniaturizzazione dei componenti hanno consentito di integrare molte di queste periferiche
direttamente nella scheda madre, esiste sempre la possibilità , soprattutto nei computer desktop
che hanno più spazio a disposizione, di aggiungere o potenziare le funzionalità del sistema.
Ne esistono diverse:
 Scheda audio, il suo scopo è quello di elaborare un flusso audio digitale ricevuto in
input in un segnale analogico-digitale da inviare in output ad una periferica audio
come altoparlanti o cuffie audio. La maggior parte delle schede audio consente anche
di ricevere audio in input da microfoni o strumenti musicali che possono essere
successivamente elaborate e digitalizzate grazie ad appositi programmi.
 Scheda video, intendiamo una scheda di espansione che genera immagini di output su
un display collegato al computer. Questo tipo di scheda viene inserita nei po’ per
integrare le limitate funzionalità di visualizzazione e consentire la gestione di
immagini e video più complessi. Una scheda video contiene uno o più processori grafici
che gestisce

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
una certa quantità di memoria RAM dedicata per memorizzare i dati grafici da
visualizzare e che risiedono fisicamente sulla scheda stessa.
 Schede di rete, è un componete hardware che collega il computer ad una rete. Le più
diffuse sono la scheda Ethernet, il Tolkien ring, il WI-FI e il Bluetooth.

Lezione 2.8 – Tipi di computer, PC e dispostivi mobili


Classificazione dei computer
I computer possono essere classificati in diversi modi. La classificazione più pratica è quella per
dimensione e capacità di calcolo. Esistono:
 I supercomputer che sono sistemi più veloci e più grandi ma anche i più costosi. Sono
impiegati per applicazioni specializzate e richiedono enormi capacità di calcolo come
previsioni meteorologiche, dinamica dei fluidi, simulazioni nucleari, calcoli scientifici
molto complessi. La velocità di elaborazione dei sistemi è misurata in operazioni in
virgolamobile al secondo;
 Mainframe che vengono utilizzati in grandi istituzioni come i governi, banche e imprese
per gestire applicazioni critiche come ad esempio censimenti, statistiche industriali e
sulla popolazione, pianificazioni di risorse ed elaborazione di grandi volumi. La velocità
di elaborazione di questi sistemi è misurato in MIPS e possono rispondere a centinaia di
milioni di utenti che accedono contemporaneamente;
 Mini computer, è una categoria di computer più piccoli che è stata sviluppata a metà
degli anni 60 con prezzi inferiori a quelli del mainframe e che ha prodotto un gruppo
distinto id computer con proprie architetture software e sistemi operativi. Questi
computer sono stati progettati per attività di controllo della produzione della
strumentazione;
 Personal computer, che è relativamente meno costoso e di dimensioni inferiori rispetto
ad un mini computer e mainframe che è in genere estimato all’utilizzo di un singolo
utente.

Tipi di personal computer


 Computer desktop che si tratta di un personal computer progettato per essere
utilizzato da una postazione fissa. La configurazione comune è costituita da un case che
ospita l’alimentazione, la scheda madre e una o più unità disco, è costituita inoltre
anche da una tastiera, mouse e un monitor. Il suo vantaggio è quello di essere meno
costoso a differenza degli altri modelli e possono essere personalizzati aggiungendo o
sostituendo componenti;
 Computer portatile che è un computer di dimensioni ridotte per facilitarne il trasporto.
La configurazione classica è simile a quella di un quaderno, un lato comprende lo
schermo con eventualmente una webcam e il microfono e dall’altro lato i trova un case
compatto che contiene la scheda madre e le unità disco, la testiera e il touchpad.
 Esistono poi vari tipi di portatili ossia il Notebook e il laptop, storicamente il laptop
era di dimensioni leggermente maggiori mentre i notebook erano semplicemente più
piccoli. Attualmente questa distinzione non esiste più . I moderni notebook offrono
configurazione complete che spesso competono con quelle dei moderni desktop. Il
vantaggio è quello della trasportabilità e lo svantaggio è quello di offrire configurazioni
che sono difficilmente modificabili o espandibili;
 Palmtop PC noto anche come computer palmare e ha le dimensioni di una calcolatrice
con una forma di un normale computer portatile;
 NetBoot, sono alcuni modelli di computer portatili con dimensioni più piccole e senza
unità ottica destinati soprattutto alla navigazione in internet e ad altre esplicita attività
di ufficio. Le caratteristiche che li contraddistingue sono una batteria di lunga durata, i
processori di fascia medio alta a basso consumo, telaio compatto e molto sottile, un’unità
disco SSD;

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
 Tablet è un po’ mobile tipicamente dotato di un sistema operativo per dispostivi
mobili. Non essendo dotati di tastiera esterna questi dispositivi utilizzano una tastiera
virtuale sullo schermo;
 Console videogiochi che è un dispositivo elettronico che emette un segnare video per
visualizzare un videogioco. Essi sono in genere apparecchio di uso privato che possono
connettersi ad un comune televisione oppure nel caso delle console portatili esser
dotati di un piccolo schermo LCD integrato.

Modulo 3
Lezione 3.2 – Le caratteristiche dell’algoritmo

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
L’algoritmo p una procedura chiara ed univoca, tanto precisa da poter essere attuata da un
esecutore automatico, senza che ad esso debbano essere fornite ulteriori indicazioni.
Per capire meglio il concetto di algoritmo partiamo da una ricetta di un dolce.

La ricetta specifica una serie di operazioni da eseguire per preparare il piatto ed è rivolta
all’essere umano che è fornito dei consueti strumenti di cucina.
In questo caso l’essere umano rappresenta l’esecutore autonomo al quale si rivolge la ricetta.
Tutta via la ricetta da lo spunto ad una serie di considerazione di carattere generale che si
possono trasferire anche in ambito informatico. La prima considerazione riguarda la distinzione
tra il testo della ricetta ed il contenuto informativo della stessa. Ad esempio se il testo fosse
tradotto in un’altra lingua oppure cambiassero i tempi verbali, concorderemo che il testo sia
cambiato, ma al contrario il suo contenuto informativo sia rimasto immutato. La seconda
considerazione attiene al fatto che la ricetta della mousse sia per un cuoco di media
competenza e quindi presenta un livello di precisione che corrisponde alla competenza
digitale dell’ esecutore. La ricetta dovrebbe essere più dettagliata specificando ad esempio come
procedere a far fondere il cioccolato a bagno Maria, oppure come fare per montare gli albumi a
neve ferma se il soggetto fosse un cuoco completamente inesperto. D’altro lato la ricetta
potrebbe essere molto più sintetica se invece fosse destinata a cuochi professionisti. Per
quest’ultimo la prima parte della ricetta potrebbe essere semplicemente sostituita dalla
richiesta di preparare una mistura di burro zucchero e cioccolato. In generale una
specificazione deve essere adeguata al suo esecutore prescrivendo allo stesso solo
azioni che questo è in grado di compiere autonomamente, ma allo stesso tempo
evitando di dettagliare le componenti elementari di azioni complesse che l’esecutore sa
già svolgere in modo adeguato. La terza considerazione è che la nostra ricetta non si limiti
ad indicare un insieme di azioni da compiere, essa indica anche l’ordine nel quale quelle azioni
debbano essere eseguite e specifica come esse debbano essere combinate.
La struttura di base è la seguente: si assume che le azioni si eseguano nell’ordine in cui sono
indicate quindi prima si scioglie il cioccolato, poi si aggiunge lo zucchero, si sbattono le uova
ecc… tutta via alcune azioni si debbono eseguire qualora risulti vera una certa condizione ad
esempio la cioccolata si deve riscaldare se si è rappresa, invece altre azioni si devono ripetere
affinché risulti vera una certa condizione, ad esempio i tuorli si devono sbattere finché non
risultino gonfi e spugnosi. La quarta considerazione riguarda invece la distinzione fra i tre
aspetti innevati nella ricetta, il dato di partenza o input che sarebbero gli ingredienti, il risultato
da raggiungere o output che sarebbe la mousse al cioccolato e infine la procedura e quindi il
piano d’azione da eseguire per raggiungere l’output partendo dall’ input.
La fedele esecuzione della procedura consente di passare dall’input al risultato e se la procedura
è corretta si otterrà poi il risultato desiderato.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Un programma per computer svolge una funzione analoga a quella della ricetta da cucina.
Entrambi sono destinati ad un esecutore, come la ricetta richiede l’azione del cuoco, così il
programma deve servizi messo in atto dal computer. Entrambe specificano la procedura da
seguire per realizzare un certo output a partire da un certo input.
La ricetta indica come realizzare la mousse a partire dagli ingredienti, un programma invece
indica al computer la procedura di calcolo da seguire per realizzare un certo risultato
partendo da certi dati di input.
Tanto il programma quanto la ricetta indicano una procedura per risolvere un certo problema
caratterizzato nei termini di una certa situazione di partenza che sono i dati di input e di un
determinato risultato che si vogliono ottenere.

In senso generico possiamo dire che un algoritmo per un certo esecutore è una
combinazione precisa ed univoca di azioni eseguibili autonomamente da parte di
un’esecutore senza la necessità di un aiuto da parte di altri che consentono quindi di
risolvere un problema. Un algoritmo eseguibile da un esecutore automatico deve
possedere rigorosi requisiti di precisione ed univocità che mancano in una ricetta da
cucina. Ad esempio la ricetta contiene delle indicazioni imprecise come riscaldare
molto, scaldare leggermente e ogni caso contiene istruzioni da applicare con buon
senso o capacità umane che non esistono in un esecutore automatico.

Lezione 3.3 – Gli errori algoritmici


Ipotizziamo la realizzazione di un algoritmo che ha come compito principale quello di andare
a ricercare un abbonato all’interno di un elenco telefonico.
Quindi ipotizziamo di voler realizzare un programma che ha come input iniziale la necessità
di dover creare un elenco telefonico e quindi di ricercare un abbonato all’interno dell’elenco e
l’output corrispettivo sarà la necessità da parte dell’utente che decide di utilizzare questo
algoritmo di ricercare effettivamente l’abbonato.
Una prima versione di ricerca che noi possiamo effettuare è quella che è presente nel campo
algoritmo e quindi ad esempio: si deve leggere il nome del primo abbonato dell’elenco e poi finché
l’ultimo nome letto è diverso da quello cercato si deve ripetere sempre l’operazione seguente,
quindi si legge il nome dell’ abbonato successivo, infine si annoti come output dell’algoritmo il
numero di telefono accanto all’ultimo nome letto.
Questo algoritmo non ha errori al suo interno. Per fare un esempio concreto, noi dobbiamo
ricercare “Rossi Mario” all’interno dell’elenco e quindi utilizzando un algoritmo come quello
descritto, quindi leggendo il primo nome dell’abbonato dell’elenco, io scrivo Rossi Mario
all’interno del motore di ricerca, il sistema legge Rossi Mario, partirà dal primo dell’elenco che
sarà Abba Adele e andrà a matchare i due risultati e vedrà che questi Abba Adele non sarà
uguale a Rossi Mario e quindi di conseguenza dice che si deve procedere all’’abbonato successivo
fino a quando non troverà come matching Rossi Mario. Il problema però si verifica in questo tipo
di algoritmo non quando il soggetto è presente all’interno dell’elenco, ma quando non è presente.
Un errore tecnicamente c’è perché dice “si annoti come output dell’algoritmo il numero di
telefono accanto all’ultimo nome letto” e quindi ad esempio noi avremo su Rossi Mario,
qualora non fosse presente all’interno dell’elenco, avremo l’ultimo soggetto dell’elenco tipo
Zurro Elena e per questo andremo a trovare il numero di telefono di Zurro Elena, e un
algoritmo strutturato in questo modo non è corretto, e quindi sarà un algoritmo che fornirà il
numero di telefono di Zurro Elena, tutte le volte in cui all’interno dell’elenco, l’abbonato non
risulta presente nell’elenco stesso.
Per correggerlo (Seconda versione): anche in utero caso noi abbiamo un elenco di abbonati
all’interno del telefono e come output bisogna sempre trovare il numero di telefono
dell’abbonato. Adesso quindi bisogna procedere in un determinato modo, perché il sistema
precedente aveva il problema di oltre ad andare a ricercare il nome di Zurro Elena, l’altro
problema era che poi il sistema avrebbe potuto alternativamente anche ripartire da capo e
quindi matchare quegli input come per dire o faccio uscire il numero di Zurro Elena o faccio

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
ripartire l’elenco dall’inizio e avrò un algoritmo che non terminerà mai di fornire un output
perché quel nome non è presente. Delle correzioni da apportare all’algoritmo è quello di andare
a definire innanzitutto il nostro elenco e quindi chiedendo che l’ultimo nome letto deve essere
uguale a…nel nostro caso a Zurro Elena… , poi l’algoritmo dice “finché l’ultimo nome letto è
diverso a quello cercato e non si sia raggiuntava fine dell’elenco, si ripeta l’operazione come
segue”, ossia di leggere il nome dell’abbonato successivo e infine l’algoritmo dice “ si produca in
output il numero di telefono accanto all’ultimo nome letto”. Questo algoritmo rispetto alla prima
versione risolve uno dei problemi, ossia il problema che all’interno dell’elenco noi avremo un
sistema che matcha sempre l’informazione di Rossi Mario con le persone presenti all’interno
dell’elenco ma avrà come errore il fatto che raggiunto Zurro Elena, il sistema, qualcosa Mario
rossi non fosse presente nell’elenco, darà sempre il risultato di Zurro Elena.
Per Correggerlo (terza versione): Si parte sempre dallo stesso input e raggiungendo il medesimo
output si dve procede in questo modo “Si ponga l’ultimo nome letto uguale a… Zurro Elena..” ,
poi “ finché l’ultimo nome letto è diverso da quello cercato e non si sia raggiunta la fine
dell’elenco, si ripeta l’operazione seguente: si deve leggere il nome dell’abbonato successivo” che
diventerà di fatto l’ultimo nome letto. “Se l’ultimo nome letto è uguale al nome da cercare, si
produca in output il numero di telefono accanto all’ultimo nome letto” , viceversa “ Se l’ultimo
nome letto è diverso dal nome da cercare, si produca in output la scritta “ il nome cercato non
compare nell’elenco””.
Per tanto volendo rappresentare in un diagramma di flusso ciò che è il sistema di ricerca
sequenziale della terza versione che rappresenta quello corretto lo rappresentiamo così:

Lezione 3.4 – L’efficienza e la precisione degli algoritmi

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Un requisito importante per l’algoritmo è la sua efficienza, ossia la capacità di giungere
all’output richiesto nel numero minore di passi.
Come viene illustrato:

Ricerca binaria ricorsiva: diagramma di flusso


Un altro algoritmo è quello della ricerca binaria è più complicato e difficile da comprendere, esso
però è più efficiente, per trovare ad esempio un nome in un elenco di un milione di abbonati
utilizzando il sistema della ricerca sequenziale, dovremmo leggere in media 500mila nomi per
un tempo di circa 7 ore, seguendo quest’alto ritmo invece, ce ne basta leggere una ventina e
quindi avremo un tempo di esecuzione di circa 10 secondi. Di conseguenza quest’alto ritmo è
25mila volte più efficiente di un algoritmo di ricerca ricorsiva rispetto ad un elenco di un milione
di abbonati.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Sarebbe possibile ottenere un algoritmo di ricerca ancora più efficiente, infatti quando apriamo
un elenco di un telefono, non ci posizioniamo sempre al centro dell’elenco, ma più tosto ad una
posizione che ci aspettiamo si avvicini al nome che noi dobbiamo cercare, se ad esempio il nome
inizia con la lettera A apriremo l’elenco verso l’inizio e se il nome inizia con la lettera V, verso
la fine. Corrispondentemente potremmo migliorare l’algoritmo di ricerca specificando che si
vada. A leggere non il nome collocato nella posizione centrale della porzione della lista ancora
da esaminare, ma quello collocato nella posizione nella quale vi è maggior probabilità di trovare
il nome cercato, tenendo conto della distribuzione dei nomi tra le diverse lettere dell’alfabeto.
Resta da vedere se il limitato incremento di efficienza che potremmo ottenere in questo modo
giustificherebbe lo sforzo richiesto per andare a progettare un algoritmo molto più complicato
di quello appena considerato, ciò dipenderebbe dal valore che attribuiamo a tale incremento di
efficienza che però a sua volta andrebbe a dipendere dal numero di volte in cui pensiamo di
utilizzare l’algoritmo e anche dall’importanza che andiamo ad attribuire alla rapidità di
risposta.

Un algoritmo possiamo definirlo come una sequenza di istruzioni che specifica una
combinazione di azioni da compiere per risolvere un problema, ciò vale tanto per le
procedure che riguardano le operazioni materiali come ad esempio la creazione di una ricetta,
tanto per quelli che riguardano elaborazioni simboliche. Tutta via nel campo dell’informatica
le azioni da considerare sono solo quelle computazionali che consistono in elaborazioni
simboliche. Ogni azione indicata nell’ algoritmo, deve essere eseguibile da parte dell’
esecutore dell’algoritmo, o in quanto l’esecutore possegga la capacità di svolgere tale
operazione in un unico passo, o in quanto l’esecutore conosca un ulteriore algoritmo che
specifichi come la nuova azione possa risultare da una combinazione di azioni che l’esecutore
sa già eseguire.
Inoltre non devono esserci dubbi per quanto riguarda l’ordine nel quale eseguire le azioni per
qualsiasi azione della procedura, l’algoritmo deve quindi individuare l’azione successiva. La
certezza sull’ordine di esecuzione non esclude che l’ordine dipenda da condizioni la cui
verifica è affidata all’esecutore stesso, anzi le istruzioni algoritmi che sono spesso
condizionate, tutta via una volta che abbiamo verificato quelle condizioni, l’esecutore deve
essere in grado di determinare in modo univoco la prossima azioni da seguire.

Proprietà dell’algoritmo
 Finitezza: L’algoritmo deve portare alla soluzione in un numero finito di passi;
 Generalità: l’algoritmo non risolve un problema, ma un classe di problemi;
 Non ambiguità: le istruzioni indicate sono specifiche univocamente, cosicché la loro
esecuzione avviene sempre nello stesso modo, indio ed temente dall’ esecutore;
 Ripetibilità: dati gli stessi dati in input l’algoritmo deve fornire gli stessi risultati in
output.

Lezione 3.5 – La complessità computazionale degli


algoritmi La correttezza degli algoritmi
Quando parliamo di algoritmo dobbiamo distinguere l’algoritmo quale specificazione
dell’elaborazione da seguire dal processo della sua esecuzione, cioè dall’attività mediante la
quale l’esecutore svolge l’algoritmo. In generale non c’è rapporto tra lunghezza dell’algoritmo e
lunghezza del processo della sua esecuzione, anche un algoritmo molto corto può dar luogo ad
elaborazioni molto lunghe.
Per risolvere un problema possiamo usare diversi tipi di algoritmi, ispirati a diverse idee o
invenzioni algoritmiche, questo perché non tutti gli algoritmi sono uguali:
 Alcuni algoritmi conducono a soluzioni corrette, altri invece producono risultati errati
(per alcuni dei loro possibili input)
 Alcuni algoritmi sono più efficienti di altri quindi producono il proprio risultato con il
minimo sforzo e quindi con un tempo minore.
Quello della correttezza è un requisito preliminare e inderogabile, ma è impossibile esser
sicuri che un certo algoritmo darà un risultato desiderato per ogni input ammissibile. Spesso si
assume

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
che i calcolatori siano infallibili invece i programmi informatici quasi inevitabilmente
contengono errori e il tempo trascorso ad individuare e a correggere gli errori tende a
superare quello impiegato nella stesura del programma stesso.
Alcune ragioni che rendono difficile l’individuazione degli errori sono ad esempio:
 Innanzitutto non esiste alcun metodo preciso algoritmico che garantisca l’individuazione
di ogni errore in qualsiasi programma, infatti non c’è soluzione al problema della
terminazione, cioè non esiste né è possibile realizzare un algoritmo di validità universale
quindi applicabile ad ogni possibile algoritmo capace di dirci se un algoritmo si
interrompere o se si interromperà , applicato a qualsiasi output. A maggior ragione
essendo la non determinazione il tipo di errore, non esiste alcun algoritmo di validità
universale capace di dirci su un algoritmo contenga errori.
 In secondo luogo non è possibile verificare la correttezza di un algoritmo applicandolo
preventivamente ad ogni input possibile. Gli input possibili potrebbero essere infiniti o
comunque troppo numerosi.
 In terzo luogo, un algoritmo può operare correttamente nella maggior parte dei casi,
ma cadere in errore rispetto ad input particolari.
L’errore algoritmo pone continui problemi all’’informatico che deve poi affrontare i relativi
profili in natura tecnica e anche poi in natura giuridica, per responsabilità penali, civili o anche
di natura contrattuale. L’errore non è del duetto evitabile ed i suoi effetti sono poi difficilmente
prevedibili e anche quantificabili.

Anche l’efficienza è un aspetto molto importante all’interno degli algoritmi. Alcuni algoritmi
hanno processi che sono molto efficienti e che in breve tempo conducono alla soluzione del
problema, altri invece generano processi molto meno efficienti che conducono poi alla soluzione
del medesimo problema in tempi molto lunghi. Per misurare l’efficienza di un algoritmo, non
basta quindi considerare il suo comportamento in relazione ad un input particolare, infatti un
algoritmo non da vita d un solo processo di esecuzione ma ha diversi processi di diversa
lunghezza a seconda dell’ input che gli è stato fornito.
Di regola tutti gli algoritmi corretti hanno risposte sufficientemente apice, se applicate ad
input di piccola dimensione, il problema invece nasce quando l’input diventa di grandi dimensioni,
per questa ragione nel valutare l’efficienza degli algoritmi se ne considera la complessità
computazionale, che fa riferimento al rapporto tra due termini:
 L’aumento dell’ampiezza dell’input di un algoritmo;
 L’aumento della lunghezza del processo di esecuzione dell’algoritmo stesso.
Negli algoritmi con bassa complessità computazionale, l’aumento dell’ampiezza dell’input
determina un piccolo aumento della lunghezza del processo di esecuzione, un esempio di
algoritmo con complessità molto bassa è la ricerca binaria.
Come sappiamo, ogni lettura di un nome dell’elenco, dimezza la lunghezza della lista ancora
da considerare, quindi il raddoppio dell’ampiezza dell’elenco da esaminare, richiede un
aumento minimo della lunghezza del processo di esecuzione, cioè una sola lettura in più ,
effettuata alla quale ci troviamo a considerare un elenco dimezzato.
Negli algoritmi con media complessità computazionale, la lunghezza del processo di
esecuzione cresce in proporzione all’ampiezza dell’input. Si dice che tali algoritmi hanno una
complessità lineare, per esempio, nell’esecuzionedell’algoritmo per la ricerca sequenziale in
un elenco telefonico, il raddoppio della lunghezza dell’elenco comporta in media il raddoppio
del numero dei nomi da leggere per giungere al nome cercato.
Negli algoritmi invece con alta complessità computazionale, l’aumento dell’input determina
un aumento più che proporzionale, della lunghezza dei processi di esecuzione, tanche che ad
un certo punto diventa poi impossibile eseguire l’algoritmo in un tempo ragionevole.

Lezione 3.6 – I linguaggi di programmazione

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Agli albori dell’informatica, la scelta dei programmatori era limitata. Chi volesse governare un
calcolatore doveva utilizzare direttamente il linguaggio macchina. Di conseguenza, i programmi
dovevano consistere delle sole istruzioni atomiche proprie al calcolatore impiegato (quelli a
disposizione dell’hardware di quel calcolatore). Tali istruzioni prescrivono semplici
operazioni concernenti numeri binari da poter trasferire nell’unità centrale ad un numero
registrato in una certa cella di memoria, per poi poter sommare due numeri o poterli
confrontare. Ad esempio un’istruzione di linguaggio macchina che possiamo assumere per
esprimere il comando di trasferire il dato nell’unità centrale situato all’interno della cella di
memoria è generalmente composto da un insieme di 0 e di 1 e quindi noi avremo una
concatenazione di questi due numeri che descrivono una determinata istruzione.
L’istruzione può essere analizzata In due segmenti: Il codice dell’operazione che indica
l’elaborazione da eseguire e L’indicazione dell’operando che invece è la cella di memoria
contenente il dato su cui eseguire l’operazione.
Scrivere algoritmi in questa forma è molto difficile ma allo stesso tempo richiede molto
tempo, non solo per la redazione ma anche la comprensione successiva di un programma
scritto in linguaggio macchina richiede un notevole sforzo, di conseguenza il livello di
complessità affrontabile mediante linguaggio macchina è molto basso, solo algoritmi semplici e
brevi possono essere scritti in questa forma e a ciò si aggiunge poi la dipendenza della
macchina.
Diversi calcolatori sono in grado di eseguire diverse istruzioni atomiche specificate usando
diversi codice binari. Un programma nel linguaggio macchina di un calcolatore, deve infatti
indicare solo azioni atomiche di quel calcolatore usando la corrispondente codifica, per tanto un
programma in linguaggio macchina può funzionare solo su un particolare tipo di macchina, per
eseguire la medesima elaborazione su un diverso calcolatore, sarebbe necessario riformulare il
programma, trasformandolo in una combinazione di azioni atomiche di diversi calcolatori
espressi poi con i relativi codici binari.
Il superamento dei limiti del linguaggio macchina si ottenne formulando le azioni destinate al
calcolatore in un linguaggio più facilmente comprensibile all’uomo ed affidando al calcolatore
stesso il compito di tradurre tale formulazione nel linguaggio macchina. Ovviamente il
calcolatore può esser capace di compiere tale azione solo se governato da un apposito programma
traduttore scritto proprio nel linguaggio macchina, quindi ne risulta la divisione del lavoro tra
uomo programmatore e calcolatore stesso. L’uomo predispone una formulazione di algoritmi
usando un linguaggio in base alle sue competenze, tale formulazione diventa poi l’input di un
processo computazionale eseguito dal calcolatore, seguendo poi le istruzioni di un
programma traduttore. La traduzione così ottenuta è direttamente eseguita dal calcolatore,
trattandosi poi di una formulazione algoritmica nel proprio linguaggio macchina. All’inizio la
differenza tra il programma in linguaggio macchina. È la sua rimodulazione in un testo più
comprensibile all’uomo è minima, i numeri che indicano operazioni sono sostituite da parole
che evocano l’operazione corrispondente e gli operando binari sono poi sostituiti da numeri
decimali, si ottiene coì poi un linguaggio chiamato assembler. Possiamo assumere per
esempio che l’istruzione 010100001000 lo traduca nel comando assembler ad 8, cioè il
programmatore poteva scrivere il proprio programma usando il linguaggio assembler e
affidare al calcolatore guidato dal programma il linguaggio macchina per la traduzione dell’
assembler la conversione di tale programma nel linguaggio macchina. Il passo successivo è
poi consistito nella creazione di linguaggi di alto livello che pongono una posizione intermedia
tra il linguaggio umano e il linguaggio macchina, consentendo all’uomo di esprimere in modo
sintetico ed intuitivo le istruzioni che indicano le elaborazioni da eseguire ma consentono
anche al calcolatore di tradurre poi tali istruzioni in univoche combinazioni di istruzioni del
suo linguaggio macchina. I linguaggi di alto livello sono poi indipendenti da particolari
calcolatori, il medesimo programma informatico espresso in un linguaggio di alto livello, può
esser tradotto nei diversi linguaggi macchina di diversi calcolatori, e quindi può esser
eseguito da ciascuno di quei calcolatori dopo un opportuna traduzione. Chi programma in un
linguaggio di alto livello, non deve occuparsi di specificare indirizzi di memoria nei quali
risiedono i dati da elaborare, ne deve richiedere al calcolatore di spostare o confrontare numeri
binari. Il programmatore invece crea delle caselle dette variabili nelle quali registra i dati da
elaborare e i risultati delle operazioni

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
eseguite e specifica poi le attività che verranno eseguite in certe operazioni logiche o
matematiche proprio sui contenuti di tali caselle.

Programma Java Script


Un programma scritto in un linguaggio di alto livello, non può essere eseguito direttamente
dell’hardware quindi non indica azioni atomiche dell’hardware stesso. È possibile però
tradurlo in istruzioni del linguaggio macchina che possono essere eseguite direttamente
dall’hardware. Esistono due tecniche per le traduzioni:
 La prima è quella della compilazione. Mediante la compilazione l’intero programma
formulato in un linguaggio di lato livello, coì detto codice sorgente, è trasformato in un
programma equivalente in linguaggio macchina, il codice oggetto detto anche codice
eseguibile. Possiamo quindi comparare la compilazione al lavoro del traduttore di un
testo scritto, come il traduttore una volta ricevuto il testo lo traduce e a lavoro finito
consegna l’intera traduzione, così il software che effettua la traduzione, riceve in input
l’intero programma sorgente e completata la compilazione, rilascia in output l’intero
codice oggetto corrispondente. Il risultato della compilazione, cioè il codice oggetto,
può essere registrato sul disco del calcolatore e può essere utilizzato successivamente
senza la necessità di risalire al codice sorgente.
È necessario risalire al codice sorgente ogni volta si deve intervenire sul software dopo
la compilazione, per correggerlo ad esempio eliminando gli errori che compromettono
l’inutilizzo e per modificarlo per farlo adattare a nuove esigenze.
È necessario poi accedere al codice sorgente quando si voglia capire in modo approfondito,
il funzionamento del software. Infatti chi ha accesso al solo codice oggetto non è in
grado di esaminare il contenuto logico del programma, le istruzioni di programmazione, la
loro organizzazione secondo strutture e funzioni comprensibili alla mente umana e
quindi è incapace di conoscere con precisione il funzionamento interno, di conseguenza
all’utente anche in possesso di buone competenze informatiche è preclusa la piena
comprensione delle dinamiche di funzionamento attuali e potenziali del software.
Il codice oggetto è una scatola nera, cui l’utente ha accesso solo attraverso la descrizione
contenuta nei manuali d’uso attraverso il comportamento osservabile.

 La seconda è quella dell’interpretazione.


Mediante l’interpretazione, il programma sorgente è tradotto in un linguaggio macchina,
istruzione per istruzione, con immediate, contestuale, esecuzione di ogni istruzione. A
differenza della compilazione, l’interpretazione non dà luogo ad una versione
permanente in linguaggio macchina; per eseguire nuovamente il software bisogna
interpretarlo nuovamente.
In linea di massima qualunque linguaggio di programmazione potrebbe essere tanto
interpretato quanto compilato; il principale vantaggio della compilazione è la maggiore
velocità di esecuzione del programma compilato rispetto al programma interpretato. Il
principale vantaggio dell’interpretazione attiene alla correzione e alla modifica del
programma: è possibile modificare il programma interpretato ed eseguirlo
immediatamente, così da verificare l’effetto delle modifiche apportate, mentre la
modifica del programma compilato richiede la correzione del programma sorgente e una
nuova compilazione.
Inoltre i programmi interpretabili hanno il vantaggio di poter essere eseguiti su diversi
tipi di calcolatore, grazie all’indipendenza dei linguaggi di alto livello rispetto alla
macchina. Ciascuno di quei calcolatori avrà a disposizione il proprio interprete che
tardurrà il programma nel linguaggio macchina di quel calcolatore, invece un
programma compilato, essendo espresso nel linguaggio macchina di un particolare
tipo di calcolatore, potrà funzionare solo su quel tipo di calcolatore. La compilazione
offre invece un’importanza vantaggio nella distribuzione commerciale, consentendo
quindi di separare il codice oggetto da quello sorgente.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Il produttore può scegliere di distribuire solo il codice oggetto compilato, tenendo segreto
quello sorgente, oppure di distribuire entrambi i codici a condizioni diverse.
Mantenendo segreto il sorgente il produttore impedisce a concorrenti e utenti di
riutilizzarlo, inoltre mantiene l’esclusiva sulla modifica del codice oggetto che richiede la
modifica del sorgente e una nuova compilazione, esclusiva che si aggiunge all’esclusiva
garantita del diritto d’autore. Per conciliare i vantaggi commerciali della compilazione
con l’esigenza di distribuire un’unica versione del software funzionante su ogni
macchina, si è recentemente resa la possibilità di realizzare una pre compilazione che
risulta indipendente dalla macchina e viene creata quindi una versione intermedia tra
codice sorgente e codice oggetto che come l’oggetto non è comprensibile e modificabile da
parte dell’uomo e come il sorgente può essere utilizzata su ogni tipo di macchina,
dovendosi poi ulteriormente compilare nel linguaggio macchina dello specifico calcolatore
prima di essere eseguita.

Lezione 3.7 – Lo sviluppo del software


Lo sviluppo del software è un’attività articola tra, che si svolge in fasi successive. La stesura
del programma, chiamata programmazione, rappresenta solo una di tali fasi e di regola non è
neppur la più lunga né la più costosa. La parte più importante di un progetto software è
l’analisi nella quale si indicano:gli obiettivi da realizzare ed i modi in cui raggiungerli.
Possiamo distinguere all’interno dell’analisi, il momento dell’analisi dei equidisti nella quale
interagendo con i futuri utenti, si individuano le funzioni che il sistema deve realizzare la fase
della specificazione dei requisiti, in cui si individuano con maggior precisione le
caratteristiche del software e le modalità del suo inserimento nell’organizzazione cui è
destinato.
L’analisi non si limita agli aspetti tecnologici ma investe le attività da informatizzare. Per
godere dei vantaggi d’informatizzazione, è spesso necessario ridefinire le procedure di lavoro
e le strutture organizzative, segue poi la fase di progettazione in cui si decidono le
articolazioni del software in moduli, spesso corrispondenti ad oggetti o articolazioni di soggetti e
la definizione dei rapporti tra tali moduli e a tal riguardo si parla anche di architettura del
software e le forme della loro comunicazione. In questa fase si definiscono i principali
algoritmi inerenti agli stessi moduli, esistono numerosi metodi e linguaggi per l’analisi e la
progettazione dei software.
La programmazione viene chiamata poi anche implementazione o codifica, cioè la scrittura
dei programmi che realizzano i singoli moduli. La programmazione può apparire come
l’attività principale poiché realizza il risultato operativo finale, quindi i programmi che girano
sul calcolatore, tutta via, le competenze più elevate sono destinate all’analisi e alla
progettazione, mentre la programmazione rappresenta un’attività prevalentemente esecutiva.
Infine nella fase di verifica bisognerà accertare che il software si aprivo di errori e che
risponda adeguatamente alle esigenze. In questa fase bisognerà testare il funzionamento del
programma con i diversi input e casi d’uso al fine di individuare e correggerne gli errori.
La preparazione del software viene poi completata dalla documentazione, ossia dalla stesura
dei documenti, intesi ad illustrare la struttura e il funzionamento del sistema informatico
prodotto.quei documenti non sono importanti per guidare chi utilizza il sistema ma per
agevolare il compito di chi debba intervenire successivamente su di esso per correggerne gli
errori, aggiornarlo ed estenderlo.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Il modello a cascata

Il modello così illustrato è quello tradizionale dello sviluppo a cascata. Questo modello è seguirò
nello sviluppo di molti grandi progetti nello sviluppo software.
Come indicano le linee tratteggiate in figura, bisognerà risalire la cascata se emergono problemi,
fino al livello al quale i problemi possono essere risolti in modo adeguato, se vi sono errori o
mancanze bisognerà riprogrammare le parti del software sbagliate o insufficienti. L’esigenza
di riprogrammare potrà condurre poi a mettere in discussione la progettazione, e la necessità
di riconsiderare la progettazione potrà portare a riesaminare aspetti dell’analisi.
Il modello a. A cascata presuppone che lo sviluppo del software proceda ordinatamente sulla
base di un piano globale, le cui linee direttrici vengono progressivamente specificate e attuate
avanzando ordinatamente nelle successive fasi del progetto. Tale modello, giustificato nella
misura in cui è possibile procedere in modo ordinato e coordinato, passando dal generale al
particolare, secondo assunzioni stabili e precise. Tuttavia esso espone al rischio che eventuali
errori negli assunti di partenza, rilevabili solo mediante l’esecuzione dei programmi, si
manifestino molto tardi, quando il software è ormai completo. Questo modello inoltre sembra
implicare un’organizzazione centralizzata e gerarchica e in qualche modo autoritaria del lavoro,
nella misura in cui le diverse fasi di sviluppo, in particolare la progettazione e la
programmazione, affidate a soggetti diversi, dotati di competenze decrescenti.
In alternativa al modello a cascata sono poi stati posti dei modelli di sviluppo nei quali si fa
più spazio alla sperimentazione e al decentramento e si parla al riguardo di programmazione
iterativa, in particolare nello sviluppo di progetti di software open-source, l’accento si pone sulla
collaborazione basata su iniziative autonome dei singoli più tosto che sull’organizzazione
pianificata del lavoro. Una volta che il software sia entrato in funzione, il lavoro informatico non
cessa, si entra nella fase di manutenzione, termine con cui si fa il generico riferimento agli
interventi successivi intesi a migliorare il funzionamento del software.
A riguardo si può distinguere una manutenzione correttiva che è volta a rimediare agli
errori sfuggiti nella fase di verifica, e una manutenzione integrativa che è volta ad arricchire
il software di nuove funzioni. Nella manutenzione integrativa a sua volta possiamo
distinguere le integrazioni necessarie perché il software possa svolgere a pieno le proprie
funzioni.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Componenti del software
Nel software quindi possiamo distinguere diversi componenti:
 Componente concettuale che è costituita da algoritmi e dall’architettura del software.
In quest’ambito possiamo distinguere poi le idee innovative, ossia le invenzioni
algoritmiche o di software capaci di dar luogo ad algoritmi che migliorano rispetto allo
stato dell’arte;
 Componente testuale che è costituita innanzitutto dal programma che esprime la
componente concettuale, in una forma elaborabile automaticamente. Fa parte della
componente testuale la documentazione accessoria, che ne agevola la comprensione e
facilita poi successive correzioni e perfezionamento;
 Componente materiale che è costituita dalla registrazione della componente testuale,
quindi programma e documentazione su un determinato supporto fisico, cartaceo,
informatico che può essere sia elettronico che ottico;
 Componente virtuale che è costituita dalla dinamica che risulta dal processo di
esecuzione della componente materiale, quando questa governa proprio il funzionamento
del calcolatore.

Tipologie di software
Sotto il profilo della funzione, si possono distinguere le seguenti tipologie di software:
 Software di sistema, che offrono le funzioni di base per il funzionamento del sistema
informatico. Al software di sistema appartiene ad esempio il software operativo che
sovrintende al funzionamento del calcolatore facendosi carico di attivare l’esecuzione
di programmi, di gestire il funzionamento della memoria e dei dispositivi di
memorizzazione e di offrire un’interfaccia verso l’utente;
 Software di programmazione, destinato alla realizzazione di applicazioni
informatiche, allo sviluppo di nuovi programmi e sistemi. Esso comprende l’interprete
o il compilatore necessari per rendere eseguibile il programma sorgente e inoltre vari
strumenti destinati ad agevolare la scrittura e la correzione dei programmi, a tracciare
grafici e i disegni che rappresentano le architetture;
 Software applicativo, che comprende i programmi che svolgono le funzioni di cui
l’utente ha bisogno. Questi software sono dedicati alle attività più diverse come la
preparazione dei testi, la gestione dei database, l’automazione industriale, i giochi
elettronici e la gestione di procedure amministrative.
Sotto il profilo del loro utente, i software si possono distinguere in:
 Pacchetti standardizzati, cioè destinati a rispondere alle esigenze di una vasta
cerchia di utenti e offerti ad essi in un’unica forma che ammette spesso successivi
adattamenti che possiamo definire personalizzazioni da parte dell’utente;
 Software su misura, che sono sviluppati proprio per esigenze specifiche si uno o più
clienti.

Lezione 3.8 – Lo sviluppo della programmazione software


Secondo il modello tradizionale, il calcolatore viene definito come un “inutile idiota”, il fedele
esecutore di un algoritmo concepito dall’uomo, ed espresso in un programma informatico.
Esso riceve in input il programma che esprime l’algoritmo accompagnato dai relativi dati,
esegue l’elaborazione, consegna i risultati e resta quindi in attesa di un nuovo input. Il
calcolatore si limita quindi a elaborare i dati secondo il programma e a consegnare il risultato
dell’elaborazione.
Questa caratterizzazione del calcolatore e del suo rapporto con il software non è falsa, anche
oggi resta vero che il calcolatore si limita ad elaborare dati secondo i programmi di cui esso
dispone, tutta via essa pecca per omissione, non indicando come un calcolatore possa
eseguire più programmi e come sulla base di questi programmi venga ad acquisire
competenze ulteriori rispetto a quella di eseguire le combinazioni algoritmiche specificate in
un programma,

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
competenze che conducono poi a vedere in una diversa luce, l’attività di programmazione e
quella dello stesso calcolatore.

Oggi chi si accinge a sviluppare un programma informatica non è più il pioniere che, giunto in
una terra disabitata, provvede da solo a tutte le proprie necessità , costruendo tutto ciò di cui
ha bisogno. Ormai il mondo dell’informatica è un ambiente densamente popolato, dove
coesistono numerosi prodotti software in grado di rispondere a gran parte delle esigenze e dove,
anzi, molti problemi si possono risolvere solo grazie alla cooperazione e alla coordinazione dei
sistemi informatici esistenti, usando strumenti già disponibili.
La necessità del coordinamento di componenti molteplici eterogenee si è fatta ancor maggiore
grazie ad internet, per esempio un programma destinato a operare nell’ambito del processo
telematico, dovrà coordinarsi con diversi software, tutti destinati a funzionare, in tutto o in
parte, su un’elaboratore.
L’esigenza del coordinamento, si pone anche nell’ambito di singole applicazioni informatiche,
infatti un grande sistema software è comprensibile all’uomo solo se modularizzato, ossia
suddiviso in unità indipendenti di dimensioni ridotte, padroneggiati dalla mente umana.
Il singolo programmatore, sviluppa singoli moduli di un progetto complessivo, cui
partecipano anche altri programmatori, e anche i singoli moduli risultano spesso dalla
combinazione di software preesistenti, tratti quindi da ampie raccolte di programmi dette
anche librerie software.

Lo sviluppo di un sistema software, consiste pertanto nella creazione di un ambiente nel quale
i diversi oggetti possano interagire e poi nella definizione di ciascuno di essi, specificandone
l’interfaccia verso l’esterno e i programmi con i dati che contiene. Pensiamo alla creazione di un
videogioco: il programmatore, oltre a creare il personaggio del videogioco, ha specificato le
diverse classi di personaggi che partecipano al gioco, ciascuna delle quali è caratterizzato da
certe regole di comportamento, in funzione dei messaggi che può ricevere da altri oggetti (ad
esempio i colpi ricevuti, premi vinti) e dotata di certi attributi (ad esempio il numero di colpi a
disposizione, il livello di potenza ecc.).
I metodi di cui un oggetto è dotato e i suoi attributi, sono quelli associati alla classe che gli
riguarda , ma i diversi oggetti della stessa classe, possono avere diversi valori per i propri
attributi, per esempio, diversi personaggi di uno stesso tipo potranno aver ricevuto un
diverso numero di colpi o aver accumulato un diverso numero di vite.
Lo stesso utente del sistema una volta che abbia inserito i propri dati, può essere
rappresentato da un oggetto del sistema, i cui attributi sono associati valori corrispondenti ai
dati dell’utente. Quando il comportamento dell’oggetto che rappresenta l’utente è controllato
interattivamente dall’utente stesso, si dice che esso ne costituisce l’AVATAR ossia il corpo
virtuale. Gli avatar sono usati in particolare nei videogiochi e nei sistemi per la realtà virtuale
nei quali sono raffigurati come icone che possono essere bi o tridimensionali capaci di
movimento. Ovviamente dobbiamo sempre ricordare che il calcolatore resta un fedele esecutore di
istruzioni, espresse nel suo linguaggio macchina anche quando esso anima un sistema
informatico consistente di molteplici oggetti di interazione. L’esecuzione di tali istruzioni
determina il comportamento degli oggetti e la dinamica dell’interazione tra gli oggetti.
Negli ultimi anni si parla del passaggio di un’architettura basata sugli oggetti ad una basata su
servizi, e potremmo caratterizzare quest’evoluzione mediante la metafora “l’oggetto software da
lavoratore dipendente che esplica la sua funzione all’interno dell’impresa nella quale opera e
nella quale è stato formato, si trasformi in lavoratore autonomo, che svolge un certo servizio per
chiunque lo richieda” , ciò implica che l’oggetto software anziché essere racchiuso nell’ambito
di un particolare sistema, dovrà esser capace di interagire con qualsiasi persona ne richieda il
servizio o secondo convenzioni condivise. L’oggetto software diventa quindi il fornitore di un
servizio, servizio che deve esser ben definito e suscettibile di esser fornito in modo
indipendente.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Modulo 8
Lezione 8.1 – L’evoluzione di internet: La rete ARPANet
LA formazione di internet si è compiuta nell’arco di pochissimi anni. Internet ha infatti
determinato l’accelerazione delle dinamiche economiche e sociali, ma ha innanzitutto
applicato tale accelerazione a se stessa; ogni tecnologia, conoscenza o esperienza inerente alla
rete si è immediatamente diffusa attraverso la rete, diventando subito la base per nuove
conoscenze ed esperienze, anch’esse suscettibili di immediata diffusione e quindi di fornire la
premessa di ulteriori progressi.
Gli inizi degli studi che diedero origini e ad internet possono ravvisarvi in alcune ricerche
avviate negli anni ’60, nelle quali emerse l’idea del collegamento di calcolatori a rete. Fino a
quel tempo i calcolatori venivano collegati tramite cavi a terminali privi di capacità autonoma
di elaborazione. Dai terminati collegati ad un calcolatore, gli utenti potevano accedere
solamente a quel calcolatore. Mediante la creazione di reti di calcolatori, ci si proponeva di far
si che il singolo utente potesse accedere a più calcolatori, non solo a quello collegato al suo
terminale e che si potessero compiere elaborazioni distribuite che integrassero risorse residenti
poi su diversi calcolatori.
Una rete poi poteva limitarsi a pochi calcolatori, destinati a particolari funzioni o a specifici
gruppi di utilizzatori, ma poteva anche estendersi ad abbracciare un numero ampio e
potenzialmente illimitato di nodi.
Già nel 1962 Licklider dell’MIT, aveva elaborato il concetto di una rete galattica di calcolatori
attraverso la quale chiunque potesse accedere a dati o programmi collocati in qualsiasi parte
del mondo e aveva anteceduto ciò che nel 2000 milioni di persone avrebbero utilizzato, ossia una
rete di questo tipo. Licklider con il tempo è diventato il direttore dell’ufficio competente per le
tecnologie dell’informazione all’ARPA, un’ente afferente al dipartimento della difesa degli Stati
Uniti a cui era affidato lo sviluppo di tecnologie di interesse militare. Proprio questo ufficio ha
sviluppato le idee di Licklider dando avvio allo sviluppo di ARPANet, la rete progenitrice di
internet.

Reticolo di nodi

Considerando questo reticolo di nodi, anche se il collegamento diretto tra due nodi, ad
esempio B ed È , venisse ad interrompersi, tutti i nodi resterebbero accessibili utilizzando
diversi collegamenti, ad esempio un messaggio potrebbe viaggiare da B ad E seguendo il
cammino B A C E oppure il cammino B D G E, allo stesso modo se un nodo dovesse
scomparire, ad esempio quello B, tutti gli altri nodi rimarrebbero in comunicazione.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Si afferma spesso che l’origine di ARPANet sia stato per un obiettivo militare, ossia consentire
l’accesso a risorse informatiche anche nell’ipotesi in cui uno o più elaboratori o collegamenti,
fossero divenuti inutilizzabili in seguito ad un attacco nucleare, ma secondo il direttore di
ARPANet, quest’ultima non nacque da esigenze miliari ma risultò dalla nostra frustrazione di
fronte al fatto che c’era nel paese solo un numero limitato di calcolatori potenti da utilizzare
nella ricerca e che molti ricercatore avrebbero dovuto accedere ad essi e ne erano poi
geograficamente separati.

Le origini: la rete ARPANet


ARPANet adottava la tecnica della commutazione a pacchetti, un nuovo modo di utilizzare le
linee di comunicazione, che rappresentava un fondamentale progresso rispetto alle tecnologie
adottata e in precedenza. L’ordinanza rete telefonica utilizza la tecnica della commutazione di
linea, cioè una linea telefonica che resta a disposizione della sola comunicazione tra i due telefoni
collegati, per tutta la durata della chiamata. In questo modo le capacità della linea sono
sfruttate poco, solo per i soli dati inviati nel corso della chiamata, ossia le parole pronunciate
dalle due persone o i dato inviati mediante un modem su linea telefonica.
La tecnica della commutazione a pacchetti consente invece di utilizzare una linea per più
comunicazioni contemporanee, questo risultato si ottiene suddividendo ogni messaggio in
pacchetti, unità quindi di lunghezza fissa che contengono oltre ad una porzione del messaggio,
le indicazioni necessarie per indirizzare il pacchetto a destinazione. Quanto tutti i pacchetti
sono giunti a destinazione il messaggio è ricomposto riunendo i pacchetti nell’ordine
appropriato. Perché un messaggio suddiviso in pacchetti possa viaggiare dal punto di invio al
punto di destinazione e poi essere ricostruito nella sua integrità , bisogna che ogni pacchetto
contenga le indicazioni necessarie e in particolare l’indicazione del punto di arrivo desiderato,
ma anche la posizione del pacchetto rispetto agli altri pacchetti componenti il messaggio e
informazioni di controllo, mediante le quali verificare ad esempio l’integrità del messaggio.
Queste indicazioni devono essere specificate in modo tale da essere decifrabili automaticamente,
esse sono di regola incluse in intestazioni chiamate header che formano la prima parte del
pacchetto, prevedendo la porzione del messaggio collocata nel acchetato stesso. I pacchetti
che viaggiano su internet vengono chiamati datagrammi e affinché tali indicazioni possano
essere decifrate automaticamente bel punto di arrivo, è necessario che esse siano specifichiate
secondo regole comuni, applicate sia da parte del software mittente, sia dal software
ricevente.

Lezione 8.3 – I protocollo TCP-IP


ARPANet adottava la tecnologia della commutazione a pacchetti, ma era ancora una singola
rete. Lo sviluppo di internet richiedeva che si sviluppasse un modello di “architettura di rete
aperta”, cioè di una meta-architettura che consentisse il collegamento tra reti diverse,
ciascuna delle quali potesse rimanere autonoma nelle proprie scente organizzative e
tecnologiche.
Nei primi anni ’70 furono definiti con il contributo di numerosi studiosi, i protocolli fondamentali
di internet chiamati TCP-IP, poiché gli ermeneuti principali di tale combinazione di protocolli
sono le seguenti:
 Il protocollo TCP che regola lo scambio, invio e ricezione dei pacchetti ;
 Il protocollo IP che riguarda invece l’indirizzamento dei pacchetti nella rete
I protocolli TCP-IP sono uno strumento tecnico, ma includono una determinata filosofia
tecnologia cui si associano importanti implicazioni anche politiche e sociali. L’idea fondamentale
è quella di ridurre al minimo le operazioni che dve compiere una rete e in particolare una
Meta rete deputata a collegare reti distinte, affidando a tutte le attività importanti ai punti
terminali della rete stessa e quindi al calcolatore del mittente e a quello del destinatario. Le
apparecchiature che governano il traffico della rete si limitano a far avanzare i pacchetti verso
la loro destinazione. Si tratta di una scelta che risponde innanzitutto ad imperativi tecnologici,
in questo modo, la funzione delle apparecchiature della rete viene semplificata e la rete acquista
una maggiore efficienza, tale scelta però ha alcune ulteriori implicazioni tecnologiche,
economiche e sociali.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
I protocolli TCP-IP definiscono un’infrastruttura computazionale dove ogni messaggio può
viaggiare ad ogni nodo e ad ogni altro nodo, senza controlli intermedi. Ogni messaggio, sia
esso un rapporto tecnico, un brano musicale, un disegno o un programma, è suddiviso in
pacchetti di BIT, del cui contenuto la rete non si occupa. Ognuno di questi pacchetti è
racchiudo in una busta digitare, costruita secondo il protocollo IP che riporta tutte le
informazioni necessarie per trasmettere il pacchetto alla sua destinazione; I pacchetti viaggiano
spostandosi di nodo in nodo, seguendo cammini non prestabiliti, inoltre il percorso di un
pacchetto è determinato dalle condizioni del traffico sulla rete perché essendo i pacchetti
diretti secondo algoritmi che ottimizzano l’utilizzazione della rete evitandone poi la
congestione.
La trasmissione di un pacchetto dal nodo al successivo è compiuta da calcolatori chiamati
Gateway o router, i quali si limitano a ricevere il pacchetto inviato dal nodo precedente e ad
inviarlo verso un nodo più vicino alla destinazione o comunque più conveniente per
raggiungerlo. Solo quando i pacchetti giungono al calcolatore di destinazione le buste digitali
sono aperte e i pacchetti sono riuniti e controllati, per verificare se ci sono stati errori di
trasmissione o se sia necessario richiedere la ritrasmissione di pacchetti difettosi e se il
messaggio sia accettabile da parte del destinatario.

Questa indifferenza rispetto ai contenuti veicolanti costituisce la neutralità della rete, che
rappresenta innanzitutto un’importanza garanzia di innovazione decentrata: la rete può
essere usata per qualsiasi nuova soluzione tecnologica o nuovo modello economico, la sua
organizzazione non impone vincoli agli utenti. La neutralità della rete ha inoltre implicazioni
sociali e politiche: comporta l’assenza discriminazioni rispetto al contenuto del messaggio
veicolato e rispetto alla natura del mittente.
Tale neutralità verrebbe meno qualora la rete fosse predisposta in modo da dare precedenza ai
messaggi forniti da certe categorie di mittenti. La neutralità della rete inoltre non esclude che
la trasmissione di certi contenuti sia vietata dal diritto, ne che certi messaggi siano eliminati al
punto di arrivo, come quando si adottavano filtri anti spamming; Essa esclude però che
l’attuazione dei divieti giuridici o delle preferenze di certi utenti possa essere affidata alla rete
stessa. Recentemente autorevoli voci, oltre a rappresentati dell’industria delle
telecomunicazioni e anche alcuni studiosi importanti, hanno affermato la necessità di voler
superare la neutralità della rete, offrendo a pagamento condizioni preferenziali, una maggiore
velocità , ai pacchetti che presentano certe caratteristiche, inviati da certi fornitori di
informazioni contenenti determinati contenuti destinati a determinati utenti. Si otterrebbero
così risorse che potrebbero essere utilizzate per potenziare le infrastrutture di internet, di
conseguenza si dice anche che grazie all’abbandono della neutralità della rete, si otterrebbe un
miglioramento di pareto, cioè si passerebbe dalla situazione è attuale nella quale tutti si devono
accontentare di un servizio modesto, ad una nuova situazione nella quale alcuni (chi è disposto
a pagare) potrebbero ottenere un servizio migliore senza peggiorare il servizio offerto agli altri,
o forse quest’ultimo potrebbe migliorare in seguito al grande potenziamento delle infrastrutture
reso possibile dai nuovi investimenti.
Molte autorevoli voci sono contrarie all’abbandono della neutralità della rete, si teme che ciò
comporterebbe gravi pericoli per lo sviluppo di internet e per l’economia della rete, potrebbe
comportare un peggioramento del servizio per chi non può pagare il prezzo richiesto per
prestazioni superiori a pagamento, potrebbe condurre a violazioni della concorrenza, potrebbe
anche mettere a rischio la stessa creatività di internet, inoltre si teme che l’abbandono della
neutralità della rete metterebbe a rischio la libertà di espressione e la democrazia su internet.

La nascita delle reti di internet


La TCP-IP si propone di governare non solo la comunicazione all’interno di una rete, ma anche
la comunicazione tra reti eterogenee. I messaggi che viaggiano all’interno di una rete, una volta
uniformati al protocollo TCP-IP possono essere trasmessi ad altre reti. Emerge quindi la
possibilità della formazione di una rete di reti, che non aspira a eliminare o sostituire le altre
reti, ma ad accoglierle al suo interno e anzi a far emergere il loro collegamento.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Una cosa importante nello sviluppo di internet fu la creazione di una connessione ad altissima
velocità , dove potevano collegarsi le reti esistenti, prima quelle non commerciali e poi a
partire dal ’92 anche quelle utilizzate da operatori commerciali. Internet venne cosi ad
assumere progressivamente l’attuale configurazione a più livelli, nella quale le reti locali sono
connesse a reti di ampia dimensione che vanno a compire ampie aree geografiche e attività , le
quali sono connesse alle grandi infrastrutture dette dorsali per i collegamenti
intercontinentali. I calcolatori collegati ad internet continuano a far parte di reti locali,
impiegate per collegare calcolatori collocati in aree di ridotta dimensione e soprattutto per
consentire a più calcolatori di condividere i dispositivi di input e output, come la stampante, il
monitor e in una rete locali alcuni calcolatori, assumono il compito di offrire certe prestazioni,
quindi l’accesso al database, al software e gli altri calcolatori della rete diventano loro clienti.
I calcolatori della rete locale possono però diventare client anche di calcolatori esterni alla rete,
collegandosi ad essi tramite internet; all’interno della rete locale i calcolatori possono continuare
ad utilizzare un protocollo diverso dalla TCP-IP ed il loro router/Gateway che collega la
rete locale ad internet si occuperà delle necessarie conversioni.
Il protocollo delle TCP è frequentemente adottato anche nelle reti locali, di conseguenza le reti
locali diventano delle piccole internet chiamate intranet il cui uso è riservato propri agli
utenti della rete locale

I protocolli TCP-IP assicurano due funzioni fondamentali, quella dell’indirizzamento in rete e


del trasporto dei messaggi. I messaggi che viaggiano attraverso internet sono però destinati a
svolgere funzioni determinate, connesse con particolari applicazioni (i servizi di rete: la posta
elettronica, l’accesso a pagine web, la chat, la telefonia su internet ecc.), attive sui calcolatori
connessi.
Quei messaggi dovranno contenere le informazioni necessarie per la particolare applicazione
in cui afferiscono e i calcolatori devono trattarli nel modo richiesto da tale applicazione, anche
se essi utilizzano per quell’applicazione software diversi da quelli da quello impiegato dal
calcolatore mittente.inoltre i messaggi, devono comprimere un tratto sulle linee telefoniche sulla
rete locale, essi quindi prima di affrontare quei tratti devono essere ampliati con le indicazioni
necessarie al tal fine.si possono quindi distinguere 5 strati nell’architettura di internet:
 Strato dell’applicazione
 Strato del trasporto
 Strato della rete
 Strato del collegamento dati
 Strato fisico
Gli strati più importanti per il funzionamento di internet è quello del trasporto, definito dal
protocollo TCP, e lo strato della rete definito dal protocollo IP.

Lezione 8.4 – Le culture di


internet Le culture di internet
L’adozione dei protocolli TCP-IP favorisce la libera circolazione delle informazioni, all’insegna
della neutralità della rete rispetto ai contenuti veicolanti. La mancanza di controlli intermedi
significa che la rete, fin dal suo inizio, ha avuto la propensione a diventare un mezzo di
comunicazione globale, rispetto al quale luoghi fisici e confini geografici sono irrilevanti.
L’apertura e la neutralità dell’’architettura di internet sono stati fattori decisivi nel
promuovere sviluppi nuovi e inattesi.
Grazie ad essi, gli utenti di internet, hanno tolto concepire e realizzare, applicazioni originali,
sono così emersi i principali servizi della rete, dalla posta elettronica alla ragnatela globale.
Internet è così potuto diventare il luogo dove coesistono e comunicano diverse culture.
Quattro principali ispirazioni ideali hanno contribuito a formare la rete:
 La cultura tecnico-meritocratica che è caratterizzata dai valori della tecnologia,
della competenza, della condivisione e della conoscenza;

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
 La cultura hacker che unisce ai valori tecnico meritocratici gli aspetti della creatività
e cooperazione;
 La cultura virtual comunitaria caratterizzata dai valori della libertà di
comunicazione;
 La cultura imprenditoriale;

Queste diverse anime sono potute coesistere e hanno potuto comunicare grazie alla condivisione
dei protocolli e più in generale degli standard di internet, ma anche grazie al fatto che
l’architettura della rete ne ha fin ora garantito la collettività .
Agli inizi quando internet era utilizzato da un numero illimitato di persone, spesso implicate
nella sua costruzione, le componenti tecnico meritocratiche e hacker erano le principali
ispiratrici della rete. Internet appariva ai suoi primi utilizzatori, soprattutto studiosi di
informatica o sviluppatori software, come un ambiente aperto, a possibilità inesplorate di
azione, interazione e cooperazione.

Gli hacker
Si noti che il termine hacker è spesso usato per denotare chi si introduce in sistemi
informatici altri contro contro la volontà del titolare del sistema, in particolare al fine di
accedere a informazioni riservate o di compromettere il funzionamento del sistema. La
cultura hacker rifiuta però tale accezione e identifica invece gli hacker in chi si rapporta in
modo liberatorio creativo e inventivo all’informatica
L’hacker è insofferente rispetto alle restrizioni, alla sua libertà informatica ma non intende far
un’isola digitale di tale libertà in modo malevolo, anche quando accede a sistemi informatici
superandone le misure di protezione.
Gli hacker riservono il termine cracker a chi invece danneggia il funzionamento dei sistemi o
comunque opera nel mondo dell’informatica in modo distruttivo o asociale.

Grazie ad internet le persone che condividevano gli stesso interessi, potevano coltivarli insieme,
si parla quindi di individualismo collegato in rete per indicare questa particolare attitudine
che condurre alla costruzione di comunità settoriale, potremmo dire che all’un9ca comunità
di internet nascente si sostituisce la frammentazione in un insieme di comunità rivolte ad interessi
particolari.
L’idea della condivisione non è però sparita, in particolare si estende aldilà del software verso
altre forme di creatività intellettuale, infatti internet unita agli sviluppi di altre tecnologie
informatiche comporta una drastica riduzione dei costi legati alla produzione e alla
distribuzione dell’informazione, ciò ha consentito ad individui e gruppi di contribuire
attivamente alla creazione di opere dell’ingegno, anziché limitarsi ad accedere ai contenuti
disponibili in rete per indicare questa nuova dimensione di internet enfatizzando la novità
rappresentata dal contributo creativo degli utenti, si usa per questo il termine WEB 2.0. Da
qui quindi sono nate nuove forme di collaborazione distribuita che hanno esteso a nuovi
ambiti il modello del software open source e si consideri in particolare il progetto di
Wikipedia che ha condotto in poco tempo alla creazione cooperativa di un enciclopedia enorme
di elevata qualità , liberamente e gratuitamente, accessibile a tutti.
Il dubbio però è che sono state le attività commerciali a caratterizzare maggiormente lo
spirito di internet negli ultimi anni, e proprio in questo campo è possibile ravvisarne una
duplice dialettica, in quanto da un lato internet ha rivoluzionato molte attività produttive e
commerciali, consentendone l’articolazione su scala globale, e modificandone profondamente lo
svolgimento (i rapporti con clienti e fornitori, le strutture interne alle aziende ecc.). Si tratta di
un cambiamento che va ben al di là del commercio elettronico in senso stretto (uso di internet
come mezzo di comunicazione tra clienti e commercianti). D’altro lato le attività economiche
hanno modificato profondamente internet che si è arricchito di spazi dedicati all’attività
commerciale come ad esempio la pubblicità , negozi e centri commerciali, caratterizzati da nuovi
prodotti, come le opere in formato digitale, nuove forme di distribuzione ossia lo
scaricamento

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
di opere letterarie brani e musicali e poi infine l’uso di misure tecnologiche e di protezione e le
nuove tecniche di commercio.
L’ingresso del commercio nella rete ha comportato indubbiamente degli aspetti positivi,
contribuendo anche alla crescita economica generale ed offendo nuove opportunità sia agli
operatori economici che ai consumatori. Inoltre lo sviluppo delle applicazioni commerciali ha
contribuito a fare della rete, uno strumento accessibile e utile anche per milioni di utilizzatori
non professionali.
Nel valutare l’importanza economica e sociale di internet bisogna considerare che. Questo non
si limita alla rete di superficie, cioè i documenti visibili a tutti in quanto indicizzati dai motori
idi ricerca. La rete di superficie è accompagnata da una più vasta rete profonda, la DIPNET,
che ospita servizi di diverso tipo ad accesso limitato come la posta elettronica, servizi bancari
online, la fornitura dei contenuti digitali a pagamento. All’interno della rete profonda
possiamo poi distinguere una rete oscura che include poi reti e servizi delle quali delle quali si
può accedere solo mediante software specifici che poi poi intesi a proteggere la segretezza
dell’identità dei partecipanti dalle loro operazioni e dalle operazioni che loro vanno a compiere.
Le reti oscure hanno delle finalità lecite e illecite, quindi consentire una libera discussione e
iniziativa su temi privati, politici e sociali a riparo da regimi oppressivi o comunque da
sguardi indiscreti, come anche progettare e organizzare le iniziative di hacking benevole o
malevole per poi condividere poi illegalmente contenuti protetti dal diritto d’autore,
scambiare contenuti e dati o anche acquisire beni e servizi di natura illegale.

Lezione 8.5 – Gli standard della


rete Gli standard
I protocolli TCP-IP rappresentano il primo livello di un fenomeno più ampio di grande
interesse non solo per l’informatica ma anche per il diritto: l’emergere di standard condivisi
per la comunicazione informatica; standard quindi capaci di imporsi universalmente anche
senza statuizioni autocitati e e imposizioni coercitive.
Gli standard di internet sono quindi caratterizzati nel modo seguente: uno standard di internet
è una specificazione che è stabile, è ben compresa, è tecnicamente competente, ha
implementazioni multiple, indipendenti e interoperabili con esperienze operative sostanziali,
gode di un sostegno pubblico significativo ed è riconoscibilmente utile in alcune o tutte le parti
di internet.
Uno standard di internet può riguardare i più diversi aspetti, la formazione di pacchetti e il
dialogo tra sistemi, particolari tipi di applicazioni come la posta elettronica, il formato dei
documenti.
Il processo della formazione di uno standard consiste in una fase preparatoria, seguita
dall’adozione da parte dell’ente competente quindi della comunicazione. La fase preparatoria si
sviluppa in diversi stadi dei quali le successive versioni dello standard via via, vengono
sottoposte all’esame critico della comunità di internet e al giudizio di organi tecnici, cui compete
valutare se lo standard abbia poi raggiunto la maturità necessaria per passare allo stadio
successivo. I documenti che riportano le versioni dello standard sono pubblici e si chiamano
“richieste di commenti”; con la sua pubblicazione lo standard è proposto agli sviluppatori di
software di internet che potranno adottare lo standard per la creazione di nuovi software.
L’adozione dello standard è volontaria, cioè non vi sono sanzioni per chi decide di dissociarsi,
ma tutta via è necessari; essa si basa sul valore tecnico dello standard ma ancor più
sull’aspettativa che esso, in forza della sua adozione quale standard di internet, sarà seguito
generalmente da un numero sufficientemente ampio di sviluppatori ed utenti. La vincolatività
degli standard risulta infatti dalla circostanza che ciascuno ha bisogno di adottare
comportamenti coerenti con i comportamenti e le aspettative altrui, al fine di poter partecipare
alla comunicazione e all’interazione, ma se il mio software non corrisponde allo standard, ossia
non invia messaggi codificandoli secondo lo standard e non interpreta corrispondentemente i
messaggi in arrivo, sarò io stesso a soffrirne essendo poi incapace di comunicare in rete,
all’opposto la mia adozione dello standard sarà tanto più fruttuosa quante più persone utilizzano
ed utilizzeranno quello stesso standard; la diffusione dello standard si basa quindi sull’effetto

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
di rete e ciò che spinge un individuo ad adottare uno standard, non è il valore dello standard
quale scelta sociale, ossia il vantaggio che esso fornirebbe alla società se fosse adottato da
tutti rispetto ad altri possibili standard, la scelta individuale di seguire un certo standard è
invece giustificata dal vantaggio che il singolo utente trae dal fatto che lo standard sia, o dall’
aspettativa che sarà , universalmente adottato, per tanto il potere reale è nelle mani di coloro
che mediante la propria scelta di promuovere uno standard, sono capaci di renderlo saliente per
tutti, cioè che ciascuno si aspetti che tutti lo seguiranno. L’abilità di dotare la salienza, fornisce
poi un potere che non richiede sanzioni giuridiche o morali, ma l’interesse personale è sufficiente
a condurre gli individui a convergere poi su standard salienti, tutta via, questo meccanismo
rende possibile la contraddizione tra realtà collettiva e razionalità individuale. La realtà
collettiva richiederebbe che tutti gli utilizzatori adottassero congiuntamente lo standard
ottimale, quello che condurrebbe maggiori vantaggi se adottato da tutti, mente la razionalità
individuale esige che ciascuno segua qualsiasi standard ed egli preveda che sarà adottato
sarà a adottato dagli altri a prescindere dal suo valore comparativo. Fin ora la corrispondenza
tra realtà collettiva e razionalità individuale, è stata in buona misura assicurata dai modi nei
quali la comunità di internet è giunta a formulare i propri standard ed in particolare i
protocolli. L’adozione di uno standard deriva dalla sua approvazione da parte di comitati, di
esperti, sulla base disella validità tecnica dello standard stesso, avendo riguardo allo scopo
condivido di comunicare e allo stesso modo condividere risorse sulla rete. La decisione del
comitato competente rende lo standard adottato, saliente per tutta la comunità di internet,
ogni sviluppatore quindi è indotto ad adottarlo nell’aspettativa che gli altri sviluppatori
faranno lo stesso.

Il processo di standardizzazione
Il processo dello standardizzazione ha finora garantito l’allineamento tra la qualità dello
standard e la sua “salienza”, tra la razionalità collettiva dell’adozione dello standard e la
razionalità individuale della scelta di confermarsi a esso.
Molti ritengono, però che tale allineamento diventi progressivamente più difficile, in seguito
ai crescere degli interessi economici e politici implicati nel funzionamento di internet. La
comunità di internet si sta pertanto interrogando su come assicurare, anche in futuro, la
qualità e l’imparzialità delle scelte riguardanti internet, garantendone l’eccellenza tecnologica
e proteggendole dalla pressione degli interessi particolari, sia economici che politici.
Le opinioni al riguardo sono assai diverse, c’è chi ritiene che internet una volta divenuta
risorsa essenziale allo sviluppo della comunità non possa sfuggire ad un controllo politico
facente capo agli stati nazionali e alle comunità internazionali, altri invece ritengo lo che solo
mantenendosi separata rispetto alle istituzioni politiche, anche a livello internazionale,
internet possa conservare la propria eccellenza tecnologica e la propria imparzialità ; quindi
l’idea del controllo su internet da parte della comunità internazionale, è stata poi discussa su
iniziativa delle Nazioni Unite, nell’ambito degli incontri del vertice mondiale sulla società
dell’informazione, tenutasi a Ginevra nel 2003 e successivamente a Tunisi nel 2005.

Norme sociali e norme giuridiche


Accanto alla “Normativa” convenzionale degli standard (gli standard non sono norme in senso
stretto, poiché la loro efficacia si basa sull’interesse individuale ad adottare comportamenti
coerenti con i comportamenti altrui), la comunità di internet ha prodotto anche norme in
senso stretto. Si tratta cioè di credenze condivise che certi modelli di comportamento
debbano essere egoisti da ogni singolo membro di una comunità , nell’interesse della comunità
stessa o per raggiungere scopi comuni ai suoi membri, anche se quando il comportamento
prescritto sia contrario all’interesse particolare del singolo.
Tali normative sono solitamente combinate a sanzioni informali, consistenti nel giudizio
negativo della comunità interessata, un giudizio che può condurre nei casi più seri alla
stigmatizzazione o anche all’espulsione di chi va a violare questa norma. Questo tipo di
normativa si trova per esempio nelle regole di etichetta, ossia la buona educazione della rete,
così come quelle che prescrivono di non inviare pubblicità a gruppi di discussione o di non

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
partecipare a scambi pubblici di espressioni offensive. La combinazione di protocolli
convenzionali e di regole sociali è stata poi sufficiente per governare internet ai suoi inizi.
L’autodeterminazione proprietaria era limitata dalle regole del funzionamento della rete, il
proprietario di un calcolatore era libero di decidere se impiegarlo al fornitori di servizi di rete
così come i titolare di un’opera dell’ingegno era libero di scegliere se renderla accessibile in rete.
Tutta via una volta effettuata questa scelta il calcolatore e i suoi contenuti erano resi
disponibili sulla rete e quindi diventava difficile limitare l’accesso agli elaboratori e alla
circolazione delle opere stesse; negli ultimi anni in seguito alla crescita dell’importanza
sociale ed economica di internet e al crescente peso degli interessi economici, sociali e politici
in gioco, la normatività spontanea di internet, è stata poi affiancata da norme giuridiche.

Il cyber spazio, rappresenta la nuova casa della mente ed è dotato di una propria struttura,
etica, di un codice non scritto che fornisce più rodine di quanto possa essere realizzato dalle
imposizioni del governo, per tanto non ha bisogno della politica e del diritto, è capace di
autoregolarsi e di risolvere da solo i propri conflitti con i propri metodi.
Le modalità di funzionamento dei sistemi informatici della rete infatti, determinano quali
comportamenti siano possibili e quali impossibili, ad esempio se si possono prelevare certi
documenti, partecipare a certe discussioni, quali azioni siano osservate e registrate e quali
azioni restano invece anonime e non lasciano traccia, ad esempio se rimanga traccia della
email che abbiamo inviato o delle nostre interazioni con certi siti e così via.

Lezione 8.6 – I nomi di dominio


Secondo i protocolli TCP.IP, ogni calcolatore della rete è identificato da un numero della
lunghezza di 4 byte, l’indirizzo è solitamente tale numero che esprime in una forma più
facilmente leggibile e memorizzabile, convertendo poi ogni byte in un numero decimale.

Come possiamo vedere nella precedente foto, le prime cifre del numero identificano la rete in
cui il calcolatore afferisce, mentre le ultime cifre identificano un particolare calcolatore
all’interno di quella rete.
Un calcolatore può avere un proprio indirizzo IP permanente, è così per i calcolatori
permanentemente collegati alla stessa rete o può ricevere ogni volta che si collega in rete, un
diverso IP temporaneo che torna poi disponibile dopo il collegamento e può essere assegnato ad
un nuovo utente, e questo è il caso dei calcolatori che utilizzano internet mediante collegamento
telefonico via radio. È sempre possibile individuare l’indirizzo, utilizzando il sistema in base al
quale è stata compiuta una certa operazione in rete, come ad esempio lo scaricamento di un
file, l’invio di un messaggio di posta. Ciò può consentire in. Molti casi per esempio nell’ambito
di una indagine di polizia, l’individuazione della persona che ha compiuto quella particolare
operazione.
L’assegnazione di un particolare indirizzo IP, è un operazione di solito controversa, cioè un
numero vale l’altro e al richiedente è assegnato il primo numero libero tra quelli disponibili nella
rete a cui egli afferisce.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Già dall’inizio degli anni ’80 si ravvisò l’esigenza di utilizzare un diverso sistema di
riferimento che usasse degli identificatori più facilmente memorizzabili e tali da richiamare la
funzione svolta mediante un certo sito o l’identità del suo titolare e nacquero così i nomi di
dominio.

I nomi di dominio

Come si può vedere nelle foto, un nome di dominio si costruisce combinando più parole separate
da punti. Nell’analisi del nome si parte dalla fine, cioè l’ultima parola è un suffisso che indica la
nazionalità dell’ente cui il nome appartiene o il tipo di attività svolto dall’ente stesso, nel caso
di un nome privo di suffisso nazionale (gov per gli enti afferenti a una pubblica amministrazione,
org per gli enti senza scopo di lucro, com per gli enti commerciali, ecc.).
Tale suffisso è preceduta da una parola che solitamente indica l’ente cui fa capo il dominio che
può essere ancora preceduta da ulteriori specificazioni, qual’ ora il dominio afferisca una
ripartizione all’interno di quell’ente.
Un nome di dominio identifica quindi un dominio, cioè un gruppo di indirizzi per identificare poi
un particolare calcolatore appartenente a quel dominio. Bisogna poi anteporre al nome di
dominio un ulteriore specificazione, ossia il nome dell’host, il calcolatore collegato ad internet
che desideriamo contattare, aggiungendo al nome di dominio il particolare nome dell’host che lo
contraddistingue all’interno del dominio, il calcolatore in cui voliamo fare riferimento, otteniamo
poi il nome di dominio completamente qualificato che identifica quel particolare calcolare, per
esempio ad esempio aggiungendo l’host nome Mozart al nome di dominio “giuri.unibo.it” ottengo
il nome di dominio completamente qualificato.
Aggiungendo ad un nome di dominio completamente qualificato il prefisso “www”, richiamiamo
il servizio web svolto da quel calcolatore ad esempio www.Mozart.giuri.unibo.it così come
aggiungendo il prefisso andiamo a richiamare il servizio di posta elettronica, premettendo il
nome di un servizio direttamente al dominio cioè digitando ad esempio “giuri.unibo.it, ci
colleghiamo poi al calcolatore deputato a svolgere quel servizio all’interno del dominio, esiste
quindi un infrastruttura chiamata sistema dei nomi di dominio, che si occupa proprio di tradurre
i nomi di dominio completamente qualificato in indirizzi IP, e tale infrastruttura consta di una
rete di calcolatori, i server DSN, i quali fungono da elenco telefonico di internet, quando il nostro
browser deve accedere ad un calcolatore di cui abbiamo indicato il nome di dominio; esso quindi
invia il nome di dominio ad un server DNS che risponde inviando il corrispondente indirizzo
IP. L’innovazione consistente nell’ affiancare i nomi di dominio agli indirizzi IP numerici ad un
rilievo tecnologico limitato, cioè si tratta delle creazione gestione di un elenco
utilizzataautomaticamente, ma ha un grande impatto giuridico e sociale, impatto che poi
evidenza i problemi causati dall’estensione di internet alle attività economiche. Tale
estensione ha condotto alla perdita dell’innocenza della rete, quindi come luogo di pacifica e
produttiva collaborazione, e alla sua omologazione al mondo fisico.
I nomi di dominio sono diventati presto oggetti di controversi che hanno evidenziato attitudini
ben diverse rispetto allo spirito cooperativo delle origini di internet.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
I protocolli delle operazioni internet
Sopra ai protocolli TCP e IP, esistono numerosi protocolli di internet, destinati a fornire funzioni
ulteriori. Tre protocolli che hanno avuto particolare importanza nella storia di internet,
contribuendo in modo decisivo alla sua diffusione sono:
 Protocollo TELNET, che consiste nell’interagire con un calcolatore remoto nello
stesso modo in cui si opererebbe da un terminale dotato di video e tastiera, collegato al
calcolatore remoto mediante cavo;
 Protocollo FTP, che consente di scambiare e manipolare i file, chi utilizza questo
protocollo accede al sistema di file del calcolatore remoto e può anche prelevare o
depositar file, cancellarli e creare nuove cartelle;
 Protocollo SMTP, il protocollo per l’utilizzo della posta elettronica ed esso viene
utilizzato in combinazione con i protocollo POP o IMAP che integrano poi l’SMTP. La
posta elettronica poi ha raggiunto anche in pochi anni un’enorme diffusione, perché
accanto alle funzioni di base si sono sviluppate alcune importanti funzionalità aggiuntive
come le conferenze virtuali a cui possono partecipare più utenti ed esistono poi anche
tecniche per la partecipazione a tali conferenze.

Lezione 8.7 – Identificazione e profilazione in rete


Spesso assumiamo che le attività svolte in rete siano anonime, cioè che la rete non vede il nostro
volto a meno che non ci facciamo riprendere da una telecamera e possiamo accedere alla maggior
parte dei siti senza dichiarare la nostra identità . Anche un’adozione il sito richiede una
registrazione, mancano di regola controlli atti a impedirci di dichiarare un’identità fittizia.
Solo in casi particolari ci richiede di utilizzare una firma digitale o password ottenute al di
fuori della rete, come le credenziali per accedere al conto corrente bancario.
In particolare tutte le operazioni compiute in rete sono associate all’IP associato al calcolatore
, un IP che viene registrato come file dei server cui accediamo. L’oscuramento dell’IP richiede
l’uso di tecniche di anonimizzazione, in particolare esistono sistemi che consentono all’utente di
dotarsi di un secondo indirizzo IP temporaneo diverso da quello che identifica il suo computer
e dal quale non è possibile risalire all’IP originale; questo IP viene fornito da server dedicati
all’anonimizzazione, i quali fungono da sostituti del computer dell’utente nel corso del
collegamento. Un identificazione più precisa rispetto a quella risultante dall’IP può essere
quella fornita dai cookie e dall’autoidentificazionedell’utente chiamato a fornire dati di
natura personale o comunque a ricollegarsi al sistema usando il nome utente utilizzato in
precedenza, anche se il nome utente è di fantasia e non consente di risalire all’identificazione
di chi lo sta utilizzando, tutta via consente di riunire gli accessi effettuati con quel nome
assumendo che siano effettuati dalla stessa persona.
L’identificazione di un utente consente di unificare i dati che lo concernono, tipicamente quelli
concernenti le attività svolte in diverse sessioni e conseguentemente di attribuire all’utente
caratteristiche ulteriori, inferite automaticamente dai dati racconti. Si tratta quindi di
Profilazione, che sarebbe una forma di trattamento automatizzato dei dati personali che
valutano aspetti personali concernenti una persona fisica, in particolare al fine di analizzare o
prevedere aspetti riguardanti il rendimento professionale e la situazione economica, la salute,
le preferenze e gli interessi personali, l’affidabilità , il comportamento, l’ubicazione o gli
spostamenti dell’interessato. Pensiamo ad esempio alla possibilità di attribuire ad una
persona certi interessi sulla base degli acquisti già compiuti dalla stessa e dei siti visitati, o
anche per inviare delle informazioni pubblicitarie; La tecnologia della Data Analytics consente
poi anche di poter estrasse nuove correlazioni sulla base de dati che sono disponibili, andando
ad esempio a scoprire quelle che sono correlazioni tra acquisti precedenti e successivi, o tra
situazioni finanziarie, sulla base delle quali estendere la profilazione degli utenti.

Log file

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Quando operiamo su internet, tutti li accessi da noi compiuti sono registrati nei log file del
server. Il file aggiornato dinamicamente che risposta la sequenza delle operazioni compiute
su quel server. In particolare nel log file vengono registrati l’indirizzo IP associato al
calcolatore che ha effettuato l’accesso, il tempo di accesso, la pagina we visitata e il browser
utilizzato.

Nella figura sopra sono rappresentate le registrazioni su un log file di due operazioni di accesso.
La prima registrazione con un determinato indirizzo IP concerne poi un’operazione compiuta
dal robot indicizzatore di google, che ha fatto l’accesso al sito l’8 ottobre del 2007 alle ore 04:54:20
per estrarre poi i termini da inserire nell’indice del motore di ricerca.
La seconda registrazione invece, riguarda un normale accesso effettuato mediante il browser
Mozilla, del calcolatore cui era stato assegnato quel numero IP, l’8 ottobre del 2007 alle 11:17:55.
Si è discusso quindi se l’informazione registrata in un log file si possa considerare un dato di
tipo personale anche se l’informazione che una certa persona abbia compiuto in rete per certe
attività , è un’informazione personale e il log file non consente poi di collegare
immediatamente la descrizione dell’attività al suo autore perché si limita poi ad associare un
indirizzo IP.

I cookie
Le informazioni regalate nel log file di un sito sono insufficienti a identificare un determinato
calcolatore: il meccanismo dell’allocazione dinamica fa si che uno stesso IP possa essere
assegnato a diversi calcolatori in momenti successivi, e che uno stesso calcolatore possa ricevere
diversi IP.
Ciò impedisce in particolare di costruire la storia dell’interazione di un determinato utente
con il sito e i diversi accessi di una stessa persona, essendo normalmente effettuati con diversi
IP. La storia dell’interazione è particolarmente rilevante per i siti commerciali, perché può
consentire loro di personalizzare la comunicazione con l’utente, per esempio se l’utente si è
già registrando fornendo i propri dati anagrafici si potrà limitare di chiedere nuovamente quei
dati, se l’utente ha memorizzato gli acquisti a cui è interessato nel proprio cartello virtuale di
spesa, gli si potrà ripresentare il carrello chiedendogli se intenda procedere agli acquisti.
Se l’utente ha già compiuto acquisti o espresso preferenze, sarà possibile fornirgli informazioni
e suggerimenti; La soluzione comunemente adottata poter raggiungere tali risultati, consiste
poi nell’utilizzo dei cookie che sarebbe un insieme di dati invitai dal sito, e memorizzati dal
browser in un file che risiede sul calcolatore dell’utente. Quando un calcolatore si collega per la
prima volta ad un certo sito, quest’ultimo gli invia un cookie caratterizzato da uno proprio
identificatore univoco. Ogni qualvolta il calcolatore si collegherà al sito, il cookie
precedentemente inviato viene rispedito al sito e quest’ultimo quindi sa che il nuovo cookie è
stato compiuto proprio dal calcolatore quale aveva precedentemente inviato i cookie.
I cookie certai da un certo dominio sono successivamente rispedito solo a quel dominio.
I cookie sono semplici dati, non virus e non danneggiano neanche e il calcolatore, che però
allo stesso tempo comportano dei rischi per la privacy.
Il sito quindi potrà ipotizzare che l’utente abbia certe caratteristiche, esigenze, ma anche
condizioni economiche, sociali e di salute, appartenenza a gruppi etnici, orientamenti culturali
oppure sessali, e su questa base il sito potrà inviare una pubblicità mirata, oppure un’offerta
personalizzata che però . Non necessariamente sono le più favorevoli per l’utente. L’utente
inoltre potrà gradire l’invio di indicazioni e suggerimenti personalizzati e invece reagire
negativamente al tentativo di cogliere aspetti della sua personalità , all’invio anche di messaggi
che non sono richiesti.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Dobbiamo quindi distinguere diversi tipi di cookie a seconda della funzione che si svolge e dal
soggetto che li invia, ad esempio anche il garante per la protezione dei dati ha distinto due macro
categorie: i cookie tecnici utilizzati al solo fine di effettuare la trasmissione di una
comunicazione, o nella misura strettamente necessaria per erogare un servizio e i cookie di
profilazione usati per costruire i profili degli utenti, di solito per inviare a questi ultimi
messaggi pubblicitari in linea con le preferenze manifestate nel comportamento in rete.
Si distinguono anche i: cookie di prima parte, inviati dal gestore del sito cui si accede, e i
cookie di terze parti che sono poi inviati da altri soggetti.
I cookie di prima parte derivano dal server cui afferisce la pagina del sito web visitiamo,
mentre i cookie di terza parte derivano da altri server cui il server del sito visitato accede,
seguendo i link contenuti nella pagina richiesta per completare poi alcuni elementi della pagina
ad esempio i banner pubblicitari, le immagini o per svolgere particolari operazioni come ad
esempio le statistiche sugli accessi.
I browser normalmente consentono anche all’utilizzatore di scegliere come si devono comportare
con i cookie ed è possibile poi anche andare a respingere tutti i cookie o allo stesso modo i cookie
di terza part, così come è possibile anche procedere alla cancellazione di questi stessi cookie
qualora l’utente non li volesse più utilizzare.

Lezione 8.8 – La ragnatela globale


Il collegamento a calcolatori remoti, accesso a file remoti e posta elettronica a furono le prime
applicazioni importanti di internet, grazie alle quali la rete divenne per molti un importante
strumento di lavoro, oltre che di interazione e comunicazione. Era però necessario un passo
ulteriore affinché internet non fosse più solo uno straendo di “nicchia”, destinato principalmente
a scienziati e specialisti informatici, e diventasse la rete globale, onnicomprensiva e
tendenzialmente aperta a tutti. Questo passo si realizzò con la creazione del World Wind Web,
un nuovo modello di sistema informatico che cambiò radicalmente l’uso di internet.
Il web era originariamente motivato dall’esigenza di gestire l’informazione scientifica
consentendo ai ricercatori di condividere i documenti attinenti alla fisica nucleare,
successivamente c’è stat una rapidissima espansione che in pochi anni lo ha trasformato in
una ragnatela globale, onnicomprensiva nei contenuti e universale nei destinatari. Il web non
è un software ma è un enorme insieme di documenti unificati dagli standard utilizzati per la
loro identificazione, creazione e consultazione. I tre standard che hanno consentito l’avvio del
web sono l’URL, poi un tipo di identificatore per gli oggetti del web specificando come essi
possono essere automaticamente individuati e richiamati, l’HTML che sarebbe un linguaggio
per predisporre i documenti ipertestuali, e l’HTTP che sarebbe il protocollo che disciplina
l’interazione tra il calcolatore client che richiede le pagine web e il calcolatore server che le
fornisce.
Gli URL sono poi un sottoinsieme di URI che rappresentano gli identificatore informatici che
disegnano gli oggetti presenti in rete. Gli URL hanno la caratteristica di indicare la
localizzazione della risorsa da essi identificata ed il protocollo da utilizzare per richiamarla.

Gli standard
Lo sviluppo delle tecnologie di internet fa capo all’ISOC, che costruisce “un’organizzazione senza
fini di lucro, fondata nel 1992 per essere guida negli standard, l’educazione e le politiche relative
a internet”, con sedi a Reston, in Virginia e a Ginevra, in Svizzera. Benché la partecipazione a
ISOC sia aperta a tutte le persone interessate a contribuire allo sviluppo di internet, ISOC non
è governata secondo il modello della democrazia rappresentativa, che richiederebbe poi
l’affidamento delle scelte più importanti a organi eletti con l’eguale voto degli iscritti.
Il principio democratico è realizzato, alla possibilità di accedere alle informazioni, in particolare
ai documenti di lavoro e di esprimere delle idee, le scelte invece sono affidate agli organi
collegiali prevalentemente tecnocratici conformati in modo da garantire la presenza di
competenze tecniche e di specialisti, accanto alla rappresentanza dei diversi interessi
implicati nello sviluppo si internet.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
ISOC inoltre afferisce all’organizzazione più importante per quanto riguarda la definizione
degli standard, la IETF, che sarebbe un’organizzazione virtuale che non ha ne perosnalità
giuridica e ne sede fissa, che comprende numerosi gruppi di lavoro che si occupano dei
diversi standard di internet. La partecipazione ai gruppi di lavoro è aperta, quindi chiunque
può associarsi a tali gruppi iscrivendosi nella relativa lista di posta elettronica che avviene
mediante internet.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Modulo 9
Lezione 9.2 – i contenuti generati dagli utenti
La locuzione web 2.0 è entrata nell’uso per fra riferimento al recente coinvolgimento degli utenti
del web nella creazione del web stesso ed alle infrastrutture informatiche che consentono tale
partecipazione.
Il web è diventato un testo “riscrivibile”, alla cui dinamica evolutiva twitti possono
partecipare: i contenuti prodotti dagli utenti occupano una parte crescente del web e
attraggono l’interesse degli utenti stessi, quanto più e dei contenuti forniti dall’industria
culturale.
Nell’era dell’ web riscrivibile, internet non è più solo l’infrastruttura mediante la quale si può
accedere alla conoscenza, comunicare, svolgere attività economiche e amministrative, essa è
anche il luogo nel quale le persone possono esprimersi, costruire le proprie immagini pubbliche,
interagire con amici e conoscenti, impegnarsi nella produzione di conoscenza, partecipare alla
cultura e contribuire al dibattito sociale e politico. Ciò si realizza mediante diverse
infrastrutture e strumenti software che rendono possibili le diverse dimensioni del nuovo
web, come condividere documenti di ogni tipo, come: testi, fotografie e musica; realizzare siti
individuali dove sviluppare un blog; commentare i contributi altrui; produrre contenuti
intellettuali in modo cooperativo; partecipare a reti sociali.
Tutti noi stiamo partecipando all’emergere di una piattaforma globale per l’elaborazione e la
collaborazione che sta dando nuova forma a quasi ogni aspetto delle attività umane.
Mentre il vecchio web riguardava siti web, clic e visione passiva, il nuovo web invece riguarda
comunità , partecipazione e collaborazione paritetica; mentre si moltiplicano gli utenti e il potere
di calcolo e allo stesso tempo proliferano strumenti facili da usare, internet sta evolvendo in
un calcolatore globale, vivente, interconnesso, che ciascuno può programmare.
Nel web 2.0 gli utenti della rete hanno iniziato a scrivere la rete stesa, arricchendola con i
propri contenuti e le proprie interazioni. Anche prima era possibile caricare contenuti in rete e
renderli pubblicamente accessibili già prima dell’avvento del 2.0, infatti fin dai sui inizi,
internet ha consentito la condivisone dei file tramite il fenomeno del file sharing e la
creazione di gruppi di discussione, basati proprio sulla discussione di mail.
Il web, fin dai suoi inizi, era stato concepito come un’ambiente in cui ogni lettore potesse poi
diventare uno scritture, tutta via la predisposizione di pagine web ed in generale la creazione
di contenuti digitali e il loro trasferimento online, presupponevano competenze a partire dalla
conoscenza dell’HTML, che la maggior parte degli utenti del web non possedeva e che
richiedevano un impegno al di là della disponibilità degli stessi.
Il web 2.0 trova la sua premessa in nuovi strumenti informatici che consentono a tutti gli
utenti del web di contribuire alla rete. Innanzitutto sono disponibili migliori strumenti,
accessibili anche a prezzi ridotti o gratuitamente, utilizzando software open source
intellettuali, rendendo possibile registrare misura e filmati, comporre musica, tracciare
disegni, elaborare testi. In secondo luogo sono disponibili strumenti per trasferire in rete con
estrema facilità e senza costo, i ottenuti prodotti, rendendoli accessibili alla generalità degli
utenti della rete stessa. In terzo luogo sono disponibili strumenti per produrre direttamente
in rete dei nuovi contenuti, individualmente o in collaborazione con altri, collegandoli a dei
contenuti già disponibili, rispondendo quindi ad un messaggio su un blog, oppure commentando
un filmato disponibile su un piattaforma o andando a recensire un negozio.

La disponibilità degli strumenti digitali ha fatto si che le persone interessate a diffondere i


risultati della propria creatività , iniziassero a mettere on-line i propri contributi, a
disposizione di tutti gli interessati, attivando la spirale virtuosa dell’effetto di rete, quindi
l’aumento dei contributi, ha determinato l’aumento degli accessi, che hanno favorito la mess a
disposizione dei nuovi contenuti; l’aumento dei contributi e degli accessi ha stritolato la
creazione di migliori strumenti per la creazione e l’accesso, che a loro volta hanno stimolato
contributi e accessi.
Ne è risultata la grandissima crescita della quantità dei contributi generati dagli utenti e
quindi centinaia di milioni di dilettanti e di professionisti si sono impegnati nella produzione
di notizie, software, lavoro letterari, fotografie e filmati che hanno poi messo nel web;
innumerevoli diari

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
online hanno pubblicato il flusso delle esperienze, impressioni o opzioni e riflessioni dei loro
autori, enormi raccolte hanno unito i contributi separati di moltissimi individui, trasformandole
in opere collettive il cui valore d’uso supera largamente il valore dei contributi individuali di
tale opere.
Sforzi cooperativi più consapevoli hanno caratterizzati i progetti per la produzione di opere
intellettuali condivise come software open source, Linux , Firefox, o le enciclopedie online come
Wikipedia, opere nelle quali i contributi individuali si fondono nel risultato comune come anche
siti controllati da professionisti dell’informazione che inizialmente operavano secondo il modello
della diffusione centralizzata, si sono aperti al dialogo con i lettori che intervengono
commentando i singoli articolali e instaurando un dialogo online con gli autori e gli altri lettori.
Anche siti non destinati alla distribuzione di propri contenuti hanno raccolto contenuti prodotti
dagli utenti associandoli ai propri servizi, ad esempio il negozio online di Amazon presenta nel
proprio sito le recensioni degli acquirenti sui prodotti in vendita, l’asta online di beat presenta
le opinioni dei prodotti dei propri clienti sui prodotti dei venditori, quindi le iniziative diffuse,
molteplici e diversificate degli utenti del web si combinano con l’emergere di funzioni tese a
filtrare e organizzare l’informazione prodotta aggregando le scelte dei singolo in risultati
rilevanti per altri. Le preferenze individuali sono quindi aggregate in indici di qualità o
valutazioni di reputazione e le reazioni degli utenti ai messaggi indesiderati come ad esempio
gli spam, contribuiscono a sistemi di filtraggio ai link delle pagine web che determinano anche
gli indici di rilevanza.

Lezione 9.3 – Il modello google


L’innovazione del web 2.0, consiste nello sfruttare l’intelligenza collettiva, cioè nel gestire,
comprendere e rispondere a enormi quantità di dati prodotti dagli utenti. In seguito. A tale
modifica, cambia la natura economica dell’impresa informatica e la forma giuridica della
relazioni con gli utenti, o meglio, nuovi tipi di impresa e nuovi modelli giuridici, si aggiungono
ai precedenti e acquistano un’importanza crescente.
L’impresa tipo a degli anni ‘60/’70 era l’IBM, grande produttore di hardware che vendeva e
noleggiava ai propri clienti macchine per il calcolo e i i relativi dispositivi periferici. L’impresa
tipica degli anni ‘80/’90 è stata invece Microsoft, produttore di programmi informatici di cui
distribuisce il codice oggetto con una licenza d’uso. L’impresa tipica invece del web 2.0 è
Google, che non offre ne apparecchiature ne prodotti software, ma una serie di servizi. Google
ha attenuto un enorme successo grazie alla realizzazione dell’omonimo motore di ricerca,
utilizzato dalla grande maggioranza degli utenti del web. Ad oggi circa il 70% delle ricerche
online fanno uso di google; tale motore di ricerca è stato poi affiancato da numerosi altri
servizi come la piattaforma per la condivisione di filmati YouTube, la posta elettronica
Gmail, le indicazioni geografiche e gli indirizzi di google Maps, le immagini
geografiche di google Earth, il notiziario di google news, i testi reperibili da google
Books, google scolar e la gestione dei documenti in google docs e tante altre funzioni
che sono disponibili su internet. Questi servizi vengono forniti gratuitamente
all’utilizzatore, poiché i proventi di google derivano in gran parte dalla pubblicità ; Non fornendo
software google non ha bisogno di adottare misure tecniche atte a prevenire ipotesi di
duplicazioni indesiderate in quanto il software risiede nei server di google, dove poi risiedono
anche i dati, di cui quale software si avvale. Gli utenti sono coinvolti in diverso modo nelle
attività di google, quindi fruiscono dei suoi servizi, forniscono i dat per svolgere quei servizi,
partecipano anche allo sviluppo delle porzioni del software disponibile in codice sorgente.
Google estrae dalla rete le informazioni che sono necessarie per far funzionare il proprio motore
di ricerca, essa indicizza le pagine web, associando i termini contenuti in ogni pagina,
all’indirizzo di rete digitale della pagina e determina la rilevanza dei risultati delle ricerche e
quindi l’ordine o il ranking secondo il quale i risultati sono presentati dagli utenti, sull’ base
della struttura del web e e delle precedenti attività degli utenti.
Google non si limita ad usare il web per creare i propri indici e compiere le proprie ricerche, essa
ne estrae ulteriori informazioni che consentono di offrire altri servizi, ad esempio, preleva
dalle pagine web dei giornali, le informazioni per compilare il proprio notiziario quotidiano di
google

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
news, ricorre all’iniziativa degli utenti per colmare i contenuti delle proprie raccolte di filmato
come YouTube, fornisce agli studiosi un’indice di lavori scientifici disponibile online di google
scolar.
Le entrate di google quindi derivano essenzialmente dalla pubblicità , mediante il meccanismo
degli hadwords, ossia le parole per la pubblicità . Agli utenti che compaiono in una ricerca su
internet utilizzando il motore di ricerca di google o che effettuino una ricerca all’interno di
una piattaforma fornita da google, come YouTube sono fornite due liste di risultati, sul lato
sinistro dello schermo compaiono quelli che sono i risultati naturali della ricerca, mentre sul
lato destro si troveranno dei link accompagnati da brevi commenti di natura pubblicitaria che
rinviano a messaggi commerciali o a siti di venditori online sempre riguardano ciò che
abbiamo ricercato. Questi risultati si spiegano, considerando che gli inserzionisti interessati
ad una pubblicità mirata, possono acquistare parole per la pubblicità da google,
un’inserzionista può indicare le parole il cui utilizzo nella ricerca attiverà la visualizzazione a
destra dello schermo del proprio link pubblicitario e l’ammontare che egli è disposto a pagare
quando un utente clicchi su quel link. In questo modo gli inserzionisti partecipano ad un’asta
che determina se il loro link sarà visualizzato e in quale posizione, quindi chi offre di più
otterrà una posizione più elevata nella lista dei link pubblicitari. La posizione del link non è
però determinata solo dall’asta, ma anche dalla qualità del messaggio pubblicitario ad esso
collegato, misurata da google sulla base di un’insieme di fattori, ad esempio quante volte il
link è stato cliccato, la rilevanza dei contenuti collegati al link rispetto all’hadwords acquistata
e la qualità della pagina collegata.

La formazione del web 2.0 p stata resa possibile dalla disponibilità di piattaforme per la
condivisione di contenuti, nelle quali l’utente può liberamente trasferire i propri contenuti (testi,
tracce musicali, filmati); rendendoli accessibili al pubblico. La pubblicazione dei contenuti è
un’operazione facile, rapida e gratuita, alla portata anche degli utenti più inesperti
Esistono numerose piattaforme per a condivisione dei contenuti, analizziamo in questo caso due
piattaforme: La prima è quella dell’SSRN e YouTube che invece fornisce filmati di ogni genere.
Ad esempio la SSRN, contiene circa 2080 sommari e 2050 mila contributi nel campo delle scienze
giuridiche e sociali che sono liberamente scaricabili e gratuiti.una volta che ci si registra
presso il sito, l’autore può pubblicare online i propri contenuti rendendoli accessibili a tutti,
può limitarsi ad inserire sul sito solo il sommario del proprio contenuto, ma generalmente si
mette online anche il contributo completo; in questo modo l’autore può ottenere da altri
utenti della stessa piattaforma, indicazioni e commenti utili per completare l’articolo e
aggiustarlo per eventuali difetti. Quindi è disponibile sull’SSRN, un’enorme quantità di
contributi ed è diventato poi un punto di partenza indispensabile per compiere un’attività di
ricerca.
YouTube invece è il più popolare tra i siti per la condivisone di filmati e di tracce musicali online,
creato nel 2005, conobbe poi una grandissima popolarità e fu acquisito da google nel 2006.
YouTube è anche tra i siti più visitati in internet; tutti possono accedere ai filmati su YouTube,
mentre chi si registra presso il sito può anche caricare un numero illimitato di filmati. Di
regola i filmati non possono essere scaricati, ma possono essere visualizzati solo all’interno
della piattaforma. Gli utenti che poi accedono ad un filmato, possono inserire commenti su di
esso ed esprimere le proprie valutazioni, possono in oltre segnalare video sconvenienti ed
illegali sollecitandone la rimozione. Per tanto gli utenti contribuiscono a YouTube non solo
caricando i filmati ma anche pubblicando le proprie riflessioni, opinioni, riflessioni sui filmati
che sono poi messi a disposizione di tutti gli utenti del sistema.
Le raccolte di materiale online hanno condotto poi una serie di problematiche anche di natura
giuridica attenente al diritto d’autore e alla protezione dei dati. I problemi sul diritto d’autore
nascono dalla pubblicazione online di contenuti protetti Enza il consenso del titolare dei diritti,
in particolare si tratta di stabilire se accanto a chi abbia caricato il video, possa considerarsi
responsabile anche il gestore della piattaforma; problemi invece sulla protezione dei dati
nascono in una duplice direzione, perché da un lato si tratta del trattamento non autorizzato o
comunque illegale dei dati concernenti le persone che hanno caricato i filmati online, dall’altro
invece si tratta di dati afferenti alle persone raffigurate all’interno del filmato, ad esempio
immagini di persone contenute all’interno del filmato che possono essere dati personali in

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
quanto consentono proprio l’identificazione di queste persone. Infine ulteriori problemi si
possono avere proprio con la distribuzione di contenuti che possono essere poi di natura illecita.

Lezione 9.4 – Le reti sociali


Un sito di rete sociale può essere definito come un servizio basato sul web che consente agli
individui di costruirsi un profilo pubblico o semi pubblico all’interno di un sistema
circoscritto, specificare una lista di altri utenti con i quali si condividono una connessione ed
esaminare e attraversare la propria lista di connessioni e le liste fatte da altri all’interno del
sistema. Questa caratterizzazione individua le tre funzioni fondamentali dei siti di rete
sociali.
La prima funzione è quella della costruzione del proprio profilo che individua l’aspetto
dell’identità , Gli utenti della rete creano profili che li rappresentano grazie alla combinazione
di Informazioni Personali di vario genere ad esempio dati anagrafici, vicende della propria vita,
attitudini e interessi o anche immagini. Mediante il profilo, l’interessato esprime e costruisce
la propria identità sociale, la seconda funzione individua l’aspetto relazionale del sito e
attraverso il sito si mantengono e si sviluppano contatti con altre persone, contatti che possono
pre esistere all’utilizzo del sito o invece essere avviati tramite il sito stesso. Le connessioni, che
contribuiscono altresì alla definizione dell’identità sociale dell’utente, il fatto di essere amico di
certe persone o di partecipare ad esempio a certe iniziative, e tutto questo indica aspetti della
sua personalità . La terza funzione individua l’aspetto della comunità , quindi gli utenti della rete
sociale, possono identificare la forma della loro comunità e in particolare il ruolo che essi hanno
all’interno del sito. Si però si ad esempio a come su Facebook si vada ad articolare il grafo dei
contati personali dei partecipanti cioè: tizio è amico di caio che è amico di Sempronio, il quale
partecipa ad una ce4ta iniziativa o sostiene una certa causa. Un altro esempio possiamo farlo
con LinkedIn dove si articola il grafo sulla base dei rapporti professionali cioè: tizio ha
collaborato con caio L quale da referenze su Sempronio, che partecipa ad una discussione.
Esistono numerose reti sociali, dotate di finalità parzialmente diverse, ad esempio alcune reti
sociali sono specificatamente destinate a finalità professionali, come la ricerca di un lavoro, di
collaborazione o di sviluppo professionale e allo stesso tempo sono utilizzate in diverso grado
e in diverse aree geografiche, ad oggi la rete che maggiormente possiamo ritenere diffusa su scala
globale è indubbiamente Facebook.

Caso Facebook
Facebook e di origine 2005 presso l’università di Harvard, nella quale esisteva la
consuetudine di distribuire ai nuovi studenti, al fine di facilitare la conoscenza reciproca, un
volume che riportava le foto di tutti i nuovi iscritti. Mark Zuckerberg uno studente di
informatica, Ebbe l’idea di informatizzare il volume e inoltre di renderlo user-gender (prodotto
dagli utenti), e non più dall’amministrazione universitaria.
Gli studenti stessi avrebbero quindi fornito la propria forte e le informazioni con le quali
presentarsi ai colleghi, con la collaborazione di alcuni compagni, realizzò un sito, atto a svolgere
questa funzione, e lo mise poi a disposizione degli studenti di Harvard. Il successo di questo sito
fu rapidissimo, tanto è vero he nel giro di pochi mesi, la maggior parte degli studenti di tale
università , si registrò presso questo sito, che fu messo poi anche a disposizione di altre
università , fino ad aprirlo alla generalità degli utenti.
Oggi Facebook è utilizzato da circa 500milioni di persone e la sua funzione fondamentale è
proprio quella di definire il proprio profilo, condividere delle connessioni e partecipare a delle
comunità . Il sito consente a ciascuno di decidere con chi condividere i dati del proprio profilo,
per esempio consentendone l’accesso solo ai propri amici; esso richiede anche l’accordo delle parti
per la loro partecipazione ad una nuova connessione, quindi chiunque può offrire ad altri la
propria amicizia, ma la connessione si attiva solo se l’offerta è accettata, così che il grafo sociale
si allarga proprio con il consenso dei nodi direttamente interessati.
Facebook è stato caratterizzato da una rapida evoluzione, arricchendosi anche di una serie di
funzioni aggiuntive, cioè gli utenti ad esempio possono inviarsi messaggi utilizzando un
applicazione per la messaggistica che è sempre interna però alla piattaforma Facebook, poi
ogni profilo è dotato di una bacheca sulla quale gli amici possono inserire i propri messaggi, il
titolare

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
degli amici inoltre può anche essere informato degli accessi al propri profilo da parte degli
altri e gli utenti possono informare i propri amici delle proprie iniziative e allo stesso modo di
essere informati di ogni cambiamento concernete poi i profili dei propri amici. Inoltre è
possibile immettere degli album fotografici, inviare dei regali digitali ed è poi anche
disponibile un’ambiente di sviluppo per realizzare applicazioni che sono destinate a
Facebook, grazie al quale sono stati realizzati numerosi software, in particolare giochi ma
anche strumenti per partecipare alle iniziative disponibili su Facebook.
Si potrebbe ritenere che Facebook realizzi nel modo più pieno, il diritto alla privacy
sull’informazione, individualisticamente inteso come diritto ad un autodeterminazione
informatica, ossia il diritto di poter scegliere con chi condividere i propri dati personali.
Sulla piattaforma troviamo il diritto di non condividere i propri dati e a limitare l’accesso e
l’uso da parte di terzi e dei lati positivi sono ad esempio il diritto di ciascuno a condividere i
propri dati con le persone di priora scelta e nelle forme che egli desidera.

Resta irrisolta la questione tra privacy individuale e le dinamiche comunicative nelle reti sociali,
una volta che qualcuno abbia aperto il proprio profilo ad altri diventa poi difficile se non
anche impossibile controllare l’ulteriore riutilizzo che questi facciano delle informazioni cui
hanno avuto accesso e quindi poi la disciplina delle reti sociali richiede un bilanciamento
difficile tra le esigenze e i valori in conflitto, perché da un lato noi abbiamo la possibilità di
tutelare la privacy, dall’altro invece la libertà di informazione, di comunicazione e di
espressione.

Lezione 9.5 – I blog


La parola blog deriva da web- log, letteralmente significa diario di bordo del web. Il blog di
nota un nuovo tipo di sito web diffusi con estrema rapidità negli ultimi anni, caratterizzato dal
rapidità di aggiornamento e dall’interattività con i lettori. I blog vengono prodotti grazie a
piattaforme online che facilitano la redazione e l’aggiornamento di pagine web, consentono di
pubblicare brevi messaggi solitamente presenti nell’ordine cronologico invertito ossia dai più
recenti e più risalenti, permettono ai lettori di essere informati tempestivamente sugli
aggiornamenti del sito e di dialogare con l’autore inserendo dei propri commenti.

Il termine blog può essere utilizzato in due modi: con riferimento allo strumento utilizzato
per la realizzazione del sito, oppure con riferimento alle funzionalità di cui il sito è dotato,
funzionalità che possono essere realizzate anche in siti web tradizionali, seppur con uno
sforzo maggiore.
La pratica dei blog ha determinato, due fondamentali innovazioni nell’uso della rete:
 La prima innovazione è l’accresciuta dinamicità , anche prima dei blog esistevano
numerosi siti personali nei quali una o più persone presentavano se stesse e
mettevano poi a disposizione del pubblico materiale di vario genere, possiamo fare come
esempio un sito universitario dove il docente presenta il proprio curriculum. Tutta via
questi siti erano tendenzialmente statici, o comunque caratterizzati da periodi d
stabilità interrotti da occasionali o periodiche modifiche quando ad esempio l’interessato
acquistava nuove qualifiche, oppure andava a produrre nuove opere o avviava nuove
iniziative. I blog invece sono di regola dinamici, cioè in essi, nuove informazioni sono
pubblicate di continuo, spesso anche con una frequenza giornaliera o anche più
elevata;
 La seconda innovazione è l’accresciuta interattività , ossia anche prima dei blog era
possibile comunicare con il titolare del sito, inviandogli messaggi di posta elettronica
oppure in alcuni casi, sfruttando forum o gruppi di discussione collegati al sito. Tutta
via di regola i materiali presentati sul sito personale erano opera del titolare del sito,
mentre l’interazione si sarebbe svolta al di fuori di essa, invece i blog consentono ai
lettori di associare commenti alle pagine e ai messaggi dell’autore, commenti poi che
sono visualizzati sul blog e dai quali l’autore o altri lettori possono rispondere. Il blog
diventa quindi il luogo di dialogo tra l’autore e i lettori: l’autore del blog può regalare tale
dialogo, limitandolo ad alcune persone o anche esercitando un controllo preventivo sui
messaggi inviati, ma la massima libertà è anche consentita nella maggior parte dei
blog dove

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
l’autore ad esempio si limita ad eliminare quelli che sono messaggi che può ritenere
sconvenienti.

L’interattività del blog è potenziata da alcune funzionalità . Innanzitutto va menzionata la


tecnologia dei web-feed, che consente di ricevere automaticamente gli aggiornamenti delle
pagine del web. Un web feed e un documento in XML, associato ad una pagina web, che indica
le modifiche subite dei contenuti di tale pagina. L’utente interessato agli aggiornamenti dovrà
registrarsi presso il web-feed e dotarsi di un software capace di leggere i web-feed.
Il software si collegherà ai web feed presso i quali l’utente si sia registrato e comunicherà
all’utente le modifiche dei relativi siti, fornendogli link ai nuovi contenuti o agli stessi
contenuti. Lo standard maggiormente utilizzato nel blog per il web-feed è il RSS, pubblicazione
simultanea molto semplice. Benché i web-feed possono essere utilizzati anche per altri tipi di
pagine web, essi sono particolarmente rilevanti per i blog proprio per la loro dinamicità ; il
blog può avere carattere confidenziale ed essere anche rivolto ad una cerchia ristretta di
soggetti, è allora una sorta di diario con il quale l’autore condivide le proprie esperienze ed i
propri interessi con amici e conoscenti ai quali può restringere l’accesso.
Altre volte il blog ha una destinazione più ampia, rivolgendosi a quanti devono essere aggiornati
con riferimenti ad una certa attività ; si consideri il blog grazie al quale un docente fornisce
agli studenti non solo materiali didattici per ogni lezione, ma invia agli stessi notizie sullo
svolgimento del corso ed anche riferimenti di attualità .
Alcuni blog sono anche rivolti alla generalità degli interessati, che può essere più o meno
ampia a seconda della tematica affrontata o anche della popolarità dell’autore, per esempio
un blog può rivolgersi agli interessati ad un determinato settore o a temi di ampia natura, fino
ad essere poi aggiornata con milioni di lettori;
Benché i. Blog nascano da iniziative particolari, non coordinate tra loro, essi sono ricchi di
interconnessioni: il creatore di un blog normalmente inserisce nel blog stesso dei link che
conducono alle pagine di altri blog che egli ritiene significativi per i propri lettori, utilizzando
spesso la tecnologia dei web-feed e quindi fornendo informazioni sugli aggiornamenti del blog
cui è diretto il link.
Il blog può contenere osservazioni o commenti sulla pagina cui è diretto il link, e instaurare un
dialogo con l’autore di tale pagina; mediante il trackback l’autore del blog viene a conoscenza
dell’esistenza di legami rivolti al proprio sito e può quindi rispondere con commenti
accompagnati da legami nell’opposto direzione. Attraverso l’interconnessione dei singoli blog
emerge la Blogosfera, cioè la rete complessa composta dai blog e dalle loro molteplici
interconnessioni, nella quale si possono compiere ricerche utilizzando software specificamente
destinati a questo scopo, ad esempio motori di ricerca per blog. In particolare sta emergendo
una blogosfera giuridica istituita da blog di contenuto giuridico, ma anche una blogosfera
informatica di contenuti esclusivamente informatici; questi sono caratterizzati non solo da
materie trattate ma anche dalla fitta trama di connessioni reciproche che garantiscono gli
strumenti di ricerca specifico.

Lezione 9.6 – I Wiki e i Wikipedia


Nella voce dedicata ai wiki su Wikipedia, La maggior parte della realizzazione di queste
tecnologie sono rappresentate da un wiki che è caratterizzato come un sito web Che permette
la facile creazione e modifica di un numero qualsiasi di pagine interconnesse mediante un browser
web che usa un linguaggio di marcatura semplificato o un editore di testi.
I wiki sono strumenti eletti per il lavoro cooperativo, essi sono rivolti alla creazione di opere
comuni, nelle quali il contributo di ciascuno diventa indistinguibile dal contenuto altrui. La
parola wiki deriva dalla lingua hawaiana e significa rapido e quindi tale parola allude alla
rapidità di scrittura ed anche di collaborazione consentita da questa tecnologia.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Le pagine dei wiki sono solitamente redatte utilizzando un linguaggio di marcatura, più
semplice e limitato dell’HTML, vengon poi tradotte automaticamente in HTML e in questo
formato vengono inviati al browser che le visualizzerà ai lettori.

I quest’immagine si possono vedere tre tipologie di versioni:la versione redatta dall’autore del
wiki utilizzando il linguaggio di marcatura disponibile su Wikimedia; quindi, il wiki utilizzato
per redigere le voci di wikipedia; la versione di testo in HTML corrispondente; infine nella
terza casella si vede il testo visualizzato dal browser del lettore.
Alcuni sistemi offrono anche dei titoli di testi, quindi il sistema presenta all’autore il risultato
che sarebbe presentato al lettore, registrando la corrispondente marcatura. Una funzione
essenziale del wiki è il controllo delle modifiche, è possibile quindi esaminare tutte le modifiche
subite da un testo ed individuare con precisione chi ha effettuato la modifica e in quale tempo;
i wiki offrono anche strumenti per la gestione delle versioni di un testo, ed è quindi di possibile
risalire alla versione del testo che è stata precedentemente modificata.
Queste funzionalità fanno anche dei wiki lo strumento ideale per la collaborazione decentrata
di comunità aperte di autori, quindi più autori possono intervenire sul medesimo testo,
controllandole l’evoluzione nel tempo e un wiki può essere accessibile anche solo ad alcune
persone che sono coloro che collaborano al progetto cui il wiki è destinato a anche ai membri di
una certa organizzazione; molti wiki però sono anche aperti al pubblico, ossia qualunque utente
registrato e anche l’utente non registrato a volte, può intervenire modificando anche il contenuto
delle pagine.
Si potrebbe immaginare che questa gestione anarchica dovrebbe condurre alla distruzione
del contenuto informativo del wiki, in seguito anche ad interventi di autori incapaci o anche a
deliberati atti di vandalismo, invece l’esperienza ha mostrato che gli interventi incompetenti o
malintenzionati sono relativamente rari, e i successivi interventi di revisioni competenti di
ben intenzionati pongono ad essi rimedio in breve tempo anche nella maggior parte dei casi.

Grazie alla tecnologia dei wiki ha potuto svilupparsi la più grande, e più letta, enciclopedia
oggi esistente, Wikipedia, Che contiene più di 5 milioni di voci ed e Letta da centinaia di
milioni di persone in 200 lingue diverse.
Wikipedia nacque dal fallimento di un progetto precedente di ispirazione più tradizionale
chiamato Nupedia, un’enciclopedia online alla quale tutti potevano proporre propri contributi,
La cui pubblicazione era però subordinata a un processo di revisione e controllo affidato a esperti
retribuiti.
L’organizzazione del progetto, di fronte allo scarso numero di contributi ottenuti al fronte di
costi comparativamente elevati, dovette di fatto o abbandonare il progetto; egli venne però a
conoscenza della tecnologia dei wiki e nel 2000 decise poi di avviare un nuovo progetto di
enciclopedia chiamata proprio Wikipedia, basata su tale tecnologia, nel quale si alla redazione
delle voci, sia i controlli, fossero completamente decentrati e quindi affidati alla generalità
degli interessati. Chiunque poteva scrivere una nuova voce e chiunque poteva intervenire
modificando una voce preesistente.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
A tal fine era necessario registrarsi presso il sito di Wikipedia, ma non vi erano controlli;
quindi, chi desiderasse rimanere anonimo poteva farlo creandosi un’identità falsa. Secondo il
senso comune, un progetto così doveva essere destinato ad un immediato fallimento, persone
ragionevoli e competenti non avrebbero fornito gratuitamente il proprio lavoro per la faticosa
costruzione delle voci e anche se qualcuno l’avesse fatto, il suo contributo sarebbe stato
presto distrutto da vandali e incompetenti; invece, Wikipedia ebbe un enorme successo
conoscendo anche una crescita rapidissima, nel numero dei contributi disponibili e nei
contributi dei lettori. All’edizione in inglese, si sono affiancate altre edizioni in numerose
lingue. Si è osservato che la qualità dei contributi è generalmente elevata, comprabile anche a
quella delle migliori enciclopedie commerciali, non mancano ovviamente le inesattezze ma
esse vengono prontamente individuate e corrette dai revisori che sono i realtà anche aiutati
dalla tecnologia wiki che consente di ricostruire la sequenza delle modifiche risalendo anche
alle versioni precedenti.
Circa il 10%, partecipano alla redazione delle voci di wikipedia e un decimo di questi
contribuiscono poi con particolare assiduità ; le motivazioni di tale partecipazione volontaria e
non retribuita sono varie, ad esempio l’interesse trattato dai temi delle voci, il desiderio di
partecipare all’interazione dalle quali risulta la loro formazione, la volontà di contribuire alla
creazione di un’opera che renda la conoscenza accessibile liberamente e gratuitamente a tutta
l’umanità , e anche la collaborazione tra i redattori delle voci che è facilitata da una regola di
neutralità che prevede la formulazione di tutte le diverse opinioni sulle versioni controverse.
Come afferma la policy di wikipedia, poiché abbiamo un’ampia varietà di partecipanti in tutte
le ideologie e da tutto il mondo, wikipedia è impegnata a far si che i suoi articoli siano più
imparziali possibili; lo scopo, quindi, non è quello di scrivere gli articoli da un singolo punto di
vista oggettivo, ma invece di voler rappresentare tutte le prospettive su una certa questione
con un’equilibrio.

Lezione 9.7 – La produzione paritetica dei contenuti


Tutte quelle che sono le esperienze che noi possiamo ricordare nel web, accanto a quella del
software open source che le ha precedute e accompagnate, fornendo non solo strumenti software
ma anche modelli tecnologici e organizzati, sono solo alcuni tra le molte che semplificano il
fenomeno della produzione paritetica di contenuti informativi. Secondo lo studioso statunitense
Benkler, si tratta di un nuovo modello sociale e produttivo che può favorire la produzione, lo
sviluppo umano e la cooperazione.
La produzione paritetica si realizza mediate attività cooperative che non sono costruite
sull’esclusione asimmetrica tipica invece della proprietà . In questo caso gli input e gli output,
dei processi condivisi, sono realizzati dalla collettività , in una forma istituzionale che vengono
lasciati egualmente disponibili in modo che tutti li possano usare secondo la propria scelta
individuale. Benkler osserva che fino ad oggi si riteneva che le attività ridotti e si potessero
organizzare secondo due modelli: il mercato e l’azienda.
Nel primo le persone si scambiano beni o servizi, guidate nelle proprie scelte dai prezzi; nel
secondo esse operano nell’ambito di una struttura gerarchica guidate dai comandi dei superiori.
Ogni economia sviluppata possiede quindi entrambe le forme di organizzazione, affidando alcuni
aspetti della produzione all’una e altri all’altra. Secondo Benkler, la produzione paritetica
costituisce una terza via che si distingue sia dal modello degli scambi di mercato, sia dal modello
gerarchico dell’azienda; Chi partecipa a iniziative produttive di questo tipo non segue ne i
segnali forniti dai prezzi, ne le indicazioni dei superiori gerarchici. Nell’economia
dell’informazione in rete, il capitale fisico richiesto per la produzione, è largamente distribuito
nella società , personal computer e anche collegamenti di rete sono di fatto onnipresenti; ciò non
significa che essi non possano essere usati per i mercati o che gli individui cessino di cercare
opportunità di mercato, significa invece che ogni qual volta qualcuno in qualche posto tra i
miliardi di esseri umani connessi e in ultima analisi tra tutti coloro che saranno connessi,
desidera fare qualcosa che richiede creatività umana, un calcolatore e una connessione di rete,
egli potrà farlo da solo oppure in collaborazione con altri. Egli ha già il capitale necessario per
farlo se non da solo, almeno in collaborazione con altri individui che operano per ragioni

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
complementari; il risultato è che una porzione molto più ampia di ciò che ha valore per gli esseri
umani, potrà essere realizzata dagli individui che interagiscono con altri social network, più
tosto che come attori del mercato attraverso il sistema dei prezzi, talvolta queste
collaborazioni non di mercato, possono motivare lo sforzo e permettere alle persone creative
di collaborare in progetti dedicati all’informazione, più efficacemente di quanto farebbero i
meccanismi tradizionali del mercato o anche le società commerciali; il risultato è un settore
fiorente non basato sul mercato, quindi di produzione di informazione, conoscenza e cultura,
basato su un ambiente di rete ed applicato a qualsiasi cosa e i vari individui connessi possano
poi immaginare.
I suoi risultati, non vengono considerati come proprietà esclusiva, quei risultati sono invece
soggetti ad un’etica sempre più solida di aperta condivisione, in modo che tutti gli altri
possano svilupparli, estenderli ma allo stesso modo farli propri.
A favore di questo nuovo modo di produzione, secondo Benkler, vi sono importanti ragioni
economiche. Innanzitutto la produzione paritetica faciliterebbe l’individuazione delle persone
più adatte a svolgere un certo compito, individuazione che lasciata gli stessi interessati evitando
difficoltà e costi inerenti alla ricerca dei soggetti cui affidare un certo lavoro. Un progetto di
software aperto o in Wikipedia che si ritiene capace di sviluppare un certo modulo o di scrivere
una certa voce virgola non ha che da farlo, auto-selezionandosi per lo svolgimento di tal compito.
Il suo contributo sarà accettato se gli altri riattreranno poi di accoglierlo, a seguito di revisioni
e controlli paritetici come le peer review.
In secondo luogo questo modello produttivo, essendo basato sulla condivisione ed il libero
accesso alle risorse informatiche, consente poi alle persone più interessate e componenti,
nell’andare ad usare una certa risorsa; chi meglio possa andare a sviluppare un software,
correggere o ampliare una voce di enciclopedia e di farlo senza richiedere il permesso di alcuno,
evitando così i costi inerenti alla contrattazione per l’accesso alle risorse e anche le rendite
monopolistiche.
Poiché le risorse da usare in comune sono beni informativi, il loro utilizzo non è rivale e quindi
la loro generale accessibilità , non ne determina l’eccessivo sfruttamento e deterioramento; la
motivazione per impiegare le proprie energie nello sviluppo di prodotti cui tutti possano
accedere liberamente ente, può Venire secondo Benkler, dalla combinazione di due motivazioni,
oltre che dall’ altruismo.
Il guadagno edonico, cioè il piacere derivante dalla creazione, e l’appropriazione indiretta, ossia
i vantaggi economici che il creatore può trarre in seguito alla libera accessibilità delle proprie
opere, come lo sviluppatore di software aperto può ottenere contratti per consulenza, per l’uso o
l’adattamento di quel software, oppure un musicista può essere retribuito per i concerti dopo
essersi fatto conoscere, mediante la distribuzione online dei propri lavori.
Non sempre la produzione paritetica può trovare piena applicazione, in molti casi, altri
modelli economici possono meglio soddisfare importanti esigenze, quelle dei creatori, ad
esempio in particolare il bisogno di essere retribuiti adeguatamente per il proprio lavoro;
quelle dei l’orlo committenti, quindi le garanzie di professionalità e disponibilità ; quelle
proprie di progetti permanenti e di ampia scala, quindi disponibilità di strutture
amministrative permanenti e affidabili. Sembra però che si stia avviando verso un’economia
complessa della produzione intellettuale, nella quale diversi modelli produttivi
corrispondenti in varia misura ai tipi ideali della produzione paritetica del mercato e
dell’azienda, sono compresenti e si intersecano in vari modi, così come si intersecano diversi
modelli giuridici, la distribuzione con copyright o con copyleft, attività produttive strutturate
come società per azioni, fondazioni o associazioni fluide tra gli interessati, così un’impresa
può abbinare una versione di base aperta e gratuita in un software e integrazioni proprietarie a
pagamento. Un autore può quindi distribuire liberamente certe tracce musicali o certi testi e può
distribuire altri testi attraverso canali commerciali; un progetto di collaborazione paritetica può
avvalersi anche di una società commerciale, oppure di una fondazione per la gestione della
propria infrastruttura, o anche per altri aspetti organizzativi.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Lezione 9.8 – Le piattaforme commerciali
Un’interessante commissione tra produzione paritetica di contenuti e attività aziendali, si
può ritrovare Nelle piattaforme commerciali che ospitano contenuti prodotti dagli utenti. Le
imprese che forniscono le piattaforme del web impiegano un consistente numero di dipendenti e
operano a scopo di profitto, ma offrono agli individui e gruppi la possibilità di comunicare, di
accedere a opere dell’ingegno e di crearne di nuove.
Mentre di regola l’impiego della piattaforma è concesso gratuitamente, attività connesse
generano di fatto reddito, quindi la pubblicità sui siti è fornita a fronte di un corrispettivo da
parte di inserzionisti, informazioni aggregate che sono risultanti dalle scelte individuali possono
essere fornite a pagamento, ad esempio dati aggregati sulle preferenze dei consumatori, estratti
dal comportamento online degli stessi possono essere venduti alle aziende interessate. Gli utenti
di regola mettono a disposizione gratuitamente i loro contenuti, senza poi percepire corrispettivi
dal gestore della piattaforma, benché in alcuni casi possa esser fornita una ricompensa agli
utenti per partecipare ad una raccolta di informazioni o anche per svolgere un lavoro non
qualificato; per tanto l’attività rivolta al profitto dei fornitori delle piattaforme, realizza
frumenti per la creatività individuale ed organizza l’informazione fornita dagli individui in modo
che essa diventa conoscenza sociale sulla base della quale ulteriori servizi possono essere offerti
agli utenti oppure alle entità commerciali. Quando la generatività di internet, opera nel modo
migliore, i contributi individuali sono poi agevolati da piattaforme che competono per attirare
gli utenti offendo loro un più ampio spettro di scelte e di opportunità , per tanto può attuarsi
un utile collaborazione: gli individui generano una crescente quantità di contenuti e i fornitori
generano migliori servizi per accogliere ed aggregare quei contenuti, in questo modo i bisogni
individuali, così come i diritti degli individui e quindi liberà di manifestazione del pensiero, di
espressione, comunicazione e partecipazione alla cultura, possono realizzarsi in un’economia
capace di sostenersi e svilupparsi in un quadro di autorganizzazione e autoregolamentazione.
All’attività di società , operanti a fini di profitto, si affianca l’attività di imprese dotate poi di
diversa forma giudica, più adatta allo spirito delle iniziative che richiedono una più intensa e
permanente dedizione ad uno scopo comune e una maggiore partecipazione degli utenti. Per
esempio la piattaforma di wikipedia è gestita da Wikimedia, dotata della forma giuridica della
formazione.
Non sempre si attua la coincidenza appena esposta tra inebetirsi degli utenti e ricerca del
profitto, in particolare le imprese che offrono servizi e in particolare piattaforme per
contenuti certai dagli utenti, possono utilizzare anche i dati per attività illecite, ad esempio i
dati possono essere trasferiti a terzi, senza la volontà degli utenti o comunque per usi
potenzialmente in contrasto con gli interessi di questi; gli operatori commerciali che li
utilizzeranno a fini pubblicitari, nella selezione del personale o nella concessione di polizze di
assicurazione ed ad autorità pubbliche che li useranno poi ai fini di controllo sociale. Inoltre
tali imprese possono adottare strategie commerciali, volte ad imprigionare gli utenti, una
volta che le informazioni prodotte da questi ultimi siano state trasferite all’interno della
piattaforma e quindi gli utenti stessi non sono in grado poi di eliminare, né hanno la
possibilità di ottenere facilmente una copia di esse utilizzabile al di fuori della piattaforma.

È il caso di ricordare che il trasferimento dei dati su una piattaforma online comporta comunque
una perdita di controllo da parte dell’utente, anche quando questi Abbiano la possibilità di
rimuovere i dati dalla piattaforma sulla quale sono stati inseriti. Infatti quei dati possono
essere stati prelevati da altri soggetti virgola che possono usarli in modo non previsti e non
desiderati, per esempio il profilo di una persona su Facebook può essere consultato dal potenziale
datore di lavoro.
Di qui l’esigenza di elaborare nuove soluzioni tecnologiche e giuri che consentono a chi abbia
trasferito dati dati personali su piattaforma web, di far si che quei dati possano essere cancellati
e quindi dimenticati dal web nel suo insieme, e non solo dal sito web nel quale sono stati caricati.
Ovviamente la possibilità di effettuare la cancellazione di questi dati nel soggetto a cui si
riferisce, si contrappone al diritto poi di informazione e quindi in particolar modo al ricordo
di

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
chi abbia ottenuti quei dati e li ritenga rilevanti per se o per altri e quindi adeguate soluzioni
che richiedono poi un difficile bilanciamento di diritti ed interessi in gioco.
Si è recentemente osservato che il crescente uso di piattaforme online, può favorire anche una
crescente frammentazione del web, cioè la sua divisione i diverse sotto-reti, sempre più separate
le une dalle altre, sia negli strumenti software che nella cerchia degli utenti. Gli utenti di
queste piattaforme, in particolare di Facebook e di altri siti di rete sociale, tendono a restare
all’interno di quella piattaforma, utilizzando i servizi che essa offre, perfettamente integrati
nella piattaforma stessa e quindi di più facile uso all’interno di questa, ad esempio l’utilizzo
della piattaforma Facebook e l’utilizzo del Facebook messanger per inviare i messaggi fra gli
utenti della stessa piattaforma, più tosto invece che utilizzare ii servizi aperti come ad
esempio quelli di posta elettronica che sono invece accessibili a tutti gli utenti e i sistemi
anche della rete stessa. La stessa tende a si verifica anche nell’accesso al web mediante
dispositivi mobili come ad esempio gli smartphone, i quali si presentano sempre più come
piattaforme integrate per l’uso dei servizi di internet, per esempio chi utilizza un iPhone di
regola non accede ai servizi web mediante il motore di ricerca di google ma mediante piccoli
programmi informatici detti APP che lo collegano poi direttamente al sito di interesse, come
ad esempio il negozio online, il giornale, le previsioni m Egeo.
Le app sono spesso gratuite, ma devono essere approvare dalla Apple, nel caso di
quest’ultima, e distribuite poi esclusivamente attraverso il negozio online della Apple che
garantisce poi la possibilità di trasmettere queste app.
Alcuni studiosi della rete, temono che questo processo di frammentazione possa anche poi
pregiudicare la libertà degli individui e la creatività degli sviluppatori dei software per la rete,
piegandola poi alle esigenze di chi controlla le piattaforme; altri invece ritengono che le
piattaforme chiuse, offrano vantaggi in termini di sicurezza e allo stesso modo di facilità d’uso,
non altrimenti ottenibili e che per garantire la libertà e la creatività basti poi il mercato, ossi
l’ipotesi di concorrenza tra i fornitori di piattaforme di servizi.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Modulo 11
Lezione 11.2 – internet of
things
Con il termine Internet of things si fa riferimento ad infrastrutture nelle quali innumerevoli
sensori sono progettati per registrare, processare, immagazzinare dati localmente o interagendo
tra loro sia nel medio raggio, mediante l’utilizzo di tecnologie a radiofrequenza, sia tramite
una rete di comunicazione elettronica.
I dispositivi interessati non sono soltanto o tradizionali computer o smartphone, ma anche quelli
integrati in oggetti di uso quotidiano come dispositivi indossabili, d automazione domestica e di
georeferenziazione e navigazione assistita.
In altre parole per internet of things si intende un ulteriore viluppo di internet conseguente
alla connessione in rete degli oggetti materiali, oggetti che potrebbero essere dotati di un
identificativo univoco, ad esempio un numero di serie, riconoscibile anche in radio frequenza;
ma l’identificazione degli oggetti potrebbe avvenir anche sensazioni ricorrere ad etichette radio,
ma allo stesso modo combinando tra loro sensori e riconoscimento automatico, pensiamo ad
esempio il riconoscimento di un codice a barre, effettuato con un cellulare che risulta poi
collegato ad internet.
Gli oggetti (thing) diventano vivi e pensanti e attraverso internet proprio grazie al fatto di
poter comunicare dati su se stessi ed accedere ad informazioni aggregate da parte di altri.
Ogni oggetto può interagire con l’ambiente che lo circonda ed avere un impatto sulla nostra
vita quotidiana oppure lavorativa. Nel mondo di chi produce macchinari o prodotti,
l’innovazione è giunta poi a livelli sofisticati, ed è difficile pensare di riuscire a spingersi oltre.
Per innovare oggi occorre puntare sul servizio, su ciò che può recare valore aggiunto attorno e
sul prodotto, siamo quindi in una fase storica molto importante, dove per mantenere il vantaggio
competitivo occorre passare dal processo tradizionale del “produco e vendo il prodotto” ad un
processo un po’ più evoluto ossia “produco un prodotto ma di fatto vendo un prodotto servizio”, ;
per permettere quindi alle aziende manifatturiere di compiere poi il passaggio dalla semplice
offerta di un prodotto a quella di un prodotto servizio, occorre l’aiuto della tecnologia, come
ad esempio le tecnologie di cloud o quelle di Wi-Fi, che grazie ai loro costi che sono contenuti,
consentono poi lo sviluppo di applicazioni specifiche ma allo steso modo la connessione
intelligente delle macchine. Se fino a pochi anni fa parlare di prodotti connessi e allo stesso
tempo di Internet of Things era difficile, oggi i verifica quella che possiamo definire come
connubio perfetto;, i costi dell’hardware sono scesi ed anche le dimensioni si sono ridotte
permettendo di poter posizionare sensori anche all’interno di prodotti che sono molto piccoli.
Vi è poi l’avvento del cloud, i costi della connettività sono scesi moltissimo e l’affidabilità dei
dati è di fato cresciuta. Le reti telefoniche funzionano bene e ci sono anche valide alternative.
Potendo rilevare dati da qualsiasi cosa, oggi è più semplice parlare di internet of things; si tratta
quindi di un’ulteriore evoluzione della rete, questo perché in breve tempo siamo passati dalla
tradizionale concezione di internet al cosi detto web 2.0, inteso come web riscrivibile, i cui
contenuti sono determinati dagli utenti che riempiono letteralmente una serie di scatole vuote,
come ad esempio i blog, wikipedia, i social network; l’avvento quindi del web 2.0 inteso proprio
come evoluzione e della rete e dei siti internet caratterizzata da una maggiore interattività che
pone l’utente al centro della rete, ha quindi evidenziato ancor di più un importante concetto,
ossia che internet non è più una semplice rete di reti, né un agglomerato di siti web isolati ed
indipendenti tra loro, bensì rappresenta la somma delle capacità tecnologiche, raggiunte
dall’uomo, nell’ambito della diffusione, dell’informazione ed anche della condivisione del sapere.

Ma l’avvento del Internet of things fa capire che ormai ci troviamo di fronte già al web 3.0 e
quindi la possibilità del dialogo con le cose grazie alla rete. Come è noto l’aspetto della
comunicazione fra uomini e macchine e tra macchine era già stato approfondito da un noto
studioso , Norbert Winer, chi aveva creato una nuova scienza denominata “cibernetica” il cui
obiettivo è proprio quello dello studio scientifico del controllo e della comunicazione nel animale
e nella macchina.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
La cibernetica costituisce un’ abito di stridì transdisciplinari, nel campo di sistemi
autoregolanti, quindi struttura, leggi vincolanti e prospettive. Essa si occupa tanto dei sistemi
meccanici, fisici e biologici, quanto di quelli psichici, cognitivi e sociali e si interessa in
particolare dei circuiti loop e delle sequenze operative tramite cui un certo sistema influisce
su se stesso e controlla quindi il proprio stesso funzionamento.
Il termine cibernetica deriva dal greco kibernetic e significa “l’arte di governare, di dirigere” che
deriva a sua volta dal verbo kibernao, riferito proprio all’azione di chi pilota una nave stando al
timone. In un futuro non troppo lontano, sarà anche possibile ipotizzare la comunicazione non
solo tra uomini e macchine, ma anche tra macchine con inevitabili conseguenze da un punto di
vista anche giuridico, poiché sarà necessario regolare rapporti che non hanno esseri umani come
punto di riferimento. Ovviamente un evoluzione così rapida del processo tecnologico, può portare
anche a delle conseguenze che non sempre son positive ed a quel fenomeno che lo stesso Winer
definiva “entropia” intesa come disordine.

Lezione 11.3 – Vantaggi e potenzialità dell’IoT


Il fenomeno dell’Internet of things è sostanzialmente legato alla presenza di una famiglia di
tecnologie il cui scopo è rendere qualunque tipo di oggetto, anche senza una vocazione
digitale, un dispositivo collegato ad Internet in grado di godere di tutte le caratteristiche che
hanno gli oggetti nati per utilizzare la rete.
Naturalmente questa specifica caratteristica degli oggetti deve essere legata ad uno specifico
business riconducibile all’interazione con gli oggetti attorno a noi, persino oggetti statici non
intelligenti, e alla possibilità di aumentare tali interazioni con il contesto fornito ad esempio
dalla geolocalizzazione. Anche i dispositivi non intelligenti e non connessi possono essere portati
sull’Internet of things attraverso smartphone che fungono da Gateway verso Internet.
La connessione di un prodotto alla rete, è legata alla necessità di ricevere e raccogliere dati;
l’obiettivo è trasformare il nuovo flusso di dati in informazioni utili per il proprio business, in
particolare le applicazioni di internet of things, devono incrementare la produttività ed allo steso
tempo ridurne i costi, devono quindi essere orientate all’offerta di un servizio che di fatto sia
utile per il cliente.
Connettere il proprio business ai propri prodotti permette di fatto di associare all’offerta di un
determinato prodotto ad un servizio e permette poi all’azienda di vendere ancora di più ai propri
clienti, conquistarne di nuovi e quindi vincere poi nel confronto con chi vende solo il prodotto.
Sulla base di questa ricostruzione è quindi chiaro che il titolare del trattamento, va visto su
colui che tende a vendere il prodotto ed offre il relativo servizio che risulta poi collegato al
prodotto stesso.

I benefici connessi all’IoT sono:


 Il post vendita ossia il fatturato che è associato al servizio di post vendita che
aumenta proprio perché basandosi sui dati raccolti dal proprio prodotto, l’azienda risulta
in grado di anticipare le necessità del cliente ed evita quindi che quest’ultimo si rivolga
a concorrenti;
 Raccolta di dati, l’azienda ha a disposizione dati reali sul prodotto nel contesto reale
in cui è inserito, quindi non derivati da ricerche sperimentali o da analisi di laboratorio
e può prendere migliori decisioni che sono anche di natura strategica;
 La garanzia, cioè le attività legate alla garanzia di un prodotto che vengono ottimizzate
e i costi associati diminuiscono perché l’azienda è ora in grado di eliminare gli interventi
necessari o anche di pianificarli al meglio;
 Loyalty, ossia i dati raccolti che permettono una conoscenza più chiara ed
approfondita delle abitudini e delle necessità del cliente a cui viene poi offerto un servizio
migliore che di fatto ne aumenta la fiducia ma allo stesso tempo né accresce anche
anche la sua fidelizzazione;
 Le attività di design, ossia i dati sul campo permettono all’azienda di migliorare poi il
design, la funzionalità , l’impatto ambientale del proprio prodotto al fine anche di

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
soddisfare al meglio il cliente ma allo stesso modo di poter instaurare con quest’ultimo
un rapporto continuo che non si concluda al momento della vendita;
 La competitività, ossia l’azienda affianca il proprio cliente lungo l’intera vita del
prodotto vantando un’offerta a 360° rispetto ai propri concorrenti;
 L’efficienza, in cui i dati raccolti dall’azienda produttrice ed i servizi basati su quei
dati, diminuiscono le inefficienze ad esempio i fermimacchina ed ottimizzano le
performance dell’azienda cliente;
 Servizio e fatturato, ossia il cliente finale ha accesso ad un servizio su misura per le
sue necessità che a sua volta può offrire ai suoi clienti ma allo stesso modo anche ai
suoi fornitori. Abbiamo anche la questione relativa al fatturato in cui il cliente finale
comprerà non solo il prodotto ma anche il servizio associato perché intimamente collegato
al valore aggiunto che quest’ultimo attribuisce al suo prodotto;
 Le risorse, ossia l’avere a disposizione un servizio associato al prodotto, consente al
cliente finale di utilizzare le proprie risorse in altre attività che in assenza del servizio
sarebbero poi state impiegate per quello;
 Costi e flessibilità, in cui i costi operativi associati ai propri prodotti diminuiscono
perché anticipare poi un intervento costa meno che prendere provvedimenti a fatti che
sono già avvenuti, il fenomeno della flessibilità è l’esigenza di business che oggi so molto
diverse rispetto a quelle di tipo 10 anni fa ed è richiesta una maggiore elasticità verso le
richieste del mercato, i dati raccolti dal prodotto permettono di avere un’immediato
riscontro sul suo utilizzo e di conseguenza allineare la propria offerta, quindi il prodotto
con il servizio molto più velocemente.
Dall’analisi di questi benefici è evidente che i dati servano essenzialmente all’azienda che
vende il prodotto con il relativo servizio per tutta una serie di vantaggi che abbiamo
evidenziato. In particola modo tali dati saranno utili per chi nell’ambito dell’azienda svolge
poi attività di Marketing ma anche per chi concretamente realizza il prodotto e per chi cura
poi il settore della vendita. Tutti questi soggetti rivestiranno un ruolo all’interno del sistema
di internet of things soprattutto nel momento in cui siano in grado di poter prendere delle
decisioni operative che possano poi modificare lo strumento.

Lezione 11.4 – I droni


L’uso dei dormi negli ultimi tempi si è particolarmente intensificato ed ormai questi dispositivi
vengono impegnati sempre più spesso in attività anche di carattere ludico-commerciale che non
hanno niente a che vedere con impieghi operativi militari.
In effetti il drone o SARP nasce in ambito militare e può essere definito come un velivolo privo
di pilota e comando a distanza, usato generalmente per operazioni di ricognizione e
sorveglianza, oltre che di disturbo e inganno nella guerra elettronica; è indicato nei paesi
anglosassoni anche con la sigla RPV.
Nel 2011, gli Stati Uniti in collaborazione con il Messico hanno utilizzato i droni per il
controllo delle frontiere e per combattere ad esempio i narcotrafficanti, grazie alla possibilità
di monitorare i movimenti stessi. Nello stesso anno in Giappone, l’uso dei droni ha permesso
di controllare da vicino l’attività dei relatori della centrale nucleare di Fukushima, dopo le
esplosioni causate dal terremoto di Tohoku. Per uso bellico ad esempio i predator sono stati
impiegati nel 2011 dalle forze statunitensi proprio per proteggere i livelli in rivolta contro
Gheddafi. Proprio un accordo con gli Stati Uniti, potrebbe fare dell’Italia il primo paese oltre
alla Gran Bretagna, ad avere poi droni statunitensi armati per la protezione delle proprie truppe
in Afganistan, si tratta dei cosi detti Riper, i più gradi e potenti predator di cui 6 esemplari
sono proprio in dotazione dell’Italia. L’intesa potrebbe essere l’inizio di un utilizzo più esteso dei
droni armati da parte di molti paesi.

Questi, quindi, sono i principali impieghi di carattere operativo dei droni, ma come si e già avuto
modo di sottolineare anche in l’ambito civile ormai sta vedendo un uso sempre più generalizzato
di droni, sia per attività di ricognizione come ad esempio agli eventi come alluvioni, incendi,

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
terremoti, sia per attività collegate a veri e propri servizi come il trasporto di merci
annunciato da Amazon ed anche da google, oppure si pensi anche agli usi in campo investigativo o
per servizi fotografici e cinematografi.
La rilevanza del fenomeno è stato poi riconosciuta anche dalla commissione europea che con la
comunicazione dell’8 prime del 2014 ha assunto forti impegni per il sostegno allo sviluppo di
questo settore, evidenziando il beneficio che ogni singolo paese può derivare da esso, sia proprio
in termini di sviluppo economico, sia per l’impatto positivo su livelli occupazionali, in particolare
sottolineando la qualità dell’occupazione connessa all’impiego dei droni.
I mezzi a pilotaggio remoto costituiscono una forte innovazione nello scenario dell’aviazione
civile e pongono poi notevoli sfide anche al sistema regolatorio nell’individuazione di regole
adeguate a fornire da un lato le necessarie garanzie di sicurezza ai cittadini e dall’altro che di
fatto si servono del trasporto aereo e dai cittadini che utilizzano tali mezzi così come per gli
operatori economici che intendono poi farne uso.

Lezione 11.5 – La regolamentazione ENAC sui droni


Era da tempo che si. Sentila la necessità di regolamentare l’utilizzo di questi dispositivi è solo
il 16 dicembre del 2013 l’ENAC con uno specifico regolamento ha deciso di intervenire in
modo più tosto rigoroso dettando delle regole particolarmente incisive che sono entrate in vigore
il 30 aprile del 2014 creando non pochi problemi applicativi. Di recente poi è intervenuta,
prima la seconda edizione del regolamento e precisamente il 16 luglio 2015 dove si è cercato
di semplificare e razionalizzare l’uso dei droni ed infine il consiglio di amministrazione
dell’ENAC ha adottato nella seduta del 21 dicembre 2015, l’emendamento 1 Edizione 2 del
regolamento “mezzi aerei a pilotaggio remoto” per adeguare in tempi brevi alcuni requisiti
alle esigenze prospettate dall’aeronautica militare e per un primo allineamento agli
orientamenti che si stanno consolidando a livello europeo.
La singolarità di tale settore è dovuta a sostanziali differenze che caratterizzano poi lo
scenario operativo, dalle attività svolte con piccoli APR in spazi contenuti ed in continua vista,
alle emissioni di APR ad elevata tecnologia che operano poi su grandi distanze con voli di
lunga durata e in spazio aerei condivisi con gli aeromobili con pilota a bordo; rendono poi
necessario anche lo sviluppo di un’ampia e differenziata gamma di risposte.
È quindi necessario elaborare concetti operativi dedicati, a fronte dei quali definire il set di
requisiti differenziati attraverso i quali conseguire livelli di sicurezza appropriati all’esposizione
e al rischio associato allo spedito concept of operation.
In tal senso il regolamento intende fornire le risposte alle tematiche sottese allo sviluppo delle
attività condotte con APR ponendo un approccio bilanciato ai temi della sicurezza che tenga goto
delle caratteristiche tecniche ed operative dei sistemi a pilotaggio remoto, delle modalità di
occupazione dello spazio aereo, del contributo conferito dalla capacità di gestione dell’operatore
e dalla qualificazione dei piloti di tale mezzi. Ed è proprio l’aspettò sicurezza che è stato preso
in considerazione con l’emendamento del 21 dicembre 2015 dove si è cercato i intervenire su
alcune tipologie di operazioni, riguardo le operazioni nei CTR che avvengono in spazi aerei
controllati e per i quali è stata attivata una sostanziale esenzione della previsioni del
regolamento SERA (regolamento dell’aria), sono state evidenziate da parte dell’AM su alcune
esigenze connesse proprio con l’uso di porzioni di spazio aereo a bassa quota nei CTR, che
incidono poi sul buffer di protezione da garantire proprio per evitare potenziali interferenze.
La fissazione ad esempio dell’altezza massima di 70 metri per le operazioni dell’APR in CTR è
stata poi ritenuta compatibile con le attività dell’aviazione tradizionale, soprattutto militare e
adeguata proprio per consentire le operazioni senza preventiva autorizzazione, nelle suddette
condizioni, le attività restano poi liberalizzate così come nella precedente versione
regolamentare.
Come è evidenziato nel regolamento stesso, operazioni a quote diverse, dove se ne manifesti
la necessità possono comunque esser svolte, ma in tal caso è necessario acquisire le autorizzazioni
secondo criteri e procedure che l’ENAC rende disponibili e. Che aggiorna volta dopo volta
.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Le operazioni notturne
In merito alle operazioni di notte, nella precedente versione, i requisiti relativi alle condizioni
VLOS (dove il pilota mantiene il contatto visivo diretto con l’APR, elaborati nell’ottica di un
utilizzo diurno, sono stati utilizzanti anche in operazioni di notte, senza che fossero definire i
criteri e le condizioni affinché tale tipologia di operazioni potesse essere considerata sicura al
pari di quelle condotte di giorno . In tal senso l’attuale testo riconduce alle condizioni diurne,
l’utilizzo delle condizioni VLOS descritte nel regolamento. Al pari il regolamento non proibisce
l’utilizzo di condizioni VLOS per le operazioni di notte ancorché non ne fornisca gli ambiti di
attuazione.
È per tanto intenzione dell’ENAC stabilire delle apposite regole per l’effettuazione di queste
operazioni notturne, ponendo in essere le usuali procedure ci concertazione con l’AM in accordo
ai concetti di uso flessibile dello spazio aereo e di consultazione pubblica delle associazioni di
categoria. Come negli altri casi gli operatori che intendono svolgere attività in condizioni VLOS
di notte, nelle more della definizione degli appositi requisiti potranno farne poi espressa
richiesta stesso all’ENAC. L’emendamento in esame ha anche approfondito le caratteristiche
degli APR con peso inferiore ao 300g, infatti nella recente opzione emessa dalle ASA per fornire
agli stati membri un quadro armonizzato di regole a utilizzare nell’adozione di normative
nazionali, è introdotto il concetto di APR inoffensivo, ed è stato fissato in 250g il limite di peso
di questa categoria; è anche previsto che tale peso possa essere incrementato associando ad esso
ulteriori limitazioni e condizioni quali: limiti di velocità , materiali con caratteristiche di
assorbimento di energia. Per un iniziale allineamento a tale concetti nell’attuale
regolamentazione è stato mantenuto il peso di 300g con la previsione aggiuntiva di dispostivi di
protezione delle parti rotanti. Tale scelta, secondo l’ENAC, necessità comunque di disposizioni
attuative per gli APR il cui peso ricade tra i 250g e 300g e di una possibile integrazione nelle
linee guida sulle caratteristiche di inoffensibilità attualmente in fase di consultazione pubblica.
Infine l’emendamento è intervenuto anche sul regime sanzionatorio poiché son stati riportati
risposarti anche alcuni articoli del codice della navigazione inerenti alle sanzioni di fattispecie
applicabili al attività condotte con l’APR.
Come è stato però precisato dall’ENAC, la modifica del regolamento non introduce alcuna
innovazione in quanto strumento che è giuridicamente è inadeguato a tale scopo.
Le scansioni restano quindi applicabili l’addome se ne ravvisano gli estremi e quindi in
definitiva il regolamento definisce due classi di APR, una con il limite di peso fissato a 25kg in
linea con similari scelte fatte da altre autorità dell’aviazione civile europea e dell’aeronautica
militare che fissa attualmente a 20kg il limite; la seconda importante differenziazione si basa
invece su aspetti operativi legati alla capacità del pilota di avere o meno in vista l’APR,
operazioni di VLOS, o di BLOS;
In particolare appare inutile sottolineare che nell’ambito della categoria degli APR di massa
minore ai 25 kg utilizzati in condizioni i VLOS, il concept of operation utilizzato è basato
proprio sull’operational risk, ossia l’esposizione al rischio associato alle caratteristiche di
insieme delle componenti che caratterizzano le specifiche operazioni.

Al fine di considerare sicure le operazioni di volo, assumono quindi fondamentale importanza


l’esistenza du procedure operative, normali e di emergenza, la capacità del pilota di
controllare il volo ed il contesto ambientale in cui si svolgono le operazioni, della libertà dello
spazio aereo alle regole che ne determinano l’utilizzo, fino alla compatibilità delle condizioni
meteo con le performance espresse dall’APR. In coerenza con le motivazioni sopra evidenziate il
regolamento introduce un nuovo titolo aeronautico per i piloti degli APR riconoscendo che la
sicurezza delle operazioni dipende in modo sostanziale dalla capacità di essi.
In tal senso il riconoscimento del ruolo dei piloti mediante un titolo aeronautico personale
che ne attesti il percorso formativo e la capacità di conduzione, appare un passaggio
fondamentale per costruite un sistema sicuro ed adeguato alle caratteristiche del settore; il
regolamento considera quindi che il contributo del mezzo aereo al conseguimento di un
accettabile livello i sicurezza, varia a seconda della dimensione dell’APR, passando da pesi
inferiori a 25kg a fesi fino a 150 kg della criticità delle operazioni e della condizione di volo
da VLOS a VLOS.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Per tutti i sistemi di aeromobile a pilotaggio remoto di massa massima a decollo inferiore a 24
kg, i livelli di sicurezza delle operazioni sono stabiliti assumendo quale riferimento si ha la
componente umana, pilota e operatore, che il mezzo aereo ed attribuendo all’affidabilità di
quest’ultimo un contributo marginale per le operazione non critiche più semplici, operazioni non
critiche condotte in condizioni di VLOS è accettabile conseguire proprio un livello di sicurezza
basato essenzialmente sulla capacità del pilota remoto, titolare di un titolo aeronautico in corso
di validità e semplici procedure operative predisposte dall’operatore ed oggetto di sola
dichiarazione; per le operazioni più critiche i requisiti tendono in maggior conto sia i mezzi aerei
con livelli di affidabilità crescenti, che l’operazione mediante un sistema di autorizzazione.
Per i sistemi di aeromobili a pilotaggio remoto, con massa massima al decollo viale o
superiore a 25 kg, in particolare opera le operazioni condotte in VLOS, appare fondamentale
che gli APR forniscano un intrinseco livello di sicurezza, unitamente alle prestazioni associate
alla capacità di impegnare lo spazio aereo in modo da garantire la sostenibilità di attività
complesse in spazi aerei segregati e in un prossimo futuro non segregati; per tale ambito il
concept of operation riprende il tradizionale impianto regolatorio delle operazioni con
aeromobili con pilota a bordo pur con i dovuti adattamenti, il regolamento detta regole meno
severe per gli aeromodelli e in particolare viene chiarito che l’aeromodellista che comandi dall’
aeromodello alla responsabilità di utilizzare il mezzo in modo che non possa recare rischi a
persone o a beni e ad altri utilizzatori dello spazio aereo. Inoltre è tenuto a mantenere la
separazione da ostacoli, evitare anche collisioni in volo e dare precedenza a tutti;
l’aeromodellista è anche responsabile di ottemperare agli obblighi relativi e deve poi ottenere
eventuali autorizzazioni per l’utilizzo dello spettro elettromagnetico impegnato dal radio
comando.

Lezione 11.6 – Le problematiche sull’utilizzo dei droni


Il vero problema rappresentato dall’utilizzo di questi droni è sicuramente quello del rispetto
della privacy e della protezione dei dati. Infatti le particolari caratteristiche di questi
dispositivi che sono in grado di effettuare foto, registrare audio e immagini impone una
maggiore attenzione e regolamentazione per la tutela della collettività sul fronte del
trattamento dei dati appunto in merito a questo aspetto il regolamento dell’ENAC e
naturalmente deficitario in quanto all’art.34 si limita ad operare un rinvio ai principi del codice in
materia di protezione dei dati personali, in particolare al principio di necessità di cui all’art.3,
ed ha eventuali provvedimenti dell’autorità garante che effettivamente già ha lasciato intendere
di dover quanto prima regolamentare questo delicato settore.
Naturalmente il rischio è quello di imbrigliare questi dispositivi nell’ambito di una fitta rete di
regole da rispettare com e ha già fatto l’ENAC dal punto di vista tecnico, rendendone di fatto
difficile poi utilizzazione.
Come è noto i droni sono estremamente utili nel settore pubblico, per raccogliere notizie e
informazioni ad esempio ad un riferimento su gravi situazioni di emergenza come incendi
boschivi ed inondazioni. Riguardo invece i più recenti utilizzi di natura privatistica, cui abbiamo
analizzato, sarebbe opportuna una più attenta regolamentazione che impedisca delle prevedibili
violazioni sul trattamento dei dati. Il quadro generale diventa più preoccupante se si pensa alla
recente invasione sul mercato i questi dispositivi che sono acquistabili nella versione base per
poche centinaia di euro, potranno anche esser considerati alla stessa stregua di aeromobili, ma
restano comunque pericolosi per le loro intrinseche caratteristiche. Anche gli Stati Uniti stanno
pone s’andò all’emanazione delle linee guida sulla privacy per l’uso commerciale di quesiti droni,
infatti in ambito europeo il gruppo articolo 29 ha manifestato una certa preoccupazione in
materia, riconoscendo la necessità di concentrarsi sulle minacce che una proliferazione
incontrollata di droni potrebbero portare ai diritti e alla libertà fondamentale delle persone.
Naturalmente dal punto di vista della protezione dei dati ciò che è rilevante non è tanto l’uso
dei droni, ma lo sono le diverse tecnologie di cui possono esser dotati, ossia telecamere e
microfono ad alta risoluzione, apparecchiature di termocamera, dispositivi per intercettazione
di comunicazione e poi la successiva raccolta e trattamento dei dai personali che si
configurerebbe tal volta nei confronti di persone ignare in considerazione delle limitate

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
dimensioni di alcuni di questi dispositivi in grado di operare in volo; inoltre qualora gli stessi
droni fossero visibili, sarebbe poi estremamente difficile se non impossibile sapere chi ci stia
osservando, per quali finalità e come esercitare alcuni diritti.
Da un punto di vista normativo, la prima regolamentazione di carattere internazionale in
materia, hanno considerato applicabili le disposizioni generali sulla video sorveglianza al
trattamento dei dati personali, connessi all’uso di droni, insieme alle norme generali sulla
protezione dei dati, quali la notifica e il diritto degli interessati di poter essere informati.

Valutazione di impatto sui droni


Le nuove disposizioni in materia di valutazione d’impatto sulla protezione dei dati, i principi
della privacy by design e by default così come le disposizioni specifiche in materia di
certificazione delle operazioni di trattamento dei dati, possono essere di particolare rilevanza
per disciplinare la protezione dei dati e le minacce legate all’utilizzo dei droni. L’emanato
regolamento europeo i un materia di protezione dei dati, introduce l’obbligo per i responsabili di
effettuare una valutazione d’impatto sulla protezione dei dati prima di effettuare operazioni
di trattamento a rischio particolarmente elevato per i diritti e le libertà delle persone fisiche,
come il monitoraggio delle aree accessibili al pubblico, in particolare quando i dispositivi
ottici- elettronici (video sorveglianza) sono utilizzati su larga scala.
La valutazione deve quindi contenere almeno una descrizione sistematica dei trattamenti
previsti e delle finalità del trattamento compreso l’interesse legittimo perseguito dal
responsabile del trattamento, una valutazione della necessità e proporzionalità dei
trattamenti in relazione alle finalità , una valutazione dei rischi per i diritti per i diritti e le
libertà degli interessati, le misure previste per affrontare i rischi includendo le garanzie, le
misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e di mostrare
poi la conformità al regolamento tenuto conto dei diritti e degli interessi legittimi degli
interessati e delle altre persone in questione.
L’autorità di controllo può inoltre redigere e render pubblico un elenco delle tipologie di
trattamento per le quali non è richiesta una valutazione di impatto sulla protezione dei dati
personali; anche tali elenchi sono comunicati dall’autorità al comitato europeo per la protezione
dei dati, prima di adottare tali elenchi, l’autorità di controllo competente applica il meccanismo
di coerenza dell’art.57 del regolamento, se tali elenchi comprendono anche attività di
trattamento finalizzate all’offerta di bei o servizi a soggetti interessati o al controllo del loro
comportamento in più stati. Nel valutare l’impatto dei trattamenti effettuati dai relativi
responsabili o incaricati, si tiene conto anche del rispetto da parte di questi ultimi dai codici di
condotta dell’art.38, in particolare ai fini di una valutazione di impatto sulla protezione dei dati.

Privacy by design e by default


Ò o stesso responsabile del trattamento deve mettere in atto misurare tecniche e organizzative
adeguate per garantire che siano trattati, di default, solo i dati personali necessari per ogni
specifica finalità del trattamento; ciò vale per la quantità dei dati raccolti, l’estensione del
trattamento, il periodo di conservazione e l’accessibilità . In particolare misure garantiscono che,
di default, non siano resi accessibili dati personali a un numero indefinito di persone fisiche
senza l’intervento della persona fisica. Si tratta dei principi di privacy by design e by default.
In tale ottica l’evoluzione tocca anche il settore della privacy rispetto alla tradizionale e primaria
configurazione con riferimento al PET, che costituiscono le tecnologie utilizzare per
migliorare il diritto alla privacy. Ovviamente e tali tecnologie vengono utilizzate in maniera
neutra, ovvero senza alcuna connessione con specifiche fattispecie. Il concetto di privacy by
default trova spazio nella trilogia di applicazioni AT System, delle tecnologie dell’informazione,
pratiche commerciali responsabili, progettazioni delle strutture. Il rischio di sorveglianza
generalizzata derivanti dall’uso dei doni, richiede quindi specifiche disposizioni al fine di
evitare l’uso improprio di queste tecnologie e per ridurre al minimo le interferenze con diritti
e libertà fondamentali in conformità con i principi generali di protezione ben noti.
Naturalmente, il quadro che verrà adottato per garantire l’integrazione graduale di sicurezza
dei droni nel sistema europeo di gestione del traffico aereo, dovrebbe chiaramente far

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
riferimento alla necessità di rispettare la legislazione sulla produzione dei dati, il
coinvolgimento delle autorità dell’aviazione civile competenti nella verifica dell’
adempimento degli obblighi di protezione dei dati da parte dei responsabili stessi, prima di
concerne loro l’autorizzazione richiesta, otre e esser fondamentale ai fini di un efficace tutela
della privacy in questi settore che rappresenta un campo molto delicato.
Infine il work package 29 chiarisce nel suo parere che non è l’impiego dei droni in se ad esser
problematico, quanto gli effetti potenzialmente invasivi che può tradurre il loro uso e che
sfuggono totalmente alla percezione delle persone.
Il work package 29 ha cercato ricostruire la catena di responsabilità nell’utilizzo dei droni, ossia
di chiarire chi fa cosa e per quali scopi e queste misure sono: gli operatori avranno l’obbligo di
fornire i un’informatica tenendo conto delle peculiarità delle operazioni; è consigliato
un’approccio multi livello, quindi dai classici cartelli a informative operate e publicate sui siti
di ciascun operatore; ciascun operatore dovranno inoltre scegliere una tecnologia che limiti la
raccolta e il trattamento dei dati a quelli indispensabili alle loro finalità e adottare idonee
misure di sicurezza.
Al di là della privacy tra le disposizioni più criticali vi è sicuramente quello del regolamento
europeo dell’art.32 che prevede la necessità di stipulare un’assicurazione concernente la
responsabilità verso terzi, adeguata allo scopo e non inferiore a massimali minimi previsti
dalla normativa europea. Tale disposizione nasce dalla consapevolezza di possibili incidenti
che potrebbero verificarsi nonostante le prescrizioni molto server e del regolamento.

Lezione 11.7 – I Robot


La robotica è un settore disciplinare che ha per oggetto lo studio e la realizzazione di robot e
le loro applicazioni pratiche nelle attività di produzione industriale e di ricerca scientifica e
tecnologica appunto la robotica si è sviluppata secondo tre filoni principali: lo sviluppo della
tecnologia costruttiva, lo sviluppo della capacità di ragionamento, l’integrazione con
l’ambiente operativo.
La tecnologia costruttiva dei robot si è evoluta grazie ai materiali utilizzati ossia più leggeri,
robusti e anche flessibili, sia agli attuatori quindi più leggeri, potenti e veloci; tale evoluzione
consente una rapidità e una precisione di movimento molto superiori a quelle dei robot della
generazione precedente.
La capacità di ragionamento grazie agli sviluppi degli elaboratori, più in generale dei sistemi
informatici e in particolare delle tecniche di intelligenza artificiale, è aumentata di alcuni
ordini di grandezza, tale evoluzione consente l’esecuzione di azioni complesse in ambienti anche
molto articolati, con la presenza congiunta di macchine e uomini. L’integrazione con
l’ambiente è molto migliorata, sia per la maggiore capacità di analisi dei diversi ambienti
operativi, sia per la migliore comprensione delle modalità di interazione robot-ambiente, sia
ancora per la capacità di gestire in tempo reale e per un significativo intervallo di tempo, le
operazioni svolte dai robot. Dal punto di vista della ricerca l’evoluzione della robotica ha visto
l’interazione di competenze molto diverse, tradizionalmente afferenti a settori disciplinari
distanti con il risultato di sperimentare elementi di automazione e sempre più rispondenti
alle esigenze di tutela.
In particolare il termine robotica indica l’insieme delle conoscenze teoriche, tecniche e
applicative mediante le quali è possibile svolgere una o più delle seguenti azioni: studio,
progettazione, costruzione e programmazione dei robot, uso dei robot per risolvere problemi,
studio dei metodi e delle tecnologie di controllo e di misura applicate ai robot e impiego delle
conoscenze acquisite per il loro miglioramento.
Entrambi i termini, robotica e robot, hanno origini letterarie, esiste per altro da molti secoli
un ulteriore termine che possiamo definire Automa, che intende il soggetto che si muove da
sé , questo termine è ancora in uso in ambienti letterari e scientifici, ma non più nel settore
della robotica, sia a causa della diffusione del temine robot, sia perché al momento della
nascita dei moderni sistemi di calcolo è stato ampiamente impiegato per la descrizione di
certe strutture matematiche adatte poi a delineare e a modellare processi che avvengono nei
componenti logici elementari.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
La robotica, intesa come disciplina scientifico tecnica, è nata negli anni ’70 del ventesimo secolo,
quando nelle industrie manifatturiere si è iniziato ad utilizzare con i primi robot. L’ideazione,
la costruzione di tali macchine che erano allora assai poco sofisticate e piuttosto facevi li da
realizzare, nascevano dall’incontro tra varie realtà che si andavano poi consolidando.
Le notevoli capacità tecniche accumulate da costruttori di macchine e utensili per le quali si
erano già affermate le procedure di controllo numerico.

I primi robot possono essere considerati macchine dottate di una certa autonomia e aventi
capacità di manipolazione, cioè in grado di muovere nello spazio dei pezzi o utensili
assimilandoli a corpi rigidi, sulla base di istruzioni memorizzate e fornite di volta in volta. Si
noti che un’istruzione può anche essere realizzata con sistemi puramente meccanici usando
per esempio un profilo che deve essere seguito da un certo elaboratore.
Il primo prototipo di robot entrò in funzione nel 1961 presso la fabbrica di automobili della
general motors. Di seguito dopo un rapido e grande sviluppo in campo industriale, la robotica
cominciò ad essere intesa come la disciplina riguardante ogni oggetto, anche virtuale, capace di
produrre movimento in modo anche solo parzialmente autonomo; contemporaneamente in
diversi paesi industrializzati, si andavano delineando alcuni fenomeni associati all’aumento del
costo del lavoro, per esempio abbandono di alcune produzioni e delocalizzazioni di altre, con
conseguenze di grande rilevanza sociale ed economica che indussero un numero sempre
crescente di aziende manifatturiere a ridurre l’apporto umano al processo produttivo, affidando
i lavori più semplici, ma più pericolosi a robot opportunamente programmati.
La definizione di robot industriale, proposta dall’International organization for standardization,
nella sua norma 8373 del 94, si addice abbastanza bene al settore manifatturiero: un
manipolatore governato automaticamente riprogrammai le e multiscopo, programmabile in
tre o più gradi di libertà , che può essere sia fisso sul posto che mobile per l’uso in applicazioni
di automazioni industriale; tale definizione si applica meno bene alle numerose estensioni
anche industriali che sono state date ai termini robot e robotico. Un esempio per tutti
riguarda il cambio automatico delle automobili, detto cambio robotico, anche se è stato
realizzato con semplice meccanismo articolato comandato dal conducente o da un
programma di calcolo sulla base di un certo numero di parametri misurati. Di fatto esiste una
grande quantità di oggetti e apparati automatizzati in misura maggiore o minore, che vengono
chiamati robot, in questo senso possono essere adottate altre definizioni, per esempio quella
che con riferimento alle tecniche di intelligenza artificiale, definisce la robotica come la
scienza che riguarda il concepimento, l’uso e la programmazione di macchine intelligenti in
grado di integrare varie capacità tra cui quelle sensoriali, di percezione, quelle associate al
ragionamento autonomo e quelle anche di movimento come le capacità di azione, con la
finalità di svolgere compiti anche solo in parte prefissati.
Con il trascorrere del tempo, i concetti di robot e robotica, si sono estesi a tutti i settori nei quali
il governo del movimento è associato ad autonomie decisionali basate su programmi e sulla
percezione; un robot destinato ad applicazioni industriali odi altro tipo, è costituito da quattro
componenti essenziali: una struttura meccanica in grado di trasmettere il moto, un sistema di
attuatori motori e relativi organi di comando e di alimentazione, un sistema di governo costituito
quasi sempre da uno o più calcolatori e infine un sistema di percezione formato da più sensori
con varie finalità ; a questi componenti se ne aggiungono altri a seconda delle applicazioni, se
il sistema di governo non è collocato in una sfera d’azione circoscritta del robot, ma è
suddiviso in una parte comunque prossima e in una parte distante o remota e si parla in tal
caso di telemanipolatori. Il robot quindi agisce sull’ambiente che lo circonda e nel quale
lavora, modificandoli in misura maggiori o minore e si va quindi dagli spostamenti di oggetti
nello spazio, a interventi con utensili su pezzi in lavorazione, fino anche al recupero di oggetti
pericolosi.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Lezione 11.8 – Le applicazioni della
robotica I robot industriali
Appartengono a questa categoria, i robot usati nelle industrie manifatturiere, quasi sempre
adibiti a sostituire il lavoro umano. Essi operano in un ambiente di lavoro “strutturato” nel
senso che le funzioni da svolgere sono definire a priori e che gli oggetti, in essi contenuti,
occupano posizioni note al sistema di governo o individuabili a mezzo del sistema dei sensori.
I robot rappresentano, al momento attuale, lo strumento più sofisticato cui si ricorre negli
impianti di automazione industriale.
Il robot, per la sua potenziale flessibilità di impiego è preposto a sostituire l’uomo in
operazioni di manipolazione di oggetti anche di tipo non strettamente manifatturiero, da quelli
più esplicita come lo spostamento di una provetta in ambiente contaminato, o la verniciatura
di un pezzo, fino a quelle più sofisticate come il montaggio di parti a livello microscopiche. Le
capacità di costruire e di far funzionare questo tipo di robot, sono nate nell’industria delle
macchine utensili, e solo successivamente la relativa tematica è stata affrontata da stridì e
ricerche accademiche, in quanto le conoscenze tecniche, tecnologiche e funzionali, erano già
nel bagaglio culturale del personale tecnico dell’industrie. La ricerca ha consentito di
comprendere alcuni degli aspetti inizialmente non chiari come ad esempio come esercitare il
controllo dei robot ricorrendo in casi non sofisticati a più semplici controllori industriali,
solitamente utilizzati per il governo dei processi senza apparenti conseguenze sulla stabilità
del sistema.
L’affermazione industriale dei robot è strettamente legata agli aumenti dei costi della mano
d’opera, con i conseguenti fenomeni di abbandono di certe produzioni e di migrazioni di altre
in località lontane e più economiche. L’introduzione della robotica in fabbrica con la relativa
riduzione dei costi i produzione, ha consentito di mantenere nei paesi maggiormente
sviluppati, attività industriali altrimenti destinati all’abbandono o alla migrazione, così come
ha avuto l’effetto di mutare in meglio la qualificazione degli addetti alla produzione; in ogni
caso l’applicazione robotica richiede sempre valutazioni preliminari di tipo economico in
quanto le operazioni che potrà svolgere il robot, devono giustificare il suo costo, molto variabile, a
seconda delle caratteristiche connesse alle dimensioni, precisione e velocità e a quello relativo
alla costruzione e messe in opera di quegli utensili terminali che consentono ai robot di operare
nella maniera programmata.
La sostituzione dell’uomo, inoltre, comporta nella maggioranza dei casi la ri-progettazione del
pezzo su cui si lavora e delle sue parti.
In ambito industriale, si sono affermate poi diverse strutture produttive che fanno uso di robot;
esse vanno da strutture assai complesse che comprendono interi reparti produttivi, come quello
preposto ad esempio alla costruzione delle carrozzerie delle auto.
L’Italia mantiene un ruolo di primo piano nell’introduzione dei robot dell’industria
manifatturiera, ed ospita tutt’ora un elevato numero di industrie produttrici di robot di elevata
qualità , confrontabile con quello degli altri paesi produttori europei, soprattutto Germania e
Svezia, ma anche Giappone. I dati statistici riguardanti le applicazioni robotiche nell’industria
manifatturiera, hanno un andamento stazionario, come dimostrato dal fatto che nei paesi
maggiormente industrializzati non si registrano grandi vari azioni da un anno all’altro; il dato
globale, fissa tra le 120mila e le 140mila il numero di robot industriali acquistati in un anno nel
mondo, a fronte di un parco robot installati e funzionanti di circa un milione, di questi circa al
40% sono in Giappone, il 33% in Europa e il 20% in America settentrionale.

I robot di servizio
Con questo termine generico si indica il robot non manifatturiero; si va dal robot destinato a
operazioni di sicurezza o di esplorazione spaziale, a oggetti sofisticati destinati al gioco. Si tratta
del segmento più numeroso: circa 6 milioni di robot funzionano, a fronte, di circa un milione
di operanti nell’industria manifatturiera. I costi relativi sono molto variabili: si va da diversi
milioni fino a poche centinaia di dollari.
Si tratta di robot mobili con gradi. Assai differenziati di autonomia, cioè dotati di capacità
autonome di scelte di comportamento sia pure in un insieme predefinito, fermo restando che dal
punto di vista strutturale ciascuno di questi robot può essere ricondotto alle strutture e

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
funzionalità già definite; si preferisce in questa sede far riferimento alle più rilevanti
applicazioni specifiche, si noti che nell’unico e generico titolo di robotica di servizio sono
raggruppate le nuove tendenze del settore della robotica, a causa della dichiarata motivazione
che vuole tale disciplina sempre più vicina ai bisogni sociali umani, proprio per questi si va
quindi dalla robotica medica con i suoi aspetti caratteristici di robotica chirurgica, di
riabilitazione robotica e di robotica protesica, di robotica spaziale a quella umanoide e alla
robotica domestica alla quale ascrivibile la quasi totalità dei robot di servizio.

La robotica medica
A partire dagli anni 90, in medicina si è assistito ad un consistente aumento della presenza di
robot in ambienti ospedalieri, talvolta in sostituzioni di personale qualificato come medici ed
infermieri, ma spesso con funzioni di ausilio per svolgere i compiti di routine e di precisione
incerti e ben definiti casi. D’allora, sono emerse molte applicazioni mediche, tra cui le
principali che riguardano: la formazione chirurgica, la chirurgia a distanza, la telemedicina e il
teleconsulto, la riabilitazione e l’aiuto ai disabili anche gravi come i non vedenti.
La diffusione tuttavia non è uniforme, trattandosi quasi sempre di oggetti destinati a svolgere
funzioni già assolte dal personale sanitario e per la loro introduzione è necessario superare
alcune barriere legate all’atteggiamento ostativo del personale, per esempio a causa
dell’anzianità e ai consistenti investimenti necessari sia per le attrezzature che per la
formazione degli addetti.
Il settore della robotica chirurgica ha raggiunto in alcuni suoi segmenti risultati di grande
rilievo ed è poi proiettato verso ulteriori progressi. I robot usati in chirurgia sono quasi
sempre telemanipolatori nei quali al livello di comando si colloca nei movimenti compiuti dal
chirurgo nell’unità a sua disposizione a livello operativo i movimenti di specifici attrezzi
chirurgici che coincidono con l’effettuazione l’attività del robot stesso a livello di sensori e le
telecamere visive stesse.
I vantaggi risiedono nel fatto di non essere vincolati alla predisposizione di cavità in grado di
contenere le mani del chirurgo o parti di esse e nella possibilità di effettuare movimenti in
qualunque scala, riducendo le dimensioni delle ferite o le perdite di sangue, assicurando
elevate precisioni non raggiungibili cn il movimento della mano e garantendo degenze molto
brevi. Non tutti gli interventi chirurgici sono suscettibili di esser compiuti con strumenti di
questo tipo, la diffusione maggiore si è avuta per quanto riguarda l’invasività negli interventi
alla prostata, in quelli in lavaroscopia nei cavi addominali e toracico e negli interventi di
artroscopia; mentre per untato riguarda la precisione, gli interventi più diffusi son quelli di tipo
oculistico e nella scatola cranica, il chirurgo opera sulla base di informazioni visive fornite da
una o più camere o microcamere e di piani di intervento basati su immagini strumentali
preventivamente ottenute. Per la chirurgia robotica sono stati realizzati un certo numero di
robot prodotti da più industrie e per il settore di prevede un grande sviluppo, si sta cercando
di aggiungere all’attuale sistema di percezione per il chirurgo basato quasi unicamente sulla
visone, un’ulteriore livello di sensorialità , soprattutto per gli aspetti dinamici e per la capacità
di rappresentazione ad esempio sovrapponendo in un'unica immagine quelle provenienti da
altre camere e da altri strumenti diagnostici; si pensa inoltre di aggiungere al sistema di
comando attualmente costruito dalle due manopole, che vanno a saturare completamente le
capacità del chirurgo, funzionalità anche alternative basate per esempio sull’utilizzo della
voce.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Web Lesson 9A - Gli Hacker
La versione sistemi informatici e telematici e solitamente realizzata da soggetti con elevate
conoscenze e capacità tecnico informatiche che vengono definiti “Hacker” e “cracker”.
Alcuni aspetti hanno individuato determinate figure in relazione al livello di abilità e cioè:
a) Crackers: si tratta di penetratori di più alto livello, dotati di livello tecnico elevato e
larga conoscenza e esperienza;
b) Hacker: veri e propri e si tratta di penetratori di livello medio;
c) Rodents: si tratta di penetratori di basso profilo.
Se andassimo ad analizzare una definizione fornita da altre da altri esperti di sicurezza
informatica, effettua una tripartizione parlando di esperti veri e propri swappers e vandali
elettronici.Quando si parla di esperti elettronici questo fa riferimento a color che sono in
grado di violare i sistemi informatici mediante indagini sistematiche e il loro obbiettivo è
tendenzialmente quello di voler infrangere sistemi di sicurezza, curiosare all’interno degli
schedari, per il semplice fatto di voler raggiungere il loro scopo, il loro obbiettivo è. Quindi l’idea
e l’interesse a voler penetrare nei sistemi per mettere alla prova loro stessi.
I swappers invece rappresentano, la categoria più grande degli hacker e fanno scambi di
informazioni e anche usi di sistemi per scopo ludico, quindi accedono tendenzialmente per
una finalità ludica e nuovamente per mettere alla prova se stessi. I vandali elettronici invece
rappresentano una minoranza nel campo degli hacker e possiamo definire come i soggetti che
accedono a sistemi di altura informatica con la priorità di voler distruggere, quindi andare a
cancellare tutti i dati e tutte le informazioni in particolar modo svolgono quest’attività anche
chiedendo dei riscatti, quindi ad esempio effettuo una cancellazione o blocco determinati dati
al fine di voler dei soldi in cambio per darti la possibilità di riaccendere a quelle informazioni.
Recentemente invece alcuni autori hanno proposto una classificazione differente di hacker e
crackers proprio sulla base della diversa struttura del comportamento e delle motivazioni che
loro hanno nell’andare a volgere le attività di hackeraggio e di penetrazione dei sistemi
informatici. Secondo questi ultimi autori, mentre gli hacker attribuiscono un informazione,
qualunque essa sia, allo stesso valore che si attribuisce alle proprietà delle informazioni
stesse, i cracker invece vengono definiti come delle vere e proprie persone che ricercano le
informazioni in modo ossessivo, quindi il loro intento, il loro interesse è proprio
l’informazione, cioè il voler accumulare quante più informazioni possibili ad esempio i
numerosi telefonici, password, numeri di conto, proprio per avere l’interesse di voler
accedere a questi sistemi informatici.
In particolar modo quindi secondo gli esperti di sicurezza informatica, i fattori che possiamo
definire primari per quanto riguarda i crackers sono una sfida intellettuale, intesa proprio come
capacità del soggetto di mettere alla prova se stesso e di vedere se è in grado di poter
superare quel nuovo sistema informatico, quella nuova attività che è stata posta per andare a
limitare l’accesso all’interno di quel sistema, può essere effettuata invece proprio per
vendetta, quindi la scelta di voler andare ad hackerare un sistema al fine di voler distruggere ;
in linea secondaria poi si ritiene che l’hacker possa anche assolvere alla sua funzione per una
finalità diversa, nel senso che spesso capita che alcuni hacker vengono assunti da compagnie
telefoniche, banche, proprio con la finalità di voler ottenere una penetrazione del sistema
informatico e quindi io consento all’hacker di accedere all’interno del mio sistema informatico
al fine di verificare effettivamente se ci sono dei bug all’interno del sistema per esempio e
quindi chiederò successivamente all’hacker di fornirmi queste informazioni e di verificare
effettivamente se l’accesso che è stato poi effettuato è un accesso che poteva essere evitato e
se si in che modo poteva evitarli.

Definizione di Hacker
Il termine hacker deriva dall’inglese “to hack” che letteralmente significa “fare a pezzi” o
“tagliare” e indica una persona per la quale la programmazione informatica rappresenta una
vera e propria passione, ha quindi la voglia, l’interesse, di voler smontare sistemi, di osservare
e allo stesso modo di voler comprendere come sono strutturati i sistemi informatici e quindi c’è
proprio un interesse da parte del soggetto a voler comprendere il funzionamento del sistema
informatico e di tutte le caratteristiche che quel sistema informatico comporta.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Co la diffusione di internet e delle moderne tecnologie, il termine hacking ha iniziato ad
essere usato per scopi criminosi e da allora il termine hacking ha assunto quel significato di
“pirata informatico”, da qui è venuto a crearsi la figura del cracker, per distinguere gli
operatori, le diverse finalità e le motivazioni nei vari comportamenti.
Il cracker viene definito come colui che per scopi leciti oppure criminosi, si introduce
abusivamente all’interno di sistemi automatizzati che possono esser pubblici o privati, andando
di fatto a voler eludere misure di sicurezza per poter diffondere virus, esaminare, sabotare,
alterare e manipolare i patrimoni informativi presenti all’interno di elaboratori elettronici al
fine proprio di voler andare a captare tutta una serie di informazioni riservate o anche per
andare a commettere ulteriori finalità ed attività di natura illecita.
Gli accessi clandestini che vengono effettuati nei confronti dei sistemi informatici, possono esser
sorretti da una serie di motivazioni, da quelle più ludiche a quelle vandaliche, perché
ovviamente la finalità che un hacker può perseguire può essere semplicemente quella di voler
superare se stesso e quindi voler accedere ma senza di fatto voler distruggere il sistema
informatico, oppure al contrario può compiere attività di tipo vandalico per andare proprio a
distruggere il sistema di natura informatica del soggetto al quale ha deciso di accedere,
sempre per giungere a operazioni di sabotaggio che possono essere finalizzate anche alla
concorrenza sleale.

Successivamente con l’azione monopolistica e speculativa delle multinazionali


dell’informatica, il termine hacker ha iniziato invece ad assumere anche connotati politici ed
ideologici, tanto ad ispirare il compimento di azioni illecite e dimostrative intese ad affermare
il principio di poter rendere disponibili per tutti gli utenti, le risorse offerte dalla tecnologia.
Tutta via oggi quando parliamo di hacker, è un espressione che noi andiamo ad utilizzare a
360° e che fa tendenzialmente riferimento ad ogni tipo di comportamento che possa
comunque integrare una fattispecie di realtà con il ricorso a strumenti informatici o
telematici.

Steven Levy
Con l’espressione etica hacker, noi facciamo riferimento ad un’etica che è emersa nelle prime
comunità virtual o “cyber communiti ed”, dedite alla programmazione informatica. Un elemento
che accomuna tutti gli hacker è la curiosità , che nasce nel voler scoprire il funzionamento e
valutare perfezionamenti in grado di migliorare L’elaboratore o un programma stesso.
Steven Levy, nella sua opera “Hackers. Gli eroi della rivoluzione informatica”, evidenzia i
principi generali su cui si fonda l’etica Hacker:
- Secondo il primo principio l’accesso ai computer e a tutto ciò che può insegnare il
funzionamento del computer stesso, deve essere illimitato e completo, cioè secondo
Steven Levy, si deve dare sempre precedenza ad un imperativo, cioè si intende
l’utilizzo di un approccio curioso verso quelli che sono i problemi, andando proprio a
voler sperimentare e andare ad apprendere ciò che si sta studiando; secondo Steven
Levy, occorre quindi permettere agli hacker di poter esaminare quelli che sono i
sistemi già esistenti, in modo tale che in questi possano comunque capirli e conoscerli e
solo in questo modo sarà possibile poi migliorare i sistemi e la creazione di nuovi, in
quanto l’accesso ai sistemi informatici prevede e da la possibilità di poter sviluppare
delle nuove tecnologie;
- Il secondo principio stabilisce che tutta l’informazione deve essere libera, quindi le idee
e le informazioni devono essere necessarie al fine di poter migliorare, correggere ma allo
stesso tempo anche creare quelli che sono nuovi sistemi;
- Altro principio è quello di dover dubitare dell’autorità e promuoverne il
decentramento. Secondo Steven Levy il modo migliore per poter promuovere un libero
scambio di informazioni è quello dia vere un sistema aperto, privo di ogni ostacolo da
un hacker e ciò che sta cercando di imparare, per questo motivo gli hacker sono contrari
ad ogni forma di burocrazia, indipendentemente dal fatto che sia di tipo governativa o
di matrice universitaria e che infatti ritengono che non abbia alcuna altra funzione se
non quella di poter rallentate o ostacolare la conoscenza. Gli hacker si definiscono
sempre soggetti liberi, quindi non sottoposti ad alcun tipo di autorità e quindi. di
conseguenza gli hacker

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
rispettano questo tipo di principio secondo il quale vogliono evitare di essere
ricondotti ad autorità qualunque essa sia, che sia accademica, governativa o di tipo
aziendale;
- Altro principio da tenere in considerazione è che gli hacker devono essere giudicati per il
loro operato e non invece sulla base di falsi criteri, quali ceto, età , sesso, posizione sociale.
Secondo l’etica hacker e ciò che riguarda questa comunità è l’attività che conta più di
ogni altra caratteristica;
- Un altro principio che si applica è che con un computer è possibile creare arte, cioè è
uno degli aspetti che viene maggiormente apprezzato dagli hacker è quello di
realizzare software complessi ma che di fatto funzionano con il minor numero di
istruzioni possibili e quindi il codice sorgente di un programma se particolarmente curato
e ben scritto viene considerato un’opera d’arte secondo la concezione di Steven Levy;
- Ultimo principio che e stato portato avanti da Steven Levy è che i computer possono
anche cambiare la vita in meglio e quindi gli hacker considerano il computer come una
parte integrante delle loro vite, avendo poi donato loro degli obbiettivi e delle avventure,
quindi allo stesso tempo si considerino degli strumenti che possono essere in grado di
migliorare la vita e quindi proprio per questo motivo loro pensano che chiunque possa
beneficiare di questi strumenti hanno la possibilità di far contribuire l’espansione della
nautica hacker nel mondo fino a poter far migliorare il mondo stesso;

Pekka Himanen
Un’altra importante opera nella quale si parla di etica hacker è quella di Pekka Himanen,
professore di sociologia in Finlandia ed in California, intitolata “L’etica hacker e lo spirito
dell’età dell’informazione”.
Nella sua opera, l’autore suddivide l’etica in tre categorie:
- La prima categoria è quella dell’etica protestante che concepisce un lavoro come un
dover essere che è un fine che si deve elevare perché è più importante anche della vita
stessa e quindi non ha un valore la natura del lavoro che si vada a segnare ad un soggetto,
ma ciò che rileva è che questo tipo di lavoro viene comunque portato a compimento e
venga portato a compimento nel modo giusto
- La seconda categoria è l’etica del lavoro, che secondo Pekka Himanen l’etica del
lavoro hacker deve esser guidata dai valori della passione e della libertà ; Passione
intesa proprio come una consacrazione di un’attività che deve essere per l’hacker
stimolante e piacevole anche se a volte si devono portare avanti i compiti che possono
esser noiosi e allo stesso tempo meno divertenti, però che sono poi necessari per la
creazione di un insieme stesso, infatti si sostiene che essere hacker significa
tendenzialmente divertirsi molto, ma è un tipo di divertimento che implica una serie
di sforzi.
Un hacker quando applica l’etica del lavoro all’interno della sua vita, può stare con gli
amici, andare a pranzo con gli amici e allo stesso modo ha la possibilità di recuperare il
lavoro più tardi o addirittura il giorno successivo, perché non è un progetto che è
legato ad un luogo fisico o a degli orari stabiliti, perché la tecnologia da la possibilità ad
un soggetto di poter compiere e gestire un’attività come meglio lo si crede e io posso
accedere e svolgere quell’attività in qualunque momento;
- L’ultima categoria è l’etica del network. Con questa espressione ci si riferisce soprattutto
al modo che attuano gli hacker nei rapportarsi alla rete della network society. Gli
hacker hanno sempre sostenuto la necessità che nelle reti si andassero a sviluppare
coerentemente due valori fondamentali: da un lato la libertà di espressione e dall’altro
la privacy e la riservatezza.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Web Lesson 9B – Le tipologie di attacco degli Hacker
L’avvento delle nuove tecnologie ha determinato una riorganizzazione del lavoro in molti settori,
ed ha cambiato il nostro modo di vivere, i nostri costumi, le nostre abitudini e condizioni di
vita, rendendo possibili azioni che nel passato non erano nemmeno lontanamente
immaginabili.
Tale evoluzione, come rovescio della medaglia, ha comportato anche la crescita di nuove
forme di criminalità . Gli strumenti informatici che noi utilizziamo per il lavoro, attività di
studio, possono essere utilizzati per finalità differenti.
I sistemi informatici che possono essere oggetto di potenziali attacchi informatici, sono
sistemi che fanno parte tendenzialmente di una rete; nel tempo la tecnologia ha permesso una
maggiore possibilità di interconnessione, soprattutto con la nascita di internet e con l’insieme
di regole standardizzate che si sono poi finalizzate alla trasmissione dei dati.
+la sicurezza delle reti e dell’informazione può essere compromessa tanto da eventi imprevisti
ed involontari quali ad esempio una catastrofe naturale, inondazione, una tempesta, un
terremoto, possono esserci dei guasti hardware e software e anche da parte di errori umani
stessi, quanto allo stesso modo l’attività illecita può essere effettuata da attacchi che sono dolosi.
Tali attacchi possono poi assumere tutta una serie di forma e di vastità diversa:
la prima forma di aggressione che dobbiamo andare ad analizzare è quella che comunemente
noi chiamiamo hacking, inteso proprio come accesso abusivo ad un sistema informatico (l’accesso
noi lo definiamo abusivo perché è finalizzato all’utilizzo di una macchina che non è
consentito). Richiede di regola che bisogna superare delle misure di sicurezza che vengono
predisposte dall’amministratore di sistema e la nozione comprende sia in caso di chi tenta di
servirsi delle risorse di un computer non ancora disponendo di alcun tipo di autorizzazione, sia
invece nel caso dell’utente che ha un’autorizzazione specifica e che è limitato però da singole
operazioni;
Gli attacchi quindi possono provenire sia dall’interno quanto dall’esterno di una determinata
rete, è ovvio che l’elemento fondamentale per poter determinare un attacco hacker è che vi sia
una connessione di rete fra le macchine, sia nella forna di intranet che di internet, quindi
l’accesso ad un elaboratore consente poi al soggetto di poter svolgere tutte le attività di
hacking. Negli ultimi decenni c’è stata una crescita di attacchi esterni effettuati al dando di
aziende o acquirenti; l’attacco esterno è generalmente finalizzato a dei privilegi di cui gode
esclusivamente l’amministratore di sistema, proprio per avere la possibilità di accedere e
avere un pieno controllo sulla macchina, andando di fatto poi a subentrare e nelle volte anche
a scavalcare proprio l’amministratore di sistema. In generale però ogni sistema operativo di
software che gestisce un particolare servizio, nonché ogni protocollo che consente la trasmissione
dei dati, ha delle intrinseche debolezze e allo stesso modo gli esperti di sicurezza informatica e
gli stessi crackers sono costantemente alla ricerca di questi, mentre però gli esperti di
sicurezza tenderanno ad eliminarle, i cracker invece tenderanno ad utilizzarle proprio per i
loro oggetti criminosi. Per poter quindi accedere ad un sistema informatico è necessario
studiare il sistema stesso; occorre innanzitutto conoscere la tipologia di macchina, qual è il
nome di dominio della macchina stessa, il suo indirizzo IP, il suo sistema operativo, il tipo di
server che si vada d utilizzare, il tipo di programma di posta elettronica come anche e il modo in
cui l’amministratore effettua l’assegnazione degli account, la tipologia di password che viene
utilizzata; tutte queste informazioni sono necessarie per andare a finire la tipologia di attacco
che si vuole andare ad effettuare. Quindi per la nuova fase di attacco che noi dobbiamo
considerare delle tecniche di indagine che non sono invasive, ad esempio ricercare delle
informazioni direttamente sul sito web dell’azienda che si vuole andare ad attaccare, perché
magari lacune informazioni sono già nascoste all’interno dello stesso sito, ad esempio nelle
news room o attraverso anche L’interrogazione di alcuni siti come internick che contiene un
data base di nomi aggiornati che permette poi di risalire non solo ai nome di soggetti ma
anche ai nomi dei loro domini e in particolar modo vedere le corrispondenze del dominio di quel
sito internet con una proprietà del sito internet stesso, o anche tramite attività definibili di
social engineering, quindi sfruttare poi frammenti di conoscenza specialistica già posseduti
per poter andare ad ingannare i propri interlocutori, ad estorcere ulteriori informazioni, che
può essere la possibilità stupida di andare a scrivere un’email informativa per avere
determinate informazioni e vedere chi è il soggetto che risponde dall’altra parte. Una volta
che però accediamo a tutte queste informazioni,

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
l’aggressione sarà in grado di poter accedere al sistema informatico, ad esempio anche
creando su un account valido. Il passo successivo invece sarà quello di andare a fornire e
ottenere i privilegi di amministratore o andando praticamente a convalidare i risultati che ha
ottenuto; l’ultimo passo consiste nell’andare ad effettuare una cancellazione delle tracce che
vanno poi a determinare il suo passaggio all’interno di quel sito internet.

Ip-spoofing
Intendiamo per “spoofing” l’usurpazione dell’identità di un soggetto oppure i una macchina.
Ogni elaboratore connesso ad internet è identificato da un indirizzo IP che è formato da
quattro numeri decimali separati da un punto. L’IP spoofing permette di utilizzare una
debolezza intrinseca del protocollo TCP/IP, a un computer A di far credere ad un computer C
di essere il computer B, quindi si crea questa attività di confusione.
La situazione ipotizzabile è quella secondo la quale il computer A è il computer dell’attaccante
che è generalmente un sistema che è stato già oggetto di intrusione, il computer C è la
macchina bersaglio ed è la macchina a cui io voglio accedere, mentre il computer B è una
macchina della quale il computer C si va ad affidare. Il principale tipo di controllo che si
effettua proprio per garantire la sicurezza delle connessioni è pagato sulla rilevazione
dell’indirizzo IP delle macchine e quindi lo spoofing consiste proprio nell’andare a falsificare
un indirizzo IP di una macchina ad esempio una macchina A, in modo tale da farla apparire
come un’altra, la macchina B, ed andare a superare in questo modo la difesa che è basata
proprio su tale controllo che generalmente è gestita da un file word.
Questa tecnica richiede necessariamente che l’aggressione sia in grado di impedire alla
macchina, quella B, di comunicare con la macchina bersaglio, altrimenti l’elaboratore B
andrebbe a svelare a C di non aver inviato alcun tipo di richieste e quindi si deve cercare di
interrompere la connessione tra la macchina B e la C.

Network Sniffing
Un altro tipo di attività e di attacco è quello del Network Sniffing. È uno degli attacchi più
utilizzati su Internet. Lo sniffing e l’ascolto in rete e la cattura dei dati che sulla rete vengono
trasmessi. Per mettere in atto questa tecnica occorre prima aver preso il controllo di una
macchina che fa parte della rete alla quale appartiene la macchina bersaglio. Ciò che rende
possibile attacco e il modo in cui funzionano i protocolli di rete e il fatto che tali protocolli non
prevedono di per sé alcun tipo di crittografia.
Per fare un esempio, consideriamo la rete ethernet, usata nelle LAN. L’ethernet rappresenta
un canale di comunicazione, su cui sono collegati dei nodi, ovvero i singoli computer.
Quando ad esempio il computer A risulta esser connesso alla rete che vuole mandare
un’informazione al computer B, costituisce tendenzialmente un pacchetto, con un indirizzo IP
e lo va ad inserire all’interno della rete, questa scheda di rete rappresentano il pacchetto, ma
solo la macchina B riceve perché è la macchina che deve ricevere quell’informazione, quindi il
pacchetto tendenzialmente si propaga sotto forma di un impulso elettronico per tutta la
lunghezza del cavo di rete, tutte le macchine che sono connesse a quella rete ricevono
l’impulso, ma solo B decide di leggere il contenuto; questo è il funzionamento standard però è
possibile andare ad alterare questo funzionamento, facendo in modo che un calcolatore ad
esempio C che anch’esso connesso a questa rete, legga tutti i pacchetti che vi transitano
compreso i pacchetti che A indirizza a B e quindi il pacchetto che di fatto passerebbe anche
per quella macchina C, ma che generalmente non viene letto da C perché è indirizzata da
un’altra macchina che ha solo lui l’interesse ad aprire, in questi caso invece nel network sniffing,
la macchina non può accedere e legge ugualmente tutto il tratto e tutte le comunicazioni che
passano tra la macchina A e la B, in questo caso infatti si dice che la macchina C serve da
sniffing nei confronti della macchina B per i messaggi che le vengono inviati dalla macchina A,
solamente poi con l’adozione di protocolli crittografati, si è in grado di poter risolvere il
problema, perché anche se il messaggio viene intercettato non si ha la chiave per poter
decifrare quelle informazioni. Se invece diversamente i dati non sono criptati, le informazioni
preziose come ad esempio l’autenticazione degli utenti potrebbero essere intercettati in chiaro.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Il fenomeno dell’ network sniffing si è ulteriormente aggravato con la pubblicazioni su dei canali,
gli strumenti capaci di effettuare lo sniffing in maniera totalmente automatica e di estrarre le
comunicazioni che avvengono poi sulla rete d’informazione di interesse, quindi se una macchina
è connessa in rete ed è installato un programma sniffing, qualunque macchina della rete è
potenzialmente esposta al controllo di qualcuno sulla macchina.

Denial of service
Gli attacchi d tipo DoS che letteralmente significano “rifiuto del servizio”, non sono finalizzati a
violare la sicurezza di un sistema, ma consistono nell’adoperare una qualunque tecnica che
sblocchi o rallenti, in parte o totalmente un sistema, impedendo agli utenti regolari di accedervi
e di fruire dei relativi servizi. Spesso rappresentano una una reazione al fallimento di un
precedente attacco mirato o sono dettati Dalla necessità di ottenere un riavvio del sistema
operativo bersaglio per rendere effettivi i cambiamenti effettuati.
Gli attacchi di denial of service son particolarmente temuti perché sono in grado di procurare
alle imprese dei grandi danni economici che consistono a milioni e milioni di euro.
Gli attacchi di denial of service possono essere di varie tipologie, ma una significativa evoluzione
sembra esser rappresentata da un distribuite d of denial of service (DDoS), in particolar modo
questo tipologia di attacco consiste di voler distribuire su più macchine sparse per la rete,
normalmente in questo scenario vi possono essere una o più macchine che assumono il controllo
dell’attacco, mentre tutte le altre eseguono lo stesso;
Su queste macchine viene installato un programma che possiamo definire “programma zombie”
che si pone in attesa di un comando per far partire l’attacco, in quel modo non si riesce a
capire quale sia il computer che ha fatto partire l’attacco perché l’attacco proviene da più
computer simultaneamente. L’installazione di questi programmi è resa semplice mediante
l’utilizzo di appositi software che vanno poi a scandagliare rapidamente interi gruppi di
indirizzi IP alla ricerca di qualche computer che abbia delle vulnerabilità e che permette
proprio l’installazione di questo software “zombie”, in computer che sono sparsi in tutto il
mondo e una volte che l’aggressione invia il comando di attivazione, tutti gli host inizieranno
ad inviare e ad attivare traffico al computer che è stato mirato.

I virus
La forma di attacco più famosa è quella rappresentata dai virus informatici, le cui prime
epidemia risalgono alla metà degli anni ’80.
L’inarrestabile dilagare di software “maligni pone di fonte al problema della loro precoce
rilevazione prima che questi possano recare danni. Questo problema è particolarmente
sentito nell’ambito delle reti, essendo permanentemente esposte ai rischi di infezione perché
accadeva spesso che nonostante sia stato installato sulle macchine un software antivirus
adeguato, lo stesso non venga regolarmente aggiornato.
La tipologia di virus è inoltre anche variata rispetto al passato, prima il principale veicolo di
virus era dettato dai file eseguibili, perché arrivava un’email con un file.exe che veniva cliccato
e lui installava i virus all’interno del computer. Attualmente invece esistono molte possibilità
di veicolare un virus e questo è rischioso, naturalmente ogni utente che opera in rete deve
responsabilmente possedere un software antivirus aggiornato in modo da poter regolare e
non introdurre nella rete stessa nulla che non sia stato controllato in modo adeguato.
Inoltre si deve sempre tener conto delle enormi quantità di virus che sono poi esistenti e che a
volte anche aggiornando periodicamente l’antivirus non vengono rilevati poiché sono di
nuovissima generazione, quindi il sistema più efficace è quello di effettuare una
sensibilizzazione degli utenti relativamente a questo problema proprio per poter premeditare
quelle che sono le ipotesi di attacco informatico . Gli amministratori invece devono cercare di
andare ad arginare il problema dove questo si po' verificare e soprattutto nei canali di
comunicazione nei canali di accesso alla rete, tramite la posta elettronica ad esempio.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)
Le tipologie di attacco virus
I virus informatici non sono altro che programmi la cui caratteristica fondamentale è quella di
auto replicarsi.
I virus possono essere di natura benigna o maligna: quelli benigni sono quelli creati ai fini di
gioco e di scherzo e non danneggiano all’interno del computer, mentre quelli maligni ci sono
virus che riescono a. recare dei notevoli danni al sistema informatico e allo stesso modo
questi virus possono alterare il funzionamento del sistema operativo.
Un particolare tipo di virus è chiamato “worm” perché la sua caratteristica è quella di auto
duplicarsi in coppie che a loro volta finiscono per andare a saturare il sistema stesso. Un altro
tipo di virus è quello chiamato “cavallo di troia” che sono un vero. è proprio pericolo di
contagio per la loro trasmissione, perché così come il cavallo di troia nella storia sono dei
software apparentemente innocui che però al loro interno nascondono dei virus che possono
poi danneggiare il computer. Un virus inoltre ben costruito addirittura può rendersi invisibile
anche agli antivirus più aggiornati.
In base alle loro modalità di operare sulle macchine infette e alla tecnica adoperata per
nascondersi, possono essere classificati in:
- Virus di boot e MBR che si vanno ad installare sul settore di avvio del CD ROOM;
- Polimorfici, che adoperano un meccanismo di riproduzione di se stessi andando a
variare ad ogni replica il suo codice in modo tale da andare ad ingannare l’antivirus;
- Executables, che sono i virus più diffusi e prendono i mira tutti i file eseguibili;
- Stealth, che cercano di rendere invisibile programmi di rilevazione dei virus e una
volta che il sistema è infetto dal virus, prende il controllo di questo sistema e in base al
sistema operativo sono anche in grado di potersi nascondere;
- MBR Stealth;
- SiZe hiding, che è il metodo che viene utilizzato da questi virus ed intercetta il
controllo dei software di rilevazione che è basato tendenzialmente sul file stesso
sottraendo anche le dimensioni del virus;
- Clean on the fly, dove il virus intercetta il momento nel quale un file viene letto e a
quel punto ripulisce quello che è il suo codice e lo riscrive solo al termine della lettura
per non farsi rilevare;
- Tse, che sono dei virus attivi permanentemente in quanto sostituiscono alcuni
elementi del sistema operativo dove vanno ad operare e si installano
permanentemente in una cona di memoria, in questo modo acquistano il potere di
controllo su qualunque operazione che viene effettuata dall’utente, sfruttando proprio
questo per la loro attività di replicazione;
- Macro, che adoperano e che vengono adoperati come mezzo per la loro diffusione, quindi
la possibilità di eseguire dei comandi per i sistemi applicativi e allo stesso modo si
applicano sui sistemi come Microsoft, word ecc. a prescindere di fatto dalla loro
piattaforma;
- AttiveX/Java, che sfruttano la funzionalità offerta da Java e va ad infettare solo
il sistema sulla parte delle agire web infette, quindi io vado a visualizzare le pagine
infette e riesco ad accedere a quel sistema stesso;

Spyware
Gli spyware sono dei programmi che comunicano ad un server contralte delle informazioni di
diverso genere sul nostro conto (sistema operativo utilizzato, preferenze dell’utente, siti web
visitati, lunghezza dei collegamenti ecc.). Queste informazioni vengono usate successivamente
dal ricevente per fini statistici o come accade nella maggior parte dei casi, allo scopo di inviare
della pubblicità mirata agli utenti definita “spam”, quindi è tutta un’azione di marketing.
Questa tipologia viene chiamato virus perché comunque è invasiva come azione, ma non va a
distruggere le informazioni, ma rientra nei virus perché sottraggono comunque delle
informazioni dell’utente al fine poi di rivendergli una serie di cose, tramite la posta
elettronica.

Document shared on https://www.docsity.com/it/sbobine-esame-d-informatica-prof-fabrizio-corona/8959356/


Downloaded by: alessio-errico-1 (alessioerrico1993@gmail.com)

Potrebbero piacerti anche