Sei sulla pagina 1di 6

Introduzione

all’informatica
Oggi nessuno può fare a meno dell'informatica: tramite i computer si socializza sui social network, si scambiano comunicazioni e documenti, si prenotano e
pagano visite mediche, aerei, alberghi, ristoranti, vacanze ecc.
Anche lo stesso cellulare è ormai ridicolo definirlo cosi poiché è a tutti gli effetti un PC tascabile con il quale eseguire molte operazioni che si
farebbero con un computer e forse anche di più: funzioni di navigazione, pagamenti con QR code visualizzato sullo schermo del telefono, ascoltare musica
mentre si passeggia, programmare l'attività fisica,mantiene monitorata la nostra salute e molto atro.

QR: è un codice a barre che rispetto al vecchio stile, monodimensionale, è


bidimensionale. Fu creato dall’ azienda giapponese Denso Wave, per disporre
di un analogo del codice a barre ma con molte più informazioni
QR è l'acronimo di Quick Response, perché fu progettato non solo per poter
rappresentare più informazioni, ma anche per permetterne una rapida

Ma quando è nata l'informatica?


L’idea che oggi noi chiamiamo tecnologia è frutto di un percorso di evoluzione del pensiero umano e evoluzione tecnologica che ha portato ai
device di oggi.

III secolo: I primi fondamenti teorici nacquero proprio in questo secolo, a opera di Euclide, un matematico greco ed uno dei più grandi matematici
mai vissuti. Euclide è considerato il padre della geometria, tant'è vero che la geometria che studiamo (almeno fino alla scuola secondaria) è nota
come "geometria euclidea".
Ciò che forse è meno noto, e sicuramente non era noto a Euclide stesso, è che egli mosse inconsapevolmente il primo passo verso il fondamento
dell'informatica: l'algoritmo. Euclide definì il metodo per calcolare il massimo comun divisore, noto con "MCD", di due numeri e lo descrisse come
metodo a passi.
Un metodo a passi è di fatto un algoritmo e un algoritmo è calcolabile con un programma.

Algoritmo: una serie di passi, procedimenti finita per raggiungere un


obiettivo.
È la base su cui si fonda tutto il pensiero informatico.

I primi programmi per computer usavano metodi a passi. Euclide quindi inventò una modalità per scrivere programmi, anche se non aveva il
computer per realizzarli né aveva la minima idea di quale sarebbe stato l'impatto di ciò che aveva inventato sulla vita dei suoi discendenti
un paio di millenni dopo.
Euclide non comprese la portata della sua scoperta: per lui era un metodo, che fosse a passi era irrilevante. In altri termini, non ne fece
una scienza.
Servirono ancora quasi 1000 anni perché qualcuno si accorgesse che quel metodo aveva delle potenzialità e valeva la pena di investirci.

780-850 d.C (?):Abu Ja'far Muhammad ibn Musa al-Khwärizml, un matematico persiano pubblicò un metodo a passi per risolvere equazioni lineari
e di 2° grado, metodo che nella traduzione latina si chiamava algoritmo.
Gli algoritmi sono il fondamento della programmazione e oggi con la diffusione della robotica e gli investimenti in intelligenza artificiale è un
termine conosciuto a tutti (o quasi).
Servirono altri 1000 anni per compiere un ulteriore passo: molti pensatori cominciarono ad approcciarsi al pensiero algorítmico e che
cercarono di trovare soluzioni. Alcuni trovarono situazioni brillanti ma tecnologicamente non avevano gli strumenti adatti.

1834: Sir Charles Babbage, matematico e filosofo inglese, ebbe l'idea di concepire un calcolatore programmabile, che chiamò macchina
differenziale. Purtroppo, il primo prototipo non funzionò e il secondo rimase soltanto a livello di progetto perché gli mancavano le componenti
tecnologiche per poterlo completare.
Nello stesso periodo il fisico americano Joseph Henry inventò il relé, un dispositivo a comando elettrico per la chiusura o l’apertura
semiautomatica di un circuito. Era la componente tecnologica che serviva a Babbage. Infatti nel 1991 si utilizzarono i progetti originali di Babbage e i
materiali dell’epoca e fu costruita una macchina differenziale perfetta.
1847: George Boole inventò una particolare algebra che porta il suo nome, l’algebra booleana che usa due soli numeri: “O”-falso e “1”-vero
Con essi, si definisce un'intero ramo della matematica. L'aspetto più importante, però, fu la sua applicazione ai dispositivi di Henry: basando un
ramo della matematica sulle sole cifre 0 e 1, tramite il relè è possibile costruire delle macchine che utilizzino l'algebra booleana non solo per
calcolare, ma anche per ragionare.

1888: William Seward Burroughs, allora trentatreenne impiegato di banca, lasciò l'impiego per dedicarsi alla realizzazione di una macchina
calcolatrice in grado di semplificare il lavoro manuale dei contabili.
Burroughs non era affatto sprovveduto né idealista, infatti vendeva bene gli apparati di cui era inventore. Fondò una società per produrre le sue
macchine calcolatrici, la Burroughs, con la quale nel 1927 raggiunse 1 milione di vendite. Dopo varie fusioni e acquisizioni, la Burroughs continuò a
produrre macchine calcolatrici fino ai giorni nostri, e nel 1986 tramite una operazione di Merge & Acquisition tra la Sperry Corporation e la Burroughs,
venne costituita la Unisys.

1906: Lee De Forest inventò il triodo (detta anche valvola termoionica). Il triodo evolve il relè perché molto più performante: il relè ha parti
meccaniche in movimento, quindi notevolmente più lento del triodo che non le ha.

1929: Vladimir Kosma Zworykin, ingegnere americano di chiare origini russe e ricercatore presso i laboratori della Westinghouse, società
americana fondata nel 1886 e produttrice di apparecchiature elettriche, inventò il tubo catodico migliorato che chiamò cinescopio: in altri termini,
il precursore della televisione. Si aveva così a disposizione anche la tecnologia con la quale, un po' di anni dopo, si sarebbero realizzati i primi
monitor.

In quegli stessi anni, Pieter Zeeman, un fisico olandese scoprì e approfondì le proprietà del silicio (e non solo) come materiale semiconduttore. Un
semiconduttore è un materiale che permette alla corrente di “passare” in un senso ma non in quello inverso. Quindi se associo a “corrente che
passa” il valore 1 e a “corrente che non passa” il valore 0, il semiconduttore è il materiale che permette di sviluppare l'algebra booleana in
“modalità elettronica”. Se il triodo fu il dispositivo che sostituì il relè, il transistor fu il dispositivo che sostituì il triodo, e venne realizzato sfruttando
le proprietà dei semiconduttori che all’epoca erano tema di forte attività di ricerca. Il silicio si rivelò il materiale ideale: dopo l'ossigeno, è l'elemento
più diffuso sulla Terra, quindi tantissima materia prima a basso costo.
Bisognerà tuttavia attendere la fine degli anni '50 per riuscire a sfruttare appieno il silicio come semiconduttore

1936: Konrad Zuse, un ingegnere tedesco, considerato il padre del moderno computer, a soli 26 anni costruì la Z1, la prima macchina calcolatrice
digitale brevettata.
Digitale: significa elettronico, ma deriva da digit “cifra, numero”. “0” e “1” sono
digit, quindi tutto ciò che è codificato con “0” e “1” è digitale mentre
lunghezze d'onda, tensioni elettriche, ecc, sono analogiche. Si può quindi
avere una macchina completame meccanica, ma... digitale, perché codifica e
“lavora” utilizzando l'algebra booleana.

1936: Alan Turing studiò e sviluppò con la sua Macchina di Turing - uno strumento teorico, ma realizzato meccanicamente, che rappresenta un
modello astratto di un computer - la teoria degli algori e della computabilità. Lui aveva già immaginato a un modello di computer, ma non aveva
la possibilità di costruire la sua macchina.
Anche Alonzo Church, matematico e logico americano, contribuì in modo sostanziale allo sviluppo dell'informatica teorica definendo il concetto
computazionale di decidibile e indecidibile. In parole semplici, decidibile (si dice anche ricorsivo) è un problema per il quale è possibile trovare un
algoritmo che lo calcoli. Le affinità con la macchina di Turing sono notevoli.
A quel punto si possedeva tutto il necessario: teoria e strumenti.

Seconda Guerra Mondiale: sebbene brutto a dirsi, la guerra crea enormi accelerazioni nel campo della ricerca e della realizzazione di innovazioni
anche rivoluzionarie. Le nazioni pur di prevalere su delle altre fanno dei forti investimenti.
Fu proprio durante la guerra che Turing realizzò la sua macchina nella quale metteva in pratica molte delle sue teorie di computabilità nel
campo della crittografia allo scopo di decifrare i messaggi codifichi dei nazisti.

Anni ‘60: si inizia a parlare del fenomeno “convergenza ICT”, Information & Communication Technology, precursore della convergenza digitale. Fino
ad allora la tecnologia era ancora localizzata e quindi non comunicava con niente. A partire da questi anni in cui sia la tecnologia della
comunicazione sia la tecnologia informatica vedevano dei grandi progressi, i due mondi iniziarono a convivere.

Anni ‘70: si vede la trasformazione dell’ICT da tecnologia per pochi a tecnologia per molti (sebbene non ancora alla portata di tutti); per i primi
anni queste tecnologie venivano utilizzate solo per impieghi militari o di ricerca (pochissimi utenti al di fuori di questi settori erano in grado sia di
farne uso sia di potersele permettere).
I primi “utenti comuni” al di fuori degli apparati militari e degli istituti di ricerca, a dotarsi di computer furono le banche. Il loro lavoro era
fortemente connotato da operazioni di calcolo e se ne servirono inizialmente per automatizzare le attività di contabilizzazione delle operazioni.
Appena poco dopo, le aziende di maggiori dimensioni iniziar ad adottare i computer per gestire le loro operazioni contabili, l'automazione dei
magazzini, il controllo della produzione. La NASA si avvalse dei computer per portare il primo uomo sulla Luna nel 1969,
Entrando negli anni '70 iniziarono a svilupparsi le tecnologie di rete, ponendo le basi per il mondo interconnesso.
Ci fu la trasformazione dell'ICT in una tecnologia commerciale, cioè non ancora alla portata di tutti, ma sicuramente di molti. Nacquero i linguaggi
cosiddetti “di alto livello”, chiamat¡ così perché si cercò di agevolare la programmazione attraverso istruzioni che avessero una sintassi il più
possibile vicina al linguaggio umano.
Nacque l’industria del software, che diventerà in breve tempo un importantissimo settore economico e strategicoa che creerà milioni di posti
di lavoro.
Software: programmi commerciali, acquistabili in licenza d’uso

1974: Intel, fondata pochi anni prima, realizza il primo microprocessore commerciale 8080 ed equipaggiò il MITS Altair 8800, computer realizzato
e commercializzato tra il 1974 e il 1975 dalla MITS (Micro Instrumentation & Telemetry Systems). Questo modello si poteva acquistare in due
versioni ad un prezzo abbordabile: con 400 dollari se si voleva montarlo oppure 500 già montato.
Quella del microprocessore è stata un’intuizione anche dell’italiano Faggin che sfruttò il silicio.

Processore: piccolo cubetto di silicio

4 aprile 1975: Paul Allen e Bill Gates fondarono la Microsoft, il primo linguaggio di programmazione. I due giovani ragazzi ritennero la diffusione
del computer MITS Altair 8800 talmente interessante da convincersi che valeva la pena investire tempo per realizzare dei software.

1976: Steve Jobs, Steve Wozniak e Ronal Wayne fondarono a Cupertino la Apple. Entrambi avevano capito che la tecnologia stava arrivando
nella case di chiunque.

1981: Viene commercializzato il primo PC commerciale IBM.


In realtà la paternità del primo PC della storia è universalmente riconosciuta a Pier Giorgio Perotto e all’Olivetti che fra il 1962 e il 1964
progettarono la P101, una macchina che, sebbene nacque come macchina per fare conti, aveva molte delle caratteristiche di un PC, come
la possibilità di salvare informazioni.
Sul PC IBM viene installato il sistema operativo della Microsoft MS/DOS Un’accoppiata vincente che ha portato l’ICT a iniziare la diffusione
verso il grande pubblico.
È chiaro che alla base di tutto questo c’era l’idea di rendere tutto questo il più user friendo, di semplice utilizzo.

1984: Inizia la commercializzazione del Macintosh (Mac) dotato del sistema operativo macOS. Le caratteristiche distintive dovevano essere design,
robustezza e minima possibilità per l’utente di manipolarne le caratteristiche di fabbrica.
I due approcci di Gates e Jobs erano diversi: Jobs era più per un ambiente chiuso (il sistema operativo è stato creato per funzionare solo su dei
determinati hardware), Gates aveva un approccio più aperto (questo tipo di software funziona su qualsiasi base e si possono fare delle modifiche)

1990: Esce Windows 3.1 che conquista il grande pubblico grazie alla sua interfaccia grafica e al mouse. Gates aveva capito che se avesse lasciato
l’informatica a linea di comando (imparare delle linee di codici da inserire in un prompt dei comandi), si sarebbe diffuso solo in determinati settori, ma
non nella massa. Con l’invenzione del mouse (un dispositivo di puntamento) del 1967, tutta l’informatica si sposta dal punto di vista di linea di
comando al punto di vista visuale. Nasce il concetto di desktop, di icona,del doppio click.. che rendono l’utilizzo più intuitivo.
Windows 3.1 non era ancora un sistema operativo, ma un software all’interno di MS/DOS. Con Windows 95 si parlerà di sistema operativo.

1991: Tim Berners-Lee, un ricercatore del CERN di Ginevra, inventa il World Wide Web (W.W.W)
Le basi tecnologiche esistevano già e derivavano dallo sviluppo di Arpanet, progetto del 1969 che consisteva in una modalità di
comunicazione (creare una rete di comunicazione) diversa dallo standard creata dagli Stati Uniti per evitare il blocco delle comunicazioni in caso di
una eventuale Terza Guerra Mondiale.
Viene utilizzato negli ambienti di ricerca, anche tenendolo di nascosto per un paio di anni.

1993: Il CERN rende pubblica la tecnologia alla base del World Wide Web e ciò portò a partire dal 1995 alla diffusione su vasta scala nel mondo.

1995: Inizia l’era di internet

Altre menti che hanno capito come sfruttare al meglio internet sono stati:

1995: John Bezos inizia l’attività di una libreria on-line battezzata Amazon.
Dal 1999 evolve verso l’e-commerce e nel 2001 lancia Amazon Marketplace, che permetteva ai clienti di acquistare e vendere libri, CD,
DVD e altri prodotti nuovi e usati.

1998: due studenti dell’Università di Stanford, Larry Page e Sergey Brin capiscono che internet si sta allargando e i documenti che si possono
consultare sul www e danno nascita il concetto di motore di ricerca, qualcosa che tenga traccia e indicizzi tutto quello che si può trovare in rete.
Loro due ideano un algoritmo che migliora enormemente la velocità ed accuratezza delle ricerche sulla rete. Nasce Google.

Informatica
Il nome deriva dalla contrazione di due termini francesi: “Information” e “automatique”
Informatique Informatica Information Tecnhology (IT)
Il concetto dell’informatica è proprio quello di ottenere e creare delle informazioni in modo automatico.

IT: Information Technology, ora di uso comune anche in italiano, sottointende


l’insieme delle tecnologie di elaborazione dei dati e delle informazioni.

ICT: Information and Communication Technology, che amplia il concetto di IT


comprendendo anche le tecnologie di comunicazione. Più attuale,
considerata l’importanza e diffusione delle tecnologie di comunicazione
(senza la comunicazione, non si fa più nulla).

Dati e informazioni
Dati e informazioni non sono la stessa cosa

Dato: è una rappresentazione asettica, oggettiva e non interpretata della


realtà immediatamente presente alla conoscenza.

Informazione: è una concezione della realtà che deriva dall’elaborazione ed


interpretazione (del pensiero o del computer) di uno o più dati

Sistema informativo e sistema informativo


Sistema informatico: infrastruttura tecnologica che serve per elaborare,
memorizzare e trasmettere dati e informazioni.

Sistema informativo: insieme delle applicazioni, delle procedure e delle


risorse umane che, utilizzando l’infrastruttura tecnologica sulla quale poggia
(il sistema informatico), consente la produzione e la gestione delle
informazioni di un soggetto, un’impresa o un individuo.
È un insieme di componenti tecnologici interconnessi (integrati) che
raccolgono, memorizzano ed elaborano dati e forniscono informazioni in
formato digitale.

Nel tempo si è creato un parallelismo con il mondo dell’architettura.


L’architettura è la disciplina che ha come scopo l’organizzazione dello spazio a qualsiasi scala. Semplificando si può dire che essa attiene
principalmente alla progettazione e costruzione di un immobile o dell’ambiente costruito. Partendo dagli elementi che hanno, costruiscono un
edificio.
Sistema informativo: disciplina che ha come scopo l’organizzazione dei processi e delle tecnologie per l’elaborazione dei dati e la produzione delle
informazioni per l’ecosistema aziendale in cui opera. Semplificando, si può dire che essa attiene principalmente alla progettazione e costruzione
di un sistema informativo. (Avendo a disposizione di un bagaglio di tecnologie e di possibilità da utilizzare e cerca di organizzarli al meglio per
risolvere un problema).

Nel 1987 John Zachman, che lavorava in IBM allo sviluppo della metodologia di Information Strategy, disegnò quella che è considerata la “versione
informatica della tabella periodica degli elementi”: il Framework for Enterprise Architecture. Il lavoro viene pubblicato sull'IBM System Journal
dell'epoca e diventa rapidamente una pietra miliare dell'informatica. Ancora oggi, a distanza di oltre 30 anni, il framework di Zachman è lo schema
di riferimento per l'architettura dei sistemi informativi.
Il merito di Zachman è stato quello di adattare il concetto di architettura ai sistemi informativi, che all'epoca stavano iniziando ad avere un rapido
sviluppo grazie alla veloce evoluzione tecnologica e alla progressiva riduzione dei costi. Disporre di un modello di riferimento è fondamentale per
migliorare la qualità dei sistemi informativi perché, come per le costruzioni, consente di avere una disciplina progettuale e realizzativa che riduce
gli errori, le debolezze e i costi. Ciò che teorizzò Zachman fu che il modello architetturale di un sistema informativo può essere generalizzato sulla
base della prospettiva della figura professionale coinvolta rispetto alle macrocomponenti di cui è composto.
Il framework, come si può vedere dalla ha l'aspetto di una matrice e si legge da sinistra a destra, dall'alto in basso. Sulle righe vengono espresse
le prospettive, che variano in dipendenza della figura professionale di riferimento.
Per esempio, nella prima riga dall'alto troviamo la prospettiva dell'executive manager: se la scorriamo da sinistra a destra, è di fatto un
sommario di alto livello (com'è corretto che sia per un executive) per coloro che desiderano investire in un sistema informativo e devono quindi
porsi quegli interrogativi, ai quali dovrà essere data una risposta che consiste in ciò che è contenuto nella casella. Nella prima casella (che incrocia
la colonna “Cosa”) troviamo l'“Individuazione dell'inventari (Inventory identification), che consiste nella lista delle “cose fondamentali”, di elementi
importanti per il business: prodotti, clienti, fornitori, linee di produzione ecc., che rappresenteranno gli elementi per i quali il sistema informativo
verrà realizzato per gestire i dati e le informazioni a essi riconducibili. All'estrema destra della stessa riga, come ultima casella troviamo il nome del
modello che si ottiene una volta predisposti i contenuti delle caselle intermedie. In questo caso, il modello è l'“Ambito di applicazione” (Scope
context): ciò che serve a un executive per decidere se autorizzare o meno l'investimento.
Nelle colonne troviamo invece le istanze, cioè le finalità delle attività contenute nelle caselle a diversi livelli di astrazione dal più generale e
strategico (riga degli executive, ai quali è sufficiente sapere di che cosa si tratta, ovvero d'identificare = identification) al più dettagliato (riga dei
tecnici, i quali operano sul sistema configurandolo - configuration). Le istanze seguono il processo mutuato dal famoso paradigma giornalistico
delle “5W" (What - cosa, Where - dove, Who - chi, When - quando, Why - perché), il quale afferma che se si riesce dare una risposta alle "5W”
allora l'articolo può dirsi completo e pubblicabile perché haco pletamente chiarito la situazione. Trattandosi di tecnologia, le “5W” non bastano,
serve and una “H” (“How - come”), perché il sistema informativo bisognerà anche realizzarlo.
Questa schematizzazione è completa ed efficace ancora oggi e, se si ha una risposta a tur Ie caselle, in linea generale non dovrebbero esserci punti
oscuri significativi che possano cos promettere il progetto e conseguentemente il sistema informativo che ne è il risultato.
Figure professionali investite
di un ruolo all’interno della
risoluzione di un problema,
dal livello più alto al più
basso

Il sistema binario: la base del funzionamento del computer


L’algebra di Boole è il fondamento del funzionamento di tutti i computer. Senza Boole, non esisterebbe l’informatica.
Boole ha introdotto il sistema binario
Sistema binario: è un modo di contare che utilizza solo 2 cifre, 0 e 1, invece delle 10 cifre (0,1,...9) con le quali siamo abituati a contare
Boole ha dato anche la possibilità di generare l’algebra booleana gestita anche da operatori logici detti operatori booleani: and, not, or, xor e not

AND: restituisce “vero” se entrambe le condizioni sono “vere”


Vero and vero=vero
Vero and falso=falso
Falso and vero=falso
Falso and falso=falso

OR: restituisce “vero” se almeno una delle condizioni è vera


Vero or vero= vero
Vero or falso=vero
Falso or vero=vero
Falso and falso=falso

XOR: oppure OR esclusivo: restituisce “vero” se le condizioni sono diverse fra loro:
Vero xor vero=falso
Vero xor falso=vero
Falso xor vero=vero
Falso xor falso=falso

NOT: nega invece la condizione e restituisce “vero” da un risultato “falso” e “falso” da un risultato “vero”

Potrebbero piacerti anche