Il 0% ha trovato utile questo documento (0 voti)
176 visualizzazioni71 pagine

Esercizi Di Teoria

Caricato da

i.russo
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd
Il 0% ha trovato utile questo documento (0 voti)
176 visualizzazioni71 pagine

Esercizi Di Teoria

Caricato da

i.russo
Copyright
© © All Rights Reserved
Per noi i diritti sui contenuti sono una cosa seria. Se sospetti che questo contenuto sia tuo, rivendicalo qui.
Formati disponibili
Scarica in formato PDF, TXT o leggi online su Scribd

MOSFET

BJT
Il silicio è il secondo elemento più abbondante della crosta terrestre ed è sfruttato per la sua
caratteristica di semiconduttore; infatti è l'elemento principale di pannelli fotovoltaici, diodi e
transistor. Questi ultimi in particolare nella loro versione MOSFET sono il componente fondamentale
per la realizzazione dell'Unità centrale di elaborazione quella che è noi tutti conosciamo come CPU.

Un transistor può operare in logica digitale come un interruttore oppure in ambito analogico per
amplificare un segnale debole in ingresso in un segnale più forte in uscita.

Tramite sofisticate tecnologie, il silicio viene purificato e viene modellato il sottili lamelle chiamate
wafer dopodiché vengono inseriti atomi di elementi diversi: questa operazione prende il nome di
drogaggio, in questo modo grazie alla presenza di impurità nel suo reticolo cristallino il silicio diventa
un semiconduttore.

Il silicio appartiene al gruppo 14 della tavola periodica degli elementi e possiede quattro elettroni di
valenza formando un reticolo cristallino molto regolare.

Se gli atomi droganti appartengono elementi del gruppo 13 quindi a tre elettroni di valenza come boro
o gallio si ottiene un semi conduttore di tipo p e si crea una lacuna; se invece si usano elementi del
gruppo 15 con 5 elettroni di valenza come fosforo o arsenico si ottiene un semiconduttore di tipo n e
ci sarà un elettrone libero nel reticolo cristallino.

Un transistor MOSFET è composto da un wafer di silicio drogato come mostrato sotto:

Una parte di semi conduttore di tipo p e due di tipo n, poi tra i terminali quello centrale viene chiamato
GATE mentre gli altri due sono collegate le due parti di base di tipo n che sono chiamati SOURCE e
DRAIN.
La zona di contatto fra un semiconduttore di tipo p e uno di tipo n è detta zona di svuotamento:

in questa sottile zona gli elettroni liberi dello strato n riempiranno le lacune dello strato p creando una
zona dove non ci sono elettroni liberi o lacune raggiunta una situazione di equilibrio termico:
la zona di svuotamento del lato n diventa carica positivamente e la zona del lato p diventa carica
negativamente, si genera perciò un campo elettrico che è una barriera per un ulteriore scambio e si
comporta dunque come un isolante.

Infatti, se applichiamo una carica elettrica ai due terminali esterni, l'elettricità non può scorrere; se
però aggiungiamo una carica elettrica anche al GATE si viene a formare un campo elettrico che attrae
a sé gli elettroni liberi dello strato di tipo p in questo modo si viene a formare nei pressi del GATE una
nuova zona di tipo n che fa da ponte tra SOURCE e DRAIN e la corrente elettrica può passare.
Il transistor MOSFET può quindi gestire il passaggio di corrente e quindi accendersi e spegnersi.
Questa semplice operazione è la base di tutta la tecnologia dove ogni accensione o spegnimento
vengono interpretati come degli zero e degli uno che formano i codici binari dei nostri sistemi
informatici.
Ogni CPU infatti possiede miliardi di transistor disposti in maniera diversa in modo da formare le porte
logiche più disparate.

Le porte logiche messe in successione possono risolvere i problemi computazionali più difficili;
oltretutto ogni secondo i transistor si accendono e si spengono alla velocità dell'ordine del gigahertz,
cioè miliardi di volte al secondo, questa velocità è detta Clock e più è elevata più può essere
performante la CPU a scapito delle temperature.

Il microprocessore è un tipo specifico di circuito integrato (chip). In particolare, è uno dei circuiti
integrati più complessi e avanzati presenti nei dispositivi elettronici moderni. Un circuito integrato
(IC) è un dispositivo elettronico che integra un gran numero di componenti elettronici—come
transistor, diodi, resistori e condensatori—su una piccola piastra di materiale semiconduttore,
solitamente silicio. Questi componenti sono interconnessi per svolgere funzioni specifiche all'interno
di un circuito.

I componenti integrati di un microprocessore sono:

• Unità Aritmetico-Logica (ALU): Esegue operazioni matematiche e logiche.

• Unità di Controllo: Gestisce il flusso di istruzioni e dati all'interno della CPU.

• Registri: Memorie veloci per l'archiviazione temporanea di dati.

• Cache: Memoria integrata ad alta velocità per accelerare l'accesso ai dati.

La CPU viene fabbricata come un die complesso con milioni o miliardi di transistor.
Il die della CPU viene confezionato in un package specifico che permette la connessione al socket
della scheda madre del computer.
In generale un circuito integrato è formato dal package, un materiale plastico che isola le componenti
interne (il die) e lascia una serie di pin esternamente.
Il die viene montato in un package che protegge il die da danni fisici e ambientali.

Il DIE è una piastrina in materiale semiconduttore, in genere silicio, sulla quale è realizzato il circuito
elettronico che può essere costituito da milioni di componenti elettronici fondamentali come diodi,
transistor, condensatori e resistori. Infatti per realizzare il DIE è necessario un processo di
miniaturizzazione.
Realizzazione del DIE

La realizzazione del DIE è molto articolata: il processo inizia dalla realizzazione di sottili lamelle di
silicio chiamati wafer:

Procedimento litografico: il disco di silicio viene rivestito di un materiale fotosensibile in modo da


poter esporre i wafer ai raggi UV.
L’esposizione viene fatta usando una maschera su cui è stampato il disegno del micro circuito; una
lente concentra il disegno in modo da miniaturizzarlo ulteriormente. Successivamente le parti
esposte del circuito veng
Descrivere il principio di funzionamento del MOSFET.

Il MOSFET (Metal-Oxide-Semiconductor Field-Effect Transistor) è un tipo di transistor a effetto di


campo utilizzato ampiamente in applicazioni di commutazione e amplificazione. Il principio di
funzionamento del MOSFET si basa sul controllo della corrente tra due terminali (drenaggio e
sorgente) tramite una tensione applicata a un terzo terminale (gate).

Struttura del MOSFET

Il MOSFET ha tre terminali principali:

• Gate (G): Controlla la conduzione tra il drain e il source.

• Drain (D): Terminale attraverso il quale la corrente esce dal MOSFET.

• Source (S): Terminale attraverso il quale la corrente entra nel MOSFET.

Esistono due tipi principali di MOSFET:

• MOSFET a canale N (NMOS)

• MOSFET a canale P (PMOS)


Principio di funzionamento (polarizzazione MOSFET)

Lasciando il terminale di gate scollegato (senza nessun segnale in ingresso), anche se colleghiamo
una batteria VDD fra drain e source non si
stabilisce alcun passaggio di cariche elettriche. Tutto questo perchè le due zone n+ risultano
comunque separate presentando una altissima resistenza.

Per ottenere il passaggio di cariche elettriche fra drain e source è necessario:

• Polarizzare il transistor MOSFET di tipo NMOS applicando una tensione fra Gate e Source come
indicato in figura qui a fianco.
Dettagli importanti

Conduzione della Corrente:

• Flusso di Corrente: Una volta formato il canale, applicando una tensione tra Drain e Source, la
corrente può fluire attraverso il canale.

• Controllo della Corrente: Variando la tensione al Gate, è possibile controllare la resistenza


del canale e, di conseguenza, la quantità di corrente che scorre tra Drain e Source.

• Tensione di Soglia (Vth): È la minima tensione che deve essere applicata al Gate per iniziare a
formare il canale conduttivo. Sotto questa tensione, il MOSFET rimane spento.

• Effetto di Campo: Il controllo della corrente avviene grazie all'effetto di campo, dove il campo
elettrico generato dalla tensione al Gate modula la conduttività del canale.

• Isolamento del Gate: Poiché il Gate è isolato dal canale, praticamente non scorre corrente nel
Gate stesso. Questo rende il MOSFET un dispositivo a ingresso ad alta impedenza, ideale per
circuiti che richiedono un basso consumo di corrente di controllo.

Applicazioni del MOSFET

• Commutazione: Utilizzato come interruttore elettronico in circuiti di potenza, alimentatori


switching e driver per motori.

• Amplificazione: In circuiti analogici per amplificare segnali elettrici, grazie alla sua capacità di
controllare grandi correnti con piccole variazioni di tensione al Gate.

• Circuiti Integrati: Essenziale nella costruzione di microprocessori e memorie, grazie alla


possibilità di integrare milioni di MOSFET su un singolo chip.

Esempio Pratico:

Immagina il MOSFET come un rubinetto che controlla il flusso dell'acqua (corrente elettrica) tra
Source e Drain. Il Gate è la manopola del rubinetto. Quando il rubinetto è chiuso (nessuna tensione al
Gate), l'acqua non scorre. Girando la manopola (applicando una tensione al Gate), si apre il
passaggio e l'acqua inizia a fluire. Più si apre il rubinetto (aumentando la tensione al Gate), maggiore
sarà il flusso d'acqua (corrente tra Drain e Source).
Struttura e principio di funzionamento del CMOS.

Il CMOS (Complementary Metal-Oxide-Semiconductor) è una tecnologia utilizzata per costruire


circuiti integrati, compresi microprocessori, microcontrollori, memoria statica (RAM), e altri circuiti
logici digitali. È noto per il suo basso consumo di potenza e alta efficienza.

Struttura del CMOS

Il CMOS è composto da due tipi di transistor: il transistor a effetto di campo a canale n (NMOS) e il
transistor a effetto di campo a canale p (PMOS). Questi transistor sono configurati in modo
complementare, da cui deriva il nome CMOS.

Principio di funzionamento

La rete di Pull-Up (p-Mos) è costituita da MOSFET a canale P, che si "accendono" solo se la tensione
presente sul gate (misurata rispetto al source) è minore della tensione di soglia. Inversamente la rete
di Pull-Down (n-Mos) è costituita da MOSFET a canale N che si accendono solo se la tensione
presente sul gate (misurata rispetto al source) è maggiore della tensione di soglia.

Dettagli importanti:

Il CMOS combina transistor NMOS e PMOS in modo complementare per realizzare circuiti logici
digitali efficienti e a basso consumo energetico. La chiave del suo funzionamento sta nel fatto che:

• Solo uno dei due transistor conduce alla volta, evitando correnti indesiderate.

• Consuma potenza principalmente durante le transizioni, non negli stati stabili.

• È altamente scalabile, permettendo la miniaturizzazione dei dispositivi elettronici.


Introduzione alle Tecnologie nMOS, pMOS e CMOS

• nMOS Logic:

o Utilizza solo transistor nMOS.

o I transistor nMOS conducono quando la tensione al gate è a livello alto (1).

o Quando il transistor nMOS è spento (gate a livello basso), non conduce tra drain e
source.

o Richiede un elemento di pull-up (resistenza o transistor di carico) per portare l'uscita a


livello alto quando i transistor nMOS sono spenti.

• pMOS Logic:

o Utilizza solo transistor pMOS.

o I transistor pMOS conducono quando la tensione al gate è a livello basso (0).

o Quando il transistor pMOS è spento (gate a livello alto), non conduce tra source e drain.

o Richiede un elemento di pull-down per portare l'uscita a livello basso quando i


transistor pMOS sono spenti.

• CMOS Logic (Complementary MOS):

o Combina transistor nMOS e pMOS in modo complementare.

o Offre basso consumo di potenza e alta efficienza.

o Non richiede resistenze di pull-up o pull-down esterne.

Cos'è una Resistenza di Pull-Up?

Una resistenza di pull-up (collegato a V_DD) è un resistore collegato tra il terminale di ingresso o
uscita di un circuito e la tensione positiva di alimentazione. La sua funzione principale è assicurare
che il terminale sia mantenuto a un livello logico alto (1) quando nessun altro dispositivo lo sta
forzando a un livello basso (0).

Cos'è una Resistenza di Pull-Down?

Una resistenza di pull-down (collegata a massa) è un resistore collegato tra il terminale di ingresso o
uscita di un circuito e la massa (GND). La sua funzione è assicurare che il terminale sia mantenuto a
un livello logico basso (0) quando nessun altro dispositivo lo sta forzando a un livello alto (1).
Funzionamento nMOS + rete di pull up

Ingresso a Livello Alto (V_in = V_DD)

• Transistor nMOS Acceso:

o La tensione al gate supera la tensione di soglia (V_GS > V_TH), quindi il transistor
conduce.
o Si crea un percorso a bassa resistenza tra drain e source (tra V_out e GND).

• Effetto sull'Uscita:

o L'uscita (V_out) è collegata direttamente a GND attraverso il transistor acceso.


o La resistenza di pull-up viene "bypassata" poiché il percorso attraverso il transistor ha
una resistenza molto più bassa.
o Risultato: V_out si porta a livello logico basso (vicino a 0V).

Caso 2: Ingresso a Livello Basso (V_in = 0V)

• Transistor nMOS Spento:

o La tensione al gate è inferiore alla tensione di soglia (V_GS < V_TH), quindi il transistor
non conduce.
o Non c'è percorso tra drain e source.

• Effetto sull'Uscita:

o La resistenza di pull-up collega l'uscita (V_out) alla tensione di alimentazione V_DD.


o Non essendoci un percorso verso GND, l'uscita viene "tirata su" dalla resistenza.
o Risultato: V_out si porta a livello logico alto (vicino a V_DD)
Quando V di In è livello alto il transistor conduce e quindi si crea il passaggio tra il source e il drain; la v
di out letta è un segnale livello basso perché il percorso dove c’è la resistenza di pull up oppone più
resistenza del transistor e la corrente scegliendo il passaggio con meno resistenza, pesca il segnale
dalla massa a cui è collegato il source.
Quando invece il segnale di V in è livello basso, il transistor non conduce quindi oppone una
resistenza maggiore della rete di pull up; ne consegue che la corrente letta da V out è quella
proveniente da V dd.

Funzionamento pMOS + rete pull down

Il funzionamento è uguale e opposto alla rete precedente.

Quando il segnale V in è livello basso, il transistor conduce e V out legge un valore livello alto perché
la resistenza pull down è più grande di quella del transistor quindi la corrente passa per il transistor.

Quando V in è livello alto, il transistor non conduce e V out legge un livello basso dato che in questo
caso la resistenza del transistor si oppone di più rispetto alla rete di pull down, quindi la corrente
passa per la resistenza facendo leggere a V out un valore livello basso proveniente dalla massa.
Funzionamento del Transistore Bipolare BJT

Il transistore bipolare (BJT) è un dispositivo elettronico fondamentale utilizzato come amplificatore in


ambito analogico e come interruttore in ambito digitale. Esistono due tipi di BJT: NPN e PNP.

Architettura NPN

Un transistore NPN è costituito da tre strati di silicio opportunamente drogate:

• Emettitore (E): Tipo N (abbondante di elettroni)


• Base (B): Tipo P (abbondante di lacune)
• Collettore (C): Tipo N (anch'esso abbondante di elettroni)

Regimi di Funzionamento

Un BJT può operare in quattro regimi principali:

• Saturazione: Emettitore e base sono polarizzati in modo che il transistore conduca corrente
In questo stato, il transistore funge da interruttore chiuso.
• Attivo: L'emettitore è polarizzato in avanti rispetto alla base, mentre il collettore è polarizzato
in modo inverso rispetto alla base. Qui il transistore amplifica la corrente.
• Cut-off: Non c'è corrente di base (I_B = 0), il transistore è "spento". Non c'è corrente attraverso
il collettore (I_C = 0), il transistore si comporta come un interruttore aperto.
• Reverse active: L’emettitore è polarizzato in modo inverso rispetto alla base (V_BE < 0),
mentre il collettore è polarizzato in avanti.
Il funzionamento come amplificatore viene ottenuto polarizzando direttamente la giunzione base-
emettitore e inversamente quella base-collettore (NPN: base positiva, collettore positivo, emettitore
negativo; PNP: base negativa, collettore negativo, emettitore positivo). Prendendo il caso dell'NPN,
nella giunzione polarizzata direttamente (BE) vi è flusso molto elevato di elettroni maggioritari tra la
zona N e la zona P ma essendo la base troppo piccola, gli elettroni vanno a diffondersi nella zona di
svuotamento tra BC (polarizzata inversamente) dove vi è già presente una corrente di saturazione
inversa ed è lì che il campo elettrico (sul collettore) riesce a catturare questi elettroni che passano
nella zona N successiva. Questo processo ci permette di avere una piccolissima corrente sulla base
(uA) che controlla una elevata corrente sul collettore (mA/A).

• La curva inizia a crescere in modo esponenziale una volta superata la soglia di conduzione.

• Una volta che il transistore entra nella regione attiva, I_C rimane sostanzialmente costante per
valori di V_CE crescenti, fino a raggiungere la saturazione.

Dettagli importanti:

Comprendere il funzionamento del transistor bipolare richiede di visualizzare come le cariche


(elettroni e lacune) si muovono attraverso le giunzioni in base alle polarizzazioni applicate. Ricorda:

• La base controlla il flusso tra emettitore e collettore.


• La polarizzazione diretta facilita il movimento delle cariche; la polarizzazione inversa lo
ostacola.
• Il transistor può amplificare segnali deboli o funzionare come un interruttore, a seconda di
come viene polarizzato.

Come Funziona il Transistor NPN

1. Polarizzazione della Giunzione Base-Emettitore (BE)

o Polarizzata direttamente: La base è leggermente positiva rispetto all'emettitore (V_BE ≈


0,7V).
o Effetto: Gli elettroni possono passare facilmente dall'emettitore alla base.
2. Passaggio degli Elettroni attraverso la Base

o La base è molto sottile e poco drogata.


o Pochi elettroni si combinano con le lacune nella base.
o La maggior parte degli elettroni attraversa la base senza fermarsi.
3. Polarizzazione della Giunzione Base-Collettore (BC)

o Polarizzata inversamente: Il collettore è più positivo della base.


o Effetto: Crea un campo elettrico che attira gli elettroni dalla base al collettore.
4. Correnti nel Transistor

o Corrente di Emettitore (I_E): Flusso totale di elettroni dall'emettitore.


o Corrente di Base (I_B): Piccola corrente dovuta agli elettroni che si combinano nella
base.
o Corrente di Collettore (I_C): La maggior parte degli elettroni che passano dalla base al
collettore.
Descrivere il funzionamento della giunzione p-n.

Struttura della Giunzione p-n

Una giunzione p-n è formata da due tipi di materiale semiconduttore con differenti dopaggi:

• Regione p: Contiene una maggioranza di portatori di carica positivi, chiamati "buchi". È


ottenuta dopando un semiconduttore (come il silicio) con elementi del gruppo III della tavola
periodica, come il boro.

• Regione n: Contiene una maggioranza di portatori di carica negativi, chiamati "elettroni". È


ottenuta dopando il semiconduttore con elementi del gruppo V, come il fosforo.

Quando queste due regioni sono messe a contatto, formano una giunzione p-n.

Principio di base

La giunzione p-n è composta di due zone: una con un eccesso di lacune (strato p) e una con
eccedenza di elettroni (strato n). Le eccedenze di elettroni e lacune si ottengono mediante drogaggio,
con varie tecniche. Il termine giunzione fa riferimento alla regione in cui si incontrano i due tipi di
drogaggio (P e N). Quando questi due materiali vengono uniti, si forma una regione chiamata zona di
svuotamento o regione di carica spaziale, dove gli elettroni e le lacune si ricombinano, lasciando
ioni fissi che creano un campo elettrico interno. In assenza di tensioni esterne, la giunzione è in
equilibrio (equilibrio termico); La tensione di built-in è la differenza di potenziale interna che si
stabilisce all'equilibrio (circa 0,6-0,7 V per il silicio).
Per modificare lo stato di equilibrio e permettere il flusso di corrente, si può applicare una tensione
esterna alla giunzione p-n. Ci sono due modalità:

➢ Polarizzazione Diretta
➢ Polarizzazione Inversa
Polarizzazione Diretta:

• Connessioni: Lato P al positivo, lato N al negativo.

• Effetto: la tensione esterna riduce la barriera potenziale, zona di svuotamento più stretta.
Usando una batteria con un voltaggio più alto in grado di superare il potenziale di barriera, gli
elettroni non incontrando resistenza sono in grado di superare la barriera e occupare le lacune
della parte p. Grazie all’attrazione del polo positivo della batteria, gli elettroni continuano ad
occupare le lacune successive e fluiscono così all’esterno della giunzione pn, attraversando
tutto il circuito

• Risultato: Il dispositivo conduce corrente significativa.


Polarizzazione Inversa:

• Connessioni: Lato P al negativo, lato N al positivo.

• Effetto: la tensione esterna aumenta la barriera di potenziale, zona di svuotamento più ampia.
Elettroni nel lato N e lacune nel lato P sono allontanati dalla giunzione perché il polo negativo
attrae le lacune del lato p e il polo positivo attrae gli elettroni del lato n, polarizzando la
giunzione pn.

• Risultato: Il dispositivo non conduce corrente significativa.


Si descriva il comportamento di una giunzione pn all'equilibrio termodinamico costruendone il
relativo modello a bande. Si descriva qualitativamente l'effetto della polarizzazione inversa

Una giunzione pn è il componente fondamentale dei semiconduttori e si ottiene unendo un materiale


di tipo p (con cariche maggioritarie costituite da lacune) con un materiale di tipo n (dove le cariche
maggioritarie sono gli elettroni). È alla base del funzionamento di diodi, transistor e altri dispositivi a
semiconduttore.
Dettagli importanti:

È formata unendo due materiali semiconduttori con dopaggi opposti:

• Regione di tipo p (positivo):

o Portatori di carica maggioritari: Lacune (anche chiamate "buchi"), che si comportano


come cariche positive mobili.

o Dopaggio: Aggiunta di impurità accettrici (come il boro) al semiconduttore puro (ad


esempio, il silicio), creando un deficit di elettroni.

• Regione di tipo n (negativo):

o Portatori di carica maggioritari: Elettroni, che sono cariche negative mobili.

o Dopaggio: Aggiunta di impurità donatrici (come il fosforo) al semiconduttore puro,


creando un eccesso di elettroni.

Quando queste due regioni vengono messe a contatto, formano una giunzione p-n.

Ciclo funzionamento giunzione pn:

1. Diffusione Iniziale: Elettroni dalla regione n (dove sono in eccesso) diffondono verso la
regione p (dove sono scarsi).

2. Formazione della Zona di Svuotamento

3. La separazione di cariche crea un campo elettrico interno nella zona di contatto che si
oppone alla diffusione ulteriore dei portatori di carica.

4. In assenza di tensioni esterne, la giunzione è in equilibrio (equilibrio termico); La tensione di


built-in è la differenza di potenziale interna che si stabilisce all'equilibrio (circa 0,6-0,7 V per il
silicio).

5. Le correnti di diffusione e di deriva si bilanciano, quindi non c'è flusso netto di corrente.

6. Per modificare lo stato di equilibrio e permettere il flusso di corrente, si può applicare una
tensione esterna alla giunzione p-n. Ci sono due modalità:
• Polarizzazione Diretta: Il lato p è collegato al polo positivo della batteria; il lato n è
collegato al polo negativo
• Polarizzazione Inversa: Il lato p è collegato al polo negativo della batteria; il lato n è
collegato al polo positivo
7. Per mantenere un flusso di corrente costante, è essenziale che ci sia un circuito chiuso che
permette il movimento continuo delle cariche:
• Nel Lato n (Regione n): dal polo negativo della batteria partono gli elettroni che entrano
nel lato n. Questi elettroni si muovono verso la giunzione p-n.
• Attraverso la Giunzione: Gli elettroni attraversano la zona di svuotamento (resa sottile
dalla polarizzazione diretta) e entrano nel lato p. Durante questo passaggio, gli elettroni
si ricombinano con le lacune nel lato p.
• Nel Lato p (Regione p): Quando gli elettroni si ricombinano con le lacune, queste ultime
vengono "riempite". Per mantenere il numero di lacune, gli elettroni vengono rimossi dal
lato p attraverso il polo positivo della batteria, creando nuove lacune.
Gli elettroni vengono estratti dalla regione p verso il polo positivo della batteria.
Questo processo lascia dietro di sé nuove lacune nel lato p.
Gli elettroni fluiscono dal polo negativo della batteria alla regione n, rifornendo
continuamente il lato n di elettroni.

La giunzione p-n permette alle cariche elettriche di scorrere in una direzione, ma non in quella
opposta. Quando la giunzione p-n è polarizzata direttamente, la tensione sulla giunzione diminuisce e
questo fa scorrere una corrente apprezzabile verso il blocco n. Quando la giunzione p-n è polarizzata
inversamente, invece, la barriera di potenziale alla giunzione (e quindi anche la resistenza) aumenta e
la corrente inversa che può scorrere verso il blocco p è bassissima.

Analogia Semplice

Immagina due stanze separate da una porta:

• Stanza N (elettroni in eccesso):

o Affollata di persone (elettroni) che vogliono andare nella stanza meno affollata.

• Stanza P (lacune in eccesso):

o Ha posti liberi (lacune) che possono essere occupati.

• Porta Chiusa (Zona di Svuotamento):

o Inizialmente, alcune persone passano attraverso la porta, ma poi si forma una barriera
che impedisce ulteriori passaggi.

• Applicando una Forza (Tensione):

o Polarizzazione Diretta: Apriamo la porta, permettendo alle persone di passare


facilmente.

o Polarizzazione Inversa: Chiudiamo ancora di più la porta, impedendo il passaggio.


Porte Logiche
Le porte logiche sono i blocchi costitutivi fondamentali dei circuiti digitali. Esse elaborano segnali
elettronici binari (0 e 1) per eseguire operazioni logiche basilari. Ogni porta logica implementa una
funzione logica booleana specifica, che può essere combinata con altre per realizzare operazioni più
complesse.

A Cosa Servono le Porte Logiche?


Le porte logiche sono i mattoni fondamentali dei circuiti digitali. Vengono utilizzate per:

• Elaborazione di Informazioni Digitali: Le porte logiche manipolano segnali binari per eseguire
calcoli e prendere decisioni logiche all'interno di un circuito.
• Costruzione di Circuiti Complessi: Combinando porte logiche, si possono creare
microprocessori, memorie, e altri dispositivi digitali avanzati.
• Implementazione di Funzioni Booleane: Permettono di realizzare qualsiasi funzione logica
attraverso l'algebra booleana, fondamentale nell'informatica e nell'elettronica.

Come Vengono Realizzate le Porte Logiche?


Le porte logiche possono essere realizzate utilizzando diverse tecnologie elettroniche, ma la più
comune è la tecnologia CMOS (Complementary Metal-Oxide-Semiconductor). Ecco come vengono
costruite:

➢ Utilizzando Transistor MOSFET


• Transistor NMOS e PMOS: Le porte logiche CMOS utilizzano una combinazione di
transistor NMOS (canale N) e PMOS (canale P).
• Configurazione Complementare: Gli NMOS e i PMOS sono disposti in modo tale che uno
si accenda mentre l'altro si spegne, riducendo il consumo di energia.
• Reti di Pull-Up e Pull-Down:
o Rete di Pull-Up (PMOS): Conduce quando l'ingresso è a livello basso.
o Rete di Pull-Down (NMOS): Conduce quando l'ingresso è a livello alto.

Perché CMOS? Offre basso consumo di potenza e alta densità di integrazione.

➢ Tecnologia TTL (Transistor-Transistor Logic)


• Utilizza transistor bipolari invece di MOSFET.
• Ha un consumo di potenza maggiore rispetto al CMOS, ma può offrire velocità di
commutazione elevate.

Esempio di Implementazione:
• Porta NOT (Inverter): Realizzata con un transistor PMOS e uno NMOS collegati in
configurazione CMOS.
• Porta AND e OR: Richiedono combinazioni di più transistor per realizzare le rispettive funzioni
logiche.
• Circuiti Aritmetici
• Circuiti di Controllo
• Memorie e Registri: Flip-Flop: Utilizzano porte logiche per memorizzare un bit di informazione.
Descrivere i vantaggi della realizzazione delle porte logiche in tecnologia CMOS.

1. Basso Consumo di Potenza


Uno dei maggiori vantaggi della tecnologia CMOS è il suo basso consumo di potenza in stato statico.
Questo è dovuto alla configurazione complementare di transistor NMOS e PMOS che garantisce che,
idealmente, non vi sia corrente diretta tra V_dd e GND quando il circuito è in uno stato logico stabile.

2. Alta Densità di Integrazione


La tecnologia CMOS permette una densità di integrazione molto alta, il che significa che un gran
numero di porte logiche può essere integrato su un singolo chip.

3. Alta Velocità di Operazione


I transistor MOSFET utilizzati nella tecnologia CMOS sono in grado di commutare rapidamente tra gli
stati di on e off, permettendo operazioni ad alta velocità.

6. Riduzione dei Costi


La produzione di circuiti integrati CMOS è altamente ottimizzata, rendendola una tecnologia
economicamente vantaggiosa per la produzione di massa. Infatti la capacità di produrre un gran
numero di chip su una singola fetta di silicio riduce i costi di produzione.
Descrivere il funzionamento di un inverter e illustrare una sua realizzazione in tecnologia nMOS

In contrapposizione, la tecnologia CMOS (Complementary MOS) utilizza sia transistori a canale N che
a canale P per ridurre il consumo di potenza a livelli molto bassi, rendendo la tecnologia CMOS più
efficiente dal punto di vista energetico.
Descrivere la realizzazione delle porte logiche NAND.

La porta logica Nand, è in pratica una porta logica and, con funzionamento invertito.

Per costruire una porta logica NAND ci occorrono due transistor e una resistenza. Il circuito
elettronico si realizza con una configurazione molto semplice. Lo stato di conduzione o interdizione
dei due transistor determina la condizione logica NAND in uscita. Quindi per avere in uscita un livello
logico basso gli ingressi A e B devono inviare un segnale che attivi la conduzione dei due transistor.
Negli altri casi, con A diverso da B, il livello logico in uscita si presenterà sempre alto.
Convertitori
D/A
A/D
Cosa Sono i Convertitori?

In elettronica, un convertitore è un dispositivo che trasforma un segnale da un formato a un altro. Ci


sono diversi tipi di convertitori, ma i due principali in questo contesto sono:

• Convertitori Analogico-Digitali (A/D): Trasformano segnali analogici continui in segnali


digitali discreti.

• Convertitori Digitale-Analogici (D/A): Trasformano segnali digitali discreti in segnali analogici


continui.

Cos'è un Convertitore D/A (Digital-to-Analog)?

Un convertitore D/A è un dispositivo elettronico che prende un segnale digitale, composto da una
serie di bit (0 e 1), e lo trasforma in un segnale analogico continuo, come una tensione o una corrente
variabile nel tempo.

Perché Sono Importanti i Convertitori D/A?

I convertitori D/A sono fondamentali perché permettono ai dispositivi digitali (come computer,
smartphone e sistemi di controllo) di interagire con il mondo reale, che è analogico. Ecco alcuni
esempi:

• Audio: Quando ascolti musica sul tuo telefono, il file audio digitale viene convertito in un
segnale analogico che può pilotare le cuffie o gli altoparlanti.

• Video: I segnali digitali vengono convertiti in segnali analogici per controllare i pixel su uno
schermo.

• Controllo di Dispositivi: In automazione industriale, segnali digitali vengono convertiti in


segnali analogici per controllare motori, valvole e altri attuatori.

Come Funziona un Convertitore D/A?

Principio di Base:

1. Rappresentazione Digitale:

o Il segnale digitale è una sequenza di bit che rappresenta un valore numerico.

o Ad esempio, in un convertitore a 8 bit, puoi avere valori da 0 a 255 (2^8 - 1).

2. Conversione in Segnale Analogico:

o Il convertitore D/A trasforma questo valore numerico in una tensione o corrente


proporzionale.
Descrivere le principali caratteristiche dei convertitori D/A.

I convertitori D/A (Digital-to-Analog) sono dispositivi che trasformano segnali digitali (binari) in segnali
analogici.

Un convertitore D/A prende un input digitale, rappresentato da una serie di bit, e lo trasforma in una
tensione o corrente analogica proporzionale al valore digitale. Il numero di bit dell'input digitale
determina la risoluzione del convertitore.

• Risoluzione
La risoluzione di un convertitore D/A è il numero di bit che può elaborare. Più alto è il numero di
bit, maggiore è la risoluzione.
Una maggiore risoluzione consente di rappresentare il segnale analogico con maggiore
precisione, riducendo il "gradino" tra i livelli di tensione successivi.

• Linearità
La linearità descrive quanto accuratamente l'uscita analogica del convertitore segue l'ingresso
digitale previsto. Idealmente, la relazione tra il valore digitale e il valore analogico dovrebbe
essere lineare.

Non-linearità differenziale (DNL): Misura la deviazione di ogni singolo passo rispetto al passo
ideale.

Non-linearità integrale (INL): Misura la deviazione del punto di uscita rispetto alla linea ideale
su tutta la gamma di ingresso.

• Velocità di Conversione
La velocità di conversione, o frequenza di aggiornamento, è la velocità con cui il convertitore
D/A può aggiornare l'uscita analogica. È misurata in campioni per secondo (SPS).
Una maggiore velocità di conversione è necessaria per applicazioni che richiedono
aggiornamenti rapidi del segnale, come l'audio ad alta fedeltà e le telecomunicazioni.

• Gamma Dinamica
La gamma dinamica è la differenza tra il massimo segnale di uscita possibile e il minimo
segnale rilevabile, spesso espressa in decibel (dB).
Una gamma dinamica più ampia consente al convertitore D/A di rappresentare segnali con una
maggiore variazione di ampiezza, importante per applicazioni audio e video ad alta fedeltà.

• Tempo di Assestamento
Il tempo di assestamento è il tempo richiesto affinché l'uscita analogica raggiunga e rimanga
entro un certo margine di errore del valore finale desiderato, dopo un cambiamento
dell'ingresso digitale.
Un tempo di assestamento breve è cruciale per applicazioni che richiedono risposte rapide e
precise, come i sistemi di controllo in tempo reale.
• Rumore e Distorsione
Rumore: Tutti i convertitori D/A introducono un certo livello di rumore, che può degradare la
qualità del segnale.
Distorsione: La distorsione armonica totale (THD) è una misura di quanto l'uscita del
convertitore differisce dal segnale ideale a causa di effetti non lineari.

• Tensione di Riferimento
La tensione di riferimento determina la gamma di uscita del convertitore D/A.
Una tensione di riferimento stabile e precisa è essenziale per garantire che l'uscita analogica
sia accurata e coerente.
Descrivere caratteristiche e funzionamento dei convertitori A/D.

I convertitori A/D (Analog-to-Digital) sono dispositivi che trasformano segnali analogici continui in
segnali digitali discreti. Questa conversione permette al segnale analogico di essere elaborato,
memorizzato o trasmesso da sistemi digitali.

Permettono ai sistemi digitali di acquisire e processare segnali dal mondo reale (temperatura, suono,
luce, ecc.).

Caratteristiche:

• Risoluzione
Il numero di bit del convertitore, che determina il numero di livelli di quantizzazione. Maggiore
risoluzione significa che il convertitore può distinguere variazioni più piccole nel segnale
analogico, rappresentandolo con maggiore precisione.

• Velocità di Conversione
La velocità alla quale il convertitore può campionare e convertire il segnale analogico in
digitale, espressa in campioni per secondo (SPS) o Hz.
Per segnali che cambiano velocemente nel tempo, è necessaria una velocità di conversione
elevata per catturare (campionare) accuratamente le variazioni.
La frequenza di campionamento deve essere almeno il doppio della massima frequenza
presente nel segnale per evitare l'aliasing.

• Precisione e Accuratezza
Indica quanto il valore digitale convertito si avvicina al valore reale del segnale analogico.

• Tempo di Assestamento
Il tempo richiesto affinché il convertitore stabilizzi l'uscita dopo un cambiamento nel segnale
di ingresso.
Brevi tempi di assestamento sono critici per applicazioni in tempo reale.

• Rumore e Distorsione
Il rumore è il segnale indesiderato introdotto nel processo di conversione.
La distorsione è la deviazione del segnale convertito rispetto al segnale originale a causa di
non-linearità nel convertitore.
Funzionamento

Il funzionamento di un convertitore A/D può essere suddiviso in tre fasi principali:

1. Ingresso analogico (Vin) va a un circuito Sample and Hold, che campiona e blocca il segnale.

2. Campionamento:
Il segnale analogico continuo viene campionato a intervalli di tempo regolari, ottenendo una
serie di valori discreti nel tempo. La frequenza di campionamento deve essere almeno il
doppio della massima frequenza del segnale (secondo il teorema di Nyquist) per evitare
l'aliasing (ovvero la sovrapposizione delle componenti di frequenza che porta a distorsioni).

3. Quantizzazione:
Il segnale campionato viene inviato al Comparatore che confronta il segnale di ingresso (Vin)
con il segnale generato dal DAC (Digital to Analog Converter) interno. Se il segnale d’ingresso è
maggiore o minore del valore generato dal DAC, il comparatore fornisce un feedback per la
correzione del bit successivo.
I campioni ottenuti nella fase di campionamento vengono quantizzati, ovvero approssimati ai
valori discreti più vicini disponibili nel range del convertitore.
Il numero di livelli di quantizzazione (2^n livelli per un convertitore a n bit) determina la
risoluzione del convertitore. Una quantizzazione fine (più livelli) riduce l'errore di
quantizzazione, migliorando la fedeltà del segnale digitalizzato.

4. Codifica
I valori quantizzati sono codificati in codice binario (digitale) per essere elaborati, memorizzati
o trasmessi da sistemi digitali.
Rappresentazione Binaria: Ogni livello di quantizzazione corrisponde a una combinazione
unica di bit.

Nota:
Per eseguire correttamente la conversione, un A/D deve avere una tensione stabile durante tutto il
tempo Ts, altrimenti si avrebbero delle incertezze sul valore di Vi effettivamente convertito (errore di
conversione).
Questo problema può essere superato mediante l’impiego di un circuito chiamato Sample and
Hold (S&H). Si tratta di un circuito che permette di campionare l’ingresso in un istante preciso e di
memorizzarne temporaneamente il valore analogico. In tal modo, la tensione in ingresso al
convertitore può essere mantenuta stabile per il tempo necessario alla conversione, eliminando
l’errore di conversione.
Amplificatore Operazionale
L'amplificatore operazionale è un componente elettronico analogico la cui denominazione deriva dal
fatto che questo dispositivo è stato ampiamente usato per effettuare operazioni matematiche su
segnali elettrici. L'evoluzione tecnologica ha portato alla realizzazione degli amplificatori operazionali
dapprima sotto forma di circuiti a valvole, poi attraverso l'utilizzo di transistor ed infine realizzandoli
come circuiti integrati.

Un amplificatore operazionale è un amplificatore differenziale ad alto guadagno, progettato per


amplificare la differenza di tensione tra i suoi due ingressi, chiamati:

• Ingresso non invertente (+): Segnale in ingresso che viene amplificato senza inversione di
fase.

• Ingresso invertente (–): Segnale in ingresso che viene amplificato con inversione di fase (180
gradi).

L'uscita dell'Op-Amp è proporzionale alla differenza di tensione tra questi due ingressi moltiplicata
per il guadagno dell'amplificatore.

Principali applicazioni dell’amplificatore operazionale


• Amplificatori di Segnale:
o Amplificatore invertente: Inverte e amplifica il segnale in ingresso.
o Amplificatore non invertente: Amplifica il segnale senza invertirlo.
o Amplificatore differenziale: Amplifica la differenza tra due segnali di ingresso,
eliminando il rumore comune, una caratteristica utile per i sensori differenziali.
• Filtri Attivi:
o Filtri passa-basso: Consentono il passaggio delle frequenze basse e attenuano
quelle alte.
o Filtri passa-alto: Consentono il passaggio delle frequenze alte e attenuano quelle
basse.
o Filtri passa-banda: Consentono il passaggio di una banda specifica di frequenze.
• Convertitori D/A e A/D
• Regolatori di Tensione
• Oscillatori: possono essere utilizzati per generare onde sinusoidali, quadre o triangolari in
circuiti oscillatori.
Amplificatore Invertente
Amplificatore Non invertente
Amplificatore come Buffer (Inseguitore di Tensione)
Amplificatore come sommatore invertente
Amplificatore come Differenziale
Amplificatore come Integratore
Amplificatore come Derivatore
Amplificatore come Comparatore

In elettronica si dice comparatore un circuito in grado di confrontare fra loro due segnali di ingresso,
fornendo in uscita un livello alto e basso a seconda di quale dei due segnali di ingresso è maggiore
dell'altro.

Il modo più semplice di realizzare un comparatore è utilizzare un amplificatore operazionale ad


anello aperto, cioè senza collegamento di retroazione. I due segnali da confrontare vengono collegati
con l'ingresso invertente e non invertente dell'operazionale.
Comparatore non invertente
Se la tensione di riferimento viene applicata all'ingresso negativo - si parla di comparatore non
invertente.

Comparatore invertente
Se la tensione di riferimento viene applicata all'ingresso positivo + si parla di comparatore non
invertente.
Comparatore con isterisi o Trigger di Schmitt.
Il trigger di Schmitt è un particolare tipo di comparatore di soglia con isteresi, ovvero un circuito che
consente di trasformare un segnale analogico in un'uscita che varia soltanto tra due valori di tensione
a seconda che l'ingresso superi una certa soglia o sia inferiore ad una seconda soglia (più bassa).
Una delle sue applicazioni è la produzione di onde quadre a partire da un segnale sinusoidale, per
questo è molto utilizzato nei circuiti logici per creare il segnale di sincronismo (clock).

Questo circuito è fondamentale in elettronica per convertire segnali analogici in segnali digitali puliti,
eliminando rumori e fluttuazioni indesiderate.

Di seguito un comparatore con isteresi non invertente :


Descrivere il funzionamento dell’amplificatore operazionale impiegato come comparatore di
soglia.

Un comparatore di soglia con amplificatore operazionale è un circuito in cui l'amplificatore


operazionale (op-amp) è configurato in modo da confrontare un segnale di ingresso con una tensione
di soglia (riferimento). La configurazione di base prevede:

• Ingresso non invertente (+): Dove viene applicata la tensione di riferimento (V_ref).

• Ingresso invertente (-): Dove viene applicato il segnale di ingresso (V_in).

• Uscita: Collegata a un carico che può essere un LED, un relè o un circuito logico.

Il comparatore di soglia sfrutta l'elevato guadagno dell'amplificatore operazionale per decidere se il


segnale di ingresso supera o meno la soglia di riferimento.

• Condizione 1: V_in < V_ref

o Quando la tensione di ingresso (V_in) è inferiore alla tensione di riferimento (V_ref),


l'uscita dell'op-amp è prossima alla tensione di saturazione negativa, tipicamente
vicino a 0V (o la tensione negativa di alimentazione se presente).

• Condizione 2: V_in > V_ref

o Quando la tensione di ingresso (V_in) supera la tensione di riferimento (V_ref), l'uscita


dell'op-amp va in saturazione positiva, tipicamente vicino alla tensione positiva di
alimentazione.
Dettagli importanti:

Un amplificatore operazionale (op-amp) usato come comparatore di soglia confronta due tensioni:
una tensione di ingresso (V_in) e una tensione di riferimento (V_ref). Ecco come funziona in parole
semplici:

Configurazione del Circuito:

• Ingresso Non Invertente (+): Collegato alla tensione di riferimento (V_ref).

• Ingresso Invertente (-): Collegato alla tensione di ingresso che vuoi monitorare (V_in).

• Uscita: Fornisce un segnale che indica se V_in è sopra o sotto V_ref.

Come Funziona:

1. Quando V_in è inferiore a V_ref (V_in < V_ref):

o L'uscita dell'op-amp si porta al valore più basso possibile (vicino a 0V o alla tensione
negativa di alimentazione).

o In pratica, l'uscita è "spenta" o a livello basso.

2. Quando V_in supera V_ref (V_in > V_ref):

o L'uscita dell'op-amp si porta al valore più alto possibile (vicino alla tensione positiva di
alimentazione).

o In pratica, l'uscita è "accesa" o a livello alto.

Gli amplificatori operazionali hanno un guadagno molto elevato, il che significa che amplificano
anche piccole differenze tra V_in e V_ref.

Questo comportamento "tutto o niente" è utile per creare un segnale digitale da un segnale analogico.

Esempio Termostato Semplice: Se la temperatura (V_in) supera un certo valore (V_ref), l'uscita
dell'op-amp può attivare un ventilatore o un allarme.
Descrivere l’amplificatore operazionale ideale illustrando il concetto di reazione negativa. Si
discutano poi le caratteristiche principali di uno degli stadi amplificatori elementari affrontati
nel corso.
Descrivere il funzionamento dell’amplificatore operazionale impiegato come integratore.

Un amplificatore operazionale (op-amp) può essere configurato per funzionare come integratore,
ovvero un circuito che calcola l'integrale del segnale di ingresso.

La tensione di uscita VOUT dell'integratore, in funzione della tensione di ingresso V IN, può essere
calcolata utilizzando l'equazione:
Memorie statiche e dinamiche
Elemento Base di Memoria

L'elemento base di memoria è il componente fondamentale utilizzato per immagazzinare dati in


forma binaria (0 e 1) all'interno di circuiti digitali. Ogni bit di memoria è rappresentato da uno stato
stabile che può essere mantenuto indefinitamente finché viene alimentato il circuito.

Flip Flop
Un flip-flop è un circuito bistabile, ovvero può mantenere due stati stabili (alto o basso) finché non
riceve un segnale di controllo per cambiare stato.
La struttura interna di un flip-flop varia a seconda del tipo (SR, D, JK, T), ma in generale, è composto
da porte logiche interconnesse e transistor che formano circuiti bistabili. Nella tecnologia CMOS,
che è la più comune nei circuiti integrati moderni, i flip-flop sono realizzati utilizzando transistor
NMOS e PMOS.
La sua struttura varia a seconda del tipo, ma in generale, richiede da 8 a 14 transistor in
implementazioni CMOS, a seconda della complessità e delle funzionalità desiderate.

Flip-Flop Set-Reset (SR)

Il flip-flop Set-Reset (SR) è uno dei primi tipi di flip-flop utilizzati come elemento base di memoria. È
un circuito bistabile che può mantenere uno stato logico stabile fino a quando non viene commutato
da segnali di controllo. Fondamentale per la costruzione di registri e memorie semplici.

Flip-Flop D (Data o Delay)

Il flip-flop D è una versione migliorata del flip-flop SR, progettata per evitare gli stati indesiderati e
semplificare l'architettura dei circuiti di memoria. È ampiamente utilizzato nei circuiti di
sincronizzazione e memorizzazione dati. Utilizzato in registri, contatori e memorie sequenziali.
Architettura Circuiti di Memoria

L'architettura dei circuiti di memoria si riferisce alla disposizione e all'interconnessione degli


elementi di memoria (flip-flop) per creare strutture di memorizzazione più complesse, come registri,
memorie cache e memorie principali.

Gli elementi di memoria sono organizzati in matrici bidimensionali per facilitare l'accesso e la
gestione dei dati.

Ogni punto memoria è quindi caratterizzato da un indirizzo, corrispondente ad un numero di linea (in
inglese row) e un numero di colonna (in inglese column).
Memoria RAM Statica (SRAM)

La memoria RAM statica (SRAM) è un tipo di memoria volatile che utilizza flip-flop (solitamente flip-
flop a 6 transistor → 6 transistor per bit) per memorizzare ciascun bit.
È chiamata "statica" perché non richiede refresh periodici per mantenere i dati, a differenza della RAM
dinamica.

• Ogni bit è mantenuto da un circuito bistabile (flip-flop) che conserva il suo stato finché
l'alimentazione è presente.
• Offre tempi di accesso molto rapidi grazie alla struttura a flip-flop.
• Utilizzata principalmente come cache nelle CPU e in applicazioni che richiedono accessi
veloci ai dati.

Memoria RAM Dinamica (DRAM)

La memoria RAM dinamica (DRAM) è un tipo di memoria volatile che utilizza condensatori per
memorizzare ciascun bit (1 transistor + 1 condensatore per bit). È chiamata "dinamica" perché i
condensatori perdono la carica nel tempo e necessitano di essere rinfrescati periodicamente per
mantenere i dati.

Ogni bit è memorizzato come una carica elettrica in un condensatore.


Utilizzata come memoria principale nei computer e nei dispositivi mobili
Descrivere le principali differenze fra le memorie statiche e dinamiche.

Le memorie statiche (SRAM) e dinamiche (DRAM) sono due tipi di memorie volatili utilizzate nei
computer e in altri dispositivi elettronici per memorizzare dati temporanei.

Memoria Statica (SRAM)

• Celle di Memoria: Ogni cella di memoria SRAM è composta da un latch bistabile formato da 4
o 6 transistor. Questi transistor mantengono lo stato della cella fintanto che è alimentata.

• Conservazione dei Dati: Mantiene i dati finché è alimentata, senza bisogno di essere
periodicamente rinfrescata.

• Velocità: Più veloce della DRAM, perché non richiede cicli di refresh e ha tempi di accesso
minori.

• Complessità e Dimensioni: Più complessa e più grande rispetto alla DRAM per bit di
memoria, a causa del numero maggiore di transistor per cella.

Memoria Dinamica (DRAM)

• Celle di Memoria: Ogni cella di memoria DRAM è composta da un transistor e un


condensatore. Il condensatore immagazzina carica elettrica per rappresentare un bit (carica
presente = 1, carica assente = 0).

• Conservazione dei Dati: Necessita di essere periodicamente rinfrescata (refresh) perché il


condensatore perde la carica nel tempo.

• Velocità: Più lenta della SRAM a causa della necessità di cicli di refresh e tempi di accesso più
lunghi.

• Semplicità e Dimensioni: Più semplice e più piccola rispetto alla SRAM per bit di memoria,
poiché utilizza solo un transistor e un condensatore per cella.

2. Consumo di Energia

SRAM

• Consumo a Riposo: Consuma energia costante finché è alimentata, poiché i transistor


devono mantenere lo stato della cella.

• Consumo Durante l'Accesso: Il consumo di energia durante la lettura e la scrittura è


generalmente superiore rispetto alla DRAM, ma non richiede energia per cicli di refresh.

DRAM

• Consumo a Riposo: Ha un consumo di energia inferiore rispetto alla SRAM quando non
viene acceduta, ma richiede energia periodica per i cicli di refresh.

• Consumo Durante l'Accesso: Il consumo di energia durante la lettura e la scrittura è


inferiore rispetto alla SRAM, ma i cicli di refresh aggiungono un consumo energetico
complessivo.
3. Densità e Capacità

SRAM

• Densità: Minore densità di memoria per chip a causa della complessità delle celle di memoria.

• Capacità: Generalmente utilizzata per memorie cache e applicazioni dove sono necessarie
basse latenze e alta velocità.

DRAM

• Densità: Maggiore densità di memoria per chip grazie alla semplicità delle celle di memoria.

• Capacità: Utilizzata per la memoria principale (RAM) dei computer e altri dispositivi dove è
necessaria una grande capacità di memoria a un costo inferiore.

4. Prestazioni

SRAM

• Tempo di Accesso: Tempi di accesso molto rapidi, ideali per applicazioni ad alta velocità come
cache di CPU.

• Latency: Bassa latenza, il che la rende adatta per operazioni che richiedono accessi rapidi e
frequenti.

DRAM

• Tempo di Accesso: Tempi di accesso più lenti rispetto alla SRAM

• Latency: Maggiore latenza dovuta ai cicli di refresh e al tempo necessario per accedere ai dati.

5. Applicazioni Tipiche

SRAM

• Cache di CPU: Utilizzata come cache di primo livello (L1) e secondo livello (L2) nelle CPU

• Memorie Embedded: Utilizzata in dispositivi dove è necessaria una memoria rapida e con
accesso frequente.

• Buffer di Rete: Utilizzata in switch e router per gestire rapidamente i pacchetti di dati.

DRAM

• Memoria Principale (RAM): Utilizzata come memoria principale nei computer, smartphone, e
altri dispositivi elettronici.

• Memoria Video (VRAM): Utilizzata nelle schede grafiche per memorizzare i frame buffer e altre
informazioni grafiche.

• Memoria di Massa Temporanea: Utilizzata in applicazioni che richiedono grandi quantità di


memoria temporanea, come nei server e nei data center.
Descrivere il funzionamento del Flip-flop Set-Reset.

Il Flip-Flop SR (Set-Reset) è un tipo di circuito bi-stabile che ha due ingressi, denominati Set (S) e
Reset (R), e due uscite, Q e Q¯ (complemento di Q). Questo dispositivo è fondamentale nella
progettazione dei circuiti digitali poiché può memorizzare un bit di informazione, mantenendo il suo
stato fino a quando non viene modificato da un input. Il Flip-Flop SR è quindi un blocco costruttivo
essenziale per la realizzazione di memorie, contatori e sistemi di controllo.

Il flip-flop SR può essere implementato utilizzando porte logiche NAND o NOR.

Il principio di funzionamento del Flip-Flop SR si basa sulla logica di due ingressi e le loro interazioni
con le uscite. Quando l’ingresso Set (S) è attivo (tipicamente alto), l’uscita Q diventa alta,
mentre Q¯ diventa bassa. Questo stato è noto come “set”. Al contrario, quando l’ingresso Reset (R) è
attivo, Q diventa bassa e Q¯ alta, portando il circuito nello stato “reset”. Se entrambi gli ingressi sono
bassi, il Flip-Flop mantiene il suo stato precedente. Tuttavia, è importante notare che l’attivazione
contemporanea degli ingressi S e R è una condizione non ammessa, poiché porta a un
comportamento indefinito del circuito, con entrambe le uscite potenzialmente alte.
Analizzatore di protocollo

A cosa serve un analizzatore di protocollo?

• Diagnosi dei problemi di rete:


Quando la rete LAN ha problemi, come lentezza o interruzioni di servizio, monitorare il traffico
può aiutare a capire la causa. Analizzando i pacchetti di dati che vengono inviati e ricevuti,
puoi:

• Identificare colli di bottiglia nel flusso dei dati.


• Individuare pacchetti che si perdono o che vengono ritrasmessi.
• Verificare se ci sono congestioni dovute a sovraccarichi di rete.
• Riconoscere comportamenti anomali nei protocolli di comunicazione (come errori di
configurazione).
In pratica, vedere il traffico ti consente di fare un debug della rete e scoprire dove stanno i
problemi.

• Sicurezza:
Copiando e analizzando i pacchetti di dati, è possibile individuare attività sospette o potenziali
attacchi. Ad esempio:
- Rilevare tentativi di intrusioni o scansioni di porte da parte di un hacker.
- Identificare attività di malware o trojan che inviano dati verso l'esterno.
- Trovare eventuali fughe di dati o comportamenti anomali che possono indicare un
attacco interno.
Monitorando il traffico, puoi verificare se i pacchetti seguono le regole e le policy di sicurezza
della rete.

• Ottimizzazione delle prestazioni:


Sapendo quante risorse vengono consumate e come il traffico viene distribuito, puoi:
- Bilanciare il carico tra i server.
- Verificare se ci sono applicazioni o dispositivi che consumano più larghezza di banda
del necessario.
- Identificare protocolli inefficienti o configurazioni sbagliate che rallentano il traffico.

Ottimizzando il flusso del traffico, puoi migliorare le prestazioni complessive della rete e
ridurre i costi operativi.
Copiare il traffico significa duplicare i pacchetti di dati da una o più porte e inviarli a un dispositivo di
analisi, come un analizzatore di protocollo o un IDS (Intrusion Detection System).
Questo ti consente di "guardare" i dati in transito senza influenzare direttamente il traffico originale. Si
usa spesso la funzione di mirroring negli switch o HUB per copiare tutto il traffico di una specifica
porta o VLAN (Virtual LAN).

Esempio pratico: Se vuoi analizzare tutto il traffico tra il server di un'applicazione e i suoi client, puoi
configurare lo switch per copiare i pacchetti su una porta mirror e collegare lì l'analizzatore. In questo
modo, l'analizzatore vedrà tutto il traffico che passa tra il server e i client senza interferire.
Descrivere i possibili modi di collegare un analizzatore di protocollo all’interno di una rete LAN
In pratica si chiede di spiegare le diverse tecniche e metodologie per inserire un analizzatore nel
flusso di rete in modo da poter catturare e analizzare il traffico desiderato. Ci sono diversi metodi per
collegare un analizzatore di protocollo a una rete LAN (Local Area Network):

• Collegamento tramite HUB con porta disponibile

Un HUB è un dispositivo che inoltra i pacchetti di dati a tutte le porte. Se l'HUB ha una porta
disponibile, puoi collegare l'analizzatore di protocollo direttamente all'HUB, e quest'ultimo
riceverà una copia di tutto il traffico che passa attraverso di esso, permettendo di monitorare
tutte le comunicazioni.

• Collegamento tramite HUB senza porta disponibile

Se l'HUB non ha una porta libera, una soluzione potrebbe essere inserire un piccolo HUB
supplementare tra uno dei dispositivi e l'HUB principale. In questo modo, l'analizzatore di
protocollo può essere collegato all'HUB supplementare, il quale verrà collegato a sua volta
all'HUB principale.
• Collegamento in presenza di uno switch

Uno switch è più intelligente rispetto a un HUB perché inoltra i pacchetti solo alla porta di
destinazione corretta, e non a tutte le porte. Questo rende il monitoraggio del traffico più
difficile. Se l'analizzatore di protocollo viene semplicemente collegato a una porta di uno
switch, non vedrà tutto il traffico della rete, ma solo quello destinato specificamente a quella
porta.

• Utilizzo di un analizzatore multiporta

Un analizzatore multiporta è un dispositivo con più porte di ingresso, che può essere
collegato a diverse parti della rete. Questa configurazione ti permette di monitorare più
segmenti di rete contemporaneamente.
• Uso della porta mirror

La porta mirror, o SPAN (Switched Port Analyzer), è una funzionalità di uno switch di rete che
permette di duplicare il traffico che passa attraverso una o più porte (o VLAN) dello switch
verso una specifica porta che tu scegli. Questa porta sarà collegata all'analizzatore di
protocollo, permettendoti di vedere tutto il traffico che stai monitorando senza influenzare il
normale funzionamento della rete.

Gli analizzatori di protocollo di rete sono strumenti fondamentali per il monitoraggio e l'analisi delle
comunicazioni all'interno di una rete. Sono utilizzati per catturare, decodificare e analizzare i
pacchetti di dati che vengono trasmessi tra i dispositivi.

• Cattura dei pacchetti


Un analizzatore di protocollo può catturare in tempo reale i pacchetti di dati che viaggiano
attraverso la rete. Ogni pacchetto contiene informazioni specifiche, come indirizzi IP, porte,
protocolli, dati utente, checksum, ecc. L'analizzatore memorizza questi pacchetti per l'analisi,
permettendo di osservare il traffico effettivo in una rete.

• Decodifica dei protocolli


Una delle funzionalità più importanti degli analizzatori di protocollo è la capacità di
decodificare i protocolli utilizzati nei pacchetti catturati. L'analizzatore è in grado di
interpretare diversi livelli del modello OSI, dal livello fisico (bit e frame Ethernet) fino ai livelli di
trasporto e applicazione (TCP, UDP, HTTP, DNS, ecc.).ù

• Filtraggio e ricerca
Gli analizzatori di protocollo permettono di applicare filtri per catturare solo specifici tipi di
traffico o per eseguire ricerche su pacchetti già catturati. Puoi filtrare i pacchetti in base a
criteri come indirizzi IP, porte TCP/UDP, tipi di protocollo o pattern di dati specifici.
Descrivere l’architettura dei sistemi automatici di misura
Si parla di sistema automatico di misura quando l'operatore è sollevato da una o più attività di
misurazione a lui normalmente demandate.

Elementi costitutivi di un SAM


• strumenti di misura (oscilloscopi, analizzatori, multimetri)
• strumenti di stimolo (generatori)
• strumenti di supporto (matrici di commutazione, alimentatori)
• unità di supervisione e controllo

Un SAM opera in modo completamente automatico grazie a un programma software in esecuzione


sull'unità di supervisione e controllo.

Classificazione della strumentazione di misura


• AUTONOMO: Strumenti da banco, Strumenti portatili
• DA SISTEMA: Strumenti su scheda

Principali standard di interconnessione


Analisi spettrale analogica
L'analisi spettrale è una tecnica utilizzata per esaminare le componenti frequenziali di un segnale
elettrico. Essa permette di identificare e misurare le diverse frequenze presenti in un segnale, nonché
la loro ampiezza e fase.

Principio di Funzionamento
Il funzionamento si basa sull’analisi delle componenti in frequenza di un segnale elettrico,
tipicamente un segnale a radiofrequenza (RF), audiofrequenza (AF), o di altra natura, per visualizzare
la distribuzione delle sue ampiezze nel dominio delle frequenze. Gli analizzatori di spettro analogici
operano principalmente attraverso una tecnica chiamata supereterodina.

Caratteristiche principali
• Intervallo di frequenza: Gli analizzatori di spettro possono coprire ampi intervalli di
frequenza, da poche decine di Hz a molti GHz.
• Risoluzione in frequenza: Dipende dalla banda passante del filtro a frequenza intermedia (IF).
Più stretta è la banda passante, maggiore sarà la capacità di distinguere tra segnali molto vicini
in frequenza.
• Sensibilità: Gli analizzatori di spettro devono essere in grado di rilevare segnali molto deboli,
specialmente nei sistemi di telecomunicazioni o di misura.
• Analizzatore di spettro a banco di filtri: L'analizzatore di spettro a banco di filtri si basa su
una serie di filtri passa-banda che isolano diverse frequenze del segnale di ingresso. Ogni filtro
passa-banda è sintonizzato su una frequenza particolare e consente il passaggio solo di
segnali all'interno della sua banda di frequenza. L'ampiezza del segnale filtrato viene quindi
misurata e visualizzata sul display, rappresentando l'intensità della frequenza corrispondente.
Caratteristiche Principali
o Multipli Filtri Passivi o Attivi: Utilizza una serie di filtri passa-banda disposti in parallelo,
ciascuno sintonizzato su una frequenza specifica.
o Display Lineare o Logaritmico: Visualizza l'ampiezza delle componenti frequenziali in
relazione alla frequenza.
o Risoluzione in Frequenza Fissa: Ogni filtro è progettato per una banda di frequenza
specifica, determinando una risoluzione limitata.

• Analizzatore di spettro sequenziale con filtro a sintonia variabile: Questo tipo di


analizzatore utilizza un filtro passa-banda con capacità di sintonia variabile. Il filtro viene
sintonizzato progressivamente su diverse frequenze, e per ciascuna sintonia, l'ampiezza del
segnale nella banda di frequenza corrente viene misurata. La scannerizzazione sequenziale
permette di costruire uno spettro completo del segnale analizzato, visualizzando le
componenti frequenziali una alla volta.
Caratteristiche Principali
o Filtro a Sintonia Variabile: Un singolo filtro passa-banda che può essere sintonizzato su
diverse frequenze in sequenza.
o Scannerizzazione Sequenziale: Misura una banda di frequenza alla volta, scansionando
l'intero spettro desiderato.
o Risoluzione in Frequenza Regolabile: La risoluzione può essere modificata variando la
banda del filtro passa-banda.

• Analizzatore di spettro sequenziale a super-eterodina: L'analizzatore di spettro sequenziale


a super-eterodina sfrutta il principio della super-eterodina, una metodologia di ricezione dei
segnali radio che consente di convertire un segnale ricevuto a una frequenza elevata in una
frequenza intermedia (IF) più bassa e costante. Questo processo facilita la selezione e
l'amplificazione del segnale desiderato, migliorando la qualità della ricezione e riducendo le
interferenze. Il principio super-eterodina si basa sulla conversione di frequenza del segnale
ricevuto attraverso la miscelazione con un segnale di un oscillatore locale. Questo processo
produce due nuove frequenze: la somma e la differenza delle frequenze originali. La frequenza
intermedia (IF), solitamente la differenza, viene poi filtrata e amplificata per l'analisi.
Il termine "super-eterodina" deriva da:
"Super": Indica una tecnologia avanzata rispetto ai primi ricevitori radio.
"Eterodina": Deriva da "heterodyne", un termine che si riferisce alla combinazione di due
frequenze diverse per produrre nuove frequenze.
Analisi spettrale digitale
Analizzatori di spettro numerici
Un analizzatore di spettro numerico (Numerical Spectrum Analyzer, NSA) è uno strumento
elettronico che misura e visualizza l'ampiezza delle diverse frequenze presenti in un segnale elettrico.
A differenza degli analizzatori di spettro analogici, che utilizzano circuiti elettronici per la
trasformazione e la visualizzazione del segnale, gli analizzatori numerici impiegano tecniche digitali,
principalmente basate su algoritmi di elaborazione numerica come la Trasformata di Fourier (FFT).

Caratteristiche
• Frequency Range: L'intervallo di frequenze che l'analizzatore può misurare, ad esempio da
pochi Hertz (Hz) fino a gigahertz (GHz).
• Risoluzione in Frequenza: la capacità di distinguere tra due frequenze vicine tra loro
• Dynamic Range: La differenza tra il segnale più debole e il segnale più forte che l'analizzatore
può misurare accuratamente.
• Elaborazione Digitale del Segnale: Utilizzo di algoritmi numerici, come la Trasformata di
Fourier Rapida (FFT), per convertire il segnale dal dominio del tempo al dominio della
frequenza.
• Sensibilità: Capacità di rilevare segnali a bassa ampiezza.

Principio di funzionamento
1. Campionamento: il segnale analogico da analizzare viene campionato da un dispositivo
Sample&Hold (un circuito). Il segnale ottenuto è discreto nel tempo, ma ancora continuo nelle
ampiezze.
2. Quantizzazione: un convertitore A/D converte il segnale, diventando discreto anche nelle
ampiezze
3. Elaborazione: I dati campionati vengono elaborati dal Digital Signal Processor tramite
algoritmi numerici, solitamente la trasformata di Fourier Rapida (FFT) per convertire il segnale
dal dominio del tempo al dominio delle frequenze. Uso di funzioni finestra per minimizzare il
leakage spettrale e migliorare la precisione dell'analisi.
4. Visualizzazione: le componenti frequenziali vengono visualizzate graficamente su un display

Funzioni Finestra
Nell'analisi spettrale numerica, le funzioni finestra svolgono un ruolo cruciale nel migliorare la
qualità delle misure di frequenza e nell'ottimizzare la resa spettrale dei segnali analizzati.
Una funzione finestra è un filtro applicato al segnale prima di eseguire la Trasformata di Fourier (FFT).
Consiste nel moltiplicare il segnale per una funzione matematica che "finestra" (limita) il segnale in
un intervallo di tempo specifico.
Quando si esegue una FFT su un segmento di un segnale (finestratura), si introduce un'interruzione
brusca al confine dei segmenti. Questa discontinuità può causare fenomeni indesiderati nello
spettro, noti come leakage spettrale. Le funzioni finestra aiutano a mitigare questo effetto.
Descrivere il concetto di aliasing e le tecniche per eliminarlo.
L'aliasing è un fenomeno che si verifica quando un segnale analogico viene campionato a una
frequenza insufficientemente elevata rispetto alla sua frequenza massima. Questo porta alla
distorsione del segnale campionato.
Teorema di Nyquist-Shannon: Per evitare l'aliasing, la frequenza di campionamento deve essere
almeno il doppio della massima frequenza presente nel segnale analogico.

Tecniche per Eliminare l'Aliasing


• Anti-Aliasing Filter (Filtro Anti-Aliasing): Un filtro passa-basso analogico posizionato
prima del convertitore analogico-digitale (A/D) per attenuare le frequenze superiori alla
frequenza di Nyquist (che è la metà della frequenza di campionamento)
• Aumentare la Frequenza di Campionamento: Campionare il segnale a una frequenza
molto superiore al doppio della frequenza massima presente nel segnale.

Potrebbero piacerti anche