L’elettronica è la scienza e la tecnologia del movimento delle cariche in un gas, nel vuoto o in un
semiconduttore. In particolare vedremo come semiconduttore il silicio.
– Componenti
– Comunicazione
– Calcolo
– Controllo
Evoluzione storica
- 1904: Fleming inventa un dispositivo a due contatti, il diodo a vuoto, che chiama valvola;
- 1906: De Forest inventa il triodo a vuoto, terminale a tre contatti.
- 1947: Bardeen, Brattaine Shockley nei laboratori Bell inventano il transistore bipolare per il
quale riceveranno il premio Nobel per la fisica nel 1956;
- 1958: Kilby (Texas Instruments) concepisce l’idea di circuito integrato per la quale riceverà
il premio Nobel per la fisica nel 2000. (Noyce e Moore alla Fair child Semiconductor)
Il wafer di silicio è un disco al cui interno vengono realizzati molti chip che contengono milioni di elementi
che poi vengono separati.
Col passare del tempo si ha un aumento di ‘More Moore’ con unna continua miniaturizzazione ma anche un
maggiore ‘More than Moore’ con un aumento di diversificazione.
Modelli Atomici
La conoscenza della distribuzione degli elettroni sui possibili orbitali nello stato di minima energia è di
fondamentale importanza. In particolare, numerose delle proprietà degli atomi dipendono esclusivamente
dalla configurazione elettronica esterna in quanto, quasi sempre, sono proprio gli elettroni più esterni che
partecipano alla formazione dei legami tra atomi.
La colonna 4 è caratterizzata da quattro elettroni nell’orbitale più esterno. Nel silicio abbiamo come numero
atomico z = 14, ciò vuol dire che 14 è il numero degli elettroni (di cui 4 sono negli orbitali più esterni, gli altri
10 sono negli orbitali più interni). Il che è evidente agli esponenti dell’equazione evidenziata (s^2, p^2, 4
atomi negli orbitali più esterni).
Legami chimici
In natura in condizioni normali soltanto i gas nobili si trovano allo stato atomico mentre tutti gli altri
elementi esistono solamente combinati tra loro in un numero molto grande di modi.
Da un punto di vista chimico, i legami interatomici in un solido corrispondono a configurazione di energia
minima che di solito richiede la presenza nel guscio elettronico più esterno (nell’orbitale più esterno) di 8
elettroni (regola dell’ottetto) anche se esistono numerose eccezioni.
La configurazione è raggiunta con la “condivisione” di elettroni fra due o più atomi, ovvero la funzione
d’onda associata all’elettrone non è più localizzata su di un atomo ma abbraccia più atomi.
Il silicio raggiunge una situazione stabile quindi quando riesce a ottenere altri quattro elettroni.
LEGAME IONICO: ha luogo tra due elementi dei quali il primo ha il guscio esterno quasi pieno di elettroni e il
secondo quasi vuoto. La configurazione di energia minima si ha quando gli elettroni del secondo elemento
sono ceduti al primo con la formazione di due ioni che si attraggono tra di loro. Gli elettroni sono
fortemente localizzati intorno ai rispettivi nuclei.
Per esempio uno con quasi 8 elettroni nel guscio esterno e l’altro con quasi nessun elettrone. E abbiamo
che uno cede gli elettroni mentre l’altro li acquisisce.
LEGAME COVALENTE: ha luogo tra due elementi con il guscio parzialmente riempito e la configurazione a
minima energia si ha quando ogni atomo compartecipa i propri elettroni con quelli degli atomi vicini. Gli
elettroni sono localizzati intorno ai nuclei che fanno parte del legame. È il legame del cristallo di silicio. Il
silicio ha infatti 4 elettroni nel guscio esterno (parzialmente riempito).
LEGAME METALLICO: è tipico degli elementi che hanno un solo elettrone di valenza; la configurazione
minima si ha quando tutti gli atomi compartecipano il loro elettrone. Gli elettroni sono delocalizzati, ossia
possono spostarsi liberamente, o quasi, all’interno del materiale.
Considerando il silicio:
Nel cristallo di silicio ogni atomo di silicio è collegato ad altri 4 atomo di silicio. Compartecipa un elettrone
con ognuno degli atomi di silicio adiacente, legandosi così in modo covalente.
Raggiunti gli 8 elettroni ci troviamo in una situazione di stabilità di energia e abbiamo quindi la
configurazione di equilibrio quando ogni atomo condivide i propri elettroni con gli atomi vicini.
Cenni sulla fisica dei semiconduttori e sul principio di funzionamento del diodo a
giunzione
In assenza di campo elettrico gli elettroni si muovono in modo del tutto casuale, compiendo continui urti
contro gli ioni e la loro velocità cambia in modulo/direzione/verso ogni volta che avviene una collisione.
Il modello comparato a questa situazione è il modello di Drude in cui si pensa agli elettroni come particelle
di un gas liberi di muoversi in modo completamente caotico, tutto ciò se
Ne consegue che se considero il movimento di tutti gli elettroni e valuto la velocità con cui si spostano gli
elettroni il valore medio della velocità che assumono tutti gli elettroni posso dire che è uguale a 0, perché
essendo un movimento del tutto caotico, se prendo una sezione del materiale ho un numero uguale di
elettroni che vanno da destra a sinistra e viceversa e se faccio quindi la somma di tutte le velocità ottengo
una velocità nulla, è come se gli elettroni presi nel loro complesso non si muovono.
Ho, da un punto di vista macroscopico, elettroni che hanno velocità media nulla.
Se applico invece un campo elettrico diverso da 0, essendo un elettrone una particella carica
negativamente, se applico un campo elettrico nella direzione disegnata in figura, al moto termico caotico
dell’elettrone si va a sovrapporre un moto importato dal campo elettrico.
Il campo elettrico va a esercitare una forza sull’elettrone spingendolo in verso
opposto al campo elettrico. Il campo elettrico porta l’elettrone a subire urti ma
pur subendo continuamente urti come prima però macroscopicamente
l’elettrone tende a muoversi in verso opposto al campo elettrico.
L’elettrone acquisisce uno spostamento in direzione opposta al campo
elettrico. L’elettrone continua ad avere degli urti con ioni presenti nel reticolo,
urta contro uno ione, perde parte dell’energia ma continua a essere
accelerato.
Un’analogia considerabile è quella di un flipper e avere un campo elettrico ha come analogia quella di
inclinare il tavolo. Ha sia il moto termico che il moto imposto al campo elettrico.
Se vado a calcolare la velocità media assunta dagli elettroni in corrispondenza dell’applicazione del campo
elettrico, visto che tuti si muovono in direzione opposta al campo elettrico allora la velocità media sarà != 0.
Le cariche si spostano nella direzione del campo elettrico ma con verso opposto.
Per studiare questo movimento si fa l’ipotesi che tra due urti due elettroni sono soggetti alla sola forza
elettrica, si ha un campo elettrico costante, sotto l’azione del campo elettrico il portatore tende ad
accelerare con un incremento lineare della velocità, la velocità aumenta linearmente tra urto e un altro,
con gli urti con ioni di tipo inelastico e dopo l’urto non sono in grado di dire nulla sulla direzione, sul verso e
sulla velocità.
Considerando ora il grafico della componente della velocità dovuta al campo elettrico (depurata dalla
componente termica).
Dopo ogni urto l’elettrone ha perso l’energia acquisita e ha una velocita casuale, quella dovuta al campo
elettrico torna essere 0.
Qui parliamo del modulo della velocità del singolo elettrone. La velocità aumenta linearmente, si ha infatti
un’accelerazione costante, e in presenza di un urto, questo fa sì che l’elettrone perda la sua velocità e
ricominci. La pendenza delle curve è costante perchè l’ipotesi è quella di mantenere il campo elettrico
costante. Ogni elettrone avrà un grafico di questo tipo e se prendo la velocità mediamente acquisita da tutti
ho che il valor medio è diverso da 0. Assumendo che i grafici siano tutti di questo tipo, ho una velocità
media diversa da 0, questa velocità media diversa da 0 è detta velocità di drift. E’ la velocità media che
assumono gli elettroni all’interno di un conduttore per effetto dell’applicazione del campo elettrico.
L’andamento della velocità dell’elettrone nel tempo, depurata della componente termica risulta pertanto a
dente di sega, come rappresentato nella figura precedente.
Ricordiamo che stiamo trascurando la componente dovuta alla velocità termica in questo modello dovuto
da Drude.
Se depurata dalla velocità termica, prendendo la velocità di drift, si dimostra che la velocità di drift che
raggiungono gli elettroni è proporzionale al campo elettrico attraverso un coefficiente (pedice n per
ricordarci che stiamo parlando di elettroni) detto mobilità degli elettroni (con unità di misura m^2/(V*s)):
Questa è l’espressione vettoriale ma basta ricordarci che l’elettrone è portatore di carica negativa quindi si
muove in verso opposto al campo elettrico e molte volte si usa tralasciando la dicitura vettoriale,
ragionando in modulo la relazione :
Con questa relazione che abbiamo trovato siamo in grado di scrivere la legge di Ohm microscopica? (la
legge microscopica è quella che lega la densità di corrente al valore del campo elettrico)
Supponiamo di prendere un tratto di conduttore cilindrico con lunghezza L e sezione A a cui abbiamo
applicato un campo elettrico E diretto da destra verso sinistra. Nei metalli abbiamo elettroni liberi di
muoversi e macroscopicamente elettroni presenti nel materiale avranno una velocità di drift in direzione
opposta al campo elettrico. Andiamo a determinare l’espressione della corrente che attraversa il nostro
conduttore, indichiamo con N il numero di elettroni contenuti all’interno del cilindro.
Scriviamo la velocità di drift come:
dove T è il tempo impiegato da un elettrone a percorrere tutta la lunghezza L (il tempo che l’elettrone che
sta all’estremo sinistro impiega per percorrere tutto il materiale).
La corrente è definita come l’unita di carica nell’unita di tempo attraverso una sezione del nostro
conduttore, prendiamo come riferimento la sezione di uscita.
Scegliamo come quantità di tempo una quantità pari a T. Osservo quindi per t che va da 0 a T. Se osservo la
quantità di carica che passa dalla sezione A per un tempo pari a T, passeranno tutte le cariche che sono
contenute in questo cilindro. Prima arriveranno quelle vicine e poi anche l’ultima a destra avrà il tempo di
percorrere tutto il cilindro e attraversare la sezione A. La carica attraversata dalla sezione A è tuta quella
contenuta nel cilindro, ho un numero di elettroni pari a N con carica pari a q, dove q è il modulo.
Al posto di T poso scrivere il valore della velocità di drift. Se voglio l’andamento della densità di corrente J, è
definita come la corrente diviso la sezione in cui passa.
Il prodotto è detto conducibilità, la cui unità di misura è l’inverso della resistività. [1/(ohm * cm)]
In quanto:
E’ la legge di Ohm in cui si va a esprimere un legame tra la densità di corrente in funzione del campo
elettrico. (la densità di corrente è nella direzione del campo elettrico)
Nel caso dei semiconduttori la differenza consiste innanzitutto nel capire se ci sono cariche mobili, la
velocità di drift è infatti dovuta allo spostamento di cariche mobili. Partiamo da semiconduttori intrinseci,
semiconduttori perfettamente puri, costituito da un reticolo cristallino costituito solamente da atomi di
silicio.
Il reticolo è composto da atomi di silicio disposti regolarmente, ognuno dei quali ha 4 elettroni condivisi con
i 4 elettroni provenienti da altri atomi in modo che si abbia una configurazione di energia minima in cui
l’atomo di silicio è costituito da 8 elettroni nel guscio esterno, che gli danno una configurazione stabile.
Poso avere questa situazione solo allo 0 kelvin, 0 assoluto, in cui la presenza del legame covalente costringe
gli elettroni a rimanere nella zona corrispondente all’atomo corrispondente.
Questi elettroni non possono allontanarsi da questa zona. Allo 0 kelvin non ho cariche mobili.
La concentrazione di elettroni che si possono muovere (n è infatti la concentrazione di elettroni liberi di
muoversi) è nulla. Questo perché gli elettroni non si possono allontanare. Anche se applico un campo
elettrico, a meno che non sia elevato da portare a una rottura del legame, per campi elettrici piccoli che
non rompono legami covalenti, la conducibilità è sostanzialmente nulla allo 0 kelvin, non ho cariche che si
possono muovere per effetto del campo elettrico.
A temperatura ambiente, gli elettroni come gli ioni, acquisiscono energia termica quindi anche gli elettroni
più esterni, alcuni degli elettroni più esterni di questi 8 elettroni che danno origine a questi legami
covalenti, acquisiscono un’energia sufficiente a rompere il legame. L’elettrone è quindi in grado di acquisire
energia e allontanarsi dalla zona, diventando così libero di muoversi nel reticolo.
All’aumentare della temperatura alcuni elettroni sono in grado di allontanarsi dal legame, alcuni legami
covalenti si rompono, l’elettrone non è più vincolato a rimanere negli atomi di silicio a cui prima era
vincolato a rimanere.
La concentrazione di elettroni liberi generati per effetto della temperatura ha una legge di questo tipo:
Dove il pedice i si usa per indicare il fatto che si parla di semiconduttore intrinseco. E’ funzione della
temperatura con una legge di questo tipo.
Eg è l’energia di gap ed è l’energia che serve a rompere il legame covalente, quindi a consentire
all’elettrone di acquisire un’energia sufficiente per scappare da quella posizione. Il silicio ha una sua energia
di gap. k è la costante di Boltzmann.
All’aumento della temperatura si ha un aumento esponenziale della concentrazione di elettroni liberi
all’interno del semiconduttore. (quello esponenziale predomina rispetto all’altro coefficiente)
Alla temperatura di 300 kelvin, quindi a temperatura ambiente si ha:
ni è grande, piccolo? Facciamo qualche conto. Consideriamo quanti sono i legami in cristallo di silicio, la
contrazione di atomi nel silicio è 5 * 10^22 atomi di Silicio / cm^3, ogni atomo ha 4 legami covalenti, 4
elettroni nel suo guscio esterno, ogni atomo contribuisce con 4 legami covalenti (gli altri 4 sono infatti dei
vicini) e quindi la contrazione di legami covalenti è pari a 5 * 10^22 * 4 = 2 * 10^23 /cm^3.
Di cui quelli che si sono rotti a temperatura ambiante sono 10^10. Sostanzialmente ho un legame rotto ogni
circa 10^13 a T = 300 K.
Soltanto un legame ogni 10^13 legami si è interrotto a temperatura ambiente. Il numero non è molto
elevato infatti la conducibilità nel semiconduttore intrinseco è piuttosto ridotta.
A questo punto si comprende il motivo del comportamento elettrico dei semiconduttori, che conducono
meglio degli isolanti (nei quali il numero dei portatori liberi è ridottissimo) e peggio dei conduttori (nei quali
il numero dei portatori liberi è comparabile con quello degli atomi).
Affrontiamo ora un altro problema. Quando si rompe un legame, quindi siamo a T != 0 K, la rottura del
legame porta alla formazione di elettroni liberi pero contemporaneamente nel semiconduttore si viene a
creare una vacanza, un’assenza di legame, si genera un cosiddetto posto vuoto, la rottura del legame fa sì
che il posto precedentemente occupato dall’elettrone dove avevo il legame covalente si sia venuto a
liberare. All’interno di un semiconduttore, se applico un campo elettrico diretto in una certa direzione,
l’elettrone liberato acquisirà una velocità di drift in direzione opposta al campo elettrico.
Contemporaneamente però la presenza di un campo elettrico che spinge in direzione opposta può far
spostare un elettrone da un legame vicino al posto libero dovuto dalla rottura di un legame. Il legame si è
rotto per effetto dell’energia termica ma l’applicazione del campo elettrico agisce sia sugli elettroni liberi
ma anche sugli elettroni nei legami ed è probabile che un elettrone che si trova vicino al posto vacante
venga trascinato per occupare il posto vacante.
All’istante t = t1, per effetto del campo elettrico, il legame si è ricomposto ma la rottura del legame si è
spostata in un’altra posizione. Il legame che prima era interrotto in questa posizione si è spostato in un
altro punto.
Se continuo ad applicare il campo elettrico in un legame adiacente possono a loro volta spostarsi in quella
posizione. In un semiconduttore ho quindi due tipologie di spostamento, lo spostamento degli elettroni
liberi e lo spostamento delle vacanze.
Si è spostata la vacanza in direzione opposta all’elettrone, nella stessa direzione del campo elettrico, da
destra verso sinistra, dovuto al fatto che l’elettrone si è spostato da sinistra verso destra.
Per tenere in considerazione che all’interno di un semiconduttore, quando viene applicato il campo
elettrico ho due tipologie di spostamenti diversi non si considera una sola particella ma bensì due particelle:
l’elettrone, particella di carica negativa, che si è liberata e spostata, e la lacuna che si va a trattare
introducendo una particella fittizia, che si comporta come una carica positiva in modulo uguale a quella
dell’elettrone.
Il concetto di lacuna è legato al fatto che all’interno di un semiconduttore posso avere due tipologie di
spostamento. Lo spostamento degli elettroni liberi che si comportano allo stesso modo degli elettroni in un
conduttore ma ho anche degli elettroni che si spostano da una lacuna all’altra. Lo studio di questo
spostamento è molto semplificato se invece di considerare la vacanza che si sposta da destra verso sinistra
introduco la particella fittizia che ha carica positiva uguale in modulo alla carica dell’elettrone.
Il comportamento è studiato in modo più efficace se si introduce questa particella fittizia.
Quindi, in sintesi, quando un elettrone diventa libero, al suo posto rimane una “lacuna” o “buca”, che
equivale in un certo senso a una carica positiva. Tale lacuna può essere riempita da un elettrone liberatosi
da un legame covalente vicino, che, a sua volta, crea una nuova lacuna. In questo modo anche le
lacune possono quindi comportarsi come cariche libere e trasportare corrente.
Sostanzialmente all’interno del semiconduttore vado a considerare non un portatore di carica ma due
portatori di carica, gli elettroni e le lacune. Le cariche che si muovono sono sempre gli elettroni e hanno due
possibilità di muoversi, quindi avremo due concentrazioni di portatori.
n: concentrazione di elettroni liberi, elettroni liberati che si possono muovere liberamente nel reticolo
p: concentrazione delle lacune
Se siamo in un semiconduttore intrinseco la concentrazione di elettroni e di lacune coincidono, avrò tante
vacanze disponibili tanti quanti sono gli elettroni liberi che si sono generati.
Questa legge è importante perché è evidentemente soddisfatta in un semiconduttore intrinseco, visto che
abbiamo perfetta equivalenza tra n e p, ma questa legge di azione di massa vale anche per i semiconduttori
non intrinseci, la condizione per cui deve valere è però quella dell’equilibrio termodinamico, per cui il
prodotto di n e p valrà ni^2.
A questa dobbiamo aggiungere la densità di corrente di drift dovuta alle lacune, pari alla carica * la
concentrazione delle lacune * la velocità di drift delle lacune (sarà data da una propria mobilità, le mobilità
sono tutte positive).
Anche la densità di corrente dovuta alle lacune è nello stesso verso campo del campo elettrico.
La densità della corrente totale di drift risulta pertanto:
Ho quindi due componenti perché a muoversi sono sia gli elettroni che le lacune. Si noti che questa è la
rappresentazione puntuale della legge di Ohm J = sigma * E. La conducibilità di un semiconduttore quindi è
data da:
Quindi, riassumendo, nel silicio intrinseco, a una temperatura diversa da 0, gli elettroni assumono
un’energia sufficiente da allontanarsi dai legami diventando elettroni liberi ma, contemporaneamente,
quando viene applicato un campo elettrico posso avere un movimento di elettroni da un legame pieno a
una vacanza che si è venuta a creare.
In un silicio intrinseco il numero di elettroni per unità di volume è uguale al numero di lacune per unità di
volume. La concentrazione ni dipende dalla temperatura in modo esponenziale e nel caso di silicio
intrinseco vale 10^10 cm^-3. Abbiamo visto inoltre la legge azione di massa.
Le proprietà del silicio intrinseco finora viste, in particolare quella di avere un uguale numero di lacune e di
elettroni liberi, possono essere modificate tramite l’aggiunta, in piccole quantità, di altre specie chimiche
definite “droganti”.
Il drogaggio è un processo tecnologico che consente di andare a sostituire alcuni atomi di silicio con atomi
diversi.
Gli atomi che vengono utilizzati nella sostituzione sono alcuni degli atomi che appartengono al gruppo 5 o al
gruppo 3. Il silicio come sappiamo appartiene al gruppo 4 (4 elettroni nell’orbitale più esterno),
Vediamo cosa accade se sostituisco un atomo di silicio con un atomo del gruppo 5. Tipicamente tra gli
atomi di questo gruppo viene scelto il Fosforo(P) o l’Arsenico(As).
Il processo tecnologico è tale da permettere la sostituzione di un atomo di silicio con un atomo di fosforo.
Il fosforo è un elemento chimico che ha 5 elettroni nell’orbitale più esterno, ha un elettone in più e 4 dei
suoi elettroni li metterà a disposizione con dei legami covalenti con degli atomi di silicio adiacenti e avremo
così gli 8 legami covalenti. C’è un elettrone che è presente nell’orbitale più esterno del fosforo che rimarrà
legato all’atomo di fosforo, però non è coinvolto in nessuno dei legami covalenti con gli atomi di silicio
vicini. Questa è la situazione allo 0 K.
Se la temperatura aumenta, questo accade sicuramente a temperatura ambiente, l’elettrone in più che non
era coinvolto in nessun legame assume facilmente un’energia sufficiente ad allontanarsi dall’atomo di
fosforo a cui apparteneva e diventare un elettrone libero.
Le forze di legame per lui sono più piccole degli altri e quindi è sufficiente una piccola energia (quella che
abbiamo a temperatura ambiente) per far sì che l’elettrone resca a svincolarsi dall’atomo a cui appartiene.
Introducendo quindi atomi droganti di un elemento pentavalente, come il fosforo, ogni volta che una di tali
impurezze sostituisce un atomo di silicio nel reticolo cristallino va a formare quattro legami covalenti con
altrettanti atomi di silicio, mentre il quinto elettrone di valenza (il fosforo è un elemento del gruppo V)
diviene libero e quindi disponibile per la conduzione. Pertanto, il fosforo dona un elettrone libero al cristallo
di silicio e viene dunque definito un “donatore”.
Dopo che avviene questo allontanamento, l’atomo di fosforo era neutro nel momento in cui aveva 5
elettroni nel suo orbitale più esterno, avendone perso uno l’atomo di fosforo è diventato uno ione positivo.
Gli atomi donatori avendo perso un elettrone non sono più degli atomi neutri ma si sono trasformati in ioni
positivi che sono però fissi.
Ho nel complesso uno ione positivo fisso in una posizione del reticolo e un elettrone che si è reso libero.
In termini di cariche mobili, il processo di drogaggio ha dato esclusivamente cariche negative (elettroni
liberi) e non anche delle cariche positive, non ha portato a delle lacune.
Il processo di drogaggio con elementi del gruppo V va quindi ad aumentare solo la concentrazione delle
cariche negative libere. Si è formato uno ione positivo ma non è in grado di muoversi quindi in termini di
concentrazione di cariche abbiamo un elemento solo nella concentrazione di elettroni liberi.
Utilizzando invece come droganti delle impurezze trivalenti (appartenenti al gruppo III) come il boro
avviene la situazione opposta. E’ un elemento con soli 3 elettroni nel suo orbitale più esterno, il Boro non
potrà fornire elettroni che consentono di partecipare a tutti e 4 i legami covalenti. Ciascun atomo di
boro dispone di soli tre elettroni di valenza, per cui potrà formare soltanto tre legami covalenti. Nel quarto
legame sarà quindi presente una lacuna.
A temperatura ambiente ci sarà già la possibilità da parte di un elettrone di un atomo silicio adiacente di
spostarsi ed andare ad occupare la vacanza introdotta dall’atomo di Boro e creare appunto una lacuna.
Poichè le lacune così formate sono in grado di “accettare” elettroni, i droganti di questo tipo sono detti
“accettori”. L’atomo di Boro che era neutro quando nel suo orbitale più esterno aveva 3 elettroni, avendo
accettato un elettrone si è trasformato in uno ione negativo.
Questo processo, quindi ha portato alla generazione di una lacuna e uno ione negativo che però risulta
essere fisso
Il drogaggio con elementi di gruppo III porta a un incremento esclusivamente della concentrazione delle
lacune libere ma non degli elettroni liberi.
Il drogaggio è quindi sostanzialmente un processo tecnologico che può avvenire con elementi del gruppo
3,5 con lo scopo di incrementare una delle due tipologie di portatori.
Ci sono anche drogaggi che si possono fare per incrementare entrambe le concentrazioni.
La sostituzione dell’atomo può essere fatta solo con materiali con una dimensione dell’atomo comparabile
a quella del silicio così da poter essere inserito nel reticolo senza avere distorsioni eccessive del reticolo
stesso. I più utilizzati sono il Boro, il Fosforo e l’Arsenico.
Possiamo dire che effettuando il drogaggio, parlando quindi di silicio drogato, ci troviamo sicuramente nella
situazione in cui le due concentrazioni non sono più uguali.
A seconda del fatto che la concentrazione di elettroni liberi sia maggiore delle lacune o viceversa, si parlerà
di :
Posso quindi avere silicio di tipo n o silicio di tipo p, rispettivamente con concentrazione degli elettroni
maggiore di quello delle lacune o viceversa.
Inoltre, il portatore che è in concentrazione maggiore (nel caso di semiconduttore di tipo n è quindi
l’elettrone) è detto portatore maggioritario.
Se in una regione parliamo di portatore maggioritario significa che quel portatore è in maggiore
concentrazione. Il portatore in concentrazione minore è invece detto portatore minoritario.
Però all’interno del nostro materiale nel caso generale gli atomi donatori hanno donato il loro elettrone (ho
elettroni liberi per effetto del drogaggio e ioni positivi fissi) mentre per gli accettori (ho delle lacune libere e
ioni negativi fissi) e in più la generazione termica è sempre presente, la generazione di coppie
elettroni/lacune per effetto della temperatura continua a essere presente.
Se vado a fare un conteggio delle cariche complessive che ho nel materiale, ho un conteggio di questo tipo.
Abbiamo anche delle cariche negative nel materiale, che sono gli atomi accettori che ho inserito che si sono
ionizzati accettando un elettrone.
Le cariche positive presenti sono la concentrazione di lacune e la concentrazione di atomi donatori ionizzati,
atomi inseriti che hanno donato un loro elettrone
Comunque deve valere in ogni caso che la concentrazione cariche negative è uguale alla concentrazione
cariche positive.
Per trovare il valore di n e p posso utilizzare questa relazione che devo per forza avere nel mio materiale e
posso anche usare la legge dell’azione di massa.
Nel silicio drogato avrò generalmente n != p ma utilizzando le due equazioni ho due equazioni e due
incognite e da queste due equazioni ottengo il valore di n e di p, in questo modo potremo determinare la
conducibilità nel materiale drogato.
Si parla solo di due incognite perchè NA e ND, avendo fatto il processo di drogaggio li conosco, mi
permettono di scegliere la concentrazione di atomi droganti inseriti.
Prendiamo per esempio il caso di un semiconduttore di tipo n, in cui ho fatto esclusivamente un drogaggio
di tipo n, includendo atomi donatori. Il range tipicamente utilizzato è il seguente.
Posso fare la seguente ipotesi, a T = 300K (a temperatura ambiente) se risolvo il sistema di equazione, la
concentrazione degli elettroni liberi è circa uguale alla concentrazione degli atomi donatori che hanno
donato, e a temperatura ambiente posso assumere che tutti gli atomi siano donatori (questa seconda
equivalenza è vera per T >= 300 K , temperature nell’ordine della temperatura ambiente).
Posso ipotizzare a queste temperature che tutti gli atomi donatori hanno ceduto il loro elettrone, hanno
avuto un’energia sufficiente, e quindi la concentrazione è circa uguale a ND.
Di fatto la concentrazione degli elettroni sarebbe dovuta da quelli generati termicamente e quelli generati
per il drogaggio. Se faccio un drogaggio in questo range è evidente che questa concentrazione è molto
maggiore di ni e di fatto la concentrazione degli elettroni disponibili coincide con quella degli atomi
donatori ionizzati che a temperatura ambiente coincide con quella degli atomi donatori.
Se determino d questa relazione il valore di n, come calcolo p?
Se n lo conosco allora p sarà dato dalla legge dell’azione di massa.
Adesso è p ad essere circa uguale a Na- che, a temperatura ambiente, a sua volta è circa uguale a Na, visto
che gli atomi accettori ionizzati coincidono con gli atomi accettori.
La concentrazione di atomi di silicio è 5*10^22 cm^-3, abbiamo introdotto un atomo di drogante ogni 10^7
atomi di silicio. Sostituendone uno ogni 10 milioni sono riuscito a ridurre la resistività del silicio di 5 ordini di
grandezza, 100.000 volte. Ho modificato fortemente il comportamento del semiconduttore.
La temperatura ha effetti sia sul valore delle concentrazioni dei portatori sia sulla mobilità.
Nei conti fatti finora abbiamo ipotizzato di avere una temperatura costante.
Abbiamo varie grandezze su cui può agire la temperatura.
Le mobilità sono dipendenti dalla temperatura ed entrambe in realtà hanno la stessa dipendenza dalla
temperatura. La concentrazione dei portatori può dipendere dalla temperatura, del resto se ragioniamo nel
caso di silicio intrinseco ni dipende esponenzialmente dalla temperatura.
Considerando la mobilità degli elettroni abbiamo che all’interno del nostro reticolo considerando un
elettrone in movimento, se aumento la temperatura è vero che gli atomi di silicio non si possono spostare
dalla loro posizione ma questi vibrano nella loro posizione. Il reticolo possiede energia termica e quindi gli
atomi non sono idealmente fissi, vibrano intorno alla loro posizione di equilibrio.
La probabilità che l’elettrone vada a urtare contro un atomo (come abbiamo visto nel modello di Drude)
aumenta all’aumentare della temperatura perché gli atomi nel reticolo oscillano maggiormente.
Aumenta la probabilità che questo elettrone faccia degli urti, il suo percorso diventa molto più accidentato.
Sono urti anelastici perché la massa dell’elettrone è molto più piccola della massa del nucleo dell’atomo e
quindi l’elettrone perde quasi tutta la sua energia.
All’aumentare della temperatura si ha una riduzione della mobilità perché si ha un’oscillazione maggiore
degli atomi, gli urti sono molto più frequenti.
Nella concentrazione dei portatori dobbiamo distinguere due casi.
Nel caso del silicio intrinseco, la densità dei portatori aumenta con la temperatura in modo esponenziale.
Nel caso di silicio intrinseco, la concentrazione di lacune e quella di elettroni aumentano con la
temperatura, ma le mobilità hanno una dipendenza opposta dalla temperatura, almeno per valori della
stessa interessanti per le applicazioni elettroniche. L’incremento del numero di portatori prevale peraltro di
gran lunga sulla diminuzione di mobilità e quindi la conducibilità aumenta significativamente all’aumentare
della temperatura.
Nel caso di silicio drogato, alla mobilità accade la stessa cosa mentre la concentrazione dei maggioritari, nel
drogaggio a temperature di normale interesse (da – 40 a 200 gradi all’incirca), è praticamente uguale a
quella del drogante e quindi è indipendente dalla temperatura, almeno nel range di temperatura di
normale interesse. Quindi rimane costante.
La concentrazione di minoritari dipende dalla temperatura ma rimane trascurabile rispetto a quella dei
maggioritari. Il denominatore rimane costante ma il numeratore cambia con la temperatura in modo anche
esponenziale, ma il denominatore risulta essere molto grande.
Mettendo insieme queste quantità l’unica cosa che varia con la temperatura sono le mobilità che
diminuiscono, quindi predomina la diminuzione della mobilità con T. Quindi la conducibilità diminuisce.
Nel silicio drogato la conducibilità diminuisce con la temperatura. La corrente è prevalentemente
trasportata dai portatori maggioritari, la cui concentrazione è sostanzialmente pari a quelle della specie
drogante e quindi indipendente dalla temperatura (almeno per la gamma di temperature di normale
interesse, all’interno della quale tutti i droganti possono essere assunti ionizzati). In questo caso, quindi, la
conducibilità diminuisce all’aumentare della temperatura, a causa del decrescere della mobilità.
Gli effetti sono diversi a seconda se parlo di silicio drogato o intrinseco.
Siamo quindi in grado per il semiconduttore di scrivere la densità di corrente dovuta al drift quando
conosciamo il campo elettrico, in funzione della conducibilità. E quest’ultima siamo in grado di scriverla
note le concentrazioni e le mobilità.
Corrente di diffusione
In presenza di un semiconduttore c’è un altro fenomeno per il trasporto di portatori di carica, la diffusione,
associata con il moto casuale dei portatori dovuto all’agitazione termica ed è presente quando esiste nel
materiale una concentrazione di portatori non uniforme. E’ un fenomeno legato esclusivamente
all’agitazione termica.
Si verifica in vari settori, anche nel caso di gas, per esempio quando apriamo una boccetta che contiene un
profumo, una parte dell’essenza di profumo si espande all’esterno, è un processo di diffusione.
La concentrazione di profumo all’interno della bottiglia è molto maggiore della concentrazione di profumo
all’esterno, visto che si ha una concentrazione di portatori non uniforme.
Tutto ciò vale anche coi portatori di carica e quindi in presenza di una concentrazione di portatori non
uniforme, i portatori si muoveranno dalla zona a maggior concentrazione verso quella a minor
concentrazione, nel tentativo di ristabilire l’equilibrio. Ogni processo di diffusione ha una propria
tempistica, se posso farlo proseguire per un tempo infinito posso raggiungere l’equilibrio.
Nasce quindi una corrente di diffusione, il cui valore risulta proporzionale in ogni punto alla derivata della
concentrazione n:
E sarà pari alla carica del portatore che si sposta * un coefficiente positivo detto costante di diffusione o
diffusività degli elettroni * il gradiente della concentrazione (lo spostamento è proporzionale al gradiente,
più ripida sarà la curva e più alta sarà la quantità di corrente che otteniamo).
Si noti che nell’esempio presentato dn/dx è negativa con la curva scelta, perché i portatori si spostano in
direzione opposta al gradiente (dalla zona di concentrazione più alta alla zona di concentrazione più bassa),
e che, come è logico aspettarsi, un flusso di elettroni in direzione positiva dà luogo a una corrente negativa.
Una analoga relazione sussiste nel caso sia presente una concentrazione non uniforme di lacune:
Con una concentrazione delle lacune come quella in figura, avremo che una lacuna si muoverà dalla zona di
concentrazione più alta ad una zona di concentrazione più bassa, in questo caso (essendo la lacuna una
carica positiva) la corrente di diffusione è diretta nello stesso verso dello spostamento delle cariche. Lo
spostamento è sempre nel verso opposto del gradiente quindi ho sempre un valore negativo.
La costante di diffusione degli elettroni è circa dello stesso ordine della mobilità. Esiste infatti la relazione di
Einstein:
Il rapporto tra le diffusività è dello stesso ordine del rapporto delle mobilità.
Quando calcolo la densità di corrente totale che fluisce in un semiconduttore devo considerare entrambe le
componenti. La prima componente è presente se ho un campo elettrico, la seconda è invece presente se ho
un gradiente di concentrazione.
La corrente di drift è nello stesso verso del campo elettrico. Il meccanismo di spostamento delle cariche è
uguale per entrambe ma in un caso è una carica negativa che si muove e in un altro è una carica positiva.
In un caso ho il segno concorde al gradiente di concentrazione mentre nell’altro ho il segno discorde al
gradiente concentrazione.
Queste relazioni ci permettono di descrivere completamente il flusso di portatori in un semiconduttore.
Richiami di Elettrotecnica
Stabilisce che se abbiamo un nodo, punto del circuito in cui confluiscono almeno due elementi circuitali, la
somma algebrica delle correnti che confluiscono in un nodo di un circuito è nulla in ogni istante.
Si tratta di una somma algebrica quindi le correnti hanno un proprio verso, il quale (tranne casi eccezionali)
viene scelto a priori. Si può identificare all’inizio il verso della corrente in un ramo, con i versi in figura:
Che equivale a dire che la somma delle correnti entranti è uguale alla somma delle correnti uscenti.
Un errore tipico si ha se una corrente viene negativa, deve essere portata avanti col proprio segno, andrà
nel verso opposto a quello stabilito all’inizio, non si deve cambiare il verso delle correnti.
Anche qui si può esprimere prendendo i generatori in dipendenti a sinistra e a destra le cadute di potenziali
sui rimanenti elementi del circuito.
Concetto che si può spiegare esprimendo la legge di Kirchhoff alle maglie:
Ricordare che gli elementi in serie sono quelli percorsi dalla stessa corrente.
Dato un circuito dati la tensione del generatore e i valori delle resistenze, sono in grado di esprimere il
valore della tensione ai capi delle resistenze?
Questa resistenza R1 + R2 viene anche detta resistenza vista dal generatore, Rv.
Nota la corrente posso calcolare direttamente quanto vale v1.
La caduta di tensione su R1 è data dalla tensione applicata al circuito diviso la somma delle resistenze e
moltiplicata la resistenza per la quale voglio calcolare la caduta di tensione.
Un partitore di tensione può essere applicato a un certo numero di resistenze collegate in serie (percorse
dalla stessa corrente). Il circuito può anche essere più complesso. Se le resistenze non fossero percorse
dalla stessa corrente non potrei applicare il partitore di tensione.
Potrebbe esserci anche un nodo intermedio, ma se i2 = 0 le due resistenze sono ancora in serie.
Utilizzeremo || per indicare il parallelo di due resistenze.
Abbiamo quindi che una corrente partizionata in vari rami in parallelo in cui ho delle resistenze, la corrente
che scorre in un ramo si può esprimere come la corrente totale * la resistenza del ramo che non prendo in
considerazione / la resistenza totale.
E’ importante sottolineare lineare, se la rete non è lineare questo principio non può essere applicato.
Il nostro problema sarà che i componenti elettronici sono degli elementi non lineari e il principio di
sovrapposizione degli effetti a meno che il comportamento di queste componenti non venga linearizzato.
Un elemento circuitale è detto lineare quando la relazione i/v soddisfa la proprietà di omogeneità e la
proprietà additiva.
Nel valutare la risposta della rete ad un singolo generatore, occorre:
- disattivare gli altri generatori indipendenti (v=0 per i generatori di tensione e i=0 per i
generatori di corrente, aprendo il ramo dei generatori di corrente e cortocircuitando i rami
dei generatori di tensione)
- mantenere attivi i generatori dipendenti in quanto controllati da variabili (i,v) del circuito.
Se le variabili di controllo (i,v) sono nulle si può disattivarle, ma prima di analizzare il
circuito non si possono disattivare.
Se la rete è lineare possiamo anche utilizzare dei teoremi.
Il circuito lineare può essere composto sia da generatori dipendenti che indipendenti.
Questi due elementi circuitali riproducono esattamente il comportamento del circuito che vanno a
sostituire. I due vengono determinati come segue.
E’ detta anche tensione a vuoto ed è indicata come Voc (open circuit).
Senza generatori dipendenti la resistenza di Thevenin è la resistenza vista e basta applicare le regole di
combinazione delle resistenze.
Con generatori dipendenti non si può fare visto che non si conosce l’effetto del generatore dipendente sulle
resistenze. Si applica allora il metodo canonico, si prende un generatore di prova, risolvo il mio circuito coi
generatori dipendenti presenti e vado a calcolarmi la corrente ip, dalla quale potremo ottenere Rth.
Questo metodo può essere applicato anche senza generatori dipendenti ma si può semplificare al primo
caso.
La resistenza è la resistenza vista tra i due terminali, è calcolabile allo stesso modo di Thevenin. La corrente
è la corrente di cortocircuito isc (short circuit).
Se abbiamo un circuito lineare a due terminali e si vuole calcolare la resistenza vista tra i due terminali ho
diversi modi, uno dei quali è determinare la tensione a vuoto e la corrente di cortocircuito. Il rapporto tra
queste due quantità mi dà il valore della resistenza vista.
Il metodo da utilizzare va scelto in funzione del caso e in funzione di quale risulta essere più conveniente.
Se la tensione ai capi del condensatore è costante la corrente è nulla, mentre in presenza della variazione
temporale della tensione ai suoi capito ho una derivata non nulla.
In un circuito alimentato a corrente continua la tensione ai capi di un’induttanza è nulla e può essere
sostituita con un cortocircuito.
Si può dimostrare come segue.
Con questa tipologia di segni ho un legame positivo. Poiché gli elementi sono in parallelo dv/dt è uguale per
tutti. Il termine tra parentesi è quindi la nostra Ceq.
Consideriamo qui che la corrente è uguale per tutti e quindi posso metterla in evidenza.
Devo includere la sommatoria di tutte le condizioni iniziali.
L’induttanza dell’induttore equivalente è data dalla soma delle induttanza dei vari induttori.
Dimostriamolo.
Essendo in serie la corrente che ci scorre è la stessa per tutti gli elementi.
Induttori sottoposti alla stessa caduta di potenziale posso indicarli come un unico induttore equivalente la
cui induttanza può essere espressa come indicato.
Dimostriamolo.
L’integrale di una corrente in un certo intervallo di tempo mi darà la carica accumulata nel condensatore in
quell’intervallo di tempo. Dobbiamo ricordarci di aggiungere le condizioni iniziali.
Ricordarsi che qui la serie è data dal prodotto delle capacità / la somma delle capacità ed è il parallelo ad
avere la somma delle capacità.
Il comportamento a regime, esauriti i transitori, il condensatore in un circuito alimentato da un generatore
di tensione costante si comporta come un circuito aperto.
Lo dimostro ricordandomi che i = c dv/dt, se la tensione è costante la derivata è nulla, la corrente che lo
attraversa è nulla e quindi il ramo è un ramo aperto su cui non passa corrente.
Se il condensatore è inserito in un circuito in cui ho tensioni/correnti variabili il condensatore è tale che la
tensione ai suoi capi non può variare istantaneamente. Se applichiamo al condensatore una variazione
istantanea questa non può avvenire, infatti il condensatore si dice che è inerziale alle variazioni della
tensione. Si dimostra sempre con i = C * dv/dt, se applichiamo una variazione istantanea della tensione, la
dv/dt diventa infinita e quindi la variazione può avvenire solo se può passare una corrente infinita, cosa
impossibile, e quindi la tensione non può cambiare istantaneamente.
Si sta parlando di differenza di potenziale ai capi delle due armature, se una delle due armature cerca di
cambiare istantaneamente la sua tensione l’altra armatura la segue allo stesso modo proprio per fare in
modo che la differenza di potenziale non cambi.
In alimentazione in DC, con generatore di tensione costante, e i transitori sono terminati l’induttore si
comporta come un cortocircuito. Abbiamo infatti che se sono finiti i transitori di/dt = 0 quindi la caduta di
potenziale ai capi dell’induttore è nulla e quindi si comporta come un cortocircuito. Se inserisco un
induttore in cui ho tensioni/correnti variabili, la quantità che non può cambiare è la corrente. L’induttore è
inerziale alle variazioni di corrente, se stava passando una corrente e cerchiamo di modificarla l’induttore
reagisce cercando di mantenere costante la corrente che lo attraversa.
Infatti se la corrente cambiasse istantaneamente di/dt -> inf. e dovrei avere una tensione infinita ai capi del
conduttore, cosa impossibile. Di conseguenza la corrente ai capi dell’induttore è costante.
Se devo stabilizzare le variazioni di tensione si usa il conduttore e dualmente l’induttore.
Transitorio di un condensatore
Vediamo il transitorio della tensione ai capi di un condensatore.
Ipotizzo che all’inizio il tasto sia aperto (condensatore non collegato al mio generatore) ma al momento t =
0 chiudo il tasto e il condensatore se è inizialmente scarico ha un potenziale v iniziale < vs, avremo che il
condensatore durante il transitorio si caricherà fino a quando raggiungo la situazione in cui il potenziale ai
capi del condensatore è proprio uguale a Vs, e quindi nel circuito non scorrerà più corrente(non essendoci
più differenza di potenziale applicata ai capi della resistenza, il transitorio si sarà esaurito).
Vogliamo trovare un modo per scrivere come varia la tensione ai capi del condensatore nel tempo.
Chiuso il tasto quello ch accade è che gli elementi sono tutti in serie e quindi scorrerà la stessa corrente (la
corrente sul circuito è quella che scorre ai capi di R).
Operando matematicamente posso portare al primo termine i valori dipendenti dalla tensione.
si può anche scrivere tau per indicare la differenza con gli estremi.
Sfruttando la proprietà dei logaritmi:
RC viene solitamente indicato con la lettera greca tau, detta costante di tempo.
Com’è l’andamento della tensione ai capi di un condensatore?
Ipotizzando Vo, tensione iniziale, minore di Vs, il condensatore si caricherà da Vo al valore finale Vs, avremo
una carica esponenziale del nostro condensatore. La carica segue come curva un esponenziale crescente, si
carica come un esponenziale che ha una costante di tempo pari a:
L’espressione della tensione ai capi di un condensatore posso scriverla direttamente in questo modo
purchè conosco queste tre quantità.
Se si riescono a determinare queste tre quantità ispezionando il circuito posso direttamente scrivere
l’espressione senza ripetere tutti i calcoli.
Diodo
Il diodo a semiconduttore è un elemento con un comportamento fortemente non lineare, è un dispositivo
che consente il passaggio della corrente solo in un verso.
La configurazione classica che si può avere è sostanzialmente costituita dalla giunzione P/N.
Il diodo a silicio, nella versione più classica, è costituito dall’unione di un silicio drogato di tipo P e un silicio
drogato di tipo N.
Al silicio drogato di tipo P viene aggiunto poi un contatto metallico con l’elettrodo esterno e l’elettrodo
collegato alla parte di silicio di tipo P viene chiamato anodo, viceversa catodo per la parte di silicio di tipo N.
E’ quindi un dispositivo a due terminali, anodo e catodo con l’anodo collegato alla zona di tipo P e catodo
collegato alla zona di tipo N.
Questo non è l’unico metodo per realizzare un diodo a silicio, la giunzione può essere anche costituita da
una giunzione metallo/semiconduttore ma questa è la più classica.
Nella realtà il diodo integrato ha una struttura planare però per studiarne il comportamento prendiamo
questo esempio idealizzato in cui ipotizziamo di aver preso un blocco di silicio di tipo P e N e li abbiamo
uniti insieme, e poi abbiamo realizzato i due contatti.
Quindi supponiamo che la concentrazione delle lacune nella zona di tipo P sia uguale alla concentrazione
degli atomi accettori (tutti gli atomi accettori sono ionizzati). La concentrazione di minoritari è quindi
indicata sopra, secondo la legge di azione di massa (siamo in una situazione di equilibrio quindi possiamo
usarla), dove abbiamo preso ni^2 = 10^20 supponendo di essere in temperatura ambiente.
Nella zona di tipo N prendiamo una concentrazione di elettroni di questo tipo:
Supponiamo di essere in grado di generare inizialmente i due materiali separati con questi drogaggi e poi
andiamo ad unirli. Andiamo a mettere insieme una zona fortemente drogata p e una zona fortemente
drogata n, in un semiconduttore se ho una disuguaglianza nella concentrazione sarà presente il fenomeno
di diffusione.
Ci aspettiamo una corrente di diffusione per le lacune sarà uguale a:
Abbiamo il gradiente col segno meno perché sappiamo che le lacune si muoveranno dalla zona di più alta
concentrazione a quella di più bassa.
Per quanto riguarda gli elettroni avrò un gradiente nella situazione opposta, gli elettroni si muoveranno da
destra verso sinistra:
Dopo che ho unito i semiconduttori avrò il meccanismo di diffusione dovuto al gradiente di concentrazione,
ma questo dispositivo se ho la presenza di queste due sole correnti, essendo entrambe dello stesso verso
presenta una corrente totale:
Ho questo risultato, che però è assurdo. Questo perché se ho un elemento a terminali aperti privo di
qualunque sollecitazione in equilibrio termodinamico la corrente deve essere nulla.
Se avvenisse solo il processo di diffusione, che avviene sicuramente perchè ho messo due materiali con
gradiente di concentrazione diverso l’uno dall’altro, avrei un risultato assurdo.
L’unica possibilità è che oltre a una corrente di diffusione si generi all’interno del dispositivo anche una
corrente di drift, gli unici due meccanismi per lo spostamento di carica nel semiconduttore sono infatti
questi.
Ma il drift è uno spostamento di cariche dovuto alla presenza di un campo elettrico.
Sto ipotizzando che si possa avere un campo elettrico all’interno del materiale in assenza di una
polarizzazione esterna.
Dovrò avere una componente di spostamento di cariche e per ciascun portatore nella situazione di
equilibrio termodinamico, la componente di diffusione e di drift devono essere in verso uguale e opposte
così da compensarsi completamente tra di loro.
Come può esserci un campo elettrico non nullo nel semiconduttore in assenza di polarizzazione esterna?
Prendiamo un materiale di tipo P e un materiale di tipo N inizialmente separati.
Nel materiale di tipo P oltre a tutti gli atomi di silicio che costituiscono il mio materiale ho anche la presenza
degli atomi accettori. Questi atomi accettori sono delle cariche fisse, a temperatura ambiente hanno ceduto
la loro lacuna.
La lacuna è il portatore che a temperatura ambiente si è generata per via del fatto che l’accettore ha
accettato l’elettrone e le lacune sono invece delle carica mobile. La alcuna si può muovere sia per un
gradiente di concentrazione sia per il campo elettrico presente.
Il materiale è globalmente neutro perché anche se la lacuna è mobile comunque è contenuta all’interno del
materiale, la somma delle cariche fisse dovute a ioni accettori e la somma delle lacune si compensano, sono
esattamente uguale e opposte.
La concentrazione del materiale p è globalmente neutro, dovuto al fatto che per ogni accettore ho la
corrispondente lacuna. (Qui è disegnata vicino al corrispondente atomo accettore ma è in realtà libera di
muoversi nel materiale
Nella zona N ho la situazione duale, ho gli atomi donatori che si sono ionizzati, che sono cariche fisse, non si
può muovere dalla posizione in cui si trova, ha sostituito l’atomo di silicio ed è fisso in quella posizione e ha
donato un elettrone che è diventato una carica mobile che si può muovere rispetto alla propria posizione
per effetto di un campo elettrico o per effetto di un gradiente di concentrazione.
Anche in questo caso il semiconduttore di tipo N globalmente neutro perchè il numero di ioni donatori è
uguale al numero di elettroni liberi (trascurando gli elettroni liberi ma anche prima le lacune generati
termicamente).
I due semiconduttori sono globalmente neutri.
Nel momento in cui li vado a unire:
Gli elettroni per diffusione andranno dalla zona N alla zona P, mentre le lacune andranno dalla zona P alla
zona N per effetto del gradiente di concentrazione.
Poichè la concentrazione di elettroni dal lato n è molto più grande di quella dal lato p, si avrà una diffusione
di elettroni attraverso la giunzione dalla regione n a quella p. In modo simile, le lacune diffonderanno dalla
regione p a quella n. Queste due componenti danno luogo a una corrente di diffusione ID che va dalla zona
p alla zona n.
La lacuna dalla zona P entrerà nell’interno della zona N, materiale in cui si ha un elevatissima
concentrazione di elettroni. Questa lacuna che entra in questo materiale in cui ho una elevatissima
concentrazione di elettroni ha un elevatissima probabilità di ricombinarsi.
Si ricombina con un elettrone e scompare. Lo stesso destino vale per l’elettrone (soprattutto quelli che
stanno al confine della zona di unione), che viene iniettato in una zona in cui ho un numero elevato di
lacune e ha un’elevatissima probabilità di ricombinarsi, si ricombina con una lacuna.
Per effetto della diffusione quindi nel nostro materiale si viene a verificare questa situazione.
Nella zona di confine avremo una zona di larghezza W in cui non ho più cariche libere mobili.
Considerando la parte nella zona P, i portatori in questa zona non sono più presenti perché o sono migrati
nella zona N o si sono ricombinati con gli elettroni che sono arrivati nella zona N.
Non ho più elettroni liberi, o sono migrati nella zona P o si sono ricombinati con delle lacune.
Nella zona di giunzione si viene a creare una zona con una scarsa concentrazione di cariche libere.
In prima approssimazione possiamo chiamare questa zona, zona di svuotamento, in quanto si fa l’ipotesi di
assenza di cariche mobili.
Nella realtà non è così in quanto non è completamente svuotata la concentrazione, ma per studiare il
comportamento della giunzione questa è un’ipotesi che possiamo fare.
Gli elettroni andati nella zona P hanno lasciato dietro di sé il donatore ionizzato, i quali sono rimasti privi
della loro carica mobile e lo stesso vale per la zona P. Questa zona non è più una zona neutra.
Se guardo la zona P che fa parte della zona di svuotamento non è più neutra ma ha un eccesso di carica
negativa, le lacune che avevo qui sono andate a scomparire (alcune diffuse, altre ricombinate con gli
elettroni arrivati) e in questa zona non ho la carica positiva che bilanciava la carica negativa esistente.
La situazione che si presenta è la seguente:
La densità di carica all’interno del materiale partendo dalla zona p, avrà una situazione come segue.
Dalla zona P fino a -xp, prendendo l’origine degli assi in corrispondenza della giunzione, avrò una densità di
carica nulla, perché il materiale è neutro. Questo perché al suo interno ho un numero di cariche positive
uguale al numero di cariche negative.
In vicinanza della giunzione ho perso le cariche mobili e quindi nel materiale P vicino alla giunzione ho una
densità di carica negativa, il cui valore sarà dato, se la carica è uniforme, la densità sarà data da -q * Na che
moltiplicato poi per xp e per la sezione darebbe la carica complessiva vicino alla giunzione.
Nella zona N vicino alla giunzione ho un eccesso di carica positiva, fissa, non si può muovere, che si ha da 0
fino a XN, di valore q * ND (perchè ND è la concentrazione di drogaggio) e poi 0 all’esterno.
Quindi ho due materiali che si uniscono in corrispondenza di x = 0 e ho una quantità di carica sul lato destro
e sinistro che sono uguali e opposte. La situazione di equilibrio che si viene a creare è che :
Nella situazione di equilibrio che si viene a determinare quello che accade è che la quantità di carica
complessiva che ho tra Q+ e Q- risulta essere uguale.
In situazione di equilibrio:
La sua espressione si può determinare, perché sappiamo che la derivata del campo elettrico è data dal
rapporto tra la densità di carica e costante dielettrica
Se facciamo l’ipotesi semplificativa di considerare la densità di carica completamente nulla nelle zone
neutre, quindi campo elettrico nullo, dopodichè avrò la derivata negativa (carica negativa) quindi campo
elettrico decrescente fino ad arrivare al massimo (in presenza della giunzione metallurgica) dopodichè avrò
densità positiva quindi derivata positiva fino a xn per poi diventare nulla.
Ho individuato il fatto che il processo di diffusione a cui è poi collegato poi un processo di ricombinazione
quando avviene all’interno di un semiconduttore da una zona P alla zona N mi va a determinare la nascita di
un campo elettrico interno, all’interno della zona di svuotamento.
Ho quindi un campo elettrico E(x) != 0 negativo, diretto nel verso delle x negative, dagli ioni positivi verso gli
ioni negativi.
Vediamo l’effetto del campo elettrico, il suo verso è diretto nel verso delle x negative.
Le lacune per diffusione vogliono diffondere dalla zona P alla zona N, ma man mano che si diffondono e c’è
il processo di ricombinazione lasciano dietro di se degli ioni accettori negativi non più ricompensati e si
genera un campo elettrico che ha un effetto sulle lacune, è tale da respingere le lacune che vogliono
cercare di entrare nella zona N, visto che il campo elettrico è diretto nella zona P.
In conseguenza delle cariche fisse della zona di svuotamento si viene a stabilire un campo elettrico
attraverso la zona di svuotamento stessa, con il lato n positivo rispetto al lato p.
Tale campo si oppone a un’ulteriore diffusione di portatori tra la regione p e quella n.
Se ho una lacuna che vuole continuare il processo di diffusione avrò in realtà il campo elettrico che tende a
impedirgli di proseguire nel loro percorso. Stessa cosa vale per gli elettroni che si muovono in direzione
opposta al campo elettrico, un elettrone che per diffusione si muove da N verso P dopo un certo tempo
trova un campo elettrico che lo respinge.
E questo campo elettrico che si viene a generare è quello tale per cui la corrente dovuta alla diffusione
viene esattamente controbilanciata dalla corrente dovuta al campo elettrico. L’effetto del campo elettrico è
quello di andare ad annullare l’effetto dovuto alla corrente di diffusione.
Se abbiamo un campo elettrico abbiamo anche quindi una differenza di potenziale.
Se ho un campo elettrico negativo con queste due pendenze, si viene a creare una differenza di potenziale
elettrostatico ai capi della mia zona di svuotamento, dove il potenziale nella zona P è maggiore del
potenziale nella zona N.
In una situazione di equilibrio ai capi della mi giunzione si viene a generare una differenza di potenziale
esattamente pari a un potenziale V0 che vedremo a breve.
Il processo di diffusione dei portatori da P a N non può procedere all’infinito, altrimenti avrei un materiale
uniformemente drogato, e non può farlo anche perché porterebbe continuamente a una corrente.
In realtà questo processo viene controbilanciato dalla corrente di drift dovuta a un campo elettrico eh si
viene a generare all’interno del materiale, che si presenta nella zona di svuotamento dovuto alle cariche
non più compensate che danno origine a una differenza di potenziale elettrostatico diversa da 0 che è più
basso nella zona P e più altro nella zona N.
Il che vuol dire che lacune he vogliono diffondere dalla zona P alla zona N devono superare una barriera di
energia potenziale. Se disegno l’energia potenziale per le lacune, questa sarà data dal prodotto di q * fi(x)
(con +q perché guardo quella delle lacune):
L’energia potenziale delle lacune è più alto nella zona N che non nella zona P, possiamo interpretare questo
grafico come segue. Se una lacuna vuole diffondere dalla zona P alla zona N lo potrà fare solo se ha un
energia sufficiente a vincere la repulsione del campo elettrico formato nella zona si vuotamento.
Le lacune che potranno andare a diffondere la zona N per diffusione sono solo quelle che hanno un energia
sufficiente da superare questa barriera. Se non è sufficiente viene rimbalzata indietro.
La presenza di un campo elettrico fa si che esista un barriera di energia potenziale per cui non tutte le
lacuna possono diffondere attraverso la mia giunzione ma lo faranno solo quelle con un’energia superiore a
questa barriera.
Le lacune che hanno un energia maggiore potranno sorpassarla ed eventualmente poi ricombinarsi.
Lo steso per gli elettroni, dove però abbiamo una situazione inversa, visto che l’energia sarà data da -q *
fi(x).
L’elettrone con energia inferiore alla barriera non riesce a superarla ma gli elettroni con un’energia
maggiore della barriera potranno diffondersi nel materiale P. La presenza di una barriera di energia
potenziale è tale da avere che questo campo elettrico favorisce il passaggio degli elettroni da P verso N ma
non da N verso P. Gli elettroni che vogliono diffondere potranno farlo solo se riescono a superare la
barriera di energia potenziale.
La caduta di tensione sulla zona di svuotamento agisce come una barriera di potenziale che deve essere
superata dagli elettroni per diffondere nella zona p e dalle lacune per raggiungere la regione n. Questa può
essere vista come una condizione di equilibrio dinamico, nella quale la corrente di diffusione ID è
compensata da una corrente uguale e opposta di drift IS, dovuta al campo elettrico creato dallo squilibrio di
carica.
Si viene a determinare una situazione di equilibrio che porta alla presenza di un potenziale di contatto V0 ai
capi della mia zona di svuotamento con un valore tale da avere soddisfatta la seguente relazione.
Per gli elettroni la somma della corrente di drift (diretta nello stesso verso del campo elettrico) e della
corrente di diffusione (in direzione opposta) si bilanciano completamente tra di loro.
Per le lacune invece, la corrente di drift sarà diretta verso E mentre la corrente di diffusione nell’altro verso.
Il bilanciamento deve venire fuori per ciascuna componente di ciascun portatore, devono far 0 la somma di
ciascuna e non solo la somma di questi 4 termini o avrei un accumulo di carica mobile (non è una situazione
di equilibrio). Jn e Jp sono separatamente uguale a 0. Sicuramente avremo così Jtot = 0 e andando a
impostare tutte le equazioni si trova che questo potenziale di built-in ha un’espressione di questo tipo:
pari alla tensione termica (kT/q) per il logaritmo naturale della concentrazione di atomi accettori per la
concentrazione di atomi donatori diviso la concentrazione di portatori intrinseci.
In condizioni di circuito aperto la caduta di potenziale attraverso la giunzione, detta potenziale di contatto,
può essere espressa in funzione delle concentrazioni di droganti nella zona p (NA) e n (ND), della
concentrazione intrinseca di portatori (ni) e della temperatura T:
In situazione di regime si viene a creare nel materiale una zona di svuotamento dove è presente un campo
elettrico ai capi del quale ho una differenza di potenziale di questo tipo.
Questa è la situazione che si viene a generare in una situazione di equilibrio.
Siamo riusciti a dimostrare che la corrente è nulla ai capi del materiale.
In condizioni di equilibrio non sono nulle entrambe le componenti Jdrift e Jdiff ma sono uguali e opposte.
La corrente di diffusione sarà data dai soli portatori che hanno un energia termica sufficiente a superare la
barriera di energia potenziale, ma sarà diversa da 0 anche se sarà sicuramente piccola, che è compensata
dalla corrente di drift data dagli elettroni che dalla zona P possono andare nella zona N.
Esistono anche infatti i minoritari, gli elettroni generati termicamente (ni^2/(Na o Nd)), e la corrente di
diffusione sarà dovuta ai maggioritari che diffondono mentre la corrente di drift sarà dovuta ai minoritari.
Una lacuna che si trova nella zona N può tranquillamente andare da destra verso sinistra perché trova un
campo elettrico che la agevola. Lo stesso per gli elettroni che si trovano nella zona P.
Ecco appunto che la corrente di drift residua è legata ai minoritari e quella di diffusione è invece legata i
maggioritari. Ciò giustifica che la corrente che scorre nel dispositivo all’equilibrio è nulla.
A questo punto il potenziale potrebbe essere diverso da 0, infatti all’interno del mio materiale ho una
differenza di potenziale V0, ma è misurabile all’esterno?
No, non è una quantità misurabile all’esterno del materiale. E’ un potenziale di equilibrio e se provo a
misurarlo ottengo come risultato 0, perché nel momento in cui facciamo la misura se prendiamo anodo e
catodo, dobbiamo andare a fare una giunzione tra il metallo col semiconduttore di tipo P e N.
Ho quindi sostanzialmente tre giunzioni.
Ho altre due giunzioni ai cui capi (giunzione del metallo con il semiconduttore) si vengono a generare anche
in questo caso altri due potenziali di contatto, e quindi accade che ho 3 differenze di potenziale.
E la condizione di equilibrio è tale che la somma algebrica delle 3 differenze di potenziale è uguale a 0.
Il potenziale di built-in non è misurabile dall’esterno perché se si fa una misura si vanno a generare altri
potenziali di contatto e la somma algebrica sarà nulla.
La tensione misurata tra i terminali è comunque nulla perchè V0 risulta compensata dai potenziali di
contatto metallo-semiconduttore tra le zone p ed n e gli elettrodi esterni.
Questa è la situazione in una giunzione P/N aperta in equilibrio termodinamico priva di alcun tipo di
sollecitazione, in assenza di una polarizzazione esterna.
Vediamo cosa accade al mio potenziale elettrostatico nel caso in cui applico una differenza di potenziale ai
capi del mio materiale.
Trascuriamo le cadute di potenziale che si possono avere all’interno dell’elettrodo, nella giunzione tra
l’elettrodo e il materiale e le cadute di potenziale nelle zone neutre.
Fatte queste ipotesi semplificative se vado ad applicare un generatore di tensione agli elettrodi esterni,
anodo e catodo, questa differenza di potenziale me la ritrovo esattamente ai miei capi della mia zona di
svuotamento.
In situazione di equilibrio siamo nel caso VD = 0.
L’andamento del potenziale elettrostatico, se applico un potenziale positivo di P rispetto a N è quello
tracciato in figura, prendendo come riferimento il potenziale nella zona P.
Abbiamo quindi una polarizzazione positiva e siamo nel caso VD > 0.
La differenza di potenziale tra la zona P e N diminuisce, o si tiene fermo N e si alza P o si tiene fermo P e si
abbassa N non cambia nulla, l’importante è vedere cosa accade alla differenza di potenziale.
Nel caso di polarizzazione positiva la differenza di potenziali ai capi della mia zona di svuotamento
diminuisce rispetto all’equilibrio che si era generato.
La situazione opposta accade nel caso in cui vado ad applicare un generatore Vd < 0. La tensione più alta
vado ad applicarla alla zona N e la tensione più bassa alla zona P.
Trascurando le solite cadute di potenziale, ai capi della mia zona di svuotamento osserverà un incremento
della mia differenza di potenziale, la differenza di potenziale aumenta rispetto alla condizione iniziale.
L’effetto di applicare un generatore ai capi del mio dispositivo è quello di andare a modificare la barriera di
energia potenziale che esiste tra la zona P e la zona N, quindi modificare il potenziale elettrostatico.
Una polarizzazione positiva (dove intendiamo come terminale di riferimento sempre l’Anodo, quindi la zona
P) mi va a far diminuire la caduta di potenziale ai capi della giunzione e quindi la barriera di potenziale
mentre una polarizzazione negativa (una polarizzazione dove la tensione sul catodo è più grande rispetto a
quella sull’anodo) mi aumenta la barriera di potenziale rispetto al caso dell’equilibrio che mi si era venuto a
generare. L’effetto è quindi la modifica dell’altezza della barriera di potenziale che i portatori vedono.
Vediamo cosa accade alla larghezza della zona di svuotamento.
Se la zona di svuotamento la consideriamo come un condensatore che mi deve dare quella carica Q+ = Q-
che moltiplicata per la capacità mi dà la caduta V0 che si è venuta a generare, se mi deve diminuire la
differenza di potenziale, quando applico una tensione positiva, e quindi ho bisogno di un potenziale più
piccolo nel mio condensatore diminuisce lo spessore della zona di svuotamento.
Il campo elettrico diventa più piccolo e quindi avrò bisogno di un numero inferiore di cariche esposte per
generare il campo elettrico (xn e xp diventano più piccole).
Se ho una polarizzazione negativa ho un campo elettrico maggiore, una differenza di potenziale maggiore,
ho bisogno di più cariche e quindi la larghezza della zona di svuotamento tende ad aumentare.
Esiste una formula che lega lo spessore zona svuotamento al drogaggio, al valore di V0 di equilibrio e al
valore di VD:
Vediamo l’effetto di abbassare la barriera (in polarizzazione positiva) alla corrente di diffusione e alla
corrente di drift.
1) Per quanto riguarda la corrente di diffusione abbiamo che i portatori maggioritari, per esempio le
lacune, vogliono per diffusione andare da P verso N ma non tutte ce la possono fare, possono
farcela solo quelle che hanno energia sufficiente a superare la barriera. Se vado ad abbassare la
barriera un maggior numero di lacune avranno un’energia sufficiente a superare la barriera per
poter diffondere.
Sicuramente la corrente di diffusione aumenta visto che la barriera mi portava alla limitazione della
corrente di diffusione e la abbasso.
Dal momento che la distribuzione del numero di portatori in funzione dell’energia è di tipo
esponenziale, se abbasso l’energia la quantità di portatori che hanno un energia superiore ha un
incremento esponenziale, la corrente di diffusione aumenta in modo esponenziale.
2) Considerando invece la corrente di drift, questa non è influenzata dall’altezza della barriera, rimane
circa costante. Si potrebbe pensare che il potenziale diminuisce/aumenta quindi dovrebbe
diminuire/aumentare. La corrente di drift dipende infatti dal campo elettrico, ma se aumenta il
campo elettrico aumenta anche la corrente di drift ma questo è vero se ho a disposizione un
numero molto elevato di cariche.
In realtà la corrente di giunzione P/N è piccola perchè legata alla concentrazione dei minoritari, ho
poche cariche che possono dare origine a questa corrente di drift.
Tutte le cariche presenti vengono già di fatte trasportate al campo elettrico.
La limitazione della corrente di drift non è tanto dovuta al campo elettrico ma è dovuta al numero
di cariche per unità di tempo che possono attraversare la giunzione trasportate dal campo elettrico,
che sono poche e sono solo quelle minoritarie.
Sono solo quelle generate termicamente generate nella zona di giunzione (in cui c’è E != 0) per
poter subire effetto del campo elettrico e dare originale alla corrente di drift. Il fatto che campo
elettrico diminuisca ha un effetto del tutto trascurabile sull’entità della corrente di drift.
La corrente di drift non è limitata dal campo elettrico, è piccola ed è dovuta al fatto che ho poche
cariche e già tutte quelle che ci sono vengono portate di là dal campo elettrico e quindi che il
campo elettrico aumenta o diminuisca non da alcun effetto.
La corrente di drift aumenta in modo esponenziale e la corrente di drift rimane all’incirca costante, come
conseguenza avrò che la corrente totale aumenta in modo esponenziale ed è nel verso della corrente di
diffusione.
In polarizzazione positiva (VD > 0) ho una corrente JT nel verso della corrente di diffusione, da P verso N.
Quando siamo in polarizzazione negativa (VD < 0) abbiamo che la barriera aumenta e per quanto riguarda
la corrente:
1) la corrente di diffusione diminuisce in modo esponenziale.
Più è grossa la barriera minori sono i portatori con un energia tale da superare questa barriera.
2) Per quanto riguarda invece la corrente di drift invece, questa rimane
circa costante per lo stesso ragionamento fatto prima.
Abbasso la corrente di diffusione in modo esponenziale e quella di drift rimane all’incirca costante, segue
quindi che la corrente totale è negativa, piccola (perché è solo quella dovuta ai minoritari) e circa costante.
Non dipende dal campi elettrico, non dipende da Vd, non è un problema di portatori ma della quantità di
cariche risulta essere circa costante (essendo quelle generate termicamente) e che trovano un campo
elettrico che le può portare nella zona opposta.
Questo è un comportamento non simmetrico, non si comporta ugualmente per tensioni positive e
negative. Il modello analitico che viene utilizzato è il seguente.
Dove la corrente che scorre da anodo verso catodo nel dispositivo è uguale alla corrente inversa di
saturazione (corrente che scorre nel dispositivo per tensioni negative (è la corrente di drift) per
l’esponenziale del potenziale applicato alla giunzione diviso un fattore di idealità * Vt.
Il fattore varia da 1 a 2, 1 per i diodi integrati e 2 per i diodi discreti, molte volte per semplicità lo
considereremo = 1.
Questa equazione esprime l’andamento della corrente in un diodo in funzione della tensione ai suoi capi
con le polarità viste prima. Vd è la tensione anodo catodo e Id è la tensione che va da anodo verso catodo.
La curva ha un andamento di questo tipo:
In inversa I è circa uguale a -Is, è una corrente negativa che in questo grafico possiamo prendere pressochè
uguale a 0. Per polarizzazione diretta invece:
Nel caso di polarizzazione inversa: la tensione fornita dal generatore esterno tenderebbe a far passare una
corrente dalla regione n a quella p, quindi a far fluire lacune dalla regione n a quella p e elettroni dalla
regione p a quella n. Nonostante che l’andamento del profilo di potenziale sia favorevole a questi
spostamenti, dobbiamo ricordare che nella regione n sono disponibili pochissime lacune e lo stesso
discorso vale per gli elettroni nella zona p. La corrente che scorre e quindi estremamente ridotta, perchè
alimentata dal flusso di portatori minoritari. Tale corrente non è inoltre significativamente dipendente dalla
tensione applicata, poichè tutti i portatori minoritari che si trovano in prossimità della zona di svuotamento
vengono comunque trascinati via dal campo elettrico favorevole.
Nella condizione di polarizzazione diretta il terminale positivo del generatore esterno è connesso alla
regione p: la tensione applicata tende quindi a far circolare una corrente dalla zona p a quella n. Si tratta
dunque di una corrente di lacune che va dalla zona p a quella n e di una corrente di elettroni che fluisce
dalla zona n a quella p. Si hanno quindi flussi di portatori maggioritari, che sono disponibili in grande
quantità, ma questa volta i flussi avvengono in contrasto con l’andamento della barriera di potenziale.
Se la tensione applicata `e molto piccola, la corrente sarà anche in questo caso trascurabile, perchè i
portatori non riescono a superare l’ostacolo rappresentato dalla barriera stessa, ma al crescere della
tensione applicata un numero esponenzialmente crescente di portatori riuscirà a superare la barriera e che
la corrente aumenterà in modo esponenziale con la tensione applicata.
Nel caso di polarizzazione inversa molto maggiore in modulo di VT il termine esponenziale è trascurabile
rispetto all’unità e quindi I è circa uguale a −Is, indipendentemente dalla tensione applicata.
Is è la corrente di saturazione inversa, cioè quella che scorre in polarizzazione inversa.
Possiamo distinguere un certo numero di zone.
Il termine esponenziale in polarizzazione diretta predomina sull’unità. Questo è tanto più vero quando VD >
VT. Invece, in polarizzazione inversa, per VD <= -4Vt:
L’esponenziale diventa trascurabile rispetto all’unità e Id diventa circa pari all’opposto della corrente
inversa di saturazione (inversa perché va in direzione inversa rispetto alle polarità della corrente del diodo e
di saturazione perché satura un valore all’incirca costante, perché dipende poco dalla polarizzazione
applicata). Invece:
Queste sono le tre zone di funzionamento individuate e che costituiscono il range di normale
funzionamento della giunzione P/N.
Se mi sposto al di fuori dei range (tensione molto negativa o molto positiva), per esempio se applico
tensioni molto negative e molto elevate, nei diodi classici nell’ordine di -100V, -150V, -200V, la corrente che
valeva -Is fino ad arrivare ad una tensione particolare rimane stabile e poi la corrente inversa aumenta in
modo repentino e rimane all’incirca costante.
Questo è detto fenomeno del breakdown. Non è un fenomeno irreversibile, se avviene non è detto che il
dispositivo si rompa, la rottura può essere causata dal fatto che sta correndo una corrente molto elevata e il
dispositivo può bruciarsi. Se limito la corrente inversa che sta scorrendo (aumentando la tensione) non è un
fenomeno irreversibile. Vediamo le cause che portano a questo fenomeno.
La corrente inversa di saturazione è piccola perchè ho pochi portatori a disposizione, sono solo i minoritari.
Un aumento della corrente, che determina il breakdown, avviene difronte a due fenomeni che portano a un
aumento della concentrazione dei minoritari, che non sono solo più generati termicamente ma
intervengono 2 meccanismi che ne portano a generare una concentrazione maggiore.
Il primo è il fenomeno del Breakdown Zener, i portatori minoritari aggiuntivi che mi danno origine a questa
corrente inversa di entità non trascurabile sono legati al fatto che nella zona di svuotamento si genera un
campo elettrico sufficientemente elevato da causare la rottura di alcuni legami covalenti, si ha quindi una
generazione di coppie elettroni/lacune nella zona di vuotamento.
Il breakdown Zener viene descritto come la conseguenza della rottura dei legami covalenti nella zona di
svuotamento causata dall’elevato campo elettrico. La rottura di tali legami dà luogo a un gran numero di
portatori liberi. Una trattazione più dettagliata richiederebbe informazioni derivanti dalla meccanica
quantistica. Il campo elettrico è quindi così elevato da portare alla rottura di alcuni legami covalenti.
L’altro meccanismo è quello del Breakdown a valanga, che è sempre legato all’entità del campo elettrico
nella zona di svuotamento. La maggior parte del campo si va a concentrare infatti in questa zona e quando
applico una tensione inversa, la zona di svuotamento si allarga.
Il breakdown a valanga si verifica invece quando il campo elettrico nella zona di svuotamento può
accelerare i portatori minoritari che attraversano la zona stessa fino a una velocità tale da rompere i legami
covalenti degli atomi con cui collidono.
I portatori così liberati vengono a loro volta accelerati e causano ulteriori rotture di legami. Questo
processo si sviluppa quindi a valanga, con un aumento dei portatori.
Se nel caso Zener il campo elettrico era in grado di rompere legami covalenti, qui ho che i portatori
minoritari generati termicamente che stanno attraversando la giunzione all’interno della zona di
svuotamento vengono accelerati e acquisiscono una energia cosi elevata che nel loro cammino quando
vanno a urtare contro gli atomi di silicio nel reticolo cristallino sono in grado, nell’urto, di cedere un’energia
sufficiente da creare una coppia elettrone/lacuna per urto.
Si verifica quindi quando il campo elettrico nella zona di svuotamento può accelerare i portatori minoritari
che attraversano la zona stessa fino a una velocità tale da rompere i legami covalenti degli atomi con cui
collidono.
Gli elettroni nel loro movimento prevedono un cammino costituito da una continua sequenza di urti e
quando cedono energia all’atomo nel breakdown a valanga, questa energia è tale da poter rompere il
legame (è un energia di tipo termico).
Se consideriamo un elettrone che entra nella zona di svuotamento, viene accelerato e subisce un urto, in
questo urto se nel tragitto ha acquisito un energia elevata crea nell’urto una coppia elettrone/lacuna e
quindi dopo l’urto abbiamo l’elettrone medesimo e una coppia elettrone/lacuna, avremo 3 cariche mobili.
Queste tre cariche mobili si muoveranno esse stesse per effetto del campo elettrico.
La particella iniziale subisce un altro urto che crea altra coppia, ma l’altro elettrone segue la stessa sorte.
La lacuna generata al passo precedente supponiamo non abbia generato nessun urto.
Al passo 3 abbiamo ulteriori urti e anche la lacuna ha fornito un contribuito tramite un urto. Si innesca un
fenomeno a valanga.
Nella zona di svuotamento si inizia ad avere un a elevata concentrazione ci cariche mobili che aumentano
(elettroni e lacune) dove le lacune si muoveranno nella direzione del campo elettrico, gli elettroni in
direzione opposta e entrambe daranno un incremento alla corrente di drift (che scorre in verso inversa alla
polarizzazione del diodo), la corrente aumenta con questo effetto a valanga.
Questi sono i due fenomeni che avvengono, fenomeni che a seconda della tipologia dei diodi avvengono o a
tensioni molto elevate (tensione inversa superiore a 100V in modulo) o i diodi possono essere costruiti in
modo che avvengono a tensioni più basse.
Per quanto riguarda l’effetto della temperatura su questi due fenomeni abbiamo che:
- L’effetto Zener è un fenomeno in cui il campo elettrico deve fornire un energia sufficiente a
rompere un legame, se T aumenta, gli elettroni presenti nel legame hanno già di per se un’energia
più alta, e sappiamo che termicamente alcuni elettroni acquisiscono un’energia quasi sufficiente ad
allontanarsi dal legame e quindi se la temperatura aumenta gli elettroni possegono già un’energia
maggiore che tenderebbe a renderli liberi, il campo elettrico deve applicare meno forza per
rompere i legami. Un aumento della temperatura rende più facile che l’effetto Zener avvenga. A
parità di tensione applicata, se aumenta la temperatura ho un aumento della corrente.
L’effetto Zener può avvenire a una tensione più piccola, la tensione necessaria per rompere il
legame diventa più piccola.
- Per l’effetto valanga, il requisito è che tra un urto e quello successivo i miei portatori mobili
(elettroni e lacune) devono acquisire un energia tale che nell’urto successivo siano in grado di
rompere un legame, affinché ciò avvenga tra un urto e il successivo deve percorrere un certo
tempo. Un certo tempo affinché dato un campo elettrico i miei elettroni aumentano la loro energia
cinetica e riescono nell’urto a rompere un legame. Se aumenta la temperatura gli atomi che
costituiscono il reticolo cristallino del silicio non sono immobili ma vibrano nella loro posizione di
equilibrio e l’elettrone va a urtare contro questi atomi nel suo spostamento. L’elettrone che si deve
muovere all’interno del reticolo quando va nel suo cammino, se aumento la temperatura
l’oscillazione aumenta e statisticamente gli urti degli elettroni con gli atomi diventano più frequenti,
quindi tra un urto e il successivo passa meno tempo e di conseguenza tra un urto e l’altro,
l’elettrone riesce ad acquisire meno energia. Il tempo medio tra un urto e il successivo diminuisce e
diventa meno probabile la rottura di un legame. E’ meno probabile che nell’urto successivo abbia
acquisito un energia sufficiente da rompere un legame Un aumento di temperatura causa una
maggiore probabilità di urto tra le cariche mobili e gli atomi del reticolo e quindi i portatori
acquistano in media un’energia minore tra un urto e il successivo, dando luogo, a parità di tensione
applicata, a una minore corrente. A parità di tensione applicata la corrente che ottengo è più
piccola se aumento la temperatura.
Qual è l’effetto predominante? Nella realtà esistono dei dispositivi che vengono costruiti in modo tale che
questi due fenomeni avvengono a tensioni diverse e a tensioni più piccole.
Questi diodi sono detti diodi Zener. (il nome è indipendente dal fatto che c’è uno o l’altro fenomeno)
Questi dispositivi sono costruiti in modo tale che se la tensione di breakdown (che è negativa) in modulo
appartiene a determinati range si ha una diversa predominazione.
Per |VBR| > 7V predomina l’effetto valanga. Se T aumenta inoltre, |VBR| aumenta.
Se |VBR| < 5V predomina l’effetto Zener. Se T aumenta, |VBR| diminuisce.
Per 7V > |VBR| > 5V si ha la presenza di entrambi i fenomeni. Questi diodi vengono costruiti così
appositamente e la temperatura in questo caso va ad influire in modo uguale e opposto sui due effetti.
I due meccanismi si compensano e si ha una stabilità in temperatura.
Se sono entrambi presenti |VBR| è costante, uno tenderebbe a farla aumentare e l’altro a diminuire, quindi
rimangono costanti.
Sono tipici quelli che hanno una tensione in modulo pari a |VBR| = 5.6V.
Molte volte vengono usati diodi Zener perchè presentano un’elevata stabilità della tensione di breakdown
in temperatura.
Quindi i diodi con tensione tra 5 e 7 V, in particolare quelli da 5.6 V, presentano la migliore stabilità in
temperatura, dato che in essi sono contemporaneamente attivi i due meccanismi di breakdown, le cui
dipendenze dalla temperatura si compensano.
Vediamo il fenomeno legato all’effetto della resistenza serie. Se faccio scorrere nel mio diodo una corrente
molto elevata la legge dell’equazione di Shockley inizia a non essere più rispettata, perché la legge è
ricavata ipotizzando che tutta la caduta potenziale cada ai capi della zona di svuotamento.
Abbiamo fatto l’ipotesi che tutta la caduta di potenziale avvenisse ai capi della zona di svuotamento,
indicando il resto della zona P e N neutre e trascurando la caduta di tensione che avveniva nella zona
neutra, ma questo è vero nella realtà solo per correnti non troppo elevate.
Quando le correnti sono elevate questa zona neutra posso schematizzarla con delle resistenze (che sono in
serie), sono un pezzo di silicio con un certo drogaggio e quindi la zona di svuotamento è collegata agli
elettrodi attraverso delle resistenze serie.
Se in queste resistenze serie ci sta scorrendo una corrente non trascurabile, ho nella zona neutra una
caduta di tensione non trascurabile. Ai capi della zona di svuotamento ho una tensione più piccola di quella
applicata all’esterno.
Simboli circuitali
Il simbolo circuitale utilizzato per rappresentare il diodo assomiglia a una freccia, rivolta nel verso in cui
scorre la corrente in polarizzazione diretta (anodo -> catodo).
I diodi caratterizzati da tensioni di breakdown volutamente basse vengono, come già detto, indicati
genericamente come “diodi Zener” (che possono a seconda della tensione di breakdown avere un effetto
Zener, valanga o entrambi) hanno lo stesso simbolo ma con una barretta che stilizza una Z.
Ciò indica sostanzialmente che la tensione di breakdown su questi diodi è volutamente piccola.
Altrimenti se non compare, ho che la tensione di breakdown è dell’ordine di parecchie decine di Volt.
Vediamo come analizzare un circuito in cui è presente un diodo partendo da un circuito in cui abbiamo un
generatore di tensione con in serie una resistenza (che possono essere l’equivalente di thevenin del mio
bipolo a due terminali):
La corrente nel diodo scorre dall’anodo verso il catodo e la tensione ai capi del diodo è definita come la
differenza di potenziale tra l’anodo e il catodo.
In questo circuito supponiamo di conoscere Vaa e R.
Le nostre due incognite sono Id (la corrente che scorre nel circuito che coincide con quella che scorre nel
diodo) e la tensione ai capi del diodo.
Il problema di analizzare questo circuito è che la caratteristica del mio dispositivo è una caratteristica non
lineare (come abbiamo visto in forma analitica è un’equazione di tipo esponenziale per l’equazione di
Shockley). Vediamo gli strumenti che abbiamo a disposizione per risolvere il circuito.
Possiamo utilizzare tutte le leggi che riguardano i circuiti che sono applicabili anche nel caso di circuiti non
lineari (anche se alcune delle regole viste come il principio di sovrapposizione degli effetti non si può
applicare se il circuito contiene dei componenti non lineari).
Possiamo però applicare le leggi di Kirchoff, che rimangono valide anche in presenza di componenti non
lineari.
Sono in presenza di due incognite ho bisogno di due equazioni, dove la seconda, la relazione tra Id e Vd,
dipende dalle caratteristiche del dispositivo.
Posso andare a risolvere questo sistema andando a esprimere la caratteristica del dispositivo usando il
modello di Shockley. Per semplicità consideriamo n = 1.
Ho un sistema di equazioni con due incognite e quindi posso risolverlo. Ma sostituendo il valore Id nella
prima equazione ottengo una soluzione trascendente, non posso risolverla analiticamente in modo
semplice. Posso applicare una soluzione di tipo numerico:
Un circuito di questo tipo con un solo diodo è già molto semplice, se ho più diodi le cose si vanno a
complicare. Ricorrerò a un simulatore per risolvere numericamente il mio circuito.
Un altro metodo per risolverlo è il metodo grafico.
Supponiamo di disporre della caratterista grafica del dispositivo che vado a studiare, ho avuto la possibilità
di avere strumenti per misurare esattamente la caratteristiche del dispositivo e sono stato in grado di
riportarle su un grafico.
Posso provare a risolvere il sistema graficamente andando a riportare la seconda equazione (l’equazione di
Kirchoff) sullo stesso piano e andando a vedere se esiste un intersezione tra le due curve:
Le intersezioni tra le due funzioni che ho ottenuto sono le soluzioni del mio sistema.
Vediamo che aspetto assume l’equazione di Kirchoff su questo piano, che curva mi rappresenta l’equazione
alla maglia nel piano Vd e Id, esprimendo Vd in funzione di Id.
Questa equazione ha un legame lineare tra Id e Vd quindi è una retta, ha un segno meno quindi è una retta
pendenza negativa e considerando che per Vd = 0 Id = VAA/R mentre nell’intersezione con l’asse delle
ordinate Vd = Vaa, è semplice tracciarla.
L’equazione alla maglia di Kirchoff nel piano cartesiano è data da una retta.
Tale retta, definita “retta di carico”, interseca l’asse delle ordinate in VAA/R e quello delle ascisse in VAA, e
indica la relazione tra ID e VD imposta dal circuito esterno al diodo, detta retta di carico perché costituisce il
carico che viene applicato al dispositivo.
Il suo andamento è indipendente dal dispositivo, dipende dal valore di R e di Vaa, dipende esclusivamente
da componenti circuitali esterni collegati al dispositivo.
La soluzione è il punto di intersezione tra la retta di carico e la caratteristica del dispositivo
Il valore di Vd relativo a questo punto e il valore della corrente sono il valore della corrente che scorre
all’interno del diodo e il valore della tensione ai capi del diodo. Il punto Q si dice punto di lavoro o di riposo.
E’ il punto in cui il mio circuito funziona in presenza di una polarizzazione costante (ecco perchè detto
punto di risposo).
Determinato il punto di riposo del mio circuito questo metodo grafico non è poi così efficiente ma ci dice
cosa accade al nostro dispositivo se cambiamo i componenti esterni.
Se modifichiamo il valore della resistenza (dipendenza dal valore di R) supponendo di utilizzare lo stesso
dispositivo:
l’intersezione con l’asse delle ascisse rimane costante, cambia l’intersezione con l’asse delle ordinate, le
mie rette di carico diventano un fascio di rette uscenti tutte dal punto VAA, la retta modificando il valore di
R ruota intorno all’intersezione con l’asse delle ascisse.
Il fatto che la caratteristica del diodo sia molto verticale mostra che la caduta di potenziale ai capi del diodo
non cambia di molto, è molto costante, dovuto al fatto che la caratteristica esponenziale è molto verticale.
Ho una variazione di corrente pur mantenendo la tensione ai suoi capi pressoché costante.
Se modifico invece il valore di VAA:
cambia l’intersezione con l’asse delle ascisse e delle ordinate allo stesso modo, ho un fascio di rette
parallele. Se variamo il valore di VAA la retta di carico si sposta parallelamente a se stessa.
Aumenta la corrente, mentre la tensione visto che la caratteristica è abbastanza verticale rimane all’incirca
costante.
Si noti che il concetto di retta di carico è del tutto generale e può quindi essere impiegato ogni volta che si
abbia un bipolo non lineare inserito in una rete lineare: in tal caso la caratteristica data in forma grafica sarà
quella del bipolo non lineare, mentre R e VAA corrisponderanno, rispettivamente, alla resistenza
equivalente di Thevenin e al generatore equivalente di Thevenin visti dal bipolo stesso.
Questo metodo presenta anche degli inconvenienti, infatti se il circuito è complesso può diventare
complicato operare graficamente, non è agevole fare per ogni dispositivo un grafico di questo tipo.
Quello grafico richiede la conoscenza delle caratteristiche dello specifico dispositivo.
Quando si va a parlare di componenti elettronica come diodi, per come vengono realizzati questi sono tali
che anche dispositivi nominalmente uguali quando si misurano le loro caratteristiche, queste non
coincidono, non sono mai uguali.
Le nostre caratteristiche non sono le stesse, se poi il diodo si rompe e lo devo sostituire si deve ricominciare
rimisurando le caratteristiche del dispositivo per poi ri-applicare il metodo grafico.
Nella pratica risulta essere poco pratico da applicare, mentre il metodo numerico richiede comunque
l’utilizzo di un elaboratore.
Dobbiamo cercare metodi che ci permettano di analizzare circuiti che contengo diodi, magari approssimati
(con una soluzione non precisa del circuito) ma che mi consentano di fare un’analisi molto veloce del mio
circuito, così da capire come dipende il comportamento al variare della corrente e della tensione applicata
e demandare lo studio approfondito a un simulatore numerico.
Esistono metodi approssimati con un certo errore ma può a seconda dei casi essere del tutto trascurabile,
mi consente di avere una soluzione plausibile del mio circuito raffinata successivamente con un simulatore.
Cerco metodi approssimati per risolvere il mio circuito applicando le regole che conosco.
Il primo metodo approssimato è il modello a caduta di tensione costante.
Abbiamo visto di non essere in grado di risolverlo per la caratteristica esponenziale, ho un andamento come
mostrato in figura:
Posso provare ad approssimarlo in qualche modo in moto tale che posso risolvere il circuito in modo
semplice e immediato. In questo modello, l’approssimazione fatta è quella di vedere la caratteristica come
quella mostrata in rosso, in cui il tratto di polarizzazione positiva è fortemente verticale in cui si ha un forte
incremento della corrente per piccoli incrementi della tensione. Trascuro la corrente per tutte le tensioni
fino a un certo valore di riferimento.
Dopo Vg considero la tensione nel mio diodo costante. La caratteristica viene trasformata in due rette, una
retta orizzontale (i = 0) fino a Vg, e una retta verticale (come una tensione ideale) con V = Vg, per qualunque
valore di corrente che scorre, con una corrente != 0.
Entrambe le due rette sono delle approssimazioni, non è veramente nulla all’inizio la corrente, potrebbe
esserlo abbastanza in un’inversa visto che sono nanoAmpere ma per V > 0 non è più vero che la corrente è
così trascurabile. La tensione ai capi del diodo non rimane esattamente pari a Vy ma varierà, è un
esponenziale molto ripido ma non una retta verticale.
Facendo però questa approssimazione si ottengono buoni risultati e quindi mi consente di risolvere
facilmente il mio circuito. Per convenzione si prende:
E durante il corso useremo questa convenzione. Si tratta di una convenzione perché non è detto che la
tensione ai capi del diodo sia esattamente pari a questo valore ma varia. La tensione ai capi del diodo
polarizzato direttamente la prendiamo così per convenzione.
Esisterà solo un punto di lavoro in cui valrà questo valore ma noi semplifichiamo il tutto così.
Circuitalmente possiamo sostituire il nostro simbolo circuitale del diodo con:
La caratteristica risulta approssimata da una semiretta per per tensioni inferiori a V , seguita poi da una
semiretta verticale. Si considera quindi il diodo un circuito aperto quando la tensione ai suoi capi è inferiore
a V e un generatore di tensione pari a V non appena la tensione ai suoi capi raggiunge V.
Si considera un diodo interdetto per V < Vg, la corrente che sorre è nulla, possiamo sostituire il diodo con
un circuito aperto. Mentre per V >= Vg avrò il diodo in conduzione e lo sostituisco con un generatore di
tensione ideale di valore pari a Vg = 0.7V, nel nostro caso.
Il mio componente, a seconda delle zone di funzionamento, se si trova in conduzione lo sostituisco con un
generatore di tensione, mentre se è interdetto lo sostituisco con un circuito aperto.
Questo modello approssimato è detto modello a caduta di tensione costante.
Il circuito diventa un circuito che sappiamo risolvere, abbiamo un generatore in più se il diodo è in
conduzione o un aperto se il diodo è interdetto.
Oltre a questo modello esiste un modello ancora più semplificato, modello del diodo ideale.
Consiste in un modello in cui si considera Vg = 0.7V trascurabile rispetto alle altre tensioni presenti nel
circuito quindi si può porre Vg = 0.
In tal caso il diodo viene trattato come un interruttore. Succede in questo caso che il diodo per V >= lo
schematizzo come un cortocircuito, questo è quando è in conduzione. Quando il diodo è interdetto (V < 0) il
diodo è un circuito aperto. Questo modello dà la soluzione più approssimata con il minor grado di
affidabilità.
Tra i vari modelli quale è il più utilizzato? Il modello a caduta costante con Vg = V = 0.7V perché risulta
essere una via intermedia tra questi modelli
Il modello a diodo ideale da soluzione più approssimata e può essere usato solo se la caduta sul diodo
considerata, è del tutto trascurabile, nel modello lineare a tratti invece non solo ho Vg ma anche Rf tale da
sceglierli il valore e quale valore di Rf dipende dalla pendenza retta, è un valore che il costruttore non
fornisce perché la caratteristica varia da dispositivo a dispositivo.
Alla fine il modello approssimato utilizzato di più è quello a caduta costante.
Ho un generatore di tensione costante con polarità indicata in figura (+ dove ho il segmento più grande),
una resistenza R e il nostro diodo.
Con questo tipo di circuito possiamo fare l’ipotesi che il diodo sia in conduzione.
La prima cosa che devo fare è un’ipotesi di partenza sullo stato del diodo stesso, ipotesi più palusibile
possibile.
In questo caso visto che l’anodo (collegato alla zona P del diodo) è collegato tramite una resistenza R a una
tensione con polarità positiva (applicata all’anodo) è verosimile fare questa ipotesi.
Se il diodo è in conduzione posso sostituire il diodo con uno dei tre modelli visti. Considerando il modello a
caduta di tensione costante, sostituisco il mio elemento non lineare con un generatore di tensione ideale di
valore di tensione costante con la polarità + verso l’anodo e – verso li catodo con valore costante pari a Vg
che noi prenderemo sempre pari a 0.7V.
Abbiamo un circuito lineare, VD non è più un incognita, di conseguenza dell’ipotesi fatta all’inizio, il modello
stesso l’ha determinata. Determino ID e abbiamo così ottenuto la risoluzione del circuito.
Questa è la soluzione corretta se è verificata l’ipotesi iniziale. Risolto il circuito vado a vedere se questa
ipotesi è verificata.
Se ipotizzo che il diodo sia in conduzione il mio modello mi porta a dire che la tensione ai capi del diodo è
pari a Vg, posso verificare se la corrente che scorre nel diodo è maggiore di 0, e se questa ipotesi è
verificata allora l’ipotesi iniziale è corretta.
La ID che ho ottenuto è positiva e il verso scelto è proprio quello da anodo a catodo e di conseguenza
l’ipotesi del diodo in conduzione è corretta.
Se avessi ottenuto una corrente negativa, ciò voleva dire che l’ipotesi iniziale era sbagliata.
Questa è la nostra soluzione perché ho un circuito che, certo ha dei componenti non lineari, ma hanno
caratteristiche monotone e si può provare in questo caso che il circuito prevede un’unica soluzione.
Visto che ne abbiamo trovato una che verifica tutte le ipotesi di lavoro allora questa è la soluzione corretta.
Il mio punto di lavoro del diodo è una tensione pari a 0.7V e una corrente pari a 4.3mA.
Proviamo ad usare il modello del diodo ideale. Facciamo anche qui l’ipotesi del diodo in conduzione.
Il diodo è sostituito da un cortocircuito (conviene mantenere anodo e catodo così perché poi dopo
dobbiamo fare la verifica che la corrente scorra da anodo a catodo. Si può allora calcolare ID, e calcolata
possiamo fare la verifica. La verifica daàesito positivo perché la ID da anodo a catodo ha segno positivo.
Vediamo infine il modello lineare a tratti.
Devo scegliere qui Rf e Vg. In questo caso Vg si sceglie tipicamente pari a 0.65V.
Rf viene invece tipicamente scelta pari a una decina di Ohm.
Il modello non è molto usato, anche perché la presenza di Rf crea problemi nel calcolo.
Anodo e catodo sono ora ai capi di Vg con in serie Rf. La tensione VD adesso è quella complessiva, è quella
tra anodo e catodo, non è solo Vg.
Anche in questo caso devo fare la verifica. ID è positiva e quindi la verifica ha dato esito positivo.
Questo modello complica un po’ i conti e c’è l’incognita da scegliere per Vg e Rf, in funzione del fatto che io
scelgo 10 ohm, 15 ohm, 20 ohm ottengo un risultato un po’ diverso. Vediamo i risultati ottenuti:
I primi due sono già dati. Il modello esponenziale è quello più vicino alla realtà, ottenuto mediante un
simulatore. Il metodo grafico mi da un risultato vicino alla realtà.
Il diodo ideale dà la risposta più lontana dal risultato del simulatore, quella lineare a tratti la più vicina,
mentre quella a caduta costante è intermedia ma molto vicina a quella lineare a tratti.
Il migliore compromesso tra semplicità del modello e accuratezza della soluzione ottenuta è il modello del
diodo a caduta di tensione costante.
In molti casi può essere semplificato quello del diodo ideale. Per esempio se il diodo è stato inserito in un
circuito con tensioni dell’ordine di 50V. Se invece di 50V si ottiene 49.3V si ottiene un errore molto più
piccolo. Nei circuiti in cui la caduta di tensione sul diodo può essere considerata trascurabile, si può
utilizzare il modello ideale del diodo. In tal caso semplificheremo la risoluzione del circuito.
Il modello lineare a tratti non lo useremo invece, già con un diodo porta a delle difficoltà.
Procedura
L’analisi dei circuiti a diodi si svolge partendo da un’ipotesi di lavoro per lo stato di conduzione o meno dei
varo diodi, ricavata in genere per ispezione. Si risolve poi il circuito sostituendo ai diodi le reti equivalenti
consistenti con il modello di diodo adottato e con lo stato assunto per ciascuno di essi.
Se ho N diodi l’ipotesi deve essere verificata su tutti i diodi. E’ sufficiente che su un diodo non è verificata
per dover ri-iniziare da capo. Le ipotesi da verificare sono:
Se faccio l’ipotesi della conduzione pongo Vd = Vg e devo verificare che ID sia maggiore di 0, se il modello
imposta la tensione e la verifica sarà fatta sulla corrente.
Se ipotizziamo che il diodo sia in interdizione, diventa un circuito aperto, il modello impone che la corrente
che ci scorre deve essere nulla e quindi la verificata deve essere fatta sulla tensione.
Quindi si va a verificare, per ciascun diodo, se queste sono consistenti con lo stato ipotizzato, vale a dire se
la tensione che si presenta ai capi dei diodi considerati interdetti è effettivamente inferiore a V (o
semplicemente negativa se si considera V trascurabile, VD < 0 nel caso di modello a diodo ideale) e se la
corrente nei diodi considerati in conduzione scorre effettivamente nel verso della polarizzazione diretta. Se
queste verifiche hanno successo, data l’unicità della soluzione per una rete elettrica in cui siano presenti
componenti con caratteristiche I − V monotone, la procedura seguita è corretta e le grandezze trovate sono
corrette. Se, invece, anche per un solo diodo, le condizioni non risultano soddisfatte, si deve ripartire da
capo, considerando una configurazione diversa per lo stato dei diodi.
Il circuito ha una piccola modifica rispetto a quello di prima solo che adesso la mia tensione non è costante,
ma Vs = VMsin(wt) (VM è il valore massimo, il valore di picco della mia sinusoide).
Utilizzo un diodo orientato come indicato in figura, con l’anodo collegato al terminale + del mio generatore
e catodo collegato a una resistenza RL (load).
Trattiamo il circuito con il modello del diodo ideale, se la tensione che stiamo trattando è la tensione di
rete, questa ha un valore efficace tipicamente di 230V e quindi un valore massimo di 300V circa, possiamo
usare il modello a diodo ideale.
Vediamo cosa succede durante il primo intervallo in cui il segnale di ingresso è maggiore di 0.
Posso fare come ipotesi che Vs in questo semiperiodo sia positiva, ho una tensione positiva applicata
all’anodo, ho il diodo in polarizzazione diretta e posso fare l’ipotesi che il diodo sia in conduzione.
Vediamo allora quanto vale la corrente tra nodo e catodo (presa in quel verso così da verificare subito
l’ipotesi).
Per Vs sto facendo l’analisi nel semiperiodo in cui è maggiore o uguale a 0. RL è positiva per definizione e
quindi ID >= 0. Quindi l’ipotesi risulta essere verificata.
Nell’intervallo T1 in cui la tensione di ingresso è positiva la tensione di uscita è esattamente pari a Vs.
Vediamo nell’altro intervallo T2, dove la tensione di ingresso è negativa.
L’anodo è collegato ad una tensione negativa (Vs < 0) e quindi l’ipotesi più plausibile è che il diodo sia
interdetto, che sia spento.
che indica la tensione massima inversa applicata al diodo durante il suo funzionamento.
In questo caso VAK = VS e quindi il valore in modulo più grande di tensione inversa è il valore indicato in
figura.
Se questa tensione massima è in modulo più piccola della tensione di breakdown allora il mio diodo non
andrà in breakdown e non avremo alcun problema.
Se invece fosse maggiore della tensione del breakdown, il diodo va in breakdown e quindi il diodo non è più
un circuito aperto ma dovrei andarlo a sostituire con un altro modello.
Dovrei andarlo a sostituire con un generatore di tensione VBR in senso opposto.
Per evitare che ciò accada devo andare a selezionare un diodo con un PIV superiore a quello che deve
subire in quella applicazione. Se trovo VM = 70V andrò a scegliere PIV dell’ordine di 100, 150V così sono
sicuro che il diodo non andrà mai in breakdown.
Durante l’intervallo T2 Vu = 0 e quindi il circuito complessivo si comporta da rettificatore.
Fa passare solo una delle due semionde, con questa orientazione fa passare solo la semionda positiva, se
invertiamo invece il diodo fa passare solo la semionda negativa.
La tensione di uscita sarà costituita dalle sole semionde positive.
Ecco perché viene detto raddrizzatore a singola semionda. Con l’anodo posizionato verso il terminale
positivo del generatore taglia solo quelle negative.
Ho ottenuto un segnale a valor medio diverso da 0.
Quando il diodo è in conduzione devo ricordarmi che ho una caduta ai capi del diodo, la tensione di uscita è
più bassa rispetto alla tensione di ingresso di un valore pari a Vg: Vu = Vs – Vg.
Quando il diodo è in conduzione ha la stessa forma del segnale di ingresso, ho soltanto una diminuzione di
tutti i valori pari a Vg.
Quando l’ipotesi è verificata questa è la soluzione del circuito. Devo fare la verifica:
Se considero che per entrare in conduzione è necessario che Vs >= Vy allora il diodo non condurrà per tuto
il periodo da 0 a t1 ma condurrà solo per VS >= Vg. Fino a quando la tensione non arriva al valore Vg.
Il diodo rimane sempre interdetto e inizierà a condurre solo quando Vs >= Vg. A questo punto il diodo entra
in conduzione e allora posso usare questo modello. La stessa cosa accade quando la tensione inizia a
diminuire.
La tensione di uscita non è esattamente la replica della tensione di ingresso, il diodo rimarrà interdetto per
un periodo più grande.
Anche il semiperiodo positivo non viene replicato correttamente ma c’è un certo ritardo di accensione e un
anticipo di spegnimento del diodo. Vediamo se siamo in grado di calcolare l’istante t* per valutare il ritardo.
Se abbiamo una tensione massima Vm dell’ordine di 300V abbiamo ottenuto che la tensione di uscita non è
esattamente uguale alla tensione di ingresso, Vu = 299.3 Vy = 0.7.
Il ritardo t* = arcsin(numero molto piccolo) / w -> t* risulta essere molto piccolo. Se ho tensioni molto
grandi l’errore è trascurabile. Se Vs è molto piccola, per esempio 10V, ottengo risultati non più trascurabili.
Se PIV < VM ho un piccolo periodo in cui il diodo entra in conduzione in senso inverso e quindi ho una
tensione negativa in uscita.
La presenza del condensatore va a far sì che il comportamento del circuito sia diverso dal precedente.
Partiamo dall’ipotesi t = 0. Facciamo l’ipotesi di diodo ideale e di diodo ON. Il diodo viene sostituito da un
cortocircuito.
Ho un generatore di tensione Vs collegato al condensatore:
Abbiamo quindi che Vu = Vs fino a quando l’ipotesi di diodo ideale in conduzione risulta essere verificata.
Qual è la verifica? ID >= 0, ma ID = Ic è la corrente di carica del mio condensatore, per le polarità che ho
scelto. Questa risulta essere positiva quando dVu/dt >= 0 e quindi quando dVs/dt >= 0.
Questa ipotesi è verificata soltanto fin quanto la derivata del segnale di ingresso rispetto al tempo è
maggiore o uguale a 0. Questa ipotesi è verificata soltanto fino a quando arriva il picco, poi la tensione di
ingresso diminuisce.
Accade che dopo il picco il diodo si interdice. La presenza del condensatore fa si che si avrebbe la necessità
di far passare la corrente in direzione opposta, perché il condensatore è inerziale rispetto alle variazioni di
tensione. Accade quindi che quando arrivo al picco la tensione sull’anodo, Vs, diminuisce mentre la
tensione sul catodo viene mantenuta costante dal condensatore che arrivato alla tensione di picco VM,
tende a mantenere questa tensione.
A questo punto ai capi del diodo avrei una tensione opposta, ho che la tensione sul catodo è maggiore della
tensione sull’anodo perché la tensione sull’anodo scende perché Vs scende mentre la tensione sul catodo
rimane a Vm, mantenuta dal condensatore.
Abbiamo ottenuto che dVs/dt >= 0, altrimenti nel diodo ci dovrebbe scorrere una corrente in verso opposto
e questo non può accadere.
Allora il diodo si interdice, cosa accade alla tensione di uscita?
Abbiamo un condensatore su cui abbiamo posizionato della carica e non ha nessuna condizione per
scaricarsi, non c’è nessuna resistenza e un condensatore isolato mantiene a lungo la carica.
La tensione ai suoi capi rimane Vm e il diodo non rientrerà mai più in conduzione perché non risulterà mai
che la tensione dell’anodo sia maggiore della tensione di catodo, al massimo sarà uguale.
Il condensatore rimane carico al valore di picco, nel tempo avrà una tensione sempre pari al valore di picco
della tensione di ingresso. Il mio condensatore mantiene questa tensione a patto che il diodo non vada mai
in breakdown. Quanto è spento il diodo è polarizzato in inversa.
Quanto vale PIV?
Il caso peggiore è quando Vs = -VM e Vu rimane fisso a VM. Quindi nel caso peggiore (worst case) ho che:
VAK = -VM-VM e in modulo quindi PIV = 2VM, la distanza tra la tensione positiva più grande sul catodo e
sull’anodo la tensione negativa più grande, in modulo.
Questo circuito è quindi in grado di mantenere la tensione costante sul condensatore.
Dopo il primo semiperiodo la tensione sul condensatore rimane costante pari al valore di picco.
Si può pensare quindi di aver risolto e di avere una tensione continua. Ma nella realtà questa tensione va
applicata a un carico, il carico a cui si vuole fornire questa tensione.
Il circuito più reale prevede che vi sia un carico, in tal caso ho un circuito rettificatore con filtro RC.
Ora il condensatore non è più isolato ma in parallelo a una resistenza e si scaricherà attraversa la resistenza.
Ho la scarica del condenstaore attraverso a una reistenza.
Ho un andamento della tensione esponenziale descrescente con constante di tempo RL * C.
La tensione comincia a diminuire fino a che il diodo è spento. Ho un tratto di esponenziale decrescente
anche se sembra una retta.
La tensione di ingresso intanto diminusice, diventa negativa, diventa positiva e dal momento che la
tensione sul condensatore si è scaricata, c’è un intervallo in cui la tensione di ingresso è maggiore della
tensione ai capi del condensatore, ho quindi che la tensione dell’anodo è maggiore della tensione del
catodo e quindi il diodo rientra in conduzione nel tratto.
Il genratore Vs ricarica nuovamente il condensatore e nuovamente Vu = Vs.
Vu risale verso Vs e poi il diodo si rispegne, il condensatore si riscarica rispetto a RL fino a che il diodo
ritorna in coduzione e di ricollega a Vs, allora si ricarica fino a Vm.
Quello che alla accade tensione di uscita è costituito da un tratto di carica esponenziale e un tratto di
sinusoide.
Ho un andamento di questo tipo in cui il tratto di esponenziale dipende dal valore della capacità e della
resistenza di carico. Se il prodotto è molto grande, costante di tempo lunga, questa scarica sarà molto lenta
quindi in realtà si scarica pochissimo e poi viene ricaricato.
La differenza tra il valore massimo e il valore minimo che la tensione ha su questa oscillazione di uscita a
regime viene chiamata ripple, si ripete in modo periodico una tensione non costante ma è una tensione
circa costante che oscilla con questo ripple. Il valore minimo che raggiunge è legato alla frequenza
dell’onda, bisogna confrontare il periodo del segnale di ingresso con la costante di tempo.
Cambiando il valore di questa costante di tempo rispetto al periodo dell’onda la scarica può essere più o
meno veloce, se risulta essere veloce riotteniamo il rettifcatore come se il condensatore non ci fosse.
Se la costante risulta essere molto lunga la tensione è circa pari al valore massimo.
In alcuni casi questo metodo può essere usato pernottenere una tensione costante, utilizzano un diodo, un
condensatore di grandi dimensione, un carico e se il condensatore risulta essere grosso, il ripple risulta
essere piccolo e ho ottenuto una tensione circa costante. Questa soluzione non dà tensioni perfettamente
costanti in uscita ma come metodo per ottenere una tensione costante si può usare, in qualche
implementazione di bassissimo costo.
Quindi la tensione di uscita è quindi simile a una continua, ma con una fluttuazione (ripple) la cui ampiezza
è tanto più piccola quanto più grande è la costante di tempo RC rispetto al periodo di VS.
Da notare che il PIV qui non sarebbe proprio pari a PIV = 2VM ma il caso peggiore, quando il condenstaore
si scarica poco, è proprio questo.
Conviene sempre trattare il caso peggiore, considerare PIV >= 2VM.
Prendiamo un trasformatore con un circuito primario con avvolgimento (il pallino è nel verso positivo
avvolgimento) di N1 spire e il secondario con un avvolgimento di N2 spire.
Prendermo in considerazione soltanto i trasformatori ideali, per i quali il flusso magnetico totale può essere
considerato trascurabile, per cui:
Con I1 e I2 entranti nel pallino. Le correnti in uscita sono legate dall’inverso del rapporto spire con segno
negativo, il rapporto tra le tensioni è invece esattamente pari al rapporto spire.
Se vado a utilizzare questi circuiti sono nella situazione di andare a vedere i raddrizzatori a doppia
semionda.
Che operazione fanno questi raddrizzatori? Non solo fanno passare la parte positiva com’è ma prendeno la
parte negativa e la cambiano di segno.
La mia tensione di uscita è costituita da una sequenza di lobi, e non solo da un lobo e dal valore 0.
Questa tensione si avvicina sempre di più a una tensione costante, vedremo come ottenere una tensione
con un ripple piccolo usando condensatori piu piccoli rispetto a quelli che avevamo nei raddrizzatori a
singola semionda.
Iniziamo a vedere un raddrizzatore.
Raddrizzatore a doppia semionda senza C (con il trasformatore a doppio secondario con presa centrale)
Il trasformatire presenta un primario con N1 spire e due secondari, in realtà è un unico secondario dove
però i terminali disponibili sono 3, l’inizio dell’avvolgimento, la fine dell’avvolgimento ma anche la presa
centrale, il centro dell’avvolgimento (più o meno il centro, dipende da come è strutturato).
Se la presa centrale è esattamenbte al centro abbiamo Na spire e Nb spire con Na = Nb, la presa centrale è
esattamente a metà dell’avvolgimento complessivo.
Se differenzio questi terminali che porto fuori posso avere Na > Nb o Nb > Na con Na + Nb = N2 comunque.
Ho a disposizione due tensioni in uscita anche perché questa presa centrale posso prenderla come
terminale di riferimento per le mie tensioni. Questi trasformatori sono caratterizzati da due tensioni
presenti sul secondario con le loro polarità. Ho per entrambe il pallino rivolto verso l’alto.
Con questa polarità la tensione Va ha + in alto e – centrale mentre Vb ha + al terminale centrale e – in
basso.
Sebho a disposoizione un trasformatore di questo tipo, ho un primo inconveniente ovvero che sono
ingombranti, è sufficiente che prenda due diodi con il primo diodo D1 collegato al terminale in alto del mio
seocndario (+Va) con la stessa polarità (terminale – di VB) e li collego in maniera tale che entrambi hanno il
catodo in comune.
Ho l’anodo di uno al terminale pià in alto, l’anodo dell’altro al terminale piu in basso del mio trasformatore
e il catodo condiviso e in serie alla resistenza messa tra il terminale a comune dei diodi e la presa centrale.
Al momento trascuriamo la presenza del condensatore. Supponiamo di avere un diodo ideale.
Se V1 > 0 allora VA > 0 e VB > 0, me lo dicono le convenzioni del mio trasformatore, tutte le tensioni sono
infatti prese col + sul pallino. Le tensioni sul secondario hanno le stesse polarità di V1.
Il diodo D1 è quindi collegato al terminale + di Va, che è positiva e quindi l’ipotesi che posso fare è D1 ON.
Il diodo D2 è collegato a terminale – di VB con VB positiva, l’anodo di questo diodo rispetto al terminale di
riferimento ha una tensione negativa, è ipotizzabile che D2 sia OFF essendo collegata al terminale – di una
tensione positiva.
L’ipotesi su D1 è verificata. Vediamo la condizione sul diodo D2, in che condizioni è VAK2?
Il terminale Vu ha questo verso. Ma Vu = -VB dal circuito equivalente, ed essendo VB < 0 allora VU > 0.
E’ positiva anche in questo caso.
Verifichiamo ora che la corrente scorra in questo verso, ovvero che ID > 0.
A1 è collegato al + di VA mentre K1 è collegato al – di VB. Siamo nelle condizioni in cui entrambe sono
negative e quindi la verifica è effettuata. Anche in questo caso se:
Va = VB = VMsin(wt)
il caso peggiore è quando VA e VB sono entrambe a valor massimo e quindi PIV = 2VM.
Durante il primo semiperiodo abbiamo D1 ON e D2 OFF quindi Vu = Va e quindi la tennsione è positiva.
Nel secondo peridoo D1 OFF e D2 ON e quindi Vu = - VB che è negativa e quindi Vu è positiva.
Otteniamo una forma d’onda di questo tipo, entrambe le semionde passano attraverso i diodi sul mio
carico. Su RL otterrò sempre una tensione positiva. Tutto ciò non considerando il condensatore.
Già senza condendstore ho una tensione con un valor medio piu alto rispetto a prima, quando avevo il solo
rettificatore. Abbiamo una tensione piu vicina a una tensione continua,rispetto a prima dove il secondo
semiperiodo è nullo.
Supponendo che all’istante t=0 abbia VC = 0, parto da 0 e il condensatore si caricherà attraverso D1, D1 è
ON e quindi il condensatore si carica e la tensione sul condensatore diventa uguale alla tensione di
ingresso.
In corrispondenza del massimo succede la stessa cosa vista nel rettificatore, la tensione di ingresso Va inizia
a diminuire, il condensatore si oppone alla variazione di tensione matenendo una tensione pari al massimo
Vm, e quindi il dido D1 si interdice. D1 diventa OFF.
Succede che se il diodo D1 è diventato anch’esso OFF sul condensatore non c’è piu collegamento con Va,
avremo il collegamento con il carico RL e quindi quello che avremo è la scarica del condensatore.
Sarà un esponenziale, e a seconda della costante di tempo che avremo fino a quanto non ci sarà dinuovo
che la tensione presente ai capi di uno dei due diodi non diventa maggiore la tensione dell’anodo rispetto al
catodo.
Nel successivo intervallo di tempo siamo nel periodo negativo dell’onda di ingresso e quindi quello che
conduce è D2, D2 rientra in conduzione perche la tensione sul suo anodo è maggiore della tensione sul suo
catodo e quindi il condensatore si ricarica e ri-arriva al massimo.
Poi dinuovo entrambi i diodi si spegnono, ho dinuovo la scarica del condensatore e il ciclo poi si ripete.
Nel ciclo successivo sarà D1 a entrare in conduzione per un intervallo di tempo e si ha la ricarica del
condensatore e così via.
Abbiamo anche in questo caso una tensione con un certo ripple ma il vantaggio del raddrizzatore a doppia
semionda è che il condensatore si scarica per un periodo molto più breve.
Nel rettificatore il secondo lobo non c’era e lì la tensione rimaneva nulla, la scarica sarebbe proseguita fino
all’intervallo tracciato in verde, con lo stesso valore di resistenza e condensatore. Ottengo quindi a parità di
resistenza e condensatore una tensione di uscita con un ripple più alto.
Il trasformatore è sempre presente per requisiti di sicurezza quando si fa una conversione di una tensione
prelevandola dalla rete stesa.
Abbiamo un trasformatore che in base alle spire ci darà una tensione V2 con la polarità descritta in figura,
che sarà o uguale a V1 se il rapporto spire è uguale o maggiore/minore a seconda del rapporto spire.
Il carico è sempe costituito da RL con in parallelo un condensatore. La complicazione che si ha qui è legata a
utilizzare 4 diodi invece che 2, collegati in una confgiurazione a ponte. I diodi vengono messi a rombo sulle
sue diagonali, uno in cascata all’altra nello stesso verso. Se guardiamo i due lati, abbiamo che il lato sinistro
presenta diodi nella configurazione back-to-back, anodo contro anodo, mentre a destra abbiamo catodo
contro catodo.
Una diagonale è collegata alla tensione di ingresso, l’altra diagionale all’uscita. Abbiamo due estremi
all’ingresso e due estremi all’uscita.
In alcuni casi il ponte si rappresenta anche in questo modo:
Arrivato al corrispondente nodo, essendo D4 OFF e D1 OFF, la corrente non ci può scorrere.
Se scorre in questo modo allora la tensione Vu avrà come valore:
In questa situazione abbiamo Vu = V2. Per le verifiche dobbiamo verificare che la corrente:
Analogamente per D4, che ha l’anodo collegato al catodo di D3, mentre il catodo di D4 è collegato al catodo
di D2, l’anodo è collegato al – di V2 e il catodo al + (seguendo i cortocircuiti) e quindi:
Le verifiche sono effettuate e quindi in questo semiperiodo la corrente scorre come abbiamo verificato e
quindi Vu = V2 > 0.
La corrente scorre attraverso il diodo D2 e da questo raggiunge la resistenza di carico, ritornando poi al
trasformatore tramite D3. Quindi il verso della corrente su D2 e D3 è coerente con le ipotesi fatte. La
tensione ai capi di D1 e D4, misurata tra anodo e catodo, risulta pari alla tensione di uscita del
trasformatore cambiata di segno, ed è quindi negativa, confermando l’interdizione.
Se invece V2 < 0, accade l’opposto di quello che abbiamo fatto ora e possiamo ipotizzare che:
D1 ON, D4 ON, D2 OFF, D3 OFF
Il circuito si prefigura come segue (manteniamo le polarità per non avere problemi a distinguere anodo e
catodo):
Sul carico la corrente passa sempre nella stesso verso, non ho un cambiamento di segno nella corrente,
cambia il diodo su cui passa.
Questo perchè VA1K1 e VA4K4 nel caso 1 e 4 interdetti hanno un valore pari a -V2, quindi il caso peggiore
se: V2 = VMsin(wt)
è pari proprio a VM in modulo. Quindi sia nel primo semiperiodo che nel secondo abbiamo questa
condizione verificata sia in presenza che in assenza del condensatore.
I diodi quindi sono di più ma devono supportare una tensione inevrsa che è la meta rispetto a quella che
dovevano sopportare nel caso di raddrizzamento a doppia semionda.
Uno svantaggio è che qui i diodi sono diventati dei cortociruciti perché abbiamo usato il modello del diodo
ideale, se usiamo un genertaore di tensione con valore pari a Vg quindi abbiamo tra l’ingresso e l’uscita due
generatori in serie, la tensione di uscita sarà:
Vu = V2 - 2Vg
La tensione di uscita si abbasa di -2Vg e anche quell’intervallo di inserzione e di anticipo dello spegnimento
è dato da, quando calcoliamo l’arcoseno, abbiamo l’espressione data da arcsin 2Vg / VM ecc.
Se VM non è trascurabile abbiamo una caduta di 2 Vg.
Il rettificatore semplice senza condensatore ha un PIV pari a VM e una perdita di segnale dovuta ai diodi
solo pari a Vy avendo un solo diodo, ma se ci mettiamo un condensatore visto che questo tiene a
mantenere il valore di Vm e il diodo è in serie tra l’ingresso e l’uscita il PIV diventa pari a 2VM, una tensione
più alta ma abbiamo la stessa perdita.
Nel raddrizzatore a doppia semionda con un trasformatore a presa centrale abbiamo PIV = 2VM, dovuto al
fatto che uso la presa centrale il PIV aumenta ma la perdita è sempre pari a Vg perché per un semiperiodo
utilizzo un solo diodo alla volta.
Nel raddrizzatore a ponte di Graetz, ho il grosso vantaggio di usare un trasformatore semplice quindi
ottengo un PIV solo pari a Vm, perché i diodi in inversa hanno una tensione massima pari a Vm, ma se Vg
non è trascurabile la perdita che ho in questo caso è pari a 2Vg.
Vedremo come usare le sue proprietà per realizzare in modo semplice un regolatore di tensione, che
fornisce tensione costante al variare del carico a esso collegato.
Usare il diodo zener è il metodo più semplice per ottenere una tensione di riferimento di un valore
particolare.
Se voglio utilizzare un diodo zener come riferimento di tensione devo farlo funzionare nella zona di
breakdown, quindi con Id < 0.
Queste sono le caratteristiche del nostro diodo, funziona con questa tensione e quindi la tensione Vd
rispetto al quale andiamo sempre a disegnare le caratteristiche di un diodo è quella anodo-catodo, la
corrente Id scorre da anodo verso catodo, la tensione di riferimento del diodo zener viene tipicamente
indicata invece con quella polarità.
Se compriamo quindi un diodo con tensione di riferimenti pari Vz = 5.6V allora ciò significa che la tensione
tra anodo e catodo è pari -5.6 V.
Un metodo che possiamo adottare per risolevere questo circuito, come abbiamo fatto con il diodo, infatti
anche il diodo zener ha la sua caratteristica non lineare, è il metodo della retta di carico:
La tensione ai capi del mio diodo zener non cambierà pur cambiando la tensione che vi scorre.
Il diodo zener è un dispositivo che oportunatamente polarizzato, mantenendo una corrente negativa che vi
scorre attraverso, la tensione ai suoi capi pur variando la corrente rimane costante e quindi ha valore Vz in
modulo che possiamo utilizzare come tensione di riferimento.
Nel caso in cui funzioni in zona zener, possiamo sostitutire il diodo con un generatore tra anodo a catodo
con tensione pari -Vz e quindi con una tensione tra catodo e anodo pari a Vz.
Se andiamo a sostituire:
Questo circuito presenta un trasformatore, un ponte di Grenz, e un condensatore come prima ma stavolta
tra il condensatore e il mio carico RL, vado a interporre un circuito costituito da una resistenza R e un diodo
zener, il nostro regolatore che serve per mantenere tensione costante al variare per esempio del carico RL,
è quindi costitutio da una resistenza e un diodo zener.
Indichiamo le due correnti IR e IZ (che sarebbe uguale a -ID), tanto il verso delle correnti posso sceglierlo in
modo arbitrario, e quindi scelgo la corrente che va da catodo verso anodo.
Per come è realizzato il circuito se Iz scorre ed è positiva, il diodo è polarizzato in modo tale da essere in
breakdown e quindi in modo da fornire una tensione ai suoi capi con la polarità indicata in figura, positiva
dal catodo risoetto all’anodo
E quindi la tensione che fornisco al carico è uguale a quella del diodo zener, che rimane costante anche al
variare della corrente.
Però devo essere sicuro che valga la condizione Iz > 0. Per quanto riguarda Iz:
Se funziona tutto correttamente posso sostituire Il mio diodo zener con un generatore e IR sarà data dalla
differenza di potenziale ai suoi capi diviso R, mentre IL è la corrente che scorre nel verso in figura sul nostro
carico RL. La corrente Iz sarà quindi data, facendo il bilancio al nodo corrispondente:
Finchè Iz > 0 il diodo zener funzionerà correttamente e la tensione di uscita risulterà essere pari a Vz.
La condizione che deve essere rispettata è che quindi:
Al variare di RL mi cambierà IL, la corrente IR possiamo considerarla invece per il momento costante,
dipende solo da elementi interni al circuito, Va dipende infatti dal rapporto spire del trasformatore quindi
di fatto circa pari alla tensione di picco presene sul secondario, Vz l’ho scelta con il diodo zener e R è la mia
resistenza interna.
Questa corrente una parte va nel diodo zener e una parte nel carico.
Al carico posso attacare valori diversi di RL fino a quando la corrente assorbita dal carico è minore di IR,
vorrà dire che una parte di IR scorrerà nel diodo zener e tutto funzionerà correttamente.
Il limite lo avremo quando metterò un carico troppo picolo, aumento notevolemebte la quantità di IL e
tutta la Iz mi si azzera, tutta la IR mi va a scorrere solo nel carico RL, e se tutta la corrente scorre nel carico
RL il diodo smette di funzionare, in prima approssimazione.
Vedremo in laboratorio che il limite di funzionamento del diodo zener non è proprio 0, ci deve scorrere una
corrente Iz minima un po’ più grande di zero, Izk, corrente minima che deve scorrere nel diozo zener
affinche si abbia una tensione pari ai suoi capi a Vz, però per semplificare i calcoli supponiamo che sia
questa condizione limite sia Iz = 0.
La condizione limite (massima corrente che posso fornire al carico) è quando tutta la corrente mi va a fluire
nel carico:
Posso cambiare RL finchè Vz / RL non sarà uguale a Va-Vz/R. Questo è il valore massimo che posso fornire al
mio carico.
Se è sufficiente okay, se volessi una corrente più grande sul mio carico a parità di tensione, non posso
cambiare Vz e quindi l’unica cosa che posso fare è diminuire R.
Ma ho un altro limite di funzionamento, non solo devo garantire che la Iz sia maggiore di 0 ma devo stare
attento al fatto che i diodi non posso sopportare un prodotto tensione corrrente troppo elevato ai loro capi.
Ho una limitazione in potenza, i diodi, come tutti i componenti quindi anche i diodi zener, hanno un valore
massimo del prodotto Vz * Iz che sono in grado da tollerare, oltre il quale i diodi di bruciano.
Non posso aumentare troppo IR, perche quando il carico non è collegato al regolatore di tensione, fissata
IR, va tutta a scorrere nel diodo zener.
Quindi quando IL = 0, il carico non c’è e tutta la IZ diventa uguale a IR.
Allora ho un limite della PZmax, data dal prodotto tra la tenzione Vz e la corrente massima, che nel caso
peggiore è quando il carico non è collegato.
Quindi questo valore Izmax non può essere tropo elevato, quando il carico non c’è scorre tutto nel diodo.
Questo circuito può essere usato come regolatore ma con forte limitazione in termini di potenza in grado di
fornire al carico.
Risulta dunque chiaro che un circuito regolatore di questo tipo può essere utilizzato soltanto per carichi di
potenza limitata. Può essere usato come regolatore di tensione se si deve fornire potenze piccole al carico
perchè legata alla potenza massima che il diodo zener può tollerare.
Vedremo come realizzare un regolatore di tensione con potenze maggiori rispetto a queste raggiungibili
con il diodo zener, ha però il vantaggio della semplicità.
Considerando poi il caso in cui Va non è costante ma si ha una tensione di ingresso variabile abbiamo la
seguente situazione.
In termini di funzionamento ideale non cambia molto, se ho rispettato tutti i vincoli legati al funzionamento
nel terzo quadrante, Iz > 0 e i vincoli di potenza per cui il diodo Zener non si rompa, la tensione di uscita
continua a essere pari a Vz.
Si comporta come un buon regolatore, il regolatore di tensione deve fornire una tensione di uscita costante
sia al variare del carico che al variare della tensione di ingresso, con una semplice resistenza e un diodo
Zener.
I valori limite però, ovvero la massima corrente che posso fornire al carico e la potenza massima
sopportabile, assumono un espressione diversa se Va varia da un mininimo a un massimo.
La ILMAX quando andiamo a considerare un dispositivo e leggiamo nei dati di targa un valore di ILMAX,
posiamo dire che il regolatore è in gradio di fornire una corrente al carico fino a quel valore in qualunque
condizione di funzionamento. Se Va cambia, la condizione del worst case è quella in cui ho Vamin. La
corrente massima devo essere in grado di fornirla in qualunque condizione.
Se con VAmin viene 2 mA siamo sempre in grado di farlo.
Cosa devo sostituire in PXmax? Qui devo considerare il valore massimo, devo considerare il caso peggiore e
garantire che il diodo non si bruci.
Il limite per la corrente massima fornibile al carico senza che il diodo Zener esca dalla zona di breakdown
sarà comunque rappresentato da (VAmin −VZ)/R. Mentre la dissipazione massima sul diodo sarà data da
(VAmax −VZ)VZ/R.
Modello del diodo per piccoli segnali
I modelli che abbiamo sviluppato (a caduta costante, del diodo ideale e quello lineare a tratti) sono detti
modelli per grandi segnali.
Rappresentano tutta la carateristica nel suo insieme e vanno utilizzati quando un segnale è
sufficientemente grande da andare a interessare una porzione molto grande della caratteristica.
Vediamo ora la necessità di avere un modello che va a operare su un piccolo intervallo della caratteristica.
Ho un circuito teorico in figura (infatti quando si inserisce un diodo attento a mettere sempre una
resistenza) in cui ho segnale un costante Vd con una piccola variazione attorno a questo valore costante.
Il segnale che vado a considerare non mi va a considerare una larga porzione delle mie caratteristiche.
Ho in alcuni casi la necessità di avere diodi che vanno a trattare un segnale molto più piccolo, un segnale
che per esempio è una piccola variazione intorno al punto di riposo (Q), in cui abbiamo Id e Vd che
rappresentano il mio punto di riposo, che è il punto di funzionamento del mio diodo quando la variazione
temporale risulta essere nulla.
Se ipotizzo che la tensione complessiva la posso scrivere come tensione costante più la tensione variabile e
nel caso in cui vd(t) = 0, quando non ho la parte variabile, ho il punto di lavoro dato da:
Se applichiamo una piccola varizione nell’intorno del punto di riposo il comportamento del dispsoiitivo può
essere risolto numericamente, graficamente oppure si cerca un metodo approssimato. Se noi ci spostiamo
poco dal punto di lavoro della nostra caratteristica, in questo piccolo intervallo possiamo fare
un’approssimazione dell’esponenziale con una retta, un’aprossimazione del primo ordine, sostituendo
l’esponenziale con un retta tangente al nostro punto di lavoro.
Questa approssimazione sarà tanto migliore quanto piccole saranno le variazioni intorno al punto di lavoro.
Utilizzando una retta abbiamo un legame lineare tra corrente e tensione nell’intorno del punto di lavoro e
quindi si realizza una relazione di questo tipo:
Prendiamo un circuito con due generatori, uno di tensione costante (VAA), con in serie un generatore di
segnale, collegati con una resistenza R al nostro diodo, di cui conosciamo il legame tra la corrente
complessiva che scorre attraverso il diodo e la tensione complessiva ai suoi capi.
Nel nostro caso f è un esponenziale se usiamo il modello di Shoeclkley.
Scriviamo l’equaizone alla maglia:
Ho due incognite, devo determinare iD(t) e vD(t) ma ho un’altra relazione data dal nostro modello
esponenziale.
Questo sistema o lo risolvo numericamente o devo trovare una soluazione approssimata.
Facciamo l’ipotesi che la sollecitazione che andiamo a imprimere sia composta da una componente
costante e una variabile e quindi possiamo fare l’ipotesi che anche la tensione comeplessiva di un
qualunque componente del circuito (quindi anche il diodo) sarà data dalla somma di due componenti, una
costante e una variabile nel tempo. E lo stesso vale per la corrente.
Dove la parte costante è la soluzione del mio circuito quando agisce solo il generatore di tensione costante.
VDQ e IDQ sono la soluazione per vs(t) = 0.
Mentre se accendo il mio generatore di segnale, alle due componenti costanti si aggiunge una componente
variabile. Possiamo determinare VDQ e IDQ che sono la soluzione quando ho solo un generatore costante.
La soluazione si riduce a:
O lo risolvo numericamente o lo risolvo con il modello a grandi segnali (modello ideale, modello a caduta
costante o il modello lineare a tratti).
Disattivo tutti i generatori di segnale (essendo di tensione quello disattivato avrò un cortocircuito) e risolvo
il circuito. Usando i modelli per grandi segnali so risolverlo.
dove abbiamo un’equazione che lega tra di loro tutte le componenti variabili. Quella dei generatori
indipendenti a quelle delle mie incognite.
Le altre due incognite da determinare, vd e id, le possiamo determinare risolvendo un circuito che soddisfa
questa eqauzione. Abbiamo una corrente che scorre e una tensione ai capi del mio dispositivo, il
generatore di segnale. Ho il mio dispositivo dove scorre una corrente variabili id e una tensione vd.
Ora dobbiamo risolvere questo circuito dove ho due incognite, che mi serve per risolvere il legame tra id e
vd. Ma qui abbiamo:
Non posso usare in questo caso l’esponezniale e quindi i modelli usati per grandi segnali.
Questo perché sto andando a considerare l’effetto soltanto dei i generatori di segnale e soltanto intorno al
punto di lavoro, mi serve una funzione che lega tensione e corrente nell’intorno del punto di lavoro.
Non posso usare questa relazione perché questa relazione va a darmi un legame tra id e vd nell’intorno
dello 0, mi lega id e vd ma queste non sono tensioni e corrente complessiva ai capi del mio dispositivo ma è
solo la componente variabile.
Se prendiamo infatti la nostra caratteristica e supponendo che il nostro segnale vs(t) sia per esempio
sinusoidale:
Se utilizzo la relazione con l’esponenziale vado a utilizzare un legame (trascurando R) è come se andassi a
considerare il mio segnale così, nell’intorno dello 0:
Quando vs != 0 avrò un andmaneto della corrente un comportamento del dispositivo nell’intorno
dell’origine:
La corrente complessiva sarà data da una parte costante e una parte variabile, che insieme sono legate con
la tensione complessiva dalla dunzione f del modello di Shoeckley.
Posso allora fare uno sviluppo in serie di taylor della funzione f nell’intorno del punto di riposo.
Supponiamo di operare intorno a una tensione di riposo VQ e di essere interessati alle variazioni intorno a
tale punto di riposo. In questo caso possiamo sviluppare in serie di Taylor la funzione f(v) intorno al punto
VQ:
Dato l’esponenziale ne faccio una trattazione di questo tipo, calcolo l’espoenziale nel valore del punto di
lavoro e prendo le derivate.
Se sono nell’ipotesi descrittra sopra, posso trascurare i termini superiori al primo ordine, compio
l’approssimazione e quindi la mia corrente complessiva sarà data da una componente continua e variabile,
e sarà approssimabile come segue:
E quella sarà la mia f1, è il legame che cercavo tra id(t) e vd(t). Ma cos’è la derivata di f?
Se lavoro nell’intorno del punto di riposo la curva esponenziale la posso esprimere come una retta che
significa potersi fermare al primo ordine dello sviluppo di taylor.
Ho un rapporto tra una corrente e una tensione, ho una conduttanza differenziale, ottenuta dalla
differenziazione della corrente rispetto alla tensione calcolata nel punto di riposo. Viene indicata con la
lettera minuscola.
L’aprossimazione al primo ordine ci consente di dire che il legame tra la corrente variabile e la tensione che
scorre ai capi del dispositivo è una conduttanza.
E’ quindi pari al rapporto tra la tensione termica (@300 K = 26mV) per il fattore eta fornito dal costruttore
diviso la corrente che scorre nel mio diodo nel punto di lavoro, calcolata nel modello per grandi segnali.
Una volta risolto il circuito quando agiscono i genratori indiepdenti costanti, quando ho determinato il
punto di risposo del mio dispositivo allora la resistenza differenziale sarà nota.
La resistenza differenziale è da qui evidente che dipende dal punto di riposo, tiene conto del fatto che la
resistenza differenziale è diversa per ciascun punto di riposo.
Da un punto di vista puramente grafico quello che abbiamo fatto è prendere la caratteristica del diodo,
abbiamo determinato il punto di lavoro Q (VDQ e IDQ) e stabilito questo, possiamo determinare
direttamente quella che è la nostra resistenza differenziale.
E’ l’inverso della pendenza della retta tangente in Q.
Ma la derivata di f rispetto a v è la nostra conduttanza differenziale che moltiplicata per vd deve essere
molto maggiore del termine a destra.
Per calcolare la derivata seconda deriviamo due volte.
Posso semplificare i termini IDQ/nVT e vd(t) e ottenere:
Il temrine del primo ordine sarà molto maggiore del termine del secondo ordine se le variazioni di tensione
ai capi del diodo saranno molto minori di 2nVt.
Se prendiamo per esempio:
Questa condizione è applicabile alla vd(t), il mio modello per piccoli segnali è applicabile quando le
variazioni di tensione che ho ai capi del mio diodo nell’intorno del punto di lavoro sono inferiori a 5mV,
approssimatamente.
Dovrei andre a risolvere il circuito e poi fare una verifica finale, se la tensione che ho ottenuto ai capi del
diodo è molto minore a questo valore, allora ho una buona soluzione, altrimenti il modello per piccoli
segnali in quel caso non poteva essere utilizzato.
Nella realtà se il modello per piccoli segnali non è utilizzabile a quel punto non ho altri modelli approssimati
semplici, mi conviene utilizzare il simulatore.
Le altre variazioni di tensione presenti nel circuito possono anche essere di valore più grande, qui si parla di
variazioni della tensione attorno al punto di lavoro ai capi del nostro diodo modellizzato con una resistenza
differenziale.
All’intorno di VAA abbiamo la sinusoide che arriverà al valore VAA + Vm e al valore VAA – Vm, VAA
l’abbiamo presa positiva così da polarizzare direttamenbte il diodo.
Il segnale complesivo è dato da questa oscillazione nell’intorno del mio punto di lavoro.
1) Poniamo quindi vs(t) = 0, disattivando i generatori di segnale variabili, tutti i generatori di
segnale variabili nel tempo vengono disattivati.
Il circuito diventa come segue:
2) Il diodo è sostituito dal suo modello per grandi segnali. Se utilizziamo il modello a caduta
costante, viene sostituito con un genertore di valore Vy tra anodo e catodo e risolviamo il
circuito:
RIsolvo il circuito e ottengo il valore di IDQ. VDQ l’ho trovata, IDQ la determino con questa espressione e
ora faccio la verifica del diodo.
3) Noto il punto di lavoro (IDQ e VDQ), determino i parametri differenziali, ovvero il valore di
rd.
4) Disattivo i generatori costanti, pongo VAA = 0, il circuito diventa come segue, e al posto del
diodo tra anodo e catodo metto la resistenza differenziale che ho valutato dopo aver
determinato il punto di lavoro.
5) Per analizzare il circuito per la variazioni (dispositivo sostituito dal loro modello per piccoli
segnali) devo prima determinare rd e quindi solo dopo aver determinato il valore della
corrente in condizioni di risposo che scorre sul mio diodo.
6) Quanto vale la corrente complessiva che scorre nel mio circuito iD(t)? E’ data dalla somma
della soluzione del circuito nel punto di lavoro più la soluzione fornita dal circuito delle
variazioni.
La tensione ai capi del diodo sarà pari alla somma di Vg più la rd * id, quindi si può determinare anche
l’espressione della tensione ai capi del diodo.
Può essere schematizzato dal punto di vista formale come un elemento a due porte, con 4 terminali, che
poi si riducono a tre perchè nella maggior parte dei casi il quarto terminale è a comune tra la porta di
ingresso e quella di uscita e si trasforma in un dispositivo a 3 terminali.
Prendiamo inizialmente in considerazione il generatore di corrente controllato in corrente, perché questo
può essere approssimato tramite il transistore bipolare a giunzione (Bipolar Junction Transistor, BJT). In
forma ideale tale generatore può essere rappresentato con il circuito equivalente che segue.
Un circuito equivalente di un generatore di corrente controllato in corrente è il seguente:
Il mio dispositivo è stato in grado di fornire in questo caso un amplificazione di potenza, i componenti che
sono in grado di fornire amplificazione di potenza sono detti componenti attivi.
I componenti elettronici sono divisi in componenti passivi, che compiono elaborazioni del segnale ma non
sono in grado di fornire un’amplificazione della potenza (R, C, L, Diodi), non sono in grado di fornire al
carico una potenza maggiore di quella fornita dal generatore di segnale:
Tipicamente inoltre hanno delle perdite, quindi questo valore è sempre strettamente minore di 1.
I componenti in grado di farlo sono invece detti attivi. Posso fornire un amplificazione di corrente o un
amplificazione di tensione, non è necessario che le forniscono entrambe, ma il loro prodotto è maggiore di
1 in questo caso.
Lo vediamo dal prodotto A * Av, riescono a fornire sul carico una potenza maggiore della potenza di
ingresso, ma dove la hanno presa questa potenza?
Come fanno a fornire una potenza più grande di quella fornita dal generatore di segnale?
Sono in grado di farlo perché sono collegati all’alimentazione (generatore di tensione costante) e prelevano
una parte di potenza da parte di questi generatori di tensione costanti e la forniscono al carico.
Sono in grado di prelevare energia sia dal generatore di segnale che dal generatore di tensione costante e
sono in grado di amplificare il segnale in potenza fornendo al carico un segnale con potenza maggiore
perchè trasferiscono parte di potenza dal generatore di tensione costante (l’alimentazione) al carico.
Prelevano energia e la forniscono sul carico amplificando il segnale.
Vediamo come sono fatte le caratteristiche di un generatore di corrente costante.
Una descrizione molto utile del comportamento di un generatore comandato si ottiene tramite la
rappresentazione grafica delle caratteristiche di ingresso e di uscita, sotto la forma di famiglie di curve. Le
caratteristiche di ingresso vengono tracciate sul piano v1-i1 e rappresentano il legame tra tali grandezze in
funzione di una delle grandezze di uscita.
Si distinguono due tipi di caratteristiche.
Che sono la corrente della porta di ingresso in funzione della tensione della porta di ingresso e uno dei due
parametri della porta di uscita.
Nel caso particolarmente semplice considerato non ha significato tracciare le caratteristiche di ingresso,
dato che v1 è sempre nulla. In questo caso non lo andiamo a esprimere perché abbiamo un cortocircuito
(v1 = 0) ma nel caso di transistori bipolari, essendo generatori di corrente non ideali, andremo a esplicitare
questa relazione:
Legame tra la corrente di uscita e della tensione di uscita in funzione di un parametro di ingresso, si può
scegliere i1 o v1.
Riportando i2 in funzione della v2 per vari valori della corrente di ingresso abbiamo:
Le caratteristiche per questo generatore ideale non sono altro che delle rette orizzontali, perché data i15 il
valore della corrente di uscita è A*i15.
La corrente risulta essere costante e proporzionale alla corrente di ingresso, e la i2 corrispondente sarà
data dalla corrente di controllo * il coefficiente A.
Le caratteristiche di uscita vengono rappresentate sul piano v2-i2, in funzione di una delle due grandezze di
ingresso, in questo caso la i1 (per un numero discreto di valori della i1). Per il generatore di corrente ideale
controllato in corrente, le caratteristiche di uscita sono molto semplici: in corrispondenza di ogni valore
della i1 si ha una retta parallela all’asse delle ascisse di valore Ai1, visto che la corrente di uscita è
proporzionale a i1 e indipendente dal valore di v2.
Ipotizzando A costante per qualunque valore di v2 si ha questo comportamento.
Questa è la caratteristica di un generatore di corrente controllato in corrente ideale.
Se un dispositivo di questo tipo fornisce un valore di A > 0, guadagno di corrente, ci consente di avere un
amplificazione di segnale.
Se prendiamo in considerazione un circuito come quello di seguito rappresentato, in cui sull’uscita è
collegato un generatore di tensione VAA tramite un resistore R2, possiamo andare a risolverlo con un
metodo grafico come la retta di carico.
Possiamo indicare la relazione tra v2 e i2 imposta dalla rete esterna per mezzo di una retta di carico, che
può essere riportata sul piano delle caratteristiche. Questa mi identifica il mio punto di lavoro (V2Q, I2Q)
nell’ipotesi che i1 sia pari a i13.
Anche in questo caso possiamo andare poi a disegnare la retta di carico graficamente nelle caratteristiche,
sia per caratteristiche di ingresso che quelle uscita e graficamente posso vedere che se cambia la corrente
di ingresso (i1) mi andrà a cambiare il mio punto di lavoro sulla mia retta di carico, perché fissata da Vaa/RL
e Vaa, e quindi avrò una corrispondente variazione della tensione v2 di uscita.
Rappresentiamo quindi la corrente i1 in funzione del tempo a lato della caratteristica di uscita e, per ogni
valore di i1, andiamo a individuare la corrispondente caratteristica I2–V2 e la relativa intersezione con la
retta di carico. In questo modo otteniamo il valore all’istante corrispondente della v2 e lo possiamo
riportare in un grafico posto sotto alle caratteristiche di uscita.
Se consideriamo la corrente i1 di controllo non costante ma variabile nel tempo, spostandosi tra questi tre
valori in figura:
Se ho una variazione della corrente, ottengo, per quanto riguarda la tensione v2 sul nodo di uscita, una
corrispondente variazione della tensione la quale è di uguale forma ma è una replica amplificata (perché la
corrente è infatti amplificata) ma è in controfase, quando i1 aumenta v2 diminuisce e viceversa.
Un generatore di corrente controllato in corrente con un guadagno di corrente è in grado in opportune
condizioni di fornire un amplificazione di segnale applicato al dispositivo stesso.
Vediamo com’è fatto fisicamente un transistore bipolare e entro quali condizioni può essere assimilato a un
generatore di corrente controllato in corrente.
Il nostro transistore consiste di 2 giunzioni P/N poste una di seguito all’altra e orientate in sernso inverso e
sono due giunzioni con uno dei due materiali in comune.
Si tratta quindi di tre regioni consecutive, una p, una n e una p nel caso di un dispositivo pnp e una n, una p
e una n nel caso dei dispositivi npn.
Abbiamo due possibilità: o una giunzione pnp, ovvero fare una doppia giunzione pn-np, orientata in modo
inverso una di seguito all’altra, o una giunzione npn, due giunzioni pn poste una di seguito all’altra ma in
senso inverso (back-to-back, anodo catodo – catodo anodo, entrambe dirette una l’opposto dell’altra).
Nel caso di giunzione pnp nel transistore bipolare le due giunzioni non sono perfettamente simmetriche dal
punto di vista del drogaggio. Una zona esterna risulta essere più drogata, infatti p+ significa che drogaggio è
maggiore dell’altra zona p presente nel dispositivo.
E’ anche una zona fortemente più drogata anche rispetto alla zona n. Il drogaggio è quindi molto più
elevato rispetto alle altre zone.
La zona con drogaggio maggiore è detta emettitore, la zona centrale del dispositivo è detta base e la zona di
drogaggio uguale a quella dell’emettitore ma di concentrazione minore è detta collettore.
Ho quindi 3 terminali detti emettitore, base e collettore.
Nel caso npn sarà analoga la cosa ma sarà n+ a chiamarsi emettitore, cambia la tipologia di silicio collegata
a quel terminale.
Nel caso di pnp emettitore e collettore sono di tipo p e base è di tipo n, viceversa per npn.
Ho due dispositivi con comportamento simile e duale, e il loro simbolo circuitale è quello indicato in figura.
E’ un dispositivo a tre terminali, la base, poi abbiamo un tratto orizzontale e due altri terminali con
l’emettitore distinto dalla presenza della freccia (che nel npn è uscente dal dispositivo, mentre nel pnp è
entrante). La freccia indica il verso positivo della corrente di emettitore in un’opportuna configurazione del
nostro transistore bipolare, è il verso convenzionale preso positivamente per la corrente.
Lo spessore della base come si vede è in realtà molto più piccolo dello spessore dell’emettitore e del
collettore, e quella del collettore è molto più grande delle altre due.
Proprio perché il dispositivo è realizzato su una superficie planare dobbiamo fare i contatti, che sono in
superficie, il contatto di base e collettore non sono proprio come indicate nello schema, si deve fare un
tratto per arrivare nella corrispondente zona.
Consideriamo l’origine posta al bordo. Avremo una zona di svuotamento che si viene a creare di dimensioni
più piccola rispetto a quella in una situazione di equilibrio, guardiamo le lacune e per gli elettroni la
considerazione sarà duale.
Abbiamo abbassato la barriera di potenziale ai capi della zona di svuotamento e un maggior numero di
lacune potranno attraversare la giunzione e verranno iniettate nella zona n.
Guardiamo cosa accade alla concentrazione delle lacune. Nella zona n le lacune sono poche con il drogaggio
realizzato, arriva un quantitativo aggiuntivo di lacune con l’abbassamento della barriera.
Queste lacune si sposteranno per diffusione all’interno della zona n e man mano che si spostano si
andranno anche a ricombinare, avendo un numero elevato di elettroni nella zona n la probabilità di
ricombinazione sarà elevata.
Considerando che le lacune si spostano per diffusione e contemporaneamente si ricombinano abbiamo che
la concentrazione di lacune in eccesso diminuisce in modo esponenziale man mano che si allontanano dalla
giunzione.
Abbiamo un andamento di questo tipo, con çp chiamata lunghezza di diffusione delle lacune.
La stessa cosa vale per gli elettroni che vanno a diminuire man mano che si propagano, questo è quello che
accade ai portatori in più che riescono ad attraversare la barriera.
La zona di svuotamento aumenta e, valutando cosa accade alla corrente id che scorre nella giunzione in
funzione di vd, la corrente passa per l’origine e dopodichè per v < 0 è costante e pari alla corrente inversa di
saturazione. In prima approssimazione:
Abbiamo una corrente molto piccola perché la corrente di drift è legata alla quantità di portatori che ho a
disposizione è solo quella dei portatori generati termicamente vicino alla giunzione e che trovano un campo
elettrico favorevole.
Abbiamo anche visto che questo tipo di corrente è abbastanza indipendente dal valore della tensione e
quindi del campo elettrico nella zona di svuotamento.
Supponiamo ora di avere un meccanismo per il quale io riesca ad aumentare la concentrazione dei
portatori, o aumentare la temperatura visto che è una generazione termica oppure si potrebbe ottenere
anche per effetto luminoso, allora la caratteristica diventa come quella indicata in figura (Is2, Is3, Is4) visto
che la corrente la possiamo considerare indipendente dal campo elettrico.
Pensiamo al grafico ribaltato sul primo quadrante e non sul terzo. Se valutiamo il comportamento nella
zona indicata con la freccia, il comportamento in questo tratto è proprio quello di un generatore di corrente
controllato in corrente.
Ottengo una corrente costante il cui valore dipende da qualche meccanismo che mi è andato a modificare il
numero di portatori disponibili.
Una giunzione polarizzata in inversa può essere un buon punto di partenza per realizzare questo
comportamento, devo solo aumentare la concentrazione dei portatori.
Il metodo che è stato ideato è quello di unire una giunzione polarizzata in diretta e una giunzione
polarizzata in inversa e usare l’eccesso di portatori della giunzione polarizzata in diretta come modalità per
rifornire giunzione polarizzata in inversa.
Ho aumentato la concentrazioni di portatori minoritari e se inizia la zona polarizzata in inversa gli elettroni
trovano un campo elettrico ad attraversarla e così da proseguire il loro percorso e andare a costituire
questa corrente.
Il comportamento del transistore bipolare come generatore di corrente controllato in corrente si ottiene
nella seguente configurazione se sono verificate le due seguenti cose:
- la giunzione “BE”(base/emettitore) polarizzata in diretta
- la giunzione “BC” (base/collettore) polarizzata in inversa
Queste sono le due condizioni che andremo a vedere, annessa al fatto che la zona di base viene realizzata
molto corta così la larghezza nella zona neutra della base fa in modo che i portatori minoritari, le lacune
iniettate dall’emettitore alla base, si muovono dalla zona neutra per diffusione ma se la base è
sufficientemente stretta la maggiorparte dei portatori iniettati riesco a farli arrivare al bordo della zona di
svuotamento BC e qui trovano un campo elettrico favorevole ad attraversare la giunzione. Ecco perché si
chiamano collettore ed emettitore, l’emettitore emette i portatori e il collettore li colleziona.
La base prende questo nome per come era realizzato il primo transistore, perché faceva da base del
dispositivo.
Per quanto riguarda la varie possibili combinazioni abbiamo 4 configurazioni avendo due giunzioni.
Polarizzazione in zona attiva diretta: giunzione base emettitore polarizzata in diretta e giunzione base
collettore polarizzata in inversa.
Facciamo alcune ipotesi semplificative, supponendo che la caduta di tensione nelle zone neutre sia
trascurabile, quando applico una polarizzazione va a cadere al bordo della zona di svuotamento quindi fuori
dalla zona di svuotamento ho solo la corrente di diffusione, e supponiamo anche che l’iniezione di elettroni
dalla base verso l’emettitore sia trascurabile (effetto drogaggio p+n).
Stiamo polarizzando direttamente la giunzione pn e ho quindi l’iniezione di lacune verso la base e di
elettroni dalla base verso l’emettitore.
La quantità di portatori iniettati dipende dal gradiente di concentrazione e quindi dai drogaggi.
In conseguenza della polarizzazione diretta tra base ed emettitore, una corrente di lacune viene iniettata
dall’emettitore nella base, mentre una corrente di elettroni passa dalla base all’emettitore. Dato che, come
già sottolineato, l’emettitore è molto più drogato della base, la corrente di lacune iniettata in base sarà
molto più grande di quella di elettroni iniettata dalla base nell’emettitore, che può essere trascurata.
Supponiamo anche che la corrente inversa della giunzione BC sia trascurabile (effetto polarizzazione
inversa).
Per quanto riguarda la giunzione BC polarizzata in inversa, sappiamo che anche senza contributo
dall’esterno ha una corrente inversa costituita da minoritari che attraversano la barriera, le lacune da n a p
e gli elettroni da p a n generati termicamente danno origine a una corrente inversa di saturazione, questa
corrente inversa la consideriamo trascurabile.
Avrò poi un grosso quantitativo di lacune iniettate all’interno della base, nella zona neutra della base si
diffondono e mentre si diffondono alcune di esse si ricombinano.
Poi una parte di queste arrivano al bordo della zona di svuotamento e vanno a finire nel collettore.
Abbiamo una corrente di lacune che da emettitore è diretta al collettore, ma quant’è questo quantitativo
dipende dalla larghezza della zona base.
Più questa risulta essere stretta e minore sarà il tempo che le lacune impiegheranno ad attraversare la
base, quindi minore sarà la probabilità che si ricombineranno, maggiore sarà la quantità di portatori che
riesco ad attraversare la base senza essere perse per ricombinazione.
Se la regione di base fosse lunga, la corrente di lacune iniettata dall’emettitore, darebbe luogo a una
concentrazione in eccesso di lacune, che decaderebbe esponenzialmente con la distanza dalla zona di
svuotamento, in conseguenza della progressiva ricombinazione con gli elettroni. Essendo però la base
corta rispetto alla lunghezza di ricombinazione per le lacune (la distanza media sulla quale una lacuna si
ricombina), solo poche lacune riescono a ricombinarsi, mentre la maggior parte raggiunge la zona di
svuotamento tra base e collettore, dove le lacune vengono trascinate verso il collettore dal campo elettrico
favorevole.
La corrente di emettitore è circa uguale alla corrente di correttore, non esattamente uguale perché
abbiamo una quantità di portatori che perdo e danno origine alla corrente di ricombinazione, quella che poi
viene identificata tramite la corrente di base.
La corrente di base è non nulla, una parte dei portatori si ricombinano e se voglio mantenere la zona di
base neutra, la corrente di base deve rifornire tutti quegli elettroni persi nella ricombinazione.
Ricombinandosi, le lacune vanno a consumare gli elettroni.
Deve anche rifornire gli elettroni iniettati nella base e tener conto della corrente inversa di saturazione ma
se trascuro la corrente inversa di saturazione e la corrente iniettata nell’emittore, la base deve rifornire gli
elettroni persi nella combinazione.
La corrente di base è piccola e ha come primo scopo quello di rifornire i portatori persi nella
ricombinazione.
Cosa succede se IB = 0? Il dispositivo smette di funzionare. La corrente di base è piccola ma fondamentale.
Se supponiamo di essere nelle condizioni di avere IB = 0, non mi rifornisce gli elettroni, le lacune nella zona
n cominceranno a consumare elettroni, ho una zona neutra che diventa carica positivamente e la carica
positiva va a respingere l’iniezione di altre cariche positive.
Se non rifornissi gli elettroni che man mano sono consumati dalla ricombinazione, la base smetterebbe di
essere neutra, comincerebbe ad avere un potenziale positivo e ciò impedirebbe un ulteriore iniezione di
lacune, si raggiungerebbe una situazione in cui alla fine non si avrebbe più passaggio di corrente.
La barriera di potenziale tenderebbe a ri-aumentare e quindi l’iniezione portatori andrebbe a diminuire.
Ma non solo, la IB pur essendo piccola è in grado di controllare il flusso di corrente delle lacune iniettate.
A regime la parte di lacune che vado a perdere è legata alla corrente di base. La quantità di lacune perse in
percentuale rimane più o meno la stessa e se aumento o diminuisco la corrente di base, se la percentuale
delle lacune che perdo per ricombinazione è costante, se aumento la corrente di base posso aumentare
anche la corrente dell’emettitore.
Data la dimensione della base possiamo dire che la percentuale di lacune che perde è in prima
approssimazione fissa, per esempio l’1%, questo 1% di lacune deve essere rifornito in termini di corrente di
base. Se io ho una corrente di base IB = 10 microA le lacune che possono passare sono tante lacune da fare
in modo che l’1% di quelle siano a pari a 10 microA, devo avere un bilancio che mi mantiene neutra questa
zona, se aumento IB aumenta IE. Quindi aumentando la corrente di base aumenta di uno stesso fattore la
IC.
Ho una corrente piccola, quella di base che è in grado di mantenere neutra la base e di controllarmi un
flusso di corrente più grande.
Ho sostanzialmente un generatore di corrente controllato in corrente con un guadagno di corrente dove la
corrente di base è la corrente di controllo.
La corrente IE è circa uguale alla corrente di uscita IC e posso controllare IE tramite IB.
Facendo la trattazione fisica abbiamo un modello per grandi segnali del transistore, detto modello di Ebers-
Moll, modello che descrive il comportamento per grandi segnali del transistore BJT.
Per PNP il modello dà due giunzioni collegate l’una l’opposto all’altra.
Rappresenta il transistore come costituito da due giunzioni pn contrapposte con l’aggiunta di generatori di
corrente comandati, che descrivono la porzione della corrente di emettitore trasferita al collettore oppure
quella della corrente di collettore trasferita all’emettitore, nel caso che il transistore venga fatto funzionare
con la giunzione base-emettitore in polarizzazione inversa e quella base-collettore in polarizzazione diretta.
Se disegniamo il simbolo del diodo la zona P è quella dell’anodo, la zona N è invece quella del catodo.
Essendo PNP abbiamo gli anodi dei due diodi rivolti uno verso l’Emettitore e uno verso il Collettore quindi
disegno questi due diodi che mi identificano le giunzioni.
Il transistore è tale che non ho solo due giunzioni, il mio transistore bipolare è stato costruito in modo tale
chela base sufficientemente corta da fare in modo che l’eccesso di portatori iniettati non si ricombinino
tutti all’interno della base ma riescono ad arrivare all’altra giunzione che è polarizzata in inversa, dando la
possibilità di avere il trasporto dei portatori dall’emettitore verso il collettore.
Per tenere conto del fattore trasporto si inseriscono due generatori di corrente controllati in corrente, uno
tra la base e il collettore (con IED corrente che scorre sulla giunzione BE, e il fattore af frazione di corrente
diretta che tiene conto della parte di lacune che attraversano indenni la base senza ricombinarsi e che
riescono ad arrivare verso il collettore) con il verso della corrente lo stesso stesso della corrente positiva del
diodo BE.
Questo fattore è sicuramente minore di 1 e rappresenta la frazione della corrente di emettitore che
raggiunge il collettore.
Ma considerando che la base è sufficientemente stretta abbiamo che af varia tra questi valori. Soltanto
circa il 2% dei portatori sono persi per ricombinazione.
Pochissimi portatori si ricombinano nella base e la maggiorparte arrivano al collettore.
Successivamente il dispositivo è simmetrico apparte il drogaggio, PNP posso studiarlo sia da dx verso sx che
da sx verso dx, devo tenere conto della reciprocità del transistore considerando il fatto che anche se io
polarizzo direttamente la giunzione BC oppure inversamente BE il transistore può funzionare.
Quindi se indico con ICD la corrente ho anche un generatore di corrente controllato in corrente con fattore
ar. ICD tiene conto che un eventuale eccesso di portatori iniettati dal collettore alla base possono
attraversare indenni la base e essere accolti dalla giunzione BE.
Il fattore rappresenta la frazione della corrente di collettore che viene trasferita all’emettitore nel caso di
polarizzazione diretta della giunzione BE.
Per come è costruito il diodo, legato ai drogaggi e alla struttura geometrica abbiamo che ar <= af.
f : forward (diretta)
r: reverse (inversa)
Disegno i due diodi, ho la zona p al centro quindi ho gli anodi al centro, e posiziono i generatori, fisso il
verso della corrente positiva dei due diodi, sempre anodo verso catodo e poi i generatori vengono di
conseguenza nello stesso verso, ar e af sono positive quindi il verso del generatore sarà lo stesso della
corrente.
Le correnti complessive viste ai terminali esterno nel modello vengono prese tutte entranti.
Attenzione a disegnare il cortocircuito nel nodo di base (quello a comune centrale) visto che la base è il
catodo dei due diodi ma è anche dove avviene il fattore di trasporto dei portatori che non si ricombinano al
suo interno, quindi deve esserci il cortocircuito tra i generatori controllati e i due diodi.
Vediamo come si esprimono le equazioni che regolano il comportamento del transistore bipolare in
qualunque zona di funzionamento, considerando quello del PNP.
Esprimiamo la corrente che scorre nei due diodi (modello di Schockley), in cui ipotizziamo n =1 perché
parliamo di dispotivi integrati.
Nella corrente IED ci vuole VEB, la tensione ai capi del diodo, che è quella anodo catodo, l’anodo è
l’emettitore e il catodo è la base.
La ICD richiede anch’essa la tensione anodo-catodo, qui l’anodo è il collettore e il catodo è la base.
Andiamo a scrivere il valore della corrente emettitore, di collettore, di base col bilancio delle correnti:
Per la corrente di base posso considerare il dispositivo nel mio complesso e la corrente di base sarà quindi
semplicemente uguale e opposta alla somma delle altre due, posso vedere il dispositivo come un macro-
nodo in cui la somma delle correnti entranti deve essere nulla.
Queste tre equazioni sono le 3 equazioni che mi regolano le 3 correnti nel mio dispositivo che sono in
funzione delle tensioni applicate alle giunzioni.
A seconda del valore di VEB e VCB potrò andare a semplificare opportunatamente queste equazioni e
vedere come si comporta questo dispositivo.
Per il NPN invece:
Da notare che qui le tensioni sono VBE e VBC, le tensioni che vanno all’esponente sono sempre anodo-
catodo.
Sono in grado di descrivere cos’ il comportamento transistore bipolare in qualunque zona di
funzionamento. Avendo ogni giunzione che può essere o in diretta o in inversa, ho 4 zone di
funzionamento, quattro configurazioni.
Nella zona attiva diretta a seconda se NPN o PNP la polarità delle tensioni sarà diverse ma si ricavano in
automatico ragionando sui diodi. Diretta se la zona P avrà un potenziale più alto della zona N, in inversa se
la zona P è a potenziale più basso della zona N.
In questo caso si comporta come un generatore di corrente controllato in corrente, e viene usato come
amplificatore.
Nella zona attiva inversa in questo caso il dispositivo si comporta anche qui come generatore di corrente
controllato in corrente ma avendo:
Può ancora essere usato come amplificatore ma le prestazioni sono molto più degradate rispetto al
funzionamento in zona attiva diretta (dovuto al fatto che ar << af).
Ho poi una zona di interdizione se entrambe sono polarizzate in inversa, passa poca corrente a meno che
non ci sia un meccanismo che rifornisce, nel transistore non transita corrente e quindi ho un interruttore
aperto.
Ho una zona di saturazione se sono entrambe polarizzate in diretta, in questo caso accade che si ha un
passaggio di corrente non trascurabile attraverso il transistore con una caduta di potenziale molto piccola
tra emettitore e collettore e la corrente risulta essere non trascurabile, ho quindi un interruttore chiuso.
Queste ultime zone venivano sfruttate in ambito digitale storicamente facendolo funzionare in interdizione
o saturazione.
Se invece tratto il segnale in modalità analogica e faccio funzionare il transistore in zona attiva diretta posso
amplificarlo, ho un generatore di corrente controllato in corrente con guadagno di corrente non
trascurabile.
Faccio delle ipotesi. Supponiamo di essere in zona attiva diretta e di avere la giunzione BE polarizzata
positivamente. Stiamo trattando un NPN quindi:
La giunzione BC è invece polarizzata in inversa e quindi la tensione VBC è negativa e molto minore di -VT:
Considerando la corrente dell’emettitore se sono nelle condizioni in cui VBE >> VT il termine esponenziale
predomina sull’unità, e posso cancellare il termine dell’unità, a secondo termine abbiamo VBC negativa
quindi l’esponenziale è trascurabile nei confronti dell’unità.
Le stesse considerazioni possono essere fatte sulla corrente di collettore.
Le correnti IES e ICS sono dello stesso ordine di grandezza ma ICS moltiplicata per numero minore di 1 e IES
è un esponenziale molto maggiore di 1 quindi posso dire che il secondo termine è trascurabile.
Nella seconda equazioni possiamo fare lo stesso ragionamento, IES e ICS sono dello stesso ordine di
grandezza ma IES è moltiplicata per af che è quasi 1 e per un termine esponenziale >> 1 quindi posso
trascurare ICS.
In zona attiva diretta abbiamo quindi quei circa uguale finali.
E’ evidente quindi che:
La corrente di collettore è dovuta ai portatori (qui in NPN sono elettroni) che iniettati dall’emettitore
riescono ad arrivare al collettore, e sono pari a af * IE, questo è quello che ottengo in zona attiva diretta.
Nella condizione a emettitore comune infatti di fatto quasi tutta la corrente di emettitore viene raccolta dal
collettore e questa è la quantità che viene raccolta.
La freccia nella figura indica il verso positivo della corrente nella condizione di zona attiva diretta ed ecco
perché IE ci viene negativa avendo preso il verso entrante come segue:
In zona attiva diretta, con le ipotesi che abbiamo fatto, abbiamo la possibilità di semplificare l’equazione di
Ebers-Moll e trovare questa importante relazione e IE quindi sarà pari a (prendendo Ie entrante, il – è
dovuto a questo motivo):
In alcuni data sheet indicato anche con il simbolo ‘hFE’ (maiuscole non minuscole altrimenti abbiamo un
altro significato) e indica il legame tra la corrente di base e la corrente di collettore.
Se cambio la corrente di base in zona attiva diretta ho una conseguente relazione con la corrente di
collettore.
Il parametro Bf può essere anche dell’ordine di centinaia, perché alpha f è circa uguale a 1 e quindi il
denominatore diventa circa uguale a 0.
Con un transistore in zona attiva diretta quindi riesco a controllare tramite una corrente piccola (quella di
base) una corrente più grande (di collettore).
La IB dipende dalla IC ma la posso anche esprimere andando a esplicitare Ic:
Quindi abbiamo anche un legame tra IB e VBE.
Per quanto riguarda la corrente di colletore in zona attiva diretta, questa non dipende dalla VCE, le
caratteristiche di uscita del transistore sono tali che Ic è indipendente da VCE ma dipende solo da IB tramite
Bf. L’espressione che lega IC e Ib è quella di un generatore di corrente controllato dalla corrente.
Mentre questa relazione tra IB e VBE non è altro invece che la caratteristica di ingresso del nostro
dispositivo:
Infatti è la IB in funzione della VBE ed un parametro di uscita, anche se in questa trattazione non dipende da
nessun parametro di uscita. Questa caratteristica di ingresso è analoga a quella di un diodo, è un modello di
Shoeckley in cui il termine IES viene moltiplicato per (1 – af), ma l’andamento della IB è sempre quello del
diodo.
Se andiamo a graficare in zona attiva diretta l’andamento della corrente IC in funzione della VCE per vari
parametri della IB, il nostro comportamento è quello di un generatore di corrente controllato in corrente,
ho delle rette orizzontali indipendenti dal valore di VCE, semplicemente pari a IB * Bf.
Abbiamo però un limite alla zona attiva diretta, le caratteristiche non rispecchiano esattamente quelle di un
generatore di corrente controllato in corrente ideale ma quando VCE diventa piccola, le caratteristiche
collassano l’una sull’altra e vanno tutte a passare per l’origine, ed è anche ciò che ci dicono le equazioni di
Ebers-Moll. Abbiamo due giunzioni con le caratteristiche (modello shoeclky) in cui ho che per tensione nulla
il valore della corrente passa per l’origine.
Questa zona in cui il comportamento delle caratteristiche di uscita divergono divergono al comportamento
di un generatore di corrente controllato in corrente ideale è detta zona di saturazione, perché si ha quando
il transistore non è più in zona attiva diretta ma si trova nella zona in cui entrambe le giunzioni sono
polarizzate direttamente.
Avviene al di sotto di una VCE di saturazione, VCESAT, e quando VCE diminuisce al di sotto di questo valore
non possiamo più considerare il transistore come un generatore di corrente controllato in corrente, ma
bensì ho una zona con tensione molto piccola tra i suoi terminali.
Le diverse caratteristiche collassano l’una sull’altra e si perde quindi il controllo della corrente di collettore
da parte di quella di base. In saturazione il transistore si comporta dunque come l’equivalente di un
interruttore chiuso connesso tra emettitore e collettore.
Quindi con il nostro parametro Bf dipende da come risulta essere costruito il nostro transistore bipolare, in
particolare dai drogaggi e dalle dimensioni geometriche (quanto la base è resa stretta).
Vedremo come questo guadagno si ottiene anche dinamicamente e non solo staticamente e ci consentirà di
utilizzare il nostro transistore come un amplificatore..
Se VCE diminuisce il transistore va in saturazione, e questo è dovuto al fatto che VCE è la differenza di
potenziale tra collettore ed emettitore e si può esprimere come differenza di potenziale tra collettore e
base e la differenza di potenziale tra base ed emettitore.
Al variare di VCE accade che per VCE con un alta tensione negativa la giunzione BC è polarizzata in inversa,
ma se VCE scende al di sotto di un certo numero di volt la VBC diventa positiva e la giunzione BC al
diminuire della tensione CE diventa polarizzata in diretta.
Quando VCE scende al di sotto di Vy, la giunzione CB comincia a essere polarizzata direttamente, per cui
usciamo dalla zona attiva diretta propriamente detta.
Entro in zona di saturazione per VCE grandi e sono in zona attiva inversa dove VBC è negativa e se
diminuisco VCE succede che la giunzione BC da inizialmente in inversa, ad un certo punto va in diretta.
Il transistore va in saturazione. Di solito si prende un valore di riferimento di VCEsat di questo tipo:
Se VCE diminuisce e scende sotto questa soglia la giunzione BC che era in inversa diventa polarizzata in
diretta, il transistore va in saturazione, la corrente di base aumenta visto che ho due giunzioni polarizzate in
diretta e ho una forte iniezione di portatori da entrambe le giunzioni all’interno della base e le
caratteristiche collassano l’una sull’altra e possiamo considerare il transistore bipolare come un interruttore
chiuso. Ho VCE piccolo e IC che comunque non è piccola perché continua a rimanere dell’ordine di alcuni
mA almeno all’inizio della zona di svuotamento.
In zona attiva diretta le caratteristiche di uscita sono quelle di un generatore di corrente controllato in
corrente e le caratteristiche di ingresso rappresentano il comportamento della giunzione base emettitore
e hanno quindi un andamento esponenziale simile a quello di un diodo.
Effetto Early
Troviamo un particolare fenomeno sia sulle caratteristiche di ingresso che quelle di uscita.
Al variare della VCE ho delle caratteristiche diverse pur rimanendo in zona attiva diretta, c’è qualcosa che si
sfugge perché VCE non compare nell’equazione.
Abbiamo nel modello di Ebers-Moll come l’abbiamo trattato qualche comportamento trascurato.
Se osserviamo le caratteristiche di ingresso per VCE diverse abbiamo caratteristiche diverse.
Questo accade anche sulle caratteristiche di uscita, le caratteristiche reali delle componenti non sono
esattamente quelle di generatore di corrente controllato in corrente ideale ma le rette assumono una certa
pendenza:
La corrente di collettore in zona attiva diretta non rimane costante al crescere della VCE, ma subisce un
incremento, da un punto di vista grafico visibile nella forma di un’inclinazione verso l’altro delle
caratteristiche, per tutta la zona attiva diretta.
Avevamo trovato col nostro modello però che:
e c’è qualcosa che non torna nel nostro modello perché non è in grado di giustificare un comportamento di
questo tipo.
L’effetto che determina questo comportamento prende il nome di Effetto Early.
All’aumentare della VCE aumenta la corrente di collettore. Anche in IB abbiamo una dipendenza dalla VCE.
Dobbiamo capire qual è il motivo per cui sia la corrente di collettore che quella di base dipendono dalla
tensione tra collettore ed emettitore mentre nel modello di Ebers-Moll la dipendenza non è presente.
Nelle caratteristica di uscita Ic posso esprimerla anche come (visto che Ibv dipende da Vbe):
Abbiamo infatti visto che le caratteristiche di uscita posso esprimerle anche in funzione di VBE e VCE invece
di usare la IB.
Usando come parametro la VBE, ottengo che le caratteristiche sono inclinate e se vado a proseguire col
prolungamento della caratteristiche nel secondo quadrante, tutte le caratteristiche hanno una pendenza
tale che il loro comportamento del secondo quadrante le porta a intersecare l’asse delle ascisse per un
valore della tensione pari a Va, negativa, detta tensione di Early. Intersecano tutte lo stesso punto.
Supponiamo di prendere VBE costante, per esempio VBE = VBE3. Ma come mai se aumento VCE a VBE
costante, aumenta la corrente IC?
Se aumenta VCE, VCB aumenta, ed è positiva ma però siamo in un NPN quindi alla VBC succede che:
Se si allarga la zona di svuotamento della giunzione BC, mi va a diminuire la larghezza della zona neutra
della base e di conseguenza diminuisce la probabilità di ricombinazione nella zona neutra.
Se diminuiamo infatti il percorso che i portatori seguono nella base allora la probabilità di ricombinazione
diminuisce e quindi un maggior numero di portatori iniettati dall’emettitore all’interno della base
riusciranno ad attraversarla senza ricombinarsi, il che vuol dire che la corrente di collettore aumenta (alpha
f aumenta).
Cosa manca nel modello di Ebers-Moll è la considerazione che af per questo effetto non è costante ma
inizia a essere dipendente dalla tensione VCE e quindi anche Bf cambia al variare della tensione.
La corrente che passa nel mio transistore diventa maggiore proprio perché, all’aumentare della VCE, ho una
diminuzione della zona neutra e quindi una ricombinazione più piccola.
Ecco perché la corrente di collettore non rimane costante a variare della VCE, ho IC proporzionale a Bf che
risulta essere non costante ma dipende dalla VCE.
Dunque, per valori di VCB (e quindi di VCE) più elevati la corrente di collettore aumenta a parità di corrente
di base e quindi ciascuna delle curve corrispondenti alle caratteristiche di uscita risulta inclinata verso l’alto.
Questo relativamente alle caratteristiche di uscita.
Questo fenomeno è anche presente però nelle caratteristiche di ingresso, mi cambia anche la IB.
Il motivo è che se diminuisco la larghezza della zona neutra, diminuisce la possibilità di ricombinazione e
come sappiamo la corrente di base deve rifornire i portatori per i vari meccanismi di cui abbiamo parlato.
Ma la componente maggiore è dovuta al computo di rifornire i portatori persi per effetto della
ricombinazione con i portatori iniettati da E (qui in NPN parliamo di lacune, la corrente di base deve
rifornire le lacune).
Se la probabilità diminuisce anche la corrente di base diminuisce perchè deve rifornire meno portatori,
quindi si ha l’effetto early e aumentando VCE a parità di VBE mi deve diminuire corrente di bas.e
Se prendo VBE costante all’aumentare di VCE la corrente di base diminuisce.
Questo è quello che si riscontra per l’effetto Early. Come vedremo ad esercitazione questo effetto è molto
meno marcato nelle caratteristiche di ingresso mentre sulle caratteristiche di uscita l’effetto early ha una
sua evidenza non trascurabile. Ho quindi un duplice effetto.
Abbiamo analizzato le caratteristiche di transistori npn ad emettitore comune, quella più utilizzata per il
trattamento dei segnali. Gli stessi ragionamenti si possono fare anche per combinazioni a base comune e a
collettore comune e si possono fare anche nel funzionamento in zona attiva inversa (dove si scambiano di
ruolo la corrente di collettore e quella di emettitore), in interdizione e in saturazione.
Le caratteristiche di ingresso e di uscita dei transistori pnp sono del tutto analoghe (con gli opportuni
cambiamenti di segno a tutte le correnti e tensioni) a quelle degli npn.
Per cui se grafichiamo la corrente -Ic in funzione della tensione -VCE, con -Ic considerata entrante, si hanno
stesse caratteristiche.
Per la caratteristica di uscita:
Lo stesso accade anche per le caratteristiche di ingresso, analoghe al caso NPN solo che sono invertiti tutti i
segni delle correnti e delle tensioni quindi ho -IB in funzione di -VB e in funzione di VCE che è negativa.
Per quanto riguarda le caratteristiche di ingresso:
Il simbolo del transistore infatti ci indica il verso della corrente in zona attiva diretta e in NPN è entrante.
Le caratteristiche sarebbero nel 3’ quadrante quindi la corrente è negativa e la Vce è negativa.
La giunzione BE polarizzata in diretta e la tensione BC è polarizzata in inversa quindi la tensione B è
maggiore della tensione C, VCE deve essere negativa in polarizzazione diretta.
Questo è il comportamento fisico del transistore bipolare.
Vedremo le applicazioni del transistore bipolare, che saranno analoghe a quelle del transistore mosfet,
dopo aver trattato quest’ultimo.
Anche questo componente ha due porte e lo schema ideale di un generatore di corrente controllato in
tensione ha la seguente rappresentazione circuitale:
Abbiamo la porta di ingresso, che in questa situazione ideale, è un circuito aperto (ho un’impedenza infinita
nella porta di ingresso) e quindi i1 = 0.
Nella porta di uscita abbiamo invece un generatore di corrente controllato da una tensione quindi il valore
della corrente che scorre nella porta di uscita dipende dalla tensione presente sulla porta di ingresso,
tramite il seguente parametro, detto transconduttanza.
E’ possibile tracciare sul piano delle caratteristiche di uscita una retta di carico, la cui pendenza corrisponde
a −1/RL e che interseca l’asse delle ascisse in corrispondenza di V22.
Posso quindi determinare il punto di lavoro e nel caso in cui la tensione di ingresso assume un valore pari a
V12. Al variare della tensione v1 applicata in ingresso, il punto di lavoro si sposterà quindi lungo la retta di
carico, dando luogo a una variazione della tensione di uscita v2 che rappresenta una replica amplificata e
invertita di fase della tensione di ingresso.
Il transistore FET ha un comportamento analogo.
Se applico a questa struttura una tensione di gate negativa rispetto al substrato, ci aspettiamo che come un
condensatore sulle armature ci sia una carica uguale e opposta e in particolare con una tensione negativa,
sul gate dovrò avere una tensione negativa compensata dalle lacune presenti nel substrato di tipo p attirate
dal campo elettrico verso la superficie.
Se applico una tensione negativa, ciò tende ad attirare verso di sè le cariche di segno opposto.
La tensione negativa applicata sull’elettrodo di gate generà un campo elettrico in direzione verticale, nel
verso in figura essendo la tensione negativa.
Le lacune sentono il flusso di questo campo elettrico generato e migrano verso la superficie dove nel loro
percorso vengono bloccate dall’ossido, non possono proseguire nel loro percorso e si vanno ad accumulare
in superficie, all’interfaccia tra il substrato e l’ossido.
La dimensione di questa regione è molto minore della dimensione del substrato, molto di più di quanto è
indicato in figura.
Se verifico la concentrazione di lacune presenti nella zona superficiale, ottengo che la concentrazione di
lacune in superficie è maggiore di quella che ho nel substrato, maggiore della concentrazione di body.
Le cariche libere (gli elettroni) hanno sentito l’effetto del campo elettrico e si sono accumulate in superficie.
Se ho un substrato di tipo p con drogaggio uniforme di lacune, se applichiamo una tensione negativa del
gate in superficie, abbiamo una concentrazione di lacune superiore a quella del substrato. Alcune delle
cariche libere si sono accumulate in superficie.
Se applico una tensione opposta non tropo grande, inferiore alla tensione di soglia (valore limite):
Adesso troverò un campo elettrico diretto verticalmente in direzione opposta, che allontana le lacune, e la
tensione positiva respinge le cariche dello stesso segno.
All’interfaccia tra il substrato e l’ossido accade che le cariche libere vengono allontanate dalla superficie, le
lacune sono migrate e in superficie ci rimangono gli ioni accettori che sono cariche fisse e non si possono
muovere, le cariche mobili vengono mandate via come nella giunzione PN, dove lì avevamo la diffusione e
la ricombinazione, qui invece sono respinte dal campo elettrico che si forma nella zona di svuotamento,
che assume carica complessiva negativa di segno uguale e opposto alla carica positiva che abbiamo
accumulato sull’altra armatura del condensatore.
In questo caso la concentrazione di lacune in superficie ora viene a essere inferiore alla concentrazione
pbody, se prima ero in accumulazione ora sono andato in svuotamento, ho una regione di substrato in cui
ho diminuito la concentrazione di cariche libere.
Se incremento ulteriormente la tensione di gate e supero la tensione soglia accade un fenomeno
particolare. Per Vg >= VT, in superficie non solo vengono respinte le lacune (percè cariche positive) ma
vengono attirate le cariche negative, ciò avveniva anche prima ma per muoversi devono essere cariche
mobili e in un substrato di tipo p sono poche quelle mobili, ho solo i minoritari.
Respingo le lacune lontano dalla superficie e attraggo verso la superficie gli elettroni liberi.
Per campi elettrici sufficientemente piccoli sono pochissimi gli elettroni che riesco ad attrare alla superficie,
mentre se aumento la tensione più elettroni riescono ad essere attirati verso la superficie e accumulati
verso la superficie.
Arrivati ad una tensione soglia, in presenza dell’interfaccia tra l’ossido e il semiconduttore si genera una
zona in cui ho una concentrazione di portatori (elettroni) e la concentrazione n di superficie diventa
maggiore della concentrazione p nel body, ciò significa che se nel substrato ho un drogaggio di 10^17 in
condizione di equilibrio gli elettroni liberi sono molto pochi (sono 10^3 elettroni se ni^2 = 10^20).
Gli elettroni si accumulano in superficie e si genera uno strato sottile in superficie in cui la concentrazione di
elettroni diventa maggiore della concentrazione di pbody, quindi ho più di 10^17 elettroni che si sono
accumulati, ho un accumulo forte di elettroni in superficie.
In questa zona, prima si è tutta svuotata e poi la parte più in alto si è riempita di cariche libere di segno
opposto (elettroni liberi), raggiungendo una concentrazione maggiore della concentrazione di lacune nel
substrato. Si dice che si è formata una regione di inversione, il substrato in quella zona di tipo p ora si è
trasformato in tipo n e ad applicare questa trasformazione è stato il campo elettrico che ho applicato, che
ha diminuito la concentrazione di lacune e ha attirato verso la superficie cariche libere presenti nel
substrato e ha generato uno strato superficiale in cui la concentrazione di elettroni è addirittura superiore
alla concentrazione di lacune del substrato, è come avere avuto una inversione di drogaggio, è come se
avessi lì un semiconduttore drogato n, si dice che il nostro semiconduttore è andato in inversione.
Questo fenomeno di accumulo di portatori liberi avviene anche per tensioni minori di Vt, sotto soglia, pero
si prende un riferimento quando la concentrazione superficiale è equivalente alla concentrazione del
substrato e quella si indica come tensione di soglia.
Questo strato in realtà c’è anche prima di raggiungere la tensione di soglia ma non ha una concentrazione
così elevata, quando ho la tensione pari alla tensione soglia ho la concentrazione cariche libere uguale alla
concentrazione di cariche libere nel substrato e ho effettuato l’inversione.
L’idea alla base del funzionamento del transistore MOS (Metal-Oxide-Semiconductor) è abbastanza
semplice: si crea uno strato di cariche mobili in prossimità della superficie di un semiconduttore, tramite
l’applicazione di un campo elettrico per mezzo di un elettrodo di gate metallico, che “attira” le cariche verso
la superficie stessa.
Un transistore MOSFET è realizzato come segue:
E’ un condensatore MOS a cui sono stati aggiunti due zone drogate n+, serbatoi di carica, zone drogate
fortemente in valore opposto a quello del substrato che mi costituiscono gli altri due terminali (source e
drain) che insieme al gate, costituiscono gli altri due terminali.
Questa zona centrale nella figura è composta infatti da un terminale di gate, l’ossido e un semiconduttore
di tipo p con il suo body. Nella direzione verticale il transistore non è altro che condensatore MOS.
Vedremo come la lunghezza L è un parametro importantissimo (lunghezza canale) per il funzionamento del
nostro transistore. Abbiamo però anche un altro parametro dimensionale che è la profondità del canale,
perpendicolare al foglio.
Il funzionamento del mosfet consiste nel controllare la corrente che scorre tra source e drain con la
tensione che viene applicata al terminale di gate. La zona di substrato che separa il source dal drain viene
chiamata regione di canale e la distanza che esiste tra i due drogaggi di tipo n+ viene chiamata lunghezza di
canale L. Il dispositivo è planare tridimensionale e quindi abbiamo anche w, la larghezza di canale.
Il dispositivo presenta due giunzioni, quella tra il source e il substrato, n+/p, e l’altra giunzione n+/p.
Il normale funzionamento del dispositivo avverrà nelle condizioni in cui queste due giunzioni (possiamo
schematizzarli come giunzioni pn+) vengono polarizzate in inversa.
Ho un componente a 4 terminali, source, drain, gate e il contatto di substrato.
La polarizzazione che dobbiamo applicare al dispositivo è tale da mantenere le due giunzioni sempre
polarizzate inversamente.
Se siamo in una situazione come in figura dobbiamo fare in modo che il substrato sia posto a potenziale
sempre inferiore a quello di source e di drain, in modo che l’anodo sia sempre polarizzato a una
polarizzazione inferiore rispetto al proprio catodo, così da avere le due giunzioni polarizzate in inversa.
Si parla di mosfet a canale n e il substrato viene tenuto al potenziale di ground così da polarizzare in inversa
le due giunzioni.
In presenza di tale polarizzazione tra il source e il drain, non può scorrere nessuna corrente in assenza di
alcuna sollecitazione dall’esterno, avendo polarizzato il substrato a potenziale inferiore di source e drain e
avendo quindi due giunzioni entrambe polarizzate in inversa.
Se siamo nella condizione in cui il substrato è mantenuto a potenziale di riferimento, source e drain sono
ground e VGS = 0:
Abbiamo due giunzioni n+-p con polarizzazione nulla e quindi avremo una zona di svuotamento alla
giunzione tra n+ e substrato, con un potenziale di contatto, e la zona di svuotamento sarà data dagli ioni
accettori del substrato e gli ioni donatori del drogaggio n+.
La zona degli ioni donatori è molto più piccola della zona con gli ioni accettori perché il drogaggio di tipo n+
è molto più grande del substrato e quindi la zona di svuotamento è molto piccola.
Le due larghezza delle zone di svuotamento dipendono dal drogaggio. In queste condizioni il nostro
dispositivo non conduce nessuna corrente in prima approssimazione, abbiamo una corrente in realtà del
tutto trascurabile.
Se inizio a cambiare la tensione del gate invece, per esempio applicando una tensione positiva rispetto al
source (quindi positiva del gate rispetto al substrato essendo tutte alla stessa tensione) ma minore della
tensione di soglia, in direzione verticale ho un condensatore MOS e in presenza di una polarizzazione
positiva dell’elettrodo di gate rispetto al substrato si genere una zona di svuotamento.
La tensione tende a respingere le lacune nella zona tra il substrato e l’ossido.
Si va a unire questa ziona di svuotamento alle altre due e si forma un'unica zona di svuotamento che
collega il source e il drain, ed è chiamata zona di canale.
in queste condizioni avremo che la corrente:
Anche in questo caso infatti i due terminali continuano a essere separati da una zona di svuotamento molto
ampia e quindi non può scorrere corrente ai capi del mio dispositivo.
Se però la tensione VGS supera il valore soglia VT:
Essendo source, drain e body allo stesso potenziale quindi la tensione tra gate e il substrato è >= VT, si
viene a creare la zona di inversione, zona contenente cariche libere (in questo caso elettroni)
nell’interfaccia tra il substrato e l’ossido.
La zona di inversione è un canale di cariche mobili che mette in comunicazione il source con il drain.
Il source e il drain che erano due serbatoi di tante cariche mobili (elettroni), che erano separate tra di loro e
non avevano modo di scambiarsi cariche tra uno e l’altro, ma nel momento in cui accade ciò attiriamo in
superficie una concentrazione non trascurabile di elettroni mobili tale per cui la loro concentrazione
diventa superiore alla concentrazione delle lacune del substrato e si forma questo canale tra il source e il
drain, costituito da cariche mobili.
Questa si chiama zona di canale perchè in condizioni di inversione esiste un canale di cariche libere che
mette in comunicazione Source e Drain.
Mentre nel condensatore MOS le cariche libere erano solo quelle generate termicamente, e quindi ci
voleva anche un certo tempo a formare questo canale dopo aver soddisfatto VGS >= Vt, nel transistore
MOSFET le cariche libere provengono sia dalla generazione termica ma sono anche fornite da source e
drain e vengono trascinate nel canale nella zona sotto il gate.
In questo modo la formazione del canale è molto più veloce.
Devo comunque garantire il fatto che il canale che si viene a formare per effetto della VGS metta
effettivamente in comunicazione S e D sovrapponendosi alle due zone drogate N+.
Per questo motivo è necessario che il gate debba essere parzialmente sovrapposto alla zona n+.
In questo modo garantisco che il mio canale che si è venuto a formare sia sovrapposto alle zone n+ in modo
da essere sicuro di metterle in comunicazione.
Ora abbiamo due zone con una grossa concentrazione di cariche libere poste in comunicazione tra di loro
attraverso un canale con delle cariche libere.
Se dopo aver applicato una VGS >= VT (viene quindi generato un campo elettrico nella direzione verticale,
asse y) vado ad applicare una differenza di potenziale tra terminale di D e di S, ho anche un campo elettrico
in direzione x e posso quindi spostare queste cariche avendo un passaggio di corrente.
VGS può essere usata per determinare se passa o non passa corrente e per VGS < VT il canale è considerato
inesistente, non passa corrente tra D e S, altrimenti può passare corrente tra D e S in presenza di
un’opportuna polarizzazione.
In queste condizioni ho sostanzialmente una resistenza a cui applico una differenza di potenziale.
La differenza di potenziale VGS può controllare il valore e la forma della dipendenza della IDS dalla VDS.
La prima situazione è quella in cui applichiamo una differenza di potenziale tra G e S(che viene tenuto a
potenziale di riferimento) di questo tipo:
Abbiamo un canale di elettroni e se applico una differenza di potenziale tra il drain e il source, avendo il
drain un potenziale maggiore del source, gli elettroni si muoveranno dal source verso il drain, infatti avrò
con questa polarità un campo elettrico nella direzione in figura e quindi avremo la corrente da drain verso
source. Quindi per:
Se aumento ancora la tensione tra gate e source invece, aumenta lo spessore del canale.
Lo spessore del canale aumenta di dimensioni perchè richiamiamo sempre più cariche liberi a formare il
canale, se consideriamo il canale come una resistenza avremo infatti:
Data la larghezza (w) e lo spessore (t), all’aumentare della dimensione dello spessore la resistenza
diminuisce.
Aumentando la tensione di gate mi aumenta lo spessore del canale (VGS aumenta), mi diminuisce la
resistenza del canale, quindi a parità di tensione VDS, avrò una corrente più grande.
Per VDS con valori piccoli, accade che ho un legame lineare della corrente in funzione della VDS (il canale
può infatti essere considerato come una resistenza ideale di valore costante) e accade che aumentando
VDS mi aumenta la corrente che scorre perchè diminuisce la resistenza.
Quindi il nostro MOSFET ha un comportamento di una resistenza il cui valore viene controllato da una
tensione, abbiamo una pendenza della nostra curva (ho un legame lineare tra corrente e tensione, avendo
infatti una resistenza) il cui valore diventa dipendente dal valore della tensione.
Tutto ciò però facendo l’ipotesi semplificativa che lo spessore del canale aumenti in modo uniforme lungo
tutta la direzione e vi rimanga per tutta la configurazione, in questo modo avremo un legame di questo
tipo.
Questo comportamento vale però solo per valori piccoli sella VDS, sto trascurando un fenomeno. Il
problema è che se applichiamo una differenza di potenziale tra Drain e Source il canale non è a un
potenziale costante.
Se prendiamo infatti due terminali con una resistenza di canale e applichiamo una differenza di potenziale,
se misuriamo la caduta di potenziale lungo tutta la resistenza noteremo una caduta di potenziale lineare:
Otteniamo che tra il terminale che teniamo a ground, S, e D, nel caso di resistenza, abbiamo un andamento
lineare ma se misuriamo il potenziale a varie ascisse otterremo una distribuzione lineare di questo tipo:
Lungo il canale l’andamento del potenziale elettrostatico è tale che la differenza di potenziale tra un punto
sull’asse delle ascisse x’ rispetto al source sarà una certa funzione di x, fi(x).
Questo fenomeno lo ho per tutti i valori di VDS diversi da 0, ma per VDS sufficientemente piccolo può
essere trascurato, però è sempre presente.
Cosa accade quindi al canale? La presenza del canale è determinata dal potenziale che ho in direzione y, in
questa direzione devo determinare la differenza di potenziale tra il gate e un punto del canale x’ e se questa
differenza di potenziale è maggiore di Vt ho presenza di canale.
Quanto canale ho in quel punto dipenderà da quanto VGx’ è maggiore di V.
Se uguale a VT ho la formazione del canale, mentre se è maggiore di VT il canale avrà un certo spessore.
Ma la differenza di potenziale tra il gate e un punto qualunque del canale non è più uniforme, non ho un
canale equipotenziale ma a potenziali diversi e quindi anche la differenze di potenziale tra il gate e un
punto del canale assumerà valori diversi.
In particolare se applico una VGS di 3V la differenza di potenziale tra il gate e il source è effettivamente di
3V, ma se applico una differenza di potenziale VDS ottengo che la differenza di potenziale tra G e il mio
canale diminuisce man mano che mi avvicino al drain. lo spessore del canale quindi non è più uniforme ma
parte dallo spessore più grande in corrispondenza del source fino ad arrivare a un valore minimo in
corrispondenza del drain.
Indicando con xi l’ascissa particolare che vado a considerare, abbiamo che VGxi che determina lo spessore
del canale, la posso scrivere come:
La mia VGxi sarà quindi data da VGS meno questa quantità (dove ho il segno meno perchè questo è il
potenziale di xi rispetto a 0), e ho per:
Lo vediamo dal grafico cosa devo sottrarre. Se applico una tensione VDS positiva allora VGXi sarà più piccola
rispetto al caso in cui xi=0.
Lo spessore del canale sarà:
che in prima approssimazione ha una dipendenza lineare in funzione di x con un decremento lineare lungo
il canale. Questa situazione la ho per qualunque valore di VDS, se VDS fosse piccolo è ovvio che il canale è
rastremato ma posso trascurare il fatto che lo sia, ma se VDS non è più trascurabile rispetto a VGS allora il
canale non ha una struttura uniforme.
Il valore della resistenza del canale quindi diventa funzione di x:
E in assenza della VDS era di spessore uniforme mentre ora diventa più rastremato per VDS != 0 e la
resistenza aumenta.
Il canale inizia a stringersi sempre di più, fino ad arrivare a una situazione particolare che si verifica:
Se aumentiamo la VDS e la facciamo arrivare a questo valore la differenza di potenziale tra gate e il canale il
punto L, valrà:
Accade che per questo valore di tensione il canale risulta praticamente strozzato, le sue dimensioni sono le
minime possibili che consentono di avere il canale (per VGS = VT si inizia a formare il canale infatti).
Se prendiamo questo come limite con canale assente, ciò significa che il canale è rastremato a tal punto che
in corrispondenza del canale viene strozzato.
Ho una strozzatura del canale, si parla di pinch-off.
Il canale diventa un triangolo e nel punto dove canale si unisce al drain si verifica la strozzatura.
La resistenza del canale quindi aumenta ulteriormente, essendo lo spessore sempre più diminuito,
e dal punto di vista elettrico, per Vs molto più piccole del valore di VGS – Vt posso considerare che lo
spessore del canale sia uguale lungo tutta la lunghezza L, il MOSFET si comporta come una resistenza con la
corrente che presenta una dipendenza lineare della tensione.
Mantenendo lo stesso valore di VGS, aumentando la VDS, la resistenza aumenta e quindi la corrente che ci
scorre diventa più piccola, il canale inizia a rastremarsi.
Si ottiene quindi che la dipendenza della corrente dalla tensione non è più lineare ma la curva inizia a
diminuire, la corrente tende sempre di più a diminuire fino al punto di pinch-off in cui la tensione VDS
raggiunge VGS – Vt.
Ecco che abbiamo una resistenza controllata dalla tensione VDS ma con una dipendenza non lineare, lo è
solo nella zona con VDS troppo piccole.
Cosa accade dopo alla corrente? Se VDS aumenta rispetto a VGS – VT, se per tensione VDS = VGS - VT la
strozzatura del canale avviene esattamente in corrispondenza del drain, se aumento VDS rispetto al valore
limite, il punto di strozzature avviene ad una ascissa del canale prima del drain stesso.
Se indico con xp la x di pinch-off, il punto in cui la differenza di potenziale tra il punto di canale e source è
esattamente pari a VGS – VT, allora la differenza di potenziale tra gate e questo punto del canale sarà data
da:
La differenza di potenziale tra il punto del canale e il gate sarà esattamente pari a Vt se si verifica in un
punto prima di arrivare dal drain.
Il canale di conseguenza si è accorciato, prima si chiudeva in corrispondenza del drain e ora si chiude in un
punto precedente, ma questa condizione di pinchoff rimane sempre la stessa, il punto in cui il canale si
strozza è quello in cui la differenza di potenziale rispetto a source è esattamente pari a:
xp varierà ma il canale si strozzerà in punto del canale in cui varia ciò, condizione di pinch-off.
Se applico VDS il canale si strozzerà a una differenza di potenziale pari a Vgs – Vt, e se aumento VDS il punto
di sposterà sempre di più verso source.
Nel mio dispositivo passa corrente in queste condizioni? Il canale parte da source ma non arriva verso il
drain, ma la corrente non solo continua a scorrere ma la posso considerare costante in prima
approssimazione.
Abbiamo delle cariche mobili, ho elettroni che si muovono dal Source verso il Drain, arrivano al punto di
pinch-off, nella zona in cui non c’è più il canale c’è una zona di svuotamento, ma le cariche mobili la
possono attraversare se trovano un campo elettrico favorevole al loro passaggio (è quello che accade nella
giunzione del diodo P/N) e posso avere una componente di drift, in questo caso il campo elettrico nella
zona di svuotamento è diretto esattamente dalle cariche positive presenti nella zona di svuotamento del
drain verso le cariche negative, gli ioni accettori fissi del substrato di tipo p.
Quindi gli elettroni che arrivano al bordo del canale trovano una zona di svuotamento con un campo
elettrico che ne favorisce il loro cammino, un campo elettrico che consente agli elettroni di proseguire il
loro percorso e quindi di arrivare al drain. La corrente non si interrompe, ho comunque la presenza di un
canale anche se più corto rispetto a prima, tra pinch-off e source c’è una differenza di potenziale pari a VGS
– Vt, mentre la differenza di potenziale applicata a questa zona è la differenza di potenziale tra zona di
pinch-off e il drain (quindi dipende da VDS, più è grande e più sarà grande questa differenza di potenziale):
Esiste un campo elettrico che attira elettroni verso il drain e quindi possono passare nella zona di
svuotamento. Ciò giustifica il passaggio di corrente. Ma perché è in prima approssimazione costante?
La resistenza tra quando il canale è strozzato in corrispondenza dl drain e quando il canale è nel punti di
pinch-off, quindi la Rc(x), la posso considerare:
Ho un canale che si chiude leggermente prima, deltaL è piccolo, quindi Rc(x) la posso considerare costante.
Se trascuro il fatto che il canale si è accorciato, la differenza di potenziale applicata al canale da quando il
canale si chiude in corrispondenza del drain o poco prima è sempre la stessa, perchè la differenza di
potenziale ai capi del canale è in queste condizioni costante e pari a:
Otteniamo questo risultato. Si suddividono le zone di funzionamento del mio transistore in due zone ben
separate.
La zona con corrente costante è detta di saturazione perchè la corrente satura, inizia con una strozzatura
del canale in corrispondenza del drain e prosegue con tensioni maggiori di VGS - Vt in cui il punto di
strozzatura si sposta sempre di più nel canale verso sinistra e in prima approssimazione possiamo dire che
la corrente rimane costante, mentre la zona precedente viene chiamata zona triodo.
In zona triodo il MOSFET si comporta come una resistenza controllata dalla tensione in modo non lineare,
mentre in zona di saturazione ho una corrente costante in funzione di VDS ed assume un valore per un
particolare valore di VGS, in questa zona il MOSFET si comporta come un generatore di corrente controllato
in tensione.
Id è proporzionale alla mobilità degli elettroni (gli elettroni nel canale che si stanno muovendo), dalla
capacità dell’ossido per unità di area, ovvero il rapporto tra la costante dielettrica dell’ossido e lo spessore
dell’ossido, e questi due parametri sono fissati dal costruttore.
Abbiamo poi un parametro geometrico in cui si interviene in fase di progettazione, dipendente dalla
larghezza e lunghezza del canale, legato alla resistenza del canale.
All’aumentare di L si ha una resistenza più grande e quindi la corrente è piccola, la corrente è inversamente
proporzionale alla lunghezza del canale mentre è direttamente proporzionale alla larghezza.
Ho poi la dipendenza dalla tensione, dove ho il primo termine (VGS – VT) * VDS con una dipendenza lineare
della ID dalla VDS, termine valido per tensioni VDS piccole, e più VGS > VT più il canale risulta essere spesso
e quindi la corrente aumenta.
Ho poi un termine al quadrato che tiene conto che poi la curva inizia ad avere un comportamento
quadratico, questa è l’espressione analitica della corrente in funzione della tensione in zona triodo.
Quando sarò in zona di saturazione invece:
Considerando le caratteristiche di uscita, ho delle caratteristiche ideali della corrente ID in funzione della
VDS e nella zona di saturazione ho una corrente che dipende solo da VGS.
L’inizio della saturazione si ha quando quando VDS = VGS – VT.
La curva finale ID è una curva che nel piano ID-VDS è l’equazione di una parabola, ed è il luogo dei punti in
cui VDS = VGS – VT. Ho questa parabola che mi separa la zona triodo dalla zona di saturazione.
L’approssimazione di avere una corrente costante in zona di saturazione deriva dal fatto di aver detto che
Delta L è molto piccolo confrontato con la lunghezza del canale.
Se invece deltaL non è più trascurabile rispetto a L non è più vero che la mia resistenza di canale la posso
considerare costante, ho una resistenza con la stessa differenza di potenziale VGS - VT tra la base e il punto
di pinch-off ma ora si sta accorciando e quindi diminuisce, ho una resistenza che diminuisce a cui applico la
stessa differenza di potenziale e quindi la corrente aumenta.
La resistenza del canale non la posso considerare più costante e pari al valore iniziale del pinch-off ma devo
tener conto che la resistenza cambia, aumentando VDS si sposta punto di pinch-off verso sinistra, il canale
si accorcia e la corrente aumenta. Ecco che le caratteristiche non sono più orizzontali ma tendono ad
aumentare.
Ho un effetto simile a quello del transistore bipolare in cui avevamo l’effetto di Early all’aumentare della
VCE. Ho un qualcosa di analogo nel MOSFET, dove aumentando il potenziale VS la corrente non è costante
ma tende ad aumentare.
Anche in questo caso le caratteristiche assumono una certa pendenza e se vengono prolungate si vanno ad
incontrare sulla stessa ascissa per una tensione che per similitudine anche qui viene chiamata tensione di
early (anche se non abbiamo un effetto early), e qui l’effetto che abbiamo è detto effetto della
modulazione di canale.
Aumentando VDS in zona di saturazione il canale non rimane di lunghezza costante ma si accorcia sempre
di più e la corrente tende ad aumentare.
Se indichiamo con -1/lambda l’intersezione, si ottiene che la corrente in zona di saturazione ho un termine
aggiuntivo, ammetto che la mia zona di saturazione Id ha una dipendenza dalla VDS tramite il parametro
lambda. Non ho più quindi un generatore di corrente controllato in tensione ideale, ma ho delle
caratteristiche con una certa pendenza.
Quando siamo nel caso in cui VGS > VT abbiamo quindi queste due zone, separate dalla parabola.
Ci sono due regioni di funzionamento in cui il MOSFET si trova a funzionare nel primo quadrante, le altre
due si hanno in corrispondenza dell’origine, è interdetto quando non scorre corrente e poi si ha il
funzionamento in zona VGS <= VT.
Il comportamento ideale sarebbe avere una corrente di drain costante al variare della tensione fra drain e
source ma nella realtà le caratteristiche mostrano una dipendenza più o meno pronunciata dalla VDS
stessa, ciò dipende dalle dimensioni del transistore, dal rapporto dell’accorciamento che ha subito il canale
dovuto al pinch-off e la lunghezza del canale stesso. Se piccolo allora inclinazione piccola, altrimenti
inclinazione delle curve non più trascurabile.
La caratteristica d’ingresso non viene riportata nel transistore ideale perché considera l’ossido di gate come
ossido ideale è un terminale isolato e quindi la corrente che scorre nel gate è identicamente nulla. La
caratteristica non viene riportata perché data dall’espressione IG = 0, qualunque sia la VGS applicata.
La caratteristica che viene usata per schematizzare il comportamento del MOSFET è la trans-caratteristica,
riportata in zona di saturazione, regione in cui vale quest’espressione:
E la trans-caratteristica è una curva in cui viene rappresentata la corrente ID in funzione della VGS per vari
valori della VDS, per un VDS tale da essere in zona di saturazione:
E viene chiamata trans-caratteristica perché rappresenta la corrente di uscita in funzione di una tensione
alla porta d’ingresso, la VGS. L’aspetto della curva è una parabola nel piano che parte dal valore VT,
abbiamo una parabola shiftata nel punto VGS = VT.
E’ una caratteristica che ci mostra come la corrente risulta essere nulla in saturazione se VGS < VT, dovuto
al fatto che non esiste il canale.
Questa trans-caratteristica mostra anche che abbiamo un valore di VT positivo, abbiamo un MOSFET a
canale di N; in quanto serve una tensione positiva maggiore della tensione soglia per avere una corrente !=
0 e mostra che per VGS > Vt la dipendenza è di tipo quadratico tra la corrente di uscita e la tensione di
controllo.
Questi tipi di MOSFET che stiamo considerando di cui abbiamo analizzato il comportamento fisico in modo
qualitativo, sono i cosiddetti MOSFET ad arricchimento.
Sono dei MOSFET che quando realizzati tra Source e Drain non prevedono l’esistenza il canale, dobbiamo
formare noi il canale tramite una tensione. Esistono però anche altre categorie di MOSFET chiamati
MOSFET a svuotamento, in cui il costruttore che ha realizzato il dispositivo ha già realizzato il canale tra le
due zone Source e Drain, presente quindi prima di applicare una qualunque polarizzazione.
Se il substrato è di tipo p allora in superficie sarà contro-drogato di tipo n cosi da formare il canale di
collegamento.
La tensione di soglia non è più positiva, il canale anche per VGS = 0 risulta essere già presente visto che ho
già il collegamento tra source e drain, ma se vogliamo togliere il canale nel caso di substrato di tipo p
dobbiamo allontanare gli elettroni posizionati sulla superficie del costruttore e quindi dobbiamo applicare
una tensione negativa. La tensione di soglia VT è quindi negativa.
Notiamo che per VGS = 0 abbiamo già un canale, per impedire il passaggio di corrente devo rimuovere gli
elettroni che sono stati posizionati con il drogaggio all’interfaccia tra il substrato e l’ossido in modo da
collegare drain e source e quindi devo applicare una tensione negativa e quindi il canale si svuota e non ho
passaggio di corrente per tensione negative minori di VT.
Noi tratteremo MOSFET ad arricchimento, per cui VT > 0, e quindi devo formare il canale applicando
un’opportuna tensione sul gate e considereremo l’effetto di modulazione del canale trascurabile e quindi
useremo l’espressione con lambda uguale a 0.
Questi sono i MOSFET a canale N, esiste anche il dispositivo duale detto MOSFET a canale P.
Questo è un MOSFET in cui ho il substrato di tipo N, source e drain drogati p+ e devo formare il canale tra il
source e il drain, ho un comportamento analogo, ma cambiano tuti i segni delle correnti e delle tensioni.
Devo formare un canale, devo attrarre lacune in superficie, devo quindi applicare una tensione di gate
negativa, la tensione VGS di funzionamento sarà negativa e la tensione soglia sarà negativa.
I MOSFET a canale P si differenziano dai MOSFET a canele N perchè hanno una tensione negativa che deve
essere inferiore alla VT.
Abbiamo VT < 0, VGS < 0 e la VGS deve essere < VT per formare il canale.
Dobbiamo tenere conto che sono le lacune a muoversi, quindi se applico una tensione minore di VDS
positiva le lacune spinte verso il source. Il trasporto tra source e drain è qui ottenuto tramite una corrente
di lacune e abbiamo che il nostro dispositivo va a funzionare nel terzo quadrante.
Le caratteristiche del nostro MOSFET sono quindi riportate nel terzo quadrante.
Il MOSFET a canale P è un dispositivo che si comporta in modo del tutto analogo rispetto al MOSFET a
canale n, devo formare però un canale di lacune visto che il trasporto è dovuto a lacune, devo avere una
tensione negativa per indurre il canale e avrò per VDS negative una corrente negativa tra drain e source.
Se cambio i segni di tensioni e correnti però ottengo esattamente la descrizione delle stesse medesime
caratteristiche.
Dobbiamo tenere presente però che le cariche mobili in questo caso sono lacune, quindi nella costante k ci
rientra la mobilità dei portatori e a parità di tutti gli altri parametri, considerando le stesse dimensioni
geometriche e applicando le stesse tensioni in modulo (coi loro segni opportuni), la corrente IDS sarà di
entità diversa, in un caso moltiplicata per la mobilità degli elettroni mentre in un altro caso per la mobilità
delle lacune.
Se prendo due MOSFET perfettamente equivalenti, uno a canale p e uno a canale n, a parità di parametri la
corrente del transistore p è minore della corrente del transistore n.
Nella realtà accade che i due transistori MOSFET avranno due tensioni di soglia differenti, VT in modulo
diverse, ma fortunatamente grazie all’evoluzione tecnologica si ha la possibilità di realizzare dei dispositivi
MOSFET con lo stesso modulo di VT, e dobbiamo tenere presente che anche con la stessa VT rimane il
problema della mobilità, legata alla tipologia di comportamento fisico del dispositivo.
La corrente dipende però anche da due parametri, W e L, che quando realizzo il circuito integrato
elettronico l’utente può andare a modificare.
Si può allora progettare un MOSFET P che abbia delle caratteristiche complementari al MOSFET N andando
a modificare il valore W/L, due MOSFET geometricamente diversi con dimensioni diverse ma in modo tale
che applicando le stesse tensioni in modulo si abbia una stessa corrente in modulo.
Si può quindi compensare la ridotta mobilità con un aumento della larghezza di canale W.
Si parla di MOSFET complementari e la tecnologia che ci permette di fare ciò è detta CMOS
(Complementary MOS), il progettista agendo opportunatamente su W e L può realizzare due MOSFET con
caratteristiche perfettamente complementari.
La possibilità di realizzare MOSFET perfettamente complementari è alla base di tutta l’elettronica digitale e
della possibilità della realizzazione dei chip dei microprocessori sul silicio
Simboli circuitali
Il MOSFET a canale n viene disegnato con tre terminali, una barretta verticale separata da un'altra barra che
mette in evidenza che il gate è un terminale isolato dagli altri due, e la barra verticale che indica il canale,
esiste l’ossido e quindi il gate è isolato dal canale.
Abbiamo poi la presenza di una freccia, messa sul terminale di source che indica il verso della corrente che
scorre all’interno del dispositivo (a canale n scorre da drain verso source).
Tutto ciò in ambito analogico.
In ambito digitale invece, quando si realizza un circuito integrato il MOSFET a differenza del transistore
bipolare è esattamente simmetrico e drain e source possono essere scambiati tra di loro e non viene più
indicata la freccia ma viene indicato il terminale a potenziale più alto che è il drain e quello a potenziale più
basso che è il source e non si mette più il verso della freccia.
Nei simboli in ambito digitale source e drain sono interscambiabili e nel canale n ho il drain a potenziale più
alto del source mentre nel canale p ho il source a potenziale più alto del drain.
Questo non vale per componenti discreti (acquistati singolarmente), il transistore MOSFET non è
simmetrico perchè internamente realizzato con una connessione fissa tra source e substrato quindi il
source viene identificato con un terminale che ha il collegamento con il substrato.
Il MOSFET a canale p cambia il verso della freccia perché sono le lacune che si muovono da source verso
drain, i portatori in entrambi i casi si muovono da source verso il drain solo che nel canale n si spostano
elettroni e la corrente va da D verso S e nel canale p si spostano le lacune e si ha lo stesso verso della
corrente quindi si ha da S verso D.
Se prendo il piano VDS e IDS ecco che ho le caratteristiche nel terzo quadrante.
In ambito digitale si mette un pallino in corrispondenza del gate che indica che il canale p deve avere una
tensione negativa per poter funzionare mentre il canale n deve avere una tensione positiva.
Questo simbolo ci consente di capire quali MOSFET sono a canale n e quali a canale p.
In realtà il simbolo più completo ha quattro terminali, nei componenti discreti il contratto di substrato non
viene rappresentato perché internamente collegato al source mentre nei componenti integrati è presente e
viene indicato come un terminale e si distinguono i MOSFET ad arricchimento da quelli a svuotamento per il
canale realizzato in modo tratteggiato che indica che ho un MOSFET in cui se voglio il canale devo andarlo a
realizzare tramite tensione applicata al gate, mentre in caso di svuotamento ho già la presenza del canale.
Il collegamento di body ha la freccia opposta nel caso di canale n o p (in figura abbiamo il canale n).
Vediamo adesso dei circuiti in cui è presente l’utilizzo del BJT e del MOSFET che hanno la caratteristica di
essere componenti attivi, differenza rispetto al diodo, e sono quindi in grado non solo di amplificare il
segnale ma anche di fornire amplificazione della potenza complessivamente.
I transistori per poter funzionare correttamente hanno varie zone di funzionamento, nel caso di BJT ne
abbiamo 4, mentre nel caso di MOSFET abbiamo visto la zona triodo, la zona di saturazione e la zona di
interdizione se non è presente il canale.
Dobbiamo fissare il loro punto di riposo per studiare le varie applicazioni.
In ambito analogico la zona dove voglio andare a farli funzionare è quella in cui funzionano come generatori
di corrente controllati o da una corrente o da una tensione. Il transistore bipolare dovrà funzionare in zona
attiva diretta (generatore di corrente controllato in corrente, o se vogliamo anche qui in tensione) e il
MOSFET invece in zona di saturazione(generatore di corrente controllato in tensione).
Studio quindi le zone dove ho le caratteristiche piatte, una corrente costante al variare della tensione di
uscita funzione però di una variabile di ingresso e dobbiamo fissare il punto di funzionamento di questi
dispositivi in queste particolari zone, questa operazione viene chiamata polarizzazione, si va a collegare il
transistore al generatore di tensione costante in modo da determinare i punti di funzionamento del
transistore.
Realizzo il circuito di polarizzazione, cosi da determinare le condizioni di lavoro del mio transistore,
operazione fondamentale per un funzionamento corretto del dispositivo.
L’operazione di polarizzazione transistore è equivalente ad usare un automobile e metterla in moto.
Il transistore oltre a essere usato deve essere collegato ad un alimentazione costante che fornisce la
corrente, la tensione che consentono al transistore funzionare in un particolare punto delle sue
caratteristiche. Fisso il punto in cui si trova e poi applico il segnale e lui eserciterà sul segnale delle
operazioni che sono diverse a seconda della zona in cui si trova il transistore
Il metodo più semplice per poter andare a polarizzare, ho un dispositivo a due porte, è quello di collegare
entrambe le porte a un generatore di tensione tramite delle resistenze.
Dato un transistore bipolare, prendiamo quello npn che è quello più utilizzato con prestazioni migliori
perché sono gli elettroni a di muoversi da emettitore verso collettore (e quindi per la mobilità più alta).
Avremo la porta di ingresso con IB entrante (deve fornire infatti lacune), la VCE positiva, IC positiva entrante
e IE positiva uscente.
Collego la base a un generatore di tensione costante VBB tramite una resistenza di base mentre il collettore
viene collegato ad un generatore di tensione costante VC tramite la resistenza Rc.
Il terminale di emettitore è a comune tra ingresso e uscita, ho la configurazione a emettitore comune.
A seconda delle caratteristiche del dispositivo che sto usando, del tipo del BJT, e del valore di VBB, VCC, RB
e RC vado a fissare il punto di lavoro.
Se voglio progettare il mio circuito di polarizzazione devo anche saperlo risolvere. Come tratto un circuito in
cui ho la presenza del transistore bipolare con equazioni di funzionamento fortemente non lineari? (visto
che le equazioni sono quelle di Ebers-moll, e prevedono tutte termini esponenziali)
Come abbiamo fatto col diodo vediamo come risolvere il circuito.
Iniziamo dalle equazioni di KIrchoff alle maglie, che rimangono valide anche in presenza di componenti non
lineari, avremo:
Le incognite sono i valori del punto di riposo del transistore bipolare, la corrente e la tensione di ingresso e
la corrente e la tensione di uscita. Trovo i segni indicati per i versi in cui abbiamo le correnti.
Abbiamo 4 incognite e servono almeno altre due equazioni. Uso le caratteristiche del transistore BJT:
Ho le caratteristiche di ingresso in cui la corrente di base viene graficata come funzione della VBE e della
VCE e le caratteristiche di uscita funzione della VCE e IB. Qui abbiamo un oggetto a tre terminali con
terminale comune, due porte e quindi ho due equazioni caratteristiche e 4 incognite.
Come risolvo il circuito in queste condizioni? Anche in questo caso potrei usare un metodo numerico, le
caratteristiche di ingresso e di uscita, le posso ricavare risolvendo le equazioni che sono date da Ebers-Moll
cosi da vedere la dipendenza della IB da VBE e VCE e della IC dalla VCE e IB.
Opportunatamente scritte mi consentono di avere un legame tra queste quantità.
Ho quindi altre due equazioni, ma queste contengono funzioni esponenziali e quindi la soluzione in forma
chiusa non riesco a fornirla in modo analitico, ho tutte equazioni trascendenti e quindi devo ricorrere ad un
simulatore numerico per risolverlo.
Posso però usare un metodo grafico col transistore BJT ma solo con opportune ipotesi, devo usare le
caratteristiche grafiche del mio dispositivo con le cautele legate al fatto che le caratteristiche grafiche
variano da un dispositivo all’altro.
Se il dispositivo che voglio andare a polarizzare dispongo delle sue caratteristiche allora potrò andare a
usare il metodo grafico ma con l’ipotesi che le caratteristiche di ingresso non mi dipendono dalla VCE
(quindi con l’ipotesi che l’effetto early sia trascurabile):
A causa dell’effetto early esistono una famiglia di curve, dovute a diversi valori di VCE. All’aumentare della
tensione VCE diminuisce la corrente di base:
Se la corrente di base è fortemente dipendente dalla VCE non so quale caratteristica utilizzare, ma se mi
trovo nelle condizioni in cui l’effetto della dipendenza della corrente di base dalla VCE è trascurabile, la
caratteristica di ingresso è unica per qualunque valore della VCE e posso andare a risolvere la maglia di
ingresso con un metodo grafico.
Riporto sul piano IB-VBE l’equazione alla maglia di ingresso, la retta di carico, che intercetta l’asse delle
ascisse per VBE = VBB e l’asse delle ordinate per IB = VBB/RB.
Ho ottenuto la mia retta di carico e l’intersezione tra la retta di carico e la curva della caratteristiche di
ingresso del dispositivo mi va a determinare il punto Q di lavoro per quanto riguarda le grandezze di
ingresso, cosi da determinare i valori di IBQ e VBEQ. Le due incognite della porta di ingresso le poso
determinare quindi con un metodo grafico a patto che il dispositivo sia tale da avere le caratteristiche di
ingresso indipendenti dalla VCE.
Mi mancano i due parametri di uscita, posso realizzare il concetto di retta di carico nelle due caratteristiche
di uscita, ho la IC in funzione della VCE per vari valori della IB:
Ho una famiglia di curve, è inevitabile visto il comportamento del dispositivo, ma tra tute queste vado a
selezionare quella con IB = IBQ. Devo quindi prima aver risolto la maglia di ingresso, da quella ricavo IBQ (o
se funzione di VBE, VBEQ) e dopodichè dalla famiglie di curve seleziono quella corrispondente alle
caratteristiche di ingresso determinate.
Successivamente sullo stesso piano determino la retta di carico e in questo caso l’intersezione con l’asse
delle ascisse è VCC mentre quella con l’asse delle ordinate è VCC/RC e l’intersezione tra la retta di carico e
la curva corrispondente al parametro di ingresso determinato mi va a determinare il mio punto di riposo,
dato da ICQ e VCEQ. Ho 4 incognite determinate e quindi ho finito la mia analisi del circuito.
L’effetto Early lo trascuro nelle caratteristiche di ingresso, nelle caratteristiche di uscita non ho bisogno di
verificarlo. Il problema è per lo più legato al fatto di avere a disposizione le caratteristiche del dispositivo.
Esiste un metodo grafico semplificato, delle due caratteristiche di ingresso il costruttore non fornisce
tipicamente nessuna delle due o al massimo fornisce quella di uscita.
C’è la possibilità di semplificare la trattazione usando un metodo parzialmente grafico, la caratteristica di
ingresso è analoga alla caratteristica del diodo, faccio l’ipotesi che la caratteristica di ingresso non vari al
variare di VCE ma con l’ulteriore ipotesi che VBE quando sono in zona attiva diretta non si discosti da Vy più
di 0.1_0.15V.
A questo punto non mi serve neanche la caratteristica di ingresso, sono in grado di risolvere la maglia di
ingresso:
Se ipotizzo che la mia giunzione BE sia polarizzata in diretta e che la tensione ai suoi capi sia 0.7, dei 4
parametri uno l’ho già fissato e ciò mio consente di conoscere IB senza usare le caratteristiche.
Non uso più le caratteristiche e basta utilizzare l’equazione alla maglia, ora ho un’equazione e un’incognita.
Continuo a usare invece le caratteristiche di uscita.
Se faccio delle ipotesi iniziali sullo stato del transistore bipolare e sulla zona di funzionamento del BJT, le
equazioni di Ebers-Moll le posso semplificare.
In zona attiva diretta ho semplificato le equazioni di Ebers-Moll e ho ottenuto che Ic = Bf * IB.
Posso fare questo tipo di ragionamento per qualqunque zona di funzionamento del mio transistore.
Se sono in zona attiva diretta per l’NPN la giunzione BE è polarizzata in diretta
Questo è il mio modello, che deriva dalle equazioni di Ebers-Moll, se faccio queste ipotesi in zona attiva
diretta posso semplificare alcuni termini.
Se andiamo ad analizzare l’altra tipologia di configurazione, in zona di saturazione la giunzione BE è ancora
polarizzata in diretta quindi posso ancora sostituirla con il generatore di tensione però se guardo le
caratteristiche di IC in funzione della VCE le curve che si ottenevano sono :
Questo è il modello equivalente per grandi segnali dove il punto di partenza è sempre dato dalle equazioni
di Ebers-Moll. VCESAT è piccola perché è la differenza tra due tensioni polarizzate in diretta.
Questo per quanto riguarda NPN.
Per quanto riguarda PNP le considerazioni sono analoghe ma con l’attenzione ai versi delle correnti, ho
l’emettitore verso l’alto perchè è a potenziale più alto, ho la corrente da emettitore verso collettore, e si
muovono lacune, accolte dal collettore.
La corrente di base è uscente perchè deve fornire elettroni che entrano nella base quindi ho una corrente
verso l’esterno. Per il resto ho risultato analoghi:
Ho due generatori di tensione ma sono in zona saturazione e quindi BE e BC sono polarizzate entrambe
positivamente. BE è polarizzata direttamente e quindi ho il + verso l’emettitore e il – verso la base, le
caratteristiche del pnp sono nel terzo quadrante quindi la VCE è negativa e quindi la VEC è positiva, quindi
anche in questo caso il + è verso l’emettitore e il – verso il collettore.
Il modello ci consente di rendere lineare circuito, ho una linearizzazione del comportamento del
componente che è il transistore bipolare, quindi risolvo il circuito ma devo effettuare le verifiche perché
queste sono tutte ipotesi da verificare.
Se faccio l’ipotesi di zona attiva diretta devo fare la verifica sul parametro libero non fissato dal modello,
quindi la verifica da fare sarà sulla VCE. Devo determinare dal circuito IBQ, da questa la ICQ e quindi VCEQ e
se è maggiore di VCEsat ho verificato che sono in zona attiva diretta.
Per il PNP la verifica non è su VCE ma su VEC, oppure VCE <= -0.3V. (devo cambiare tutti i segni, le ho nel
terzo quadrante)
Se sono in zona di saturazione la verifica, siccome ho impostato la tensione VCE del modello, la verifica
viene fatta sulle correnti.
Verifico che la corrente non è così piccola come nella zona attiva diretta, ma grande, e la verifica andrà fatta
sulla iC rispetto alla iB. Se iC < Bf*IB, l’ipotesi di saturazione è verificata, stessa verifica in PNP dove iC e iB
prese in modo tale che siano entrambe positive con Bf positivo.
Nella zona di interdizione il dispositivo è spento, la zona attiva inversa invece non viene utilizzata
tipicamente nel campo analogico.
Abbiamo un generatore di segnale in più dove nella configurazione a emettitore comune viene applicato
alla base. La notazione VCC indica che il nodo è collegato al + del generatore di tensione VCC rispetto al
nodo in basso collegato invece al ground.
Andiamo a valutare il punto di riposo, considerando le condizioni quando disattivo il generatore di segnale
e mantengo i generatori costanti:
Se considero invece:
Applicando per esempio un generatore di tensione ad onda triangolare, il generatore si andrà a sommare
alla VBB:
Se considero l’intersezione tra la retta di carico con l’asse delle ascisse, prima il punto valeva VBB,
applicando una variazione di questo tipo allora l’intersezione varierà come indicato in figura, tra i due
estremi, e la stessa cosa accadrà all’intersezione con l’asse delle ordinate (che sarà data da (VBB + vi)/RB) e
quindi ottengo un fascio di rette parallele.
Ho una retta di carico che istantaneamente si muove, si determina l’intersezione delle rette con la
caratteristica e avremo la IBQ e la VBEQ che varieranno nel tempo.
Sovrapposto al valore medio IB che avevamo terminato, si va a sovrapporre un segnale variabile nel tempo,
ib, la cui somma ci da la corrente istantanea complessiva iB.
Questa variazione sulla iB si ripercuote anche sulle caratteristiche di uscita, la retta di carico resta costante
ma le caratteristiche che devo andare a considerare sono più di una, sono tutte le caratteristiche
nell’intervallo tra i due limiti iB1 e iB2.
Il punto di lavoro varierà sulla retta di carico nel tempo e mi dirà che la VCE di uscita sarà data da
VCEQ + vce. Applicando un segnale variabile in ingresso ho ottenuto un tensione di uscita variabile nel
tempo.
Se voglio usare il transistore in zona attiva diretta allora il punto di lavoro dovrà essere all’interno della zona
attiva diretta (dove ho le caratteristiche piatte o se abbiamo l’effetto early leggermente inclinate).
Devo però anche garantire che il transistore rimanga all’interno di quella zona quando viene applicato il
segnale stesso. Il punto di lavoro istantaneo si muoverà lungo la retta di carico e devo stare attento a fare in
modo che il transistore rimanga in zona attiva diretta anche quando è applicato il segnale di ingresso. Se
infatti esce dai limiti e trasla, per esempio andando a valere VCC, stiamo dicendo che IC = 0 e vce = VCC.
Non scorre quindi più corrente su Rc e il transistore si interdice in questo punto di lavoro, si spegne e non
risponde più a nessun segnale, vce rimane bloccata al valore VCC.
La stessa cosa accade se vado a raggiungere l’estremo opposto, a un certo punto il BJT entra in saturazione
e allora tutte le caratteristiche collassano e un segnale applicato alla corrente di ingresso di base non viene
recepito e il nostro transistore diventa un generatore di tensione costante, la tensione di uscita rimane
circa pari a VCEsat.
Devo stare attento al fatto che Q sia in zona attiva diretta e ci deve anche rimanere anche dinamicamente,
non deve finire in interdizione o in saturazione. Si parla di controllo della dinamica.
Non devono accadere cose di questo tipo:
Se scelgo in modo sbagliato il punto di lavoro (QA), ancora in zona attiva diretta, ma con una retta di carico
molto pendente (VCEQ molto vicina a VCC), segnali che tendono a spostarlo verso destra tendono a
mandarlo in interdizione. Nel caso in cui ho QB sono ancora in zona attiva diretta ma basta una variazione
verso sinistra molto piccola affinchè vada in saturazione.
La scelta solitamente fatta è quella di posizionare Q al centro delle caratteristiche, cosi da avere una buona
escursione positiva e negativa dei segnali senza rischiare che il BJT vada in interdizione e in saturazione.
Se andrà in quelle zone il segnale di uscita smette di essere triangolare e assume una forma diversa, si parla
di distorsione di uscita (es. ho un problema audio se il nostro amplificatore non è in grado di riprodurre una
replica perfetta in uscita del segnale di ingresso, potrà essere amplificata ma vogliamo che sia mantenuta la
tipologia di forma). E’ mantenuta se garantisco che il BJT non vada in saturazione o in interdizione.
Se faccio un ridimensionamento del circuito in modo tale che funzioni in zona attiva diretta e che ci rimanga
anche con l’applicazione dei segnali previsti, voglio che rimanga in quella posizione indipendentemente
dalle variazioni delle condizioni ambientali (per esempio la temperatura) e alle variazione dei parametri del
transistore (per esempio le variazioni di Bf).
Ci focalizziamo quindi sulla zona attiva diretta e abbiamo la necessità di fissare una corrente continua
costante di collettore o di emettitore che sia calcolabile, predicibile e poco sensibile a questa variazione,
requisito che deve essere soddisfatto da un circuito di polarizzazione.
Polarizzazione dei circuiti discreti
Supponiamo di comprare un transistore bipolare e vogliamo vedere come polarizzarlo correttamente.
Nel caos più generale, nella configurazione a emettitore comune posso avere 2 generatori con 2 resistenze,
ma tipicamente quando vado ad operare ho un'unica alimentazione, un unico generatore. Vediamo come
polarizzare correttamente il BJT avendo a disposizione un unico generatore di polarizzazione.
Posso prendere un unico generatore VCC a cui collego sia la resistenza RB che RC, usate per polarizzare il
BJT. Tipicamente il generatore di tensione indipendente non viene esplicitamente indicato ma si indica con
delle frecce, come in figura, dove la freccia indica il terminale + del generatore di tensione e ciò implica che
con questa configurazione il terminale – è attaccato al terminale di riferimento.
Questo è il circuito più semplice che possiamo pensare per polarizzare, dobbiamo determinare un
particolare valore per le nostre grandezze in modo che punto di lavoro si trova in zona attiva diretta.
Questo schema semplificato presenta però l’inconveniente di non garantire di ottenere buon punto di
riposo. Vediamo perché.
Ho quindi l’emettitore a GND, la base collegata a VCC tramite RB, il collettore collegato al + di VCC tramite
RC, e la polarizzazione viene detta a IB costante.
In questa tipologia di circuito, per risolvere devo fare delle ipotesi di lavoro. Se suppongo che il BJT sia in
zona attiva diretta, tra B e E c’è un generatore di tensione costante di valore pari a Vy. Quindi posso dire
che IB è pari alla differenza di potenziale applicata i capi della resistenza diviso la resistenza stessa, un nodo
è a tensione VCC e l’altro nodo è a tensione pari a Vy, quindi:
La IBQ è praticamente costante, infatti VCC è un generatore di tensione costante, RB è costante, Vy è la
tensione ai capi della giunzione che può non essere così costante ma se risulta essere trascurabile rispetto a
VCC posso dire che ho una corrente costante.
Se sono in zona attiva diretta posso dire che VBE = Vy e che :
Tra C ed E c’è un generatore di corrente controllato in corrente, mi accorgo che la mia corrente di collettore
che voglio costante mi dipende da un termine costante IBQ ma dipende anche da Bf che cambia anche tra
vari transistori che sono nominalmente uguali. Per Bf il costruttore ci da dei range, un valore minimo e un
valore massimo, e ciò varia fortemente in funzione del dispositivo che vado a considerare. Ho anche delle
dipendenze della temperatura in quanto può far cambiare anche af e quindi anche Bf.
Ho quindi un sistema di polarizzazione che non va bene, ottengo un valore di IC per un particolare valore
nominale di Bf ma se cambio BF allora Ic cambia allo stesso modo.
Questo polarizzatore consente di polarizzare quindi il BJT ma non garantisce di avere un punto di lavoro Q
indipendente dalle caratteristiche specifiche del mio BJT.
Posso allora pensare ad un altro schema in cui complico il circuito aggiungendo una resostenza R2 tra base
e terminale di riferimento. Si parla di polarizzazione a VBE costante.
La base è collegata tramite R1 a VCC e tramite R2 a GND. Quando si applica questo circuito e si va a fare
questo tipo di polarizzazione, R1 e R2 vengono scelte in modo tale che le due correnti i1 e i2 siano molto
maggiori di IB, che in zona attiva diretta tipicamente è dell’ordine del microA.
Tutta la corrente che scorre in R1 va a finire in R2, nella realtà una piccola parte andrà a finire nella base.
Quando si verifica questa condizione si parla di partitore pesante, (detto cosi perchè costituiscono un
partitore di tensione). Se trascuro IB è come se il nodo B fosse tagliato dal punto di vista delle correnti e:
VBEQ può essere considerata costante ma ancora una volta se ci fosse una piccola variazione della IB (che
può variare per esempio con la temperatura) ottengo una variazione della VBEQ e può accadere che piccole
variazioni della VBEQ si ripercuotono in modo esponenziale sulla ICQ,
Possiamo nuovamente fare una modifica e aggiungere una resistenza sull’emettitore, ottengono una
polarizzazione a 4 resistenze.
Il collettore è collegato a VCC tramite Rc, l’emettitore è collegato a GND tramite RE, la base è collegata a
VCC tramite R1 e collegata a GND tramite R2.
Con l’analisi che andremo a fare vedremo come l’inserimento di RE stabilizza il punto di riposo e consente
di ottenere un punto di riposo che risulta molto più stabile al variare della temperatura e dei parametri del
BJT, rispetto ai due precedenti schemi.
I due schemi precedenti vengono anch’essi usati ma non sono ottimali. Il circuito migliore per la
polarizzazione dei circuiti discreti a singolo generatore è questo.
Possiamo provare a semplificarci questo circuito facendo l’equivalente di thevenin del circuito visto dalla
base, apro il terminale di base e calcolo il circuito equivalente di thevenin relativo al generatore di tensione
VCC, la RS, R1 e R2. Il circuito sarà composto da un generatore equivalente di thevenin VBB e una resistenza
equivalente di thevenin RB.
VBB sarà pari alla tensione vuoto che misuro sul terminale di GND, ed è pari alla partizione di VCC su R1 e
R2.
La resistenza vista si ottiene invece disattivando VCC e quindi sarà semplicemente data da un parallelo.
Facendo l’equivalente Thevenin mi riporto a un circuito analogo a quello in cui avevamo 2 generatori di
tensioni, anche se VBB è ottenuta da VCC tramite R1 e R2.
Analizziamo il circuito facendo un’ipotesi sullo stato di funzionamento del transistore bipolare, l’ipotesi di
essere in zona attiva diretta. Sostituisco allora al posto del mio transistore il circuito equivalente:
Disegno tutti i componenti esterni al mio BJT, individuo i tre nodi del mio BJT e tra questi inserisco il circuito
equivalente per grandi segnali che posso utilizzare per questa regione di funzionamento.
Fra base ed emettitore inserisco il generatore di tensione costante pari a Vy, tra collettore e emettitore
inserisco il generatore di corrente controllato in corrente di valore pari a Bf * IB e dopodichè collego il resto
del circuito.
Sostituisco quindi il mio dispositivo non lineare con un circuito che mi consente di studiare il circuito
complessivo perchè composto solo da elementi con comportamento lineare.
Le nostre incognite sono, per determinare il punto di lavoro sono:
Troviamo invece gli altri tre parametri scrivendo le equazioni alle maglie:
1)
Dove abbiamo indicato con IB la corrente che entra nella base, IC la corrente che entra nel collettore e IE
col verso uscente (quindi i versi positivi della corrente).
La caduta ai capi di un generatore di corrente controllato in corrente, fornisce una corrente costante, ma
tensione ai suoi capi, VCE, è variabile:
2)
Mi serve ancora un’equazione. Abbiamo 3 incognite da determinare, IB, IC e VCE.
La terza equazione la posso andare a scrivere tenendo conto del nodo di emettitore, se faccio il bilancio
delle correnti al nodo di emettitore abbiamo:
3)
Risolviamo la prima equazione:
Quindi:
Ho risolto così il mio circuito e quindi il mio punto di lavoro applicando il mio modello semplificato.
Ora possiamo chiarire perchè questo circuito è migliore degli altri.
IBQ dipende da Vy e da Bf, ICQ dipende da Bf e quindi sembrerebbe che questo circuito non fornisca dei
vantaggi rispetto ai precedenti. Dobbiamo stare attenti però al fatto che il circuito a 4 resistenze fornisce
vantaggi, non sempre, ma solo nel momento in cui resistenze R1 R2 e RE vengono scelte opportunamente.
In tal caso il circuito di polarizzazione è in grado di fornire una corrente di collettore o di emettitore
indipendente dalle caratteristiche del dispositivo.. Noi ragioneremo su quella di emettitore.
Abbiamo ricavato che:
Quindi:
La corrente di emettitore è ben lontana da essere indipendente dalla caratteristica del dispositivo, troviamo
sia Vy che Bf, e se variano, IEQ varia.
Il problema non può essere eliminato del tutto ma può essere attenuato, facendo in modo che IE dipenda
poco dai parametri del dispositivo, cercando di soddisfare due condizioni.
Se valgono queste due condizioni la corrente di emettitore e, quindi, quella di collettore è determinata dai
componenti esterni collegati al transistore.
Se Vy è piccola rispetto a VBB il numeratore varierà poco e lo stesso se al denominatore RE è molto
maggiore di RB/(Bf+1), posso quindi trascurare Vy e il termine a denominatore.
Se posso trascurare quei due termini ottengo che la corrente di emettitore mi viene circa uguale a quel
valore. Quello che posso fare con il circuito di polarizzazione non è eliminare il problema ma posso fare in
modo che vi dipendano in modo limitato, con IE quasi indipendente da questi parametri.
Ricordiamo che la VBB è data dalla partizione della VCC attraverso R1 e R2(VBB = CCC * R2/(R1+R2)).
Quindi nell’espressione finale che si ottiene, la corrente di emettitore di riposo, circa uguale alla IC in zona
attiva diretta, è determinata solo da VCC, R1, R2 e RE.
Se riesco a soddisfare contemporaneamente queste due condizioni riesco ad ottenere un punto di lavoro
stabile. Vediamo se la prima si può ottenere:
Questa condizione assicura che piccole variazioni della VBE siano mascherate dalla VBB che è molto più
grande. VBB è data dalla partizione di VCC con R1 e R2, Vy non è molto grande, è circa dell’ordine di 0.7 V, e
dato VCC riesco a trovare una partizione di VCC tramite di R1 e R2 che mi sodisfa questa condizione in
modo non difficile.
Se la realizzo è vero che la VBE può variare ma di fatto queste variazioni vengono mascherate da VBB.
IE dipende da VBB – Vy e quindi se VBB >> Vy, anche se Vy cambia leggermente non me ne accorgo.
Abbiamo ciò guardando l’equazione alla maglia di ingresso e ciò significa che vado a trascurare la caduta su
RB rispetto all’altro termine.
Nella maglia di ingresso posso trascurare la caduta su RB rispetto a quella su RE. La condizione è
equivalente a quella di partitore pesante.
La differenza di potenziale tra body e ground, tensione di base VB, è pari a:
Ho la stessa cosa che accadeva col partitore pesante, ecco che la seconda condizione non è altro che quella
del partitore pesante scritta in un altro modo. Lì diciamo semplicemente che se le correnti in R1 e R2 sono
molto più grandi della corrente di base allora la tensione di base sarà circa uguale a VBB, serve scegliere
correttamente R1 e R2 in modo tale che il parallelo sia molto più piccolo, diviso per Bf + 1, di RE.
Se ciò è soddisfatto allora il partitore pesante è un buon modo di polarizzare, soddisfo una delle due
condizioni che mi portano alla indipendenza del punto di lavoro dalle caratteristiche del transistore.
Qualcuno si potrebbe chiedere perché questo circuito funziona meglio. Da un punto di vista analitico se
prendo VBB >> Vy e RE >> RB/(Bf + 1) ottengo che IE e quindi IC è determinata solo da parametri esterni al
circuito e quindi IEQ è uguale a quella quantità.
Quindi se scelgo opportunamente R1, R2 e RE ottengo una buona insensibilità del circuito. Ma cosa ha di
diverso questo circuito tanto da renderlo migliore rispetto a quello a tre resistente che faceva lo stesso il
partitore pesante? La presenza di RE, la resistenza aggiunta all’emettitore, posizionata in comune tra la
maglia di ingresso e la maglia di uscita, ho inserito infatti una resistenza in una posizione particolare.
E’ qualcosa che mette in comunicazione l’ingresso con l’uscita. Viene sfruttato in questo circuito e viene
detta resistenza di reazione, per il concetto di prendere parte del segnale di uscita e andarlo a riportare in
ingresso per confrontarlo con delle grandezze per ottenere un particolare comportamento.
Perchè mi stabilizza la IE? Se applico una modifica della grandezza che voglio stabilizzare, il circuito reagisce
riportandola al valore iniziale. Questo circuito è un circuito in cui RE stabilizza il valore della IE.
Supponiamo che IE aumenta per un qualche motivo (come per esempio l’aumento della temperatura), la
tensione VE tra emettitore e GND aumenterà perché banalmente data da :
VBE è la differenza di potenziale tra base ed emettitore, e se abbiamo soddisfatto le condizioni dette prime,
in particolare quella di partitore pesante, avrò che VB è circa uguale a VBB ma costante perché pari a VCC *
R2 / R1 + R2, anche se aumenta la temperatura non influisce su questi valori.
Ho una differenza tra una tensione costante e una che aumenta, quindi VBE diminuisce.
Infatti all’aumentare di IE, VBE diminuisce:
Ma per quanto riguarda la dipendenza tra IE e IC dalla VBE, è evidente dalle equazioni di Ebers-Moll, che
dipendono in modo esponenziale dalla VBE, se VBE diminuisce, IC e IE diminuiscono.
Ho un sistema in reazione perché se IE aumenta, la Ve è una tensione che è presente anche sulla maglia di
ingresso e questo mi fa diminuire la IE portandola a stabilizzarsi.
Si dice che Re introduce e un effetto di retroazione negativa che stabilizza la corrente di polarizzazione.
Determina il collegamento tra la porta di ingresso e quella di uscita e se IE tende ad aumentare, il circuito
reagisce in modo tale da portarla al valore iniziale e vale anche il viceversa se diminuisce.
Ho quindi un circuito molto più stabile, se R1, R2 e RE vengono scelte opportunatamente.
Ci saranno sicuramente delle cose da considerare per esempio sul molto minore e per esempio anche RC è
stata in realtà finora trascurata anche se influisce su altre specifiche del sistema, vanno quindi fatti dei
compromessi nella scelta ma bisogna guidarli in modo tale da ottenere il risultato migliore.
Per il transistore MOS abbiamo delle espressioni analitiche che ci consentono di risolvere il circuito in modo
semplice ma dobbiamo fare come sempre delle ipotesi sul transistore.
Consideriamo un MOSFET a canale N ad arricchimento, avremo una tensione soglia positiva, la corrente di
gate è sempre identicamente nulla, facciamo l’ipotesi che l’ossido di gate che separa l’elettrodo di gate dal
canale sia perfetto e privo di perdite (ci sono però dei modelli più raffinati che tengono conto di
comportamenti ad alta frequenza in cui questo non è poi così vero).
Abbiamo poi la condizione necessaria che deve essere verificata per avere la presenza del canale, ovvero
VGS >= VT, fondamentale per la presenza del canale.
Nella regione triodo abbiamo:
Se faccio l’ipotesi di essere in zona triodo allora sostituisco il comportamento del mio transistore
descrivendolo con questa equazione.
Nel caso di saturazione abbiamo:
Sia nella zona triodo che nella zona di saturazione il circuito equivalente consiste in questo circuito, che
prevede che il gate sia isolato, l’impedenza tra il gate e il drain e il gate ed il source è infinita.
Tra il drain e il source abbiamo poi un generatore di corrente controllato in tensione.
Noi lavoreremo quasi sempre in saturazione e quindi potremo usare questo modello.
Inoltre Is = Id, legato al fatto che la corrente di gate è identicamente nulla.
Si fa l’ipotesi che la corrente is che scorre è quella che scorre nel canale tra drain e source.
Nei modelli che usiamo trascuriamo la modulazione di canale, poniamo quindi lambda = 0, altrimenti avrei
dovuto avere una resistenza in parallelo.
Per il canale P dobbiamo fare la trattazione del tutto analoga stando attenti ai segni delle correnti e delle
tensioni:
In questo caso VT < 0, ho un MOSFET a canale P ad arricchimento, devo formare il canale delle lacune, devo
applicare una tensione negativa del gate rispetto al canale, quindi ho una tensione di soglia negativa.
La corrente di gate è nulla anche qui per lo stesso motivo, e stavolta l’espressione che crea il canale è quella
indicata, condizione che deve essere soddisfatta per avere il canale.
Anche in questo caso abbiamo le due regioni di funzionamenti, se faccio l’ipotesi di essere in zona triodo:
Ricordiamo che qui le tensioni avranno il loro segno quindi VGS sarà negativa, VT sarà negativa e VDS sarà a
sua volta negativa perché attira verso di sé le lacune, la corrente scorre da source verso drain, verso della
corrente positiva. Le cariche che si spostano da source verso drain sono lacune e quindi questo è il verso
della corrente.
Nel caso N la corrente va da drain a source perché si spostano elettroni mentre qui si spostano le lacune.
In zona di saturazione il tutto è analogo a prima, il gate è sempre isolato con la diversità che ho un
generatore di corrente ideale controllato in tensione, VGS e VT sono entrambe minori di 0, ma il tutto sarà
positivo e quindi avrò una corrente positiva e il verso del generatore è diretto dal source verso il drain,
verso opposto rispetto a quello precedente. Cambia il verso del generatore perché nel canale P sono
invertiti i segni delle correnti e delle tensioni.
Nel MOSFET dovrò fare le mie ipotesi di lavoro, ipotizzo per esempio di essere in saturazione e sostituisco il
mosfet con il circuito equivalente, risolvo il circuito e devo poi fare le verifiche finali.
Per NMOS se ho fatto l’ipotesi di essere in saturazione le verifiche sono due, anche se la prima è comune a
entrambe le zone (lo stesso vale per tutti gli altri). Dovrò verificare che VGS >= VT perché ho ipotizzato che
il mio MOSFET conducesse, si parla di verifica di conduzione, e l’altra ipotesi mi dice che effettivamente
sono in saturazione VDS >= VGS – VT, si parla di verifica di saturazione. Per VDS >= VGS – VT sono nella
situazione in cui il canale è in corrispondenza del drain, se supero questo valore di tensione il punto di
strozzatura arretra lungo il canale. In zona triodo, la prima verifica che va fatto riguarda il fatto di avere la
conduzione attraverso il nostro MOSFET, e poi abbiamo la verificata della zona triodo, la seconda. Entrambe
devono essere verificate perchè altrimenti ho sbagliato a risolvere il circuito oppure ho sbagliato ipotesi,
per esempio se la seconda non è verificata magari sono nell’altra zona.
Nel PMOS le espressioni sono uguali ma i versi delle disuguaglianze invertiti, vengono prese le tensioni con
il loro segno (VGS, VT, VDS negative). Per ricordarsi i segni corretti basta ricordarsi che uno funziona nel
primo quadrante e uno nel terzo quadrante.
Utilizzeremo quasi sempre quello in saturazione in ambito analogico trascurando l’effetto della
modulazione di canale dove il controllo della tensione è di tipo quadratico dalla tensione di overdrive.
Polarizzazione MOSFET
Vediamo come polarizzare il MOSFET in modo che sia in saturazione, nel punto in cui le caratteristiche sono
piatte, e come scegliere un punto di lavoro opportuno così da avere la polarizzazione tale da mantenere il
punto di lavoro in modo indipendente delle caratteristiche del mio dispositivo. Si parla anche qui di
polarizzazione di componenti discreti con un singolo generatore.
La polarizzazione dei transistori a effetto di campo si ottiene con reti molto semplici, grazie al fatto che
l’assorbimento di corrente da parte del gate è trascurabile.
Considerando una configurazione a source comune per il transistore MOSFET, trattazione analoga a quella
che abbiamo visto dove il ruolo dell’emettitore è preso dal source, abbiamo che la porta di ingresso è tra il
gate e il source, VGS, mentre la porta di uscita è compresa tra drain e source e abbiamo la tensione VDS.
Ho la corrente ID che scorre da drain verso source, mentre la corrente di ingresso è IG la prendiamo pari a
0, il che semplifica la trattazione del circuito, differenza rispetto al transistore bipolare.
Il nostro MOSFET non assorbe nessuna corrente dal terminale di gate.
Quanto vale la tensione fra gate e source? Il terminale di source è mantenuto a 0 quindi VGS non è altro
che la tensione ai capi di R2, che è data dalla partizione della tensione VCC tra la resistenza R1 e R2,
partizione che possiamo scrivere con l’uguale e non il quasi uguale perché la corrente di gate è proprio
nulla.
In un transistore bipolare abbiamo fatto l’ipotesi di partitore pesante per poter trascurare la corrente di
base, qui non ho da fare ipotesi aggiuntive e infatti ciò vale se iG = 0.
La VGS dipende esclusivamente dalla tensione VCC che ho applicato e dal partitore tra R1 e R2 e ciò
consente di polarizzare correttamente il MOSFET ma non è immune alle variabilità delle caratteristiche tra
un componente e un altro anche se sono nominalmente uguali.
Se prendiamo la trans-caratteristica e vediamo come varia la iD in funzione della VGS, e facendo l’ipotesi di
essere in saturazione abbiamo:
Troviamo delle curve di questo tipo:
I dispositivi hanno delle tensioni di soglia diverse tra di loro. Ho due MOSFET nominalmente uguali che
hanno due diverse trans-caratteristiche, se faccio una polarizzazione di questo tipo con VGS costante
ottengo in corrispondenza due valori di corrente che scorrono diverse.
Quindi avrei due punti di lavoro diversi l’uno dall’altro.
La polarizzazione VGS è costante, vediamo cosa accade se invece di usare questo circuito lo complico
aggiungendo sul source una resistenza Rs. Siamo ancora in una configurazione a source comune, ho una
resistenza a comune tra la maglia di ingresso e quella di uscita. Ritrovo la polarizzazione a 4 resistenze e
vediamo se anche in questo caso la soluzione ci consente di andare a diminuire la dipendenza del punto di
lavoro dalle caratteristiche specifiche di quel particolare MOSFET.
Risolviamo il circuito facendo l’ipotesi di essere in saturazione e sostituiamo il MOSFET con il suo circuito
equivalente oppure possiamo dire che utilizzo quella espressione equivalente di ID, o meglio di IDS.
La tensione sul gate è data dal partitore ma questa volta la tensione sul gate non coincide con la VGS,
dovuto al fatto che ho la Rs. Devo determinare le seguenti incognite : VGSQ, VDSQ e IDSQ.
La quarta grandezza sarebbe IGQ ma è identicamente nulla e questa ha come conseguenza che ID = Is.
Posso usare le equazioni circuitali e l’espressione che mi regola il comportamento del mio transistore in
zona di saturazione, posso scrivere l’espressione della VG, l’espressione della corrente e l’espressione alla
maglia, come indicate sopra.
Avremo che ID = IS e quindi posso scrivere quella espressione.
Se uso il modello semplificato con lambda = 0, unendo le due espressioni avremo:
Ho l’espressione solo in VGS che avrà due soluzioni possibili essendo una equazione di secondo grado, VGS1
e VGS2. Risolvo l’equazione di secondo grado e una volta ottenute le soluzioni faccio le mie verifiche.
Tra le due soluzioni, una non soddisferà la relazione VGS >= VT, abbiamo infatti un circuito con componenti
non lineari ma con caratteristiche monotone e si può provare che abbiamo un’unica soluzione.
Delle due soluzioni soltanto una soddisfa le ipotesi. Se le soddisfano entrambe c’è qualcosa che non va.
Dalle due soluzioni derivo la VGSQ in base a questo. Una volta ottenuta vado a sostituirla nell’equazione
della corrente e da questa ricavo la IDSQ.
Rimane da calcolare la VDSQ. Basta scrivere l’equazione della maglia di uscita:
dove la verifica VGSQ >= VT l’abbiamo già usata per scegliere una delle due soluzioni.
Ci possiamo quindi trovare nella situazione di dover andare a risolvere un’equazione di secondo grado.
Vediamo ora perché RS può dare dei vantaggi.
Se prendiamo la trans-caratteristica, se vado a riportare la retta VG = VGS + RS*ID ho una sorta di retta di
carico, con le corrispondenti intersezioni con i due assi.
Vediamo che i due punti di lavoro è vero che li abbiamo ancora distinti, non riesco ad annullare
completamente il problema della dipendenza dalle caratteristiche, ottengo ancora i due punti di lavoro ma
la differenza tra i due valori di ID è molto più piccola rispetto ai due casi precedenti.
Posso verificare quindi che aver inserito al resistenza di Source mi porta ad una minore dipendenza del
punto di lavoro dalle caratteristiche del dispositivo.
L’intersezione tra tale retta e la transcaratteristica individuerà il punto di riposo cercato.
Lo stesso effetto si può vedere anche in termini di reazione, Rs fornisce una reazione negativa.
Noi vogliamo un MOSFET che prevede una Id costante anche se sostituisco il MOSFET:
VGS si può scrivere come somma tra la differenza di potenziale tra il terminale di gate e quello di
riferimento e quello di source e quello di riferimento. VG è costante ed è la partizione di VCC tra R2 e R1 e
Vs è dipendente da Id, se Id aumenta la differenza mi farà diminuire VGS.
Ma se la VGS diventa più piccola, abbiamo una dipendenza di tipo quadratico e la Id diminuisce, ho una
reazione negativa. A un aumento della grandezza che voglio controllare, il circuito mi dà una variazione in
senso opposto, meccanismo che viene messo in atto dalla presenza di Rs, che mette in comunicazione
l’ingresso e l’uscita.
Possiamo concludere che Rs introduce un effetto di retroazione negativa che stabilizza la corrente di
polarizzazione. La resistenza Rs prende il nome di resistenza di degenerazione. Questo circuito riduce il più
possibile la dipendenza dal punto di lavoro, quindi della corrente di drain dalle caratteristiche del
dispositivo stesso.
Abbiamo quindi visto i modelli per grandi segnali del transistore bipolare e del transistore MOSFET,
sappiamo risolvere il circuito nelle condizioni di grandi segnali, dove rientrano tra queste ipotesi anche
quelle in cui abbiamo generatori indipendenti di valore costante.
La dipendenza della v1 dalla i1 e dalla v2 è data da questi parametri e lo stesso per quanto riguarda la i2 in
funzione di i1 e v2.
I parametri h sono detti ibridi perché non hanno tutti le stesse dimensioni, alcune impedenze, alcune
ammettenze e altri numeri puri.
E’ come se prendessi il mio quadripolo e prendere un generatore di corrente indipendente i1 e un
generatore di tensione v2.
E si parla di parametro reverse perché ho l’effetto della grandezza di uscita su una grandezza di ingresso,
direzione opposta da quella considerata forward.
E’ un rapporto tra tensioni quindi è un guadagno di tensione inverso valutato a circuito aperto.
h21 è invece il rapporto tra corrente di uscita e di ingresso quando l’uscita è in cortocircuito.
La f sta per forward, perché è il rapporto tra una grandezza di ingresso e una grandezza di uscita.
Si dice in cortocircuito perché lo è l’uscita.
h22 è invece il rapporto tra la corrente di uscita e la tensione di uscita valutate per i1 = 0.
Ho un rapporto tra una corrente e una tensione quindi ho un’ammettenza ed è di uscita quindi ho o che sta
per output ed è valutata a circuito aperto.
Li utilizzeremo per descrivere il comportamento linearizzato del BJT dove queste saranno le variazioni
all’interno del punto di lavoro.
Il comportamento del BJT nell’intorno del punto di lavoro può essere schematizzato tramite il modello a
parametri h dove questi parametri i1,v1,i2,v2 saranno le variazioni delle tensioni e delle correnti
nell’intorno del punto di riposo.
Si va ad aggiungere a questi parametri un altro pedice che tiene conto della configurazione del nostro
transistore. Se usiamo una configurazione a emettitore comune avremo il pedice ‘e’.
Nella figura circuitale sono disegnate le grandezze complessive ma qui avremo le nostre variazioni.
Quindi considerando per esempio una sola grandezza avremo:
Ho 4 grandezze che posso esprimere come somma di una quantità costante data dal punto di riposo, che
determino quando vs(t) = 0, più un termine variabile nel tempo.
Tutte le grandezze le potrò andare a scrivere in questo modo, tramite la somma di un termine costante e
un temine variabile nel tempo.
Ho anche le caratteristiche del mio dispositivo, con iB e VCE scelte come grandezze indipendenti:
Vado a fare ancora una volta lo sviluppo in serie di taylor, ho due espressioni più complicate dovuto al fatto
che ho funzioni in più variabili e quindi avrò la presenza di derivate parziali:
La funzione f è funzione della Ib complessiva e della Vce complessiva, quindi quando si fa la derivata
parziale avremo questo risultato. Quando faccio lo sviluppo in serie ho due variazioni di due parametri.
Lo stesso vale per la funzione g.
A questo punto applico l’ipotesi di piccolo segnale e i termini di ordine superiore possono essere trascurati.
Trascuro i termini di ordine superiore e avendo risolto il punto di lavoro posso anche semplificare i termini
a destra e a sinistra che coincidono:
La ICQ = g(IBQ, VCEQ) e quindi in modo analogo a ciò che avevamo ottenuto per il diodo otteniamo che le
variazioni:
E se sono sotto l’ipotesi di piccolo segnale vale questa approssimazione.
Ma se la confrontiamo con il modello a parametri h da cui siamo partiti avremo:
Quindi ottengo:
dove per ogni termine considero che la funzione coincide con la VBE o la Ic rispettivamente.
Notiamo come dobbiamo stare attenti a distinguere la hfe dalla hFE, distinguendo il parametro per piccoli
segnali con la Bf.
Trovo l’espressione dei parametri, che sono differenziali e valgono quindi nell’intorno del punto di riposo,
che mi permettono di effettuare una linearizzazione.
Possiamo rappresentare il quadripolo lineare con un circuito equivalente:
La porta di ingresso sarà data da hie * ib e quindi hie è una resistenza su cui scorre ib e in serie a questa
resistenza c’è un generatore di tensione controllato in tensione.
Se scriviamo l’equazione alla maglia di ingresso troviamo la prima equazione.
Abbiamo hfe * ib quindi un generatore di corrente controllato in corrente, e poi abbiamo un’ammettenza in
parallelo. La ic complessiva sarà data da una corrente che scorre nel generatore di corrente e un termine
dato da vce * hoe.
Considerando ancora una volta le caratteristiche di ingresso, possiamo determinare la hre, la variazione
della vbe determinata da una variazione della vce.
La derivata parziale può essere scritta come limite del rapporto incrementale, valutato nel punto di riposo.
Dalla definizione, hre può essere approssimato con il rapporto tra la variazione della VBE e quella della VCE,
per IB costante e pari al valore di riposo.
Questa ripercussione delle variazioni della VCE sulla VBE è possibile per via dell’effetto Early.
Graficamente devo disporre delle caratteristiche di ingresso al variare della VCE, se ho la caratteristiche di
riferimento con VCE = VCEQ posso applicare un delta VCE, applicandolo in modo simmetrico intorno al
punto di riposo.
Distribuisco quindi la variazione attorno a VCE:
E’ evidente che il valore di hre è collegato all’effetto Early e abbiamo visto che questo effetto sulle
caratteristiche di ingresso è piccolo e quindi hre sarà piccolo, molte volte saremo autorizzati a prenderlo
circa uguale a 0.
Anche per la hfe posso calcolare il rapporto incrementale valutato per VCE = VCEQ.
Vado sulle caratteristiche di uscita, ho la mia caratteristica di riferimento per IB = IBQ e applico una
variazione della IB in modo simmetrico come abbiamo fatto prima.
Applicando una variazione della corrente di base pari a delta IB e determino altre due caratteristiche,
traccio la retta verticale con VCE = VCEQ e vado a determinare i due punti di intersezione della VCE costante
con le due caratteristiche, ottenendo una variazione della corrente IC e potendo valutare quindi deltaIC.
Posso calcolare quindi hfe:
Quando determino variazione della corrente di base ottengo come varia la corrente di collettore
corrispondente, variazione data da hfe, guadagno dinamico del mio amplificatore.
Abbiamo così determinato i parametri utilizzando la caratteristica di ingresso per hie e hre e la caratteristica
di uscita per hfe e hoe, con hre e hoe che tengono conto dell’effetto Early.
La procedura grafica per determinare questi valori è complessa nell’applicazione pratica, devo disporre
delle caratteristiche del dispositivo che prendo in considerazione e calcolare la variazione col righello,
inoltre quanto grande prendo la variazione da applicare? La determinazione grafica dei parametri del
modello non viene di fatto mai fatta.
hoe può quindi essere calcolato come il rapporto tra il cateto orizzontale e il cateto verticale.
Se il costruttore mi ha fornito il valore della tensione di Early e ho determinato il mio punto di riposo, posso
allora determinare hoe.
In particolare per quanto riguarda il reciproco di hoe, quindi il valore della resistenza, considerando che la
VA è tipicamente molto maggiore della VCEQ (VA presa in modulo), diventa molto elevato, dell’ordine di
qualche kOhm:
Se questa resistenza risulta essere più grande di altre resistenze presenti nel circuito in parallelo a questa,
molte volte posso trascurarla, considerando 1/hoe infinta e quindi hoe = 0.
A seconda dei casi posso decidere di trascurare il valore della resistenza e semplificare il circuito
equivalente, ma mentre la condizione hre = 0 è facile che sia soddisfatta, in questo caso devo dare prima
un’occhiata al circuito. Per i transistori BJT tipicamente questa semplificazione viene applicata.
Per la hfe posso fare l’ipotesi di aver polarizzato il transistore in zona attiva diretta, e ciò mio comporta che
posso esprimere un legame semplice tra la corrente di collettore e la corrente di base:
Non posso semplicemente dire che il mio guadagno per piccoli segnali del mio transistore coincide con il
guadagno statico del transistore.
Questa espressione è errata, è corretta solo se Bf è costante. In realtà non è così, se esprimiamo
l’andamento di Bf in funzione della corrente di collettore otteniamo un andamento di questo tipo:
mi accorgo che la curva non è costante, Bf è funzione della IC, che è una funzione della IB e quindi:
Quindi quando vado a fare la derivata devo calcolare la derivata di un prodotto di funzioni:
A avendo a disposizione il grafico della Bf rispetto a Ic, e conoscendo quindi la derivata di Bf rispetto a Ic
posso esprimerla come indicato nella seconda uguaglianza.
Quindi non è solo pari a Bf ma abbiamo un termine aggiuntivo, e avendo due termini uguali a destra e a
sinistra, semplificando otteniamo:
Posso quindi concludere che:
Supponiamo di conoscere quel grafico e aver determinato il valore di Bf nel punto di riposo, BfQ, e conosco
quindi la ICQ, devo calcolare allora la pendenza della curva nell’intorno del punto di riposo.
Sembrerebbe di dover applicare un metodo grafico anche in questo caso, ma in realtà se siamo fortunati e
ci troviamo in una zona della caratteristica in cui la pendenza è piuttosto piccola, si può dire che;
E’ una condizione in cui mi metto a lavorare ma non sempre dispongo del grafico e quindi non ho altre
possibilità che andare a valutare sul data sheet se è riportato un valore di hfe per un particolare punto di
riposo e usare quel valore per qualunque punto di riposo oppure se riportato Bf per un qualunque punto di
riposo e fare l’ipotesi che hfe è circa uguale a Bf.
Questa ipotesi di lavoro è verificata solo nel caso in qui Bf è costante, ma nella maggiorparte non è
verificata, in alcuni casi dobbiamo farla ma è importante ricordare che questa è un’approssimazione.
Ma se avessi a disposizione il grafico potrei andare a determinare la derivata della Bf rispetto a Ic.
La hie invece, è una resistenza differenziale di ingresso e molte volte espressa come somma di due termini
in molti data sheet, somma di due resistenze.
Per capire perché ciò accade riprendiamo lo schema fisico reale del nostro transistore bipolare.
Abbiamo preso come modello equivalente nelle equazioni di Ebers-Moll quello di tre strati di
semiconduttori, cosa che nella realtà troviamo solo sotto la zona sotto l’emettitore.
Però i nostri terminali che indichiamo come direttamente collegati alla base e al collettore nello schema,
nella realizzazione reale non sono collegati direttamente ai nostri terminali, tra la posizione del collettore e
la zona di substrato di tipo n vi è una certa distanza, lo stesso per la base.
Posso quindi individuare un collegamento B’ e nello schema di Ebers-Moll il terminale indicato non è altro
che il terminale fittizio B’ che abbiamo indicato in figura.
Tra il terminale di base esterno e quello interno c’è un certo percorso e avrò una certa resistenza dovuta al
semiconduttore p, che ha una certa resistività. Per questo motivo la hie viene scritta come somme di due
termini:
La rbb’ non è altro che la resistenza fornita dal semiconduttore della base, che esiste tra il terminale
esterno della base e la zona della base interna in cui abbiamo l’iniezione di portatori da parte
dell’emettitore.
E’ una resistenza costante, data dal passaggio della mia corrente di base attraverso un semiconduttore di
una certa resistività, non può variare al variare della VBE, dipende dalla distanza del terminale esterno della
base e la zona della base.
Il termine che invece varia e tiene conto della variazione della Ib rispetto alle variazioni della Vbe è rb’e.
E’ la resistenza differenziale che avevo nel diodo e mi dipende dal punto di lavoro.
Sostanzialmente se vado a riprendere le caratteristiche di ingresso, se le esprimo correttamente, quelle
sono in realtà caratteristiche della Ib in funzione della VB’E e non della VBE perché il modello di Ebers-Moll
che mi da le caratteristiche di ingresso sono relative alla considerazione di un contatto direttamente
collegato alla zona in cui transitano i portatori.
Quindi se vado a prendere le equazioni di Ebers-Moll e le vado a semplificare in zona attiva diretta, queste
dono in funzione della VB’E, e nel secondo circa uguale posso prendere alphaF circa uguale a 1.
Essendo in zona attiva diretta posso quindi considerare, sostituendo a Ic il valore ottenuto:
Il modello di Ebers-Moll è quindi riferito al terminale B’E e non a Be.
Avendo questa espressione della IB in funzione della VB’E posso calcolare la derivata della IB rispetto a
VB’E, ottenendo quindi il reciproco di rbe, che è la parte variabile.
Devo anche ricordarmi nel calcolo della derivata che Bf non è costante ma dipende da IB che dipende da
VB’E:
Per poi scrivere che la derivata della ic rispetto alla VB’E mi dà un altro ic/VT, e mettendo in evidenza:
Notiamo che il termine tra parentesi è lo stesso termine che abbiamo a denominatore di hfe.
E quindi:
La trattazione fatta è valida in zona attiva diretta e ci dice che la rb’e la posso determinare a prescindere
dalla conoscenza delle caratteristiche del dispositivo, una volta determinato quanto vale hfe e il punto di
riposo, ho noto anche questo valore.
La resistenza rbb’ è una quantità che dipende da come è stato realizzato il dispositivo invece, o ce la
fornisce il costruttore o non siamo in grado di determinarla.
Sappiamo anche che se non lo fornisce, comunque rbb’ << rb’e, mentre rb’e è dell’ordine del Kohm rbb’ è
dell’ordine dell’ohm.
Se questa grandezza mi viene fornita dal costruttore, tipicamente ciò significa che ha fatto le misure per un
particolare punto di riposo.
Se il costruttore fornisce i parametri per un particolare punto di riposo si può determinare il valore di rbb’
considerando che tale resistenza è indipendenza dal punto di riposo.
Supponiamo che il costruttore mi fornisce hie*, valore determinato per un particolare punto di riposo.
Se conosco questo valore, nel punto di lavoro fornito posso calcolare rb’e*, quantità data da
Ma dall’analisi fatta rbb’ non dipende dal punto di riposo e quindi rbb’* = rbb’ che è costante, quindi dai
dati del costruttore, se mi fornisce il valore dell’hie per un particolare punto di riposo sono in grado di
calcolarmi la rbb’ e quindi ho terminato.
Ottenuti i parametri possiamo quindi ottenere il modello linearizzato per piccoli segnali semplificato,
trascurando la presenza dell’hre e dell’hoe, quindi non ho la resistenza in parallelo al generatore e non ho il
generatore di tensione controllato in tensione.
Ho quindi una resistenza in ingresso pari a hie o divisa in due contributi e posso alcune volte trascurare rbb’
rispetto a rb’e, che dipende dalla hfe che è circa uguale a Bf sotto opportune ipotesi in cui mi trovo a
operare. In uscita ho quindi solo il generatore di corrente controllato in corrente.
Abbiamo visto come il BJT è molte volte assimilabile a un generatore di corrente controllato in corrente se
lavora in zona attiva diretta. In realtà se scriviamo le equazioni di Ebers-Moll poso esprimere la dipendenza
della Ic in funzione della Vb’e e molto spesso per il BJT si adopera un altro circuito equivalente.
In ingresso non cambia nulla, ma viene indicata la tensione ai capi della rb’e. In uscita il generatore di
corrente sul terminale di uscita è un generatore di corrente controllato in tensione, questo perché il BJT
può essere visto come un generatore di corrente controllato in corrente se la quantità di controllo è la iB o
come un generatore di corrente controllato in tensione se la quantità di controllo è la vb’e.
La gm è una conduttanza e lega la corrente di uscita alla tensione di ingresso.
considerando che vb’e è pari alla caduta della ib sulla rb’e. Quindi otteniamo esprimendo la rb’e:
E semplificando:
Questo schema viene molto spesso utilizzato perché ottengo un circuito confrontabile in modo diretto con
un transistore MOSFET, gm inoltre non dipende da nessun parametro differenziale e quindi facile da
determinare, posso quindi determinare la sua dipendenza diretta dalla corrente di collettore.
Per il transistore PNP non abbiamo la necessità di dover rifare tutto, in quanto il modello per piccoli segnali
dell’NPN è esattamente uguale al modello per piccoli segnali del PNP. Il modello è esattamente uguale nei
due casi, mentre per il punto di riposo dobbiamo stare attenti che abbiamo tensioni e correnti di verso
opposto, per quanto riguarda i parametri differenziali non devo tener conto di questa differenza ma i due
modelli sono perfettamente equivalenti e i 4 parametri sono tuti positivo e il circuito equivalente è lo
stesso.
I parametri differenziali sono infatti delle pendenze delle rete tangenti o inclinazioni delle caratteristiche e
se prendiamo le caratteristiche la differenza è che una si trova nel primo quadrante e l’altra nel terzo
quadrante, ma le pendenze sono positive in entrambi i casi e valutando i rapporti incrementali i delta sono
entrambi positivo nell’intorno del punto di lavoro, anche se il punto di lavoro in un caso è positivo e in un
altro negativo, ho il rapporto tra due quantità dello stesso segno, i parametri differenziali sono quindi tutti
positivi e tutti con lo stesso segno. Il circuito equivalente è lo stesso.
La cosa può essere dimostrata anche circuitalmente. Se prendo infatti il NPN ho la corrente Ib positiva
entrante a cui applico una corrente costante con sovrapposta una piccola variazione funzione del tempo e
quindi la corrente complessiva sarà data dalla somma delle due quantità.
Applico una variazione di una corrente entrante nel dispositivo e la corrente complessiva, come vediamo
circuitalmente, aumenta. Ma se aumenta la IB essendo in zona attiva diretta deve aumentare anche la IC
complessiva, quindi alla mia ICQ gli si va a sommare una quantità variabile ic nello stesso verso, la iC quindi
sarà uguale alla parte del guadagno statico più la parte del guadagno variabile, con Bf e hfe nominalmente
diversi e poi in alcuni casi considerabili come uguali.
Nel PNP i versi delle correnti positivi sono corrente ib uscente e corrente ic uscente.
Se applico una variazione ib nello stesso verso di prima, considerandola quindi entrante, la iB diminuisce
quindi sarà data da IBQ - ib.
La corrente di base diminuisce e quindi la iC complessiva diminuisce, c’è un Bf che le lega tra di loro, e
quindi la iC complessiva sarà data dalla ICQ meno una certa variazione, una corrente entrante, esprimibile
come segue:
Nell’NPN una corrente variabile in ingresso che determina una corrente variabile in ingresso anche per
quanto riguarda la Ic.
Nel PNP una ib entrante mi ha determinato una ic entrante, è vero che il segno è diverso ma se mi limito a
valutare il legame tra ib e ic ottengo lo stesso comportamento.
Se applico una corrente ib variabile entrante ottengo corrispondentemente una corrente ic variabile in
ingresso. L’effetto delle variazioni è esattamente lo stesso nei due casi, altra giustificazione che i due circuiti
equivalenti per le variazioni sono uguali, non lo sono invece quelli del punto di riposo.
Possiamo quindi riassumere dicendo che per ampi segnali l’NPN e il PNP hanno un modello diverso.
Dopo aver determinato il punto di lavoro e quindi il valore di ICQ, VCEQ, IBQ e VBE sono in grado di
determinare i parametri h e dopodichè il circuito per piccoli segnali è unico dove ho una resistenza tra base
ed emettitore e un generatore di corrente controllato in corrente tra collettore ed emettitore, con i versi
che devo usare indicati in figura, per le variazioni il verso delle correnti è lo stesso, utilizzo lo stesso identico
circuito equivalente.
Ammettendo tutto questo anche la IDS sarà data da una sua componente costante e una componente
variabile. Posso fare lo sviluppo di Taylor della corrente nell’intorno del punto di lavoro:
I termini di ordine superiore vengono trascurati con l’ipotesi di piccolo segnale, e possiamo inoltre
semplificare i termini a destra e sinistra coincidenti, ricavando che:
Ho due termini che tengono conto di come la corrente di drain dipende dalla tensione di gate e di come
possa dipendere anche dalla tensione di drain nel caso in cui sia presente l’effetto di canale corto.
Il che porta a esprimere il terminale equivalente come segue:
Abbiamo la nostra trans-conduttanza anche nel caso di piccolo segnale, in lettere minuscole perché si tratta
di una trans-conduttanza differenziale, valutata nel punto di lavoro, dipende dal punto di riposo.
L’altro termine tiene conto della dipendenza dalla vds.
Il circuito equivalente per piccoli segnali è allora il seguente:
Il terminale di gate è isolato anche nel caso di piccoli segnali, questo perché stiamo trascurando l’effetto
delle capacità, ipotizzando di lavorare in situazioni in cui le capacità intrinseche vengono considerati come
circuiti aperti, quindi il gate è isolato da drain e source.
Il drain è invece collegato al source da un generatore di corrente controllato in tensione.
Il termine rd è una resistenza che tiene conto dell’effetto di canale corto e risulta essere infinita nel caso in
cui lambda = 0.
Calcolandola esplicitamente:
Il valore successivo al fattore 2 non è altro che la corrente / VGS-VT, quindi posso scriverlo in quel modo.
Risolto il punto di lavoro posso automaticamente determinare il valore di gm.
A dipendere da VDS è solo lambda. Se guardiamo l’espressione, posso esprimerla in funzione della
corrente. Inoltre nel caso in cui 1/lambda >> VDSQ, quindi le caratteristiche sono poco piegate infatti
1/lambda che è l’intercetta delle caratteristiche con l’asse delle ascisse è >> VDSQ, posiamo fare un
ulteriore semplificazione.
Se lamba = 0, il termine 1/rd è nullo e quindi rd è infinita.
Il valore di lambda deve essere fornito dal costruttore perché dipende da come viene realizzato il
dispositivo e da come ho sclelto il valore di L, parametro scelto dal progettista.
Per semplicità considereremo rd->inf anche se poi nella realtà si deve considerare la sua presenza.
Questo è il circuito semplificato in cui non prendiamo in esame la presenza di rd.
Per il PMOS i due circuiti equivalenti per piccoli segnali coincidono.
Si può vedere analiticamente notando che gm è il rapporto tra due quantità o entrambe negative o
entrambe positive e quindi viene positiva in entrambi i casi.
Oppure si può dimostrare considerando che se abbiamo una tensione positiva la VGS aumenta perché
aumenta la tensione sul gate e quindi una VGS che aumenta mi fa aumentare la corrente, avremo una
componente IDQ fissa più una componente variabile concorde al verso di IDQ, la corrente quindi aumenta.
Qui sto facendo l’ipotesi di lamba = 0 per semplicità. Abbiamo che con VGG intendiamo VDQ nel circuito.
Un generatore positivo applicato sul gate mi da una corrente positiva sul drain.
Nel MOSFET a canale P se applico una tensione con questa polarità succede che in questo caso la tensione
sul gate, VSG, va a diminuire, i due generatori ora sono di polarità opposta, vgg variazione va a sottrarsi a
VGG, quindi la tensione di pilotaggio diminuisce, quindi la corrente deve diminuire e ho quindi una
componente complessiva data dalla somma di una componente costante e una componente variabile di
valore opposto alla IDQ.
Ottengo come effetto una corrente di drain variabile che entra sul drain.
Quindi da un punto di vista della corrente complessiva, alla componente costante data dal generatore VGG
si va a sottrarre una componente VGG.
Per calcolare gm*vgg che si va a sottrarre posso usare lo stesso circuito equivalente, perché anche qui
ottengo una corrente variabile entrante nel drain.
Nei circuiti a grandi segnali, quindi analisi nel punto di riposo, dobbiamo stare attenti che invece la corrente
del MOSFET a canale N scorre da drain verso source, mentre nel canale P scorre da source verso drain.
Ma durante l’analisi di piccolo segnale i due circuiti sono equivalenti, dove considero la corrente di drain
sempre entrante dal drain e un unico generatore di valore gm*vgs con il parametro gm sempre maggiore di
zero. Quindi per questo motivo nel caso di lambda= 0, gm si può scrivere anche come:
Questo perché nella corrente c’è VGS-VT al quadrato e quando estraggo la radice ottengo due soluzioni,
diverse a seconda se sono nel NMOS o PMOS ma se faccio il circuito equivalente per piccoli segnali per gm
basta prendere il modulo, nel NMOS entrambi sono positivi e nel PMOS sono entrambi negativi.
Amplificatore
Vediamo quali sono le configurazioni elementari che ci consentono di utilizzare i BJT e i MOSFET per
realizzare degli amplificatori, circuiti che sono in grado di amplificare il segnale.
Distingueremo i circuiti che sono in grado di fornire amplificazione di tensione da quelli che forniscono
amplificazione di corrente, ma basandosi su componenti attivi (MOSFET e BJT) sono in grado di fornire al
carico un guadagno di potenza.
L’amplificatore è schematizzabile come una scatola chiusa, con due porte, dove in quella di ingresso
mettiamo il generatore di segnale in serie una resistenza e un carico sulla porta di uscita, resistenza su cui
vogliamo fornire il segnale,
L’amplificatore viene posto tra il segnale e il carico e avrà al suo interno un circuito abbastanza complesso,
in grado di fornire un guadagno di potenza perché collegato all’alimentazione, potendo quindi trasferire al
carico un maggior contenuto di potenza.
I parametri descrittivi dell’amplificatore sono i seguenti:
Se Ai > 1 avrò un’amplificazione di corrente, altrimenti avrò un’attenuazione di corrente, lo stesso per gli
altri.
Per il guadagno di tensione si considera il caso in cui il carico non è applicato (quindi RL->inf), mentre con il
carico applicato avremo un’espressione diversa.
Tipicamente si ipotizza che non sia applicato nessun carico per dare un valore indipendente dal carico
stesso e quindi si definisce così.
La resistenza di ingresso è quello che si vede andando a guardare all’interno della porta di ingresso del mio
amplificatore.
Mentre Ro è la resistenza che si vede guardando dentro la porta di uscita, considerando vs = 0, devo infatti
disattivare il generatore di segnale di ingresso.
Questi parametri permettono di identificare le specifiche dell’amplificatore.
Noti questi parametri, la mia scatola può essere sostituita da un circuito equivalente di questo tipo:
In questo circuito la porta di ingresso viene sostituita con una resistenza e quella di uscita viene
schematizzata con un generatore di tensione controllato in tensione con in serie una resistenza.
In alternativa si può avere un generatore di corrente controllato in corrente al posto del generatore di
tensione controllato in tensione, con in parallelo Ro (quindi come se facessi l’equivalente di thevenin e
norton).
Se conosco i parametri posso schematizzare l’amplificatore in questo modo dimenticando com’è fatto
realmente l’amplificatore al suo interno.
Un amplificatore può essere infatti realizzato medtante più transistori al suo interno collegati tra di loro.
Noto questo si va a fare l’analisi in AC, a media frequenza, detta così perché viene fatta a quelle frequenze
per le quali i condensatori presenti nel circuito esterni al mio dispositivo possono essere considerati
cortocircuiti e le induttanze dei circuiti aperti.
Disattivo i generatori di valore costante, sostituisco induttanze e condensatori, sostituisco i componenti non
lineari con il loro modello per piccoli segnali e trascuro la presenza dei cosiddetti condensatori intrinseci.
Infatti nella realtà abbiamo la presenza di capacità perché il BJT per esempio, ha due giunzioni ad ognuna
della quale viene associata una capacità e quindi ho la presenza di due condensatori nel dispositivo, nella
nostra analisi non consideriamo i condensatori.
Considero il comportamento dell’amplificatore quindi per frequenze per cui questi condensatori possono
essere considerati circuiti aperti.
A questo punto risolvo il mio circuito e determino i parametri del mio amplificatore.
La sequenza di operazioni va seguita in quest’ordine perchè per determinare i componenti del modello
linearizzato devo aver risolto il punto di riposo, perché dipendono dal punto di riposo.
Vediamo adesso alcune configurazioni, due per il BJT e due per il MOSFET.
Vediamo adesso il caso più semplice con gli amplificatori a singolo stadio, quindi con un singolo
componente attivo al suo interno.
Abbiamo il BJT con il suo circuito di polarizzazione a quattro resistenza, collegata alla nostra tensione VCC.
Valutiamo la polarizzazione a componenti discreti, quindi un amplificatore a componenti discreti con
singola alimentazione di cui abbiamo già valutato il punto di riposo e abbiamo visto che per stabilizzare il
punto di riposo è opportuno utilizzare questa configurazione.
Per applicare il segnale viene molto spesso fatto un accoppiamento tramite un condensatore, in molti casi il
segnale che sarà variabile a una certa frequenza, viene applicato tramite un condensatore, perchè si vuole
in far modo che la resistenza interna al generatore di segnale che qui non è rappresentata, si vuole che il
generatore non vada a influire sul punto di riposo.
Se io collegassi direttamente Vs con la resistenza Rs in serie senza C1 allora Rs influenzerebbe il valore del
punto di riposo, devo infatti cortocircuitare Vs e Rs verrebbe in parallelo a R2
Questo comporterebbe che cambiando generatore di segnale otterrei un punto di lavoro sempre diverso.
Accoppiando con un condensatore ottengo come effetto che il mio punto di riposo è indipendente perché
quando sono in continua ho un circuito aperto al posto del condensatore, con l’accortezza che il
condensatore deve essere scelto di valore opportuno in modo tale che alla frequenza del mio segnale VS
questo condensatore risulta essere un cortorcuito.
In questo caso alla frequenza del segnale C1 è un cortocircuito e quindi Rs viene applicato correttamente
alla base.
Nella configurazione a emettitore comune il segnale viene applicato al terminale di base del amplificatore,
mentre la tensione di uscita viene applicata sul collettore tramite molto spesso un carico che qui non è
disegnato.
Anche questo è accoppiato tramite il condensatore, proprio perché si fa in modo che RL non vada a
interferire con il punto di lavoro, questa configurazione consente di applicare un carico e il mio segnale in
modo tale da non influenzare punto di lavoro.
Il punto di lavoro viene determinato in modo indipendente, lo stabilizzo scegliendo opportunatamente
R1,R2 e RE e dopodichè applico il segnale alla base tramite i condensatori C1 e C3, che prendono il nome
per la funzione che svolgono di condensatori di accoppiamento, perchè consentono di accoppiare il
segnale alla base, e il carico al collettore.
Se voglio valutare il comportamento senza resistenza di emettitore dal punto di vista del segnale, posso
metterci in parallelo il condensatore C2 che sarà scelto in modo tale da essere considerato alla frequenza
del segnale un cortocircuito, chiamato condensatore di bypass per questa funzione.
Ammettendo che questa è la nostra configurazione, dobbiamo innanzitutto trovare il punto di riposo:
A frequenza nulla, quando abbiamo un generatore di tensione non variabile nel tempo, abbiamo il
condensatore come circuito aperto. Quindi mi riporto al circuito che abbiamo già studiato e determino il
punto di riposo.
Posso allora determinare i valori dei parametri h.
Questo in linea teorica, molte volte possiamo fare le solite semplificazioni.
Successivamente posso fare l’analisi in media frequenza:
Faccio l’ipotesi che i condensatori di accoppiamento e di bypass siano cortocircuiti proprio per la loro
funzione, quelli di accoppiamento devono fare passare il segnale e quelli di bypass devono bypassare dei
componenti, il segnale passerà attraverso il condensatore e non tramite la resistenza.
Vado a sostituire al BJT il suo modello per piccoli segnali, utilizzeremo il modello semplifcato con hoe = 0 e
hre = 0 e quindi quello che si ottiene è il seguente circuito:
Parto da VS, incontro R2 che collega la base a GND e la base collegata a VCC tramite R1, ma VCC = 0, ho
quindi un cortocircuito e quindi è come se in terminale in alto fosse a ground, quindi R1 collega la base a
ground in termini di segnale e quindi in parallelo a R2, dopo individuo i 3 terminali BCE e sostituisco a questi
tre il mio circuito equivalente semplificato. L’emettitore è collegato al terminale di riferimento tramite il
parallelo di C2 ed Re, ma C2 è un cortocircuito e quindi ho il collegamento al riferimento, poi il terminale C
è collegato alla resistenza Rc, poi C3 è un cortocircuito e quindi la differenza di potenziale è pari a vo.
A questi punto questo è il mio amplificatore di cui ora si possono calcolare i vari parametro.
Dato il circuito equivalente, la resistenza di ingresso e di uscita possono essere calcolate in varie sezioni del
circuito, posso valutarla come Ri a monte di hie o a monte del parallelo, ho due possibili definizioni.
Lo stesso per Ro, che posso valutarla sia a valle del generatore di corrente controllato in corrente, o a valle
di Rc includendo anche la resistenza di polarizzazione.
Uno stadio a emettitore comune come quello in figura è in grado di fornire un’amplificazione di corrente
non trascurabile, considerando che hfe è pari a una centinaia.
Poi come guadagno di tensione prendendo vo, e per vi prendo quella di ingresso pari a vs:
La resistenza che vedo a monte di hie in uno stadio a emettitore comune senza la resistenza di emettitore è
pari a hie.
Ri’ sarà dato dal parallelo di hie con R1 e R2.
La resistenza che il generatore vs vede è data da questo valore. Vediamo le resistenze di uscita.
La ro è il rapporto tra la vo e io, valutata quando vs = 0.
Se vs = 0, la corrente iB è nulla, quindi hfe * ib = 0, e quindi anche io = 0 e quindi si ottiene questo valore.
Ricordare che quando vogliamo calcolare la resistenza vista con dei generatore dipendenti, questi non si
possono spegnere a nostro piacimento, abbiamo cortocircuitato VS, dopodichè dovrei applicare un
generatore di prova in uscita per valutare io, per esempio un generatore di corrente ip e in tal caso devo
valutare la vp per trovare l’impedenza, ma quando applico ip ai capi dell’uscita, questo non può
determinare una corrente di base nel circuito di ingresso, quindi iB = 0 qualunque sia quello che mettiamo
sul circuito di uscita. Anche usando vp come generatore di prova, comunque iB = 0, e quindi ro -> inf, la
resistenza vista a valle del mio generatore hfe*iB verso l’uscita è infinita.
Per il punto di riposo ottengo gli stessi valori, però cambia il circuito equivalente per piccoli segnali.
Ora Re non è cortocircuitata, ho l’emettitore non più a terminale di GND ma collegato ad esso tramite la
resistenza Re. Ora risolvo il circuito con la differenza che Re mette in comunicazione la maglia di uscita e
quella di ingresso.
Scorre la corrente in RC pari a hfe*ib con il verso in figura e quindi vo ha il segno meno.
Ma stavolta vi data dalla caduta su hie ma anche dalla caduta su Re.
Ho una nuova espressione del guadagno di tensione, sempre negativa, l’aggiunta di re non cambia infatti la
tipologia dello stadio che rimane sempre invertente.
E’ cambiata l’espressione però, posso vedere che la presenza di Re mi ha portato un termine aggiuntivo al
denominatore, di una certa entità, anche se Re è dello stesso ordine di grandezza di RC ho aggiunto un
termine dell’ordine di 300.
Possiamo quindi dedurre che:
L’amplificazione di tensione che ho con la presenza di Re è molto più piccolo di quando Re non è presente.
La presenza di Re è necessaria per stabilizzare il punto di riposo ma ha però effetti negativi sul guadagno di
tensione, abbassandolo notevolmente. Per questo motivo Re viene anche indicata come resistenza di
degenerazione di emettitore, degenera il guadagno.
Questo è uno dei motivi per cui in alcuni casi si preferisce per il segnale andare a cortocircuitare Re con un
condensatore di bypass, cosi da togliere Re per quanto riguarda il segnale e avere guadagni più alti.
Spesso si usa una soluzione intermedia tra il caso in cui viene completamente eliminata e il caso in cui RE si
tiene, perchè è vero che il guadagno è molto più piccolo ma se:
Considerando che hfe è dell’ordine di 300, quindi l’unità è trascurabile, Av è circa uguale a -Rc/Re, risultato
da non trascurare, la presenza della resistenza di emettitore mi fa diminuire il guadagno ma se scelta
opportunatamente mi permette di scegliere il guadagno indipendente dalle caratteristiche del transistore e
dipende solo dal rapporto della resistenza di collettore ed emettitore.
Ho un guadagno più piccolo ma più affidabile, un rapporto tale che se le due resistenze dipendono in egual
modo dalla temperatura, anche in temperatura risulta essere stabile, cosa che non ho se Av = -hfe * RC/hie,
il guadagno in tal caso dipende sia dalle caratteristiche del transistore che dalla temperatura, mentre qui il
guadagno dipende solo da componenti esterni al BJT.
Quando non ho Re ho una forte dipendenza anche dalla temperatura grazie a VT perchè hie dipende da VT
e so dire il valore del guadagno a priori qualunque sia il transistore da utilizzare.
Vediamo come cambia la resistenza di ingresso:
Ho un risultato importante che ci dice che se valuto la resistenza che vedo sulla base guardando dentro alla
base subito a valle di hie, la resistenza vista sarà data dalla resistenza hie e la resistenza presente
sull’emettitore, in questo caso RE, moltiplicata per il termine hfe+1. Quando vista dalla base viene
moltiplicata per hfe +1.
Ovviamente la Ri’, sarà data dal parallelo tra:
Lo stadio a emettitore comune fornisce sempre un guadagno elevato di corrente, una resistenza di uscita
infinita se la guardo a valle del generatore di corrente controllato e dopodichè mi fornisce un guadagno di
tensione sicuramente negativo perché ho uno stadio invertente, poi il valore può essere più o meno grande
a seconda della presenza di re. Lo stesso la resistenza di ingresso, che valuto ai capi della base, ho in un
caso hie e nell’altro mi aumenta notevolmente per la regola di riflessione.
La presenza di RE mi fa aumentare la resistenza di ingresso, diminuire il guadagno ma mi rende il guadagno
indipendente dalle caratteristiche del transistore.
Si va a studiare il circuito per punto di riposo nello stesso modo in cui l’abbiamo visto.
Passiamo direttamente all’analisi del circuito per le variazioni, costruendolo come nello stadio a emettitore
comune. E’ possibile trattare anche le altre due configurazioni possibili, a collettore comune e a base
comune utilizzando sempre hie e hfe.
Andrebbero introdotti in questo caso i parametri hic e hfc e ci sono delle formule per passare da hie a hfe a
questi parametri ma noi affrontiamo i circuiti con i parametri già trovati hie e hfe.
Il circuito si costruisce partendo da vs, poi notando che R1 e R2 sono in parallelo perché sono collegati alla
base e al terminale di riferimento (VCC è infatti disattivato), e poi tra B-C-E inseriamo il circuito equivalente.
Non cambia nulla rispetto a prima per quanto riguarda il nostro circuito equivalente, si utilizza sempre lo
stesso modello e ciò avviene anche nella configurazione a base comune, semplicemente individuiamo BCE e
ci andiamo a inserire hie e hfe*ib con i versi corretti.
L’unica differenza è che ora sul circuito la tensione di uscita la prendo su RE, la porta di ingresso continua ad
essere la base e la resistenza di ingresso sono le due che vedo guardando dentro la base, mentre la
corrente di uscita diventa la corrente di emettitore e può essere a monte o a valle di Re e la tensione di
uscita è ai capi di Re.
Possiamo quindi analizzare le 4 grandezze di interesse per il nostro circuito.
Vediamo prima le grandezze che non cambiano, perché applico il segnale anche qui sulla base e quindi le
resistenze di ingresso assumono anche gli stessi valori.
Ottengo la stessa espressione per lo stadio a emettitore comune. Ho come risultato il valore della resistenza
della base sommato alla resistenza dell’emettitore* (hfe +1). Mentre:
Per la resistenza di uscita ci aspettiamo delle differenze perché adesso la resistenza di uscita è quella vista
dall’emettitore:
Posso anche ricavare l’equazione tra ip e le due correnti facendo il bilancio delle correnti al nodo di
emettitore:
Trovo anche qui una regola di riflessione della resistenza ma in questo caso verso l’emettitore. La resistenza
che vedo guardando dentro l’emettitore è pari a tutta la resistenza che vedo collegata alla base divisa per il
fattore hfe + 1. Se vogliamo calcolare la resistenza a valle di RE invece:
Quindi a differenza di quanto visto prima con l’altra configurazione, in cui la resistenza di uscita era quella
del collettore, in questo caso la resistenza vista dal collettore è data da hie/hfe+1 ed è quindi molto piccola,
hie è dell’ordine del kOhm e hfe è dell’ordine di 300, quindi la resistenza vista è dell’ordine di qualche
decina di ohm, che quindi dovrà andare in parallelo a RE e quindi ho che la resistenza vista dall’emettitore è
piccola a sua volta, dovuta a questa proprietà di riflessione della resistenza.
Vediamo il guadagno di corrente:
Ne sussegue che:
Applichiamo un segnale di ingresso sulla base lo preleviamo sull’emettitore e il segnale di tensione è circa
uguale a quello di ingresso, ecco perché si dice che il segnale di emettitore insegue quello sulla base.
Questo stadio è infatti anche detto inseguitore di emettitore(emitter follower).
Si definisce come amplificatore perché ha un’amplificazione di corrente dell’ordine di hfe+1.
Si parla di amplificatore in termini di potenza applicata al carico, fornisce un grande guadagno di corrente
ed è in grado di fornire al carico circa la stessa tensione.
Inoltre, questo stadio che è in grado di fornire un guadagno unitario di tensione e avere una resistenza di
ingresso elevata (Ri che è pari a hie + Re(hfe+1)) e una resistenza di uscita bassa (hie/hfe+1) viene chiamato
anche stadio buffer, utile per trasferire il segnale da un generatore di segnale a dei carichi di valore piccolo.
Faccio l’ipotesi di zona di saturazione per sostituirlo con il modello per ampi segnali.
Nei MOSFET disponiamo però di una equazione analitica piuttosto semplice, soprattutto se trascuriamo la
dipendenza da vds.
Trovo la tensione sui nodi e la corrente nei rami e determino il punto di riposo del circuito: IDQ, VDSQ e
VGSQ. La quarta quantità la IGQ viene sempre presa nulla
Determinati questi parametri dovrò fare la verifica che l’ipotesi che ho fatto sia soddisfatta e che quindi la
soluzione che ho trovato sia corretta.
Trovato il punto di riposo determino i valori di gm e rd, così da realizzare il circuito per piccoli segnali.
Il parametro lambda mi occorrerà per determinare il valore di rd. Molte volte considereremo nullo l’effetto
di modulazione di canale e quindi ci calcoleremo solo il valore di gm.
Il terminale di source coincide col terminale di riferimento e quello di drain è quello in alto al generatore di
corrente controllato in tensione.
Disegnato il nostro circuito ne andiamo a studiare il comportamento e andiamo a determinare i suoi
parametri.
Cominciamo dall’amplificazione di corrente, essendo la corrente di ingresso del MOSFET nulla si ottiene:
Almeno nel nostro modello semplificato in cui non si considera i condensatori intrinseci.
Applicando il segnale sul gate sappiamo che il gate non assorbe corrente e quindi fornisce un valore sempre
infinito.
Ed essendo la i1 = 0, anche in questo caso otteniamo:
Se prendo la Ri’ la cosa cambia, la resistenza vista dal generatore vi complessivo è pari a:
Vediamo la ro invece:
Quindi:
Vediamo adesso il guadagno di tensione cercando di esprimerlo in funzione di una stessa grandezza così
che il rapporto ci darà un valore indipendente dalla grandezza applicata:
Posso considerare un’unica resistenza data dal parallelo di rd e RD e quindi la caduta di potenziale è data
dalla resistenza per la corrente che vi scorre, che scorre nel verso in figura:
Posso allora dire che il guadagno è negativo, quindi ho uno stadio invertente.
Il suo valore dipende esattamente dal valore di gm, parametro fondamentale del transistore MOSFET,
moltiplicato per il parallelo della resistenza di rd e RD, otterrò valori non piccoli e quindi ottengo una buona
amplificazione di tensione, essendo sicuramente in modulo maggiore di 1.
Questo è il comportamento dello stadio a source comune senza resistenza di source.
Per il punto di riposo non cambia nulla, valuto IDQ, VDSQ e VDSQ e determino gm e rd.
Disegniamo il circuito equivalente:
Il source ora è collegato al terminale di riferimento tramite una resistenza Rs.
Rs è un elemento che mette in comunicazione l’ingresso con l’uscita. Vedremo come l’inserire RS ci
comporta una diminuzione del guadagno, infatti lo si può capire notando che il guadagno di tensione sarà
data dalla caduta su RD, e per quanto riguarda la corrente che vi scorre che è gm*VGS, però la VGS nel caso
precedente quando RS = 0 la VGS = vi, la mia tensione vi diventa una tensione direttamente uguale alla
VGS, mentre nel caso in cui invece c’è RS la vi è una partizione di vgs e la tensione sul source, di fatto solo
una parte di vi mi va a determinare la corrente mi scorre in uscita.
Mentre senza RS tutta la vi mi determina la corrente che scorre in uscita. Ciò ci fa capire come questo
guadagno sarà più basso qualitativamente.
La corrente i1 rimane pari a 0 e quindi ne sussegue che:
L’aver introdotto la resistenza di source non mi comporta nessun cambiamento per quanto riguarda i
parametri di ingresso, e questo p dovuto al fatto che il gate è separato dal source in termini di conduttanze.
Mentre nel BJT se andiamo a inserire una resistenza sull’emettitore questa si ripercuote sulla base ed è
dovuto al fatto che hie non è infinita e quindi B e E non sono isolati tra di loro, nel MOSFET ho un
comportamento diverso, il gate è isolato dal source e dal drain e anche se applichiamo una resistenza sul
source, guardando dal gate non ce ne accorgiamo.
Non ho nessun effetto sulla ro perché è infinita ed è la stessa di prima, la ro vista in coda al gm*vgs per vi =
0, ho che anche in presenza di RS, il gate viene anche qui cortocircuitato al source e vgs = 0 e quindi Ro =
inf. Quindi Ro’ diventa pari a RD.
vi è pari alla tensione di gate vg e non più pari a vgs, non più pari alla differenza di potenziale tra il gate il
source ma è pari a tutta la vg e quindi devo valutare ora la vgs quanto vale.
La vs vale ora:
Non è più pari a vi, ma vi diviso una quantità positiva, essendo gm > 0 e Rs > 0.
Quello che avevamo detto intuitivamente, ovvero che quando è presente la resistenza Rs la vgs sarà una
parte della vi, e quale parte sarà ce lo dice questa espressione e ciò ci farà diminuire il guadagno di
tensione, perché abbiamo trovato l’espressione della vgs rispetto a vi e possiamo determinare ora vo,
caduta di tensione su RD, ma su RD ci scorre esattamente gm*vgs ma dal basso verso l’alto.
Sostituisco a vgs questa espressione che abbiamo ricavato e ottengo:
Ho ottenuto la mia nuova espressione del guadagno in presenza di Rs, e noto che il segno è ancora negativo
anche con l’aggiunta di RS che non va sicuramente a modificare il comportamento in termini di segno.
Cambia però l’amplificazione, rispetto a prima ora gm*RD è diviso per una certa quantità e quindi il
guadagno è diminuito. L’aggiunta di RS mi porta a diminuire il guadagno di tensione.
Consideriamo per semplicità rd = inf, si individuano i tre terminali, tra G e S ho impedenza infinita e tra D e
S si mette gm*VGS, in parallelo avrebbe rd ma la trascuriamo, poi abbiamo RS tra source e terminale di
riferimento, in questo caso presente perché è dove vado a prelevare il segnale.
Posso vedere quanto vale ip dal bilancio delle correnti sul nodo S.
Il gate è cortocircuitato quindi è come se fosse al terminale – di vp, quindi vgs = -vp.
Quindi abbiamo che la ip = gm*vp e si ottiene un risultato fondamentale, ovvero che la resistenza di uscita
vista da un source di un MOSFET è pari a:
La resistenza 1/gm è piuttosto piccola e quindi tipicamente la resistenza di uscita è di piccola entità.
Torniamo al grafico precedente e guardiamo il guadagno di tensione:
La prima considerazione che possiamo fare è che il segno è positivo, quindi questo stadio è non invertente,
proprietà analoga allo stadio a collettore comune.
Non abbiamo nessuna inversione del segno quando preleviamo la tensione sul source dopo averla applicata
sul gate.
Inoltre Av è sempre minore di 1 e quindi si ha un’attenuazione del segnale.
La tensione sul source è una replica della tensione sul gate se vale ciò, ecco perchè viene detto inseguitore
di source, perché la tensione sul source insegue la tensione sul gate.
Ho una resistenza di uscita piccola, un guadagno di tensione unitario, una resistenza di ingresso elevata e
quindi abbiamo uno stadio che può essere usato come stadio buffer.
Vediamo come analizzare un amplificatore multistadio. Se conosco i parametri di ciascun stadio quando
isolato (conosco per lo stadio j: Rij, Roj, Aij, Avj), quanto valgono i parametri complessivi?
Quando metto in cascata n stadi, il guadgno non è semplicemente il prodotto dei guadagni di ciascuno
stadio presi separatamente.
I guadagni che compaiono nel prodotto non sono quelli calcolati per i singoli stadi isolati, ma devono tenere
conto dell’interazione tra gli stadi stessi. Quindi Ai != Avi, se con Avi indichiamo il guadagno del singolo
stadio isolato. L’interferenza tra i vari stadi ne modifica il comportamento.
Prendiamo semplicemente la cascata di due stadi:
Supponiamo di conoscere per il primo stadio i vari parametri e lo stesso per il secondo che è in cascata al
primo. La resistenza di uscita del primo stadio è in serie alla resistenza di ingresso del secondo stadio.
Supponiamo di avere usato un voltometro ideale (con resistenza di ingresso infinita) per misurare la
tensione di uscita vo. Abbiamo che:
A1 è il rapporto tra tensione di uscita e tensione di ingresso del primo stadio quando il primo stadio è
inserito in cascata al secondo stadio.
Valutiamo v2, la caduta di tensione su Ri2, pari alla resistenza per la corrente che vi scorre:
Quindi:
E’ pari al guadagno di tensione che si ottiene lo stadio è isolato per un un partitore di tensione, quindi il
guadagno di tensione di uno stadio quando collegato in cascata su altri stadi non è il guadagno di tensione
che si ha quando è isolato ma è inferiore perché devo tenere conto che la resistenza di ingresso dello stadio
successivo si va a mettere in serie alla resistenza di ingresso dello stadio precedente. Ho una partizione
della tensione di uscita.
Si può dire che A1 = Av1, lo stadio isolato inserito all’interno di una catena di
stadi mantiene lo stesso valore del guadagno di tensione, solo quando il
partitore è uguale a 1 e lo è:
- o quando Ro1 = 0, considero lo stadio con resistenza di uscita
nulla
- o quando Ri2 è molto più grande della Ro1, tale da poter essere
considerata infinita. Ho quindi la resistenza di ingresso dello stadio a valle molto più grande
della resistenza di uscita dello stadio a monte.
Se si verifica questa condizione in gergo si dice che lo stadio a “valle” non carica lo stadio a “monte”.
Se vale per tutti gli stadi si può dire che il guadagno di tensione complessivo è il prodotto del guadagno dei
singoli stadi.Quindi:
Consideriamo ora il problema della scelta della configurazione circuitale da adottare per i vari stadi.
Se vogliamo ottenere un guadagno di tensione maggiore dell’unità, è evidente che non possiamo utilizzare
più stadi a collettore comune connessi in cascata, dato che il guadagno di ciascuno di essi è minore
dell’unità. Rimangono quindi solo gli stadi a emettitore comune, i quali possono essere combinati per
ottenere un guadagno più grande di quello di un singolo stadio poiché sia il loro guadagno di tensione sia
quello di corrente possono essere molto maggiori dell’unità. Stadi a base comune o a collettore comune
possono essere utilizzati all’ingresso o all’uscita di una catena multistadio nel caso sia necessario ottenere
particolari valori per le resistenze di ingresso e di uscita.
I condensatori esterni o estrinseci che ho applicato per fare il bypass e l’accoppiamento del segnale in
ingresso e in uscita vanno a determinare il limite inferiore di banda e l’andamento del comportamento del
mio amplificatore a bassa frequenza.
I condensatori esterni hanno una capacità molto più grande dei condensatori intrinseci e tale per cui i poli e
gli zeri che forniscono vanno a determinare la risposta in bassa frequenza.
Se mi trovo nella situazione i cui comportamenti a bassa e alta frequenza sono separarti da un banda
centrale piuttosto larga, i poli a bassa frequenza e i poli ad alta frequenza separati da almeno un paio di
decadi, allora la fdt dell’amplificatore può essere scritta in forma semplificata:
dove FL(s) e FH(s) sono funzioni che rappresentano il comportamento di A(s), rispettivamente,
alle basse (con tutte le singolarità a bassa frequenza) e alle alte frequenze (con tutte le singolarità ad alta
frequenza). Posso quindi scrivere la fdt complessiva come il prodotto di tre funzioni, ho una costante senza
presenza di singolarità di valore pari al valore del centro banda, moltiplicata per le due fdt.
A bassa frequenza posso vedere che la risposta è data dal prodotto del guadagno a centro banda per la
FL(s), che sarà un polinomio con a numeratore zeri e a denominatori dei poli, dovuti agli elementi reattivi
esterni:
Si può separare lo studio del mio amplificatore in tre zone.
Posso fare lo studio a centro banda (quello fatto finora) in cui considero i condensatori di grandi valori dei
cortocircuiti e quelli di valori piccoli dei circuiti aperti e posso poi studiare il circuito in bassa frequenza.
Posso per esempio calcolare i poli e gli zeri dovuti a componenti reattivi esterni considerando gli altri
condensatori circuiti aperti e poi faccio lo studio in alta frequenza, in cui considero solo i componenti
interni e considero invece i condensatori esterni come cortocircuiti, cerco quindi i poli e gli zeri dovuti ai
componenti intrinseci per valutare la FH(s).
Quindi tipicamente si determinano separatamente queste tre funzioni anziché risolvere il circuito con tutti i
condensatori.
Se sono nella situazione in cui i poli degli elementi reattivi esterni e quelli interni sono non interagenti
(separati da almeno un paio di decadi) posso avere un andamento approssimato valutando queste tre
funzioni.
Con FH(s) ha questa forma perché per per s piccolo (a basse frequenze) deve essere circa pari a 1.
Mentre per FL(s) si deve avere che per s->inf (ad alte frequenze) deve essere pari a 1.
Posso valutare poli e zeri degli elementi reattivi separandoli in due gruppi, il che mi semplifica il tutto
perché valuto il circuito con un numero di condensatori inferiori.
Una vota determinati tutti i valori posso determinare la mia fdt complessiva e trovare il comportamento in
frequenza del mio amplificatore.
Il grafico ci dice che se valutiamo la FH(s), esiste sempre un limite superiore di banda.
Gli elementi attivi che vado a utilizzare sono tutti componenti attivi in grado di fornire un guadagno di
potenza ma riescono a farlo solo fino ad una certa frequenza, oltre la quale non sono più in grado di
fornirmi un guadagno.
Questo è dovuto ai condensatori intrinseci del mio dispositivo e questa proprietà che mette in evidenza che
i componenti attivi oltre una certa frequenza non sono in grado di fornire un’amplificazione, è individuato
da un parametro di merito, riportato anche sulle caratteristiche che prende il nome di frequenza di
transizione o frequenza di taglio.
Per un transistore bipolare la frequenza di transizione (fT) è la frequenza a cui il guadagno di corrente di
cortocircuito dell’amplificatore nella configurazione a emettitore comune viene unitario.
hfe che determina il guadagno di corrente e di tensione che riesco a ottenere nella nostra trattazione è
sempre considerato costante ma nella realtà se faccio una trattazione più dettagliata e considero i
condensatori intrinseci, si ottiene che hfe non è costante in frequenza ma se grafico il suo modulo in db in
funzione della frequenza o della pulsazione, si ottiene un andamento di questo tipo, in cui ho il modulo
costante fino a una certa frequenza wB per poi diminuire in frequenza con pendenza di 6db per ottava, con
un andamento a polo dominante (-20db/dec), ed esiste quindi una frequenza wT in cui il modulo hfe è
diventato pari a 1, ho infatti 0 db.
Quindi il nostro BJT non è più in grado di fornirci nessun guadagno di corrente né tantomeno di tensione.
Questa viene infatti considerata come la frequenza massima cui il BJT può funzionare e nel caso in cui
l’andamento è a -20db/dec questa pulsazione è data dal prodotto del valore a frequenza bassa * wB,
frequenza a cui il guadagno hfe è diminuito di 3db.
Il prodotto del valore del guadagno a bassa frequenza per il polo (pulsazione polo perché è la pulsazione
per cui il guadagno è diminuito di 3db) e la banda è detto PGB, e coincide col valore per cui il guadagno è
unitario.
Per un transistore MOSFET, la frequenza di transizione (fT) è la frequenza a cui il guadagno di corrente di
cortocircuito dell’amplificatore nella configurazione a source comune diventa unitario.
Nell’ambito della teoria semplificata, un circuito in reazione viene descritto sulla base di uno schema a
blocchi corrispondente a quello di seguito riportato e costituito da un blocco A amplificatore di base, una
rete per il prelievo della grandezza di uscita, una rete di reazione B e una rete sommatrice che consente di
sommare il segnale di reazione con quello di ingresso. Abbiamo quindi questi 4 blocchi principali.
Si preleva tramite la rete di prelievo una porzione del segnale di uscita del nostro amplificatore, e tramite
una rete di reazione si riporta in ingresso dove una rete sommatrice che combina il segnale di retroazione
con il segnale di ingresso in modo opportuno.
La rete di prelievo e sommatrice in campo elettronico possono essere di due tipologie diverse.
Per la rete di prelievo, il prelievo in uscita può essere di due tipi: di corrente, nel caso in cui la grandezza
prelevata sia la corrente nel carico (si apre uno dei due rami che collegano il mio amplificatore alla mia
resistenza e si va a campionare la corrente di uscita), oppure di tensione, se la grandezza prelevata è la
tensione ai capi del carico (in questo caso tutta ma può essere anche una parte).
Per la rete sommatrice la re-inserzione in ingresso può essere anch’essa effettuata in due modi diversi,
riportando la grandezza di reazione in serie o in parallelo al generatore posto in ingresso.
Si parla in tal caso, rispettivamente, di reazione serie o parallelo.
Il segnale prelevato dall’uscita ed elaborato dalla rete di reazione deve essere sommato in qualche modo
con il mio segnale di ingresso e posso avere quindi queste due tipologie di re-inserzione.
Il generatore di segnale viene schematizzato in serie a una sua resistenza interna.
Il segnale viene posizionato in serie in modo tale che il segnale che arriva in ingresso all’amplificatore sarà
dato dalla serie dei due segnali.
L’inserzione in parallelo con la rete di reazione va a inserire il suo segnale in modo tale che la corrente
complessiva applicata sarà data da una combinazione del segnale e della reazione.
Si hanno quindi, in totale, quattro tipologie diverse di circuiti in reazione: con reazione
serie di tensione, parallelo di tensione, serie di corrente, parallelo di corrente, tipologie di circuiti che hanno
degli effetti diversi sul comportamento del mio dispositivo.
Queste tipologie di reazione hanno effetti diversi sulle impedenza di uscita e di ingresso, noi faremo una
trattazione semplificata e vediamo una rappresentazione generale di una rete in reazione, ove le grandezze
sono indicate con X, in modo che possano rappresentare sia tensioni sia correnti. Indichiamo con Xs la
grandezza di ingresso proveniente dall’esterno, con Xi la grandezza all’entrata dell’amplificatore di base A,
con Xo la grandezza di uscita applicata al nostro carico e con Xf la grandezza di reazione, ottenuta facendo
attraversare a Xo la rete di reazione con fdt B. Quindi Xf = BXo e, in conseguenza dell’azione del
sommatore, Xi = Xs + Xf.
Applichiamo 3 ipotesi semplificative che ci consentono di trattare il sistema in modo molto semplice:
1. L’amplificatore è unidirezionale, il segnale all’interno dell’amplificatore può andare solo
dall’ingresso verso l’uscita. Quindi l’amplificatore non ha nessun percorso all’interno ce consente al
segnale di uscita di tornate verso l’ingresso.
2. La rete di reazione è unidirezionale. Anche il blocco con fdt B può far percorrere il segnale solo da
destra verso sinistra, semplificazione forte perchè essendo B tipicamente una rete di resistenze non
si può dire che la rete è unidirezionale
3. Il fattore di reazione B è indipendente dalla resistenza di sorgente Rs e da quella del carico RL.
Qualunque siano le impedenze collegate ai due estremi, la rete di reazione ha fdt sempre pari a B.
Le frecce disegnate individuano il verso del segnale.
Vediamo quanto vale il guadagno complessivo, rapporto tra Xo e Xs.
Ho A che mi amplifica il segnale di ingresso ma io vorrei conoscere il rapporto tra segnale che ottengo sul
carico e segnale di ingresso che applico dall’esterno.
XF = B*Xo perché abbiamo fatto l’ipotesi che B sia costante qualunque cosa applico e che sia unidirezionale.
Sostanzialmente ho ottenuto che una volta noti A il valore di B, la fdt ad anello chiuso del circuito è data da:
è detta così perché si tratta del guadagno della rete quando questa è chiusa in reazione.
Se la rete non è sommatrice ma sottrattrice, a denominatore troviamo il segno +, il tutto dipende da come è
schematizzato il circuito.
Possiamo dire che se il guadagno ad anello chiuso in modulo è minore del guadagno ad anello aperto in
modulo, si parla di reazione negativa, utile quando vogliamo mantenere una quantità costante.
Applicando una reazione negativa il guadagno ad anello chiuso sicuramente sarà minore del guadagno ad
anello aperto, lo schema ci fa ottenere un guadagno minore di quello ad anello aperto ma il guadagno sarà
molto stabile e riproducibile. Il metodo applicato è quello di prendere un guadagno di uscita in cui:
Se sono in un sistema in reazione in cui si verifica questa condizione, ottengo che il guadagno ad anello
chiuso non dipende dai parametri dell’amplificatore ma solo dalla rete di reazione.
Questa situazione è vantaggiosa perché molte volte B è un rapporto di resistenza, quindi l’amplificazione a
ciclo chiuso è uguale a un rapporto tra resistenze e ho quindi un’elevata stabilità in temperatura, se le due
resistenze presentano la stessa dipendenza dalla temperatura.
Inoltre l’amplificazione non dipende dalle caratteristiche del nostro amplificatore, quindi anche se
sostituisco l’amplificatore con un modello simile tale per cui ancora il modulo di BA >> 1, l’amplificazione
non cambia di valore, è indipendente anche dalle caratteristiche specifiche dell’amplificatore stesso.
Il guadagno A viene schematizzato con un generatore di tensione controllato da Xi, segnale di ingresso con
in serie la resistenza di uscita dell’amplificatore ad anello aperto.
Vediamo cosa accade alla resistenza del mio sistema in ciclo chiuso quando è presente la rete di reazione.
Per valutare la resistenza di uscita, potrei prendere il generatore di prova in uscita, per esempio VP e
valutare la corrente IP erogata, per farne poi il rapporto.
In realtà non applichiamo questo metodo, ma possiamo calcolare l’impedenza di uscita con un metodo
alternativo. La resistenza di uscita di un bipolo a due terminali può essere valutata può essere ottenuta
semplicemente come rapporto della tensione a vuoto (misurata senza alcun carico in uscita) e la corrente di
corto circuito (misurata con carico di valore nullo).
Ciò deriva dagli equivalenti di Thevenin e Norton e dal fatto che devono essere uguali tra di loro, usiamo ciò
perché molto conveniente qui.
La reazione mi ha modificato la resistenza di uscita in quanto la resistenza di uscita che vedo dal sistema
reazionato è pari alla resistenza di uscita che vedo quando la reazione non è presente (R0), diviso il fattore
1-BA.
Quindi difronte a una reazione negativa con modulo di BA >> 1, un prelievo della tensione di uscita che
viene riportata in ingresso determina una diminuzione considerevole della resistenza di uscita.
Torna da un punto di vista intuitivo, e faccio un prelievo in tensione con una reazione negativa alla fine
voglio stabilizzare la tensione di uscita e quel componente circuitale che ha una tensione di uscita costante
è un generatore di tensione ideale con una resistenza interna nulla. Ecco che prelevare la tensione di uscita
con una reazione negativa significa di fatto cercare di rendere la tensione di uscita costante e quindi
trasformiamo il nostro sistema in una sorta di generatore di tensione ideale con una resistenza interna
praticamente nulla e in effetti l’effetto che ha sulla resistenza di uscita è di diminuirla del fattore 1-BA.
In sostanza, quindi, le resistenze di ingresso e di uscita vengono modificate dalla reazione di un fattore (a
moltiplicare o a dividere, a seconda del tipo di reazione) 1 − BA, che può risultare anche molto elevato. E’
pertanto possibile, utilizzando in modo opportuno la reazione e avendo a disposizione amplificatori con
guadagno sufficientemente elevato, ottenere pressochè ogni valore desiderato di resistenza di ingresso e di
uscita.
Amplificatori differenziali
L’amplificatore operazionale appartiene alla famiglia degli amplificatori differenziali, amplificatori la cui
tensione di uscita è proporzionale alla differenza tra i due segnali applicati alle due porte di ingresso.
Abbiamo due porte di ingresso, una porta di uscita, e abbiamo un terminale di riferimento a comune sia tra
le porte di ingresso e quella di uscita. Le tensioni presenti sulla porta 1, 2 e quella sulla porta di uscita sono
tensioni riferite come differenze di potenziale tra queste porte e un terminale di riferimento.
Indichiamo con v1 la differenza di potenziale tra porta 1 e il potenziale di riferimento e con v2 la differenza
di potenziale tra la porta 2 e il terminale di riferimento.
Per un amplificatore differenziale ideale vale la relazione Vu = Ad(v1 − v2), dove Ad è il cosiddetto guadagno
differenziale e v1 e v2 sono le tensioni sui due ingressi.
L’amplificatore differenziale fornisce una tensione di uscita proporzionale alla differenza tra i segnali
applicati ai suoi due ingressi.
Nel caso in cui due segnali di ingresso sono idealmente uguali, fornisce quindi una tensione di uscita nulla.
L’utilizzo di un amplificatore differenziale risulta particolarmente utile in quei casi in cui sono presenti
prevalentemente disturbi a modo comune, come quelli, per esempio, indotti da accoppiamenti
elettrostatici tra i cavi di rete a 50 Hz e le linee microfoniche.
Durante l’amplificazione del segnale del microfono è molto comune che i fili di quest’ultimo si accoppino
attraverso delle capacità con gli alimentatori, in particolare con il conduttore di fase.
Il conduttore di fase rappresenta la sorgente dei disturbi a carattere elettrostatico ed è accoppiato ai due
conduttori della linea microfonica da capacità praticamente uguali.
I condensatori in figura schematizzano l’accoppiamento capacitivo che avviene tra fili che scorrono vicini tra
di loro e quindi c’è un disturbo che può passare da una parte all’altra dei fili stessi.
E’ tipico il caso in cui le linee di alimentazione che tutti abbiamo (220V e 50Hz) se vicino a questi fili
scorrono anche quelli del microfono è facile che vi siano dei disturbi che vengono ad esso accoppiati
attraverso delle capacità parassite.
L’amplificatore differenziale ha la proprietà di fare in modo che tutti i segnali che risultano essere uguali sui
due fili vengano cancellati. Se lo stesso segnale di disturbo vien applicato a entrambi i fili, dal momento che
l’amplificazione differenziale fa la differenza dei segnali, va a eliminare tutti quei disturbi che sono uguali sui
due fili stessi e va ad amplificare solo la differenza.
Tutti i disturbi uguali sui due fili vengono automaticamente eliminati, lo stesso disturbo viene iniettato su
tutti e due i conduttori: si tratta perciò di un disturbo a modo comune, che può essere eliminato utilizzando
un amplificatore differenziale come quello indicato.
Dato il nostro amplificatore differenziale, si definisce segnale a modo differenziale la differenza tra il
segnale v1 e il segnale v2:
Si indica con segnale a modo comune il segnale ottenuto facendo la semisomma dei segnali di ingresso:
Se due segnali sono uguali abbiamo quindi un segnale a modo differenziale nullo e un segnale a modo
comune uguale ai due segnali.
E’ possibile esprimere v1 e v2 in funzione di vd e vc utilizzando le seguenti relazioni ottenute sommando e
sottraendo tra loro le due equazioni utilizzate per definire vd e vc:
Nel caso reale invece, avremo che l’amplificazione a modo comune é piccola e quindi:
CMRR è un fattore di merito perché più è grande il CMRR migliore è la qualità dell’amplificatore
differenziale.
Posso determinare anche la tensione di uscita se conosco A1 e A2:
ottenendo così così una relazione tra i guadagni a modo differenziale e a modo comune e quelli rispetto
all’uno e all’altro ingresso dell’amplificatore.
Il primo termine che moltiplica vd è infatti il nostro guadagno a modo differenziale, invece il secondo è il
guadagno a modo comune.
In funzione del guadagno a modo differenziale, del segnale a modo differenziale, del guadagno a modo
comune e del segnale a modo comune posso quindi ottenere vu.
Se conosco A1 e A2 quindi posso facilmente calcolare l’amplificazione differenziale e l’amplificazione a
modo comune come:
E di conseguenza:
Amplificatori operazionali
Definita la famiglia degli amplificatori differenziali, al suo interno troviamo una categoria di amplificatori
importanti, gli amplificatori operazionali (“op amp” o semplicemente “operazionale”), molto utilizzati per
effettuare operazioni sui segnali analogici.
L’amplificatore differenziale presenta 3 caratteristiche principali:
- risulta essere un amplificatore differenziale, la cui tensione di uscita è proporzionale alla
differenza dei segnali di ingresso
- presenta un guadagno a modo differenziale molto elevato nel caso reale, mentre nel caso
ideale il guadagno a modo differenziale è infinito
- è accoppiato in continua dal punto di vista frequenziale. La banda parte da frequenza nulla,
ho quindi una risposta in frequenza piatta a partire da f = 0 fino al limite superiore di banda
dopo il quale il guadagno inizia a diminuire
Il nome “operazionale” deriva dal fatto che esso venne inizialmente concepito per la realizzazione di
operazioni di somma e sottrazione tra segnali all’interno di circuiti più complessi.
I primi amplificatori operazionali erano costruiti utilizzando componenti discreti. Intorno alla metà degli
anni ’60 fu prodotto il primo operazionale su circuito integrato: il uA 709.
Questi vengono spesso utilizzati per realizzare filtri attivi, per effettuare operazioni lineari ma anche non
lineari sui segnali, fare degli oscillatori e quindi sono componenti molto versatili.
Il simbolo circuitale dell’amplificatore operazionale consiste in un triangolo con un simbolo “+” in
corrispondenza dell’ingresso non invertente e un simbolo “-” in corrispondenza di quello invertente.
Questo viene spesso usato anche per indicare un amplificatore differenziale generico ma se non
esplicitamente detto si riferisce all’amplificatore operazionale.
Sono indicati i due ingressi, non interscambiabili, uno indicato con la polarità positiva e uno con polarità
negativa, rispettivamente non invertente e invertente e la tensione di uscita è proporzionale alla differenza
tra l’ingresso non invertente e l’ingresso invertente.
Nella realtà il simbolo circuitale è molto diverso, presenta un numero di contatti maggiore dei 3 soli indicati.
Non dobbiamo infatti dimenticarci che l’amplificatore operazionale al suo interno è realizzato mettendo
insieme un certo numero di transistori elementari (BJT o MOSFET a seconda se l’amplificatore opera a
transistore BJT o a transistore MOSFET). All’interno di essi ho quindi degli elementi attivi che per funzionare
hanno bisogno di un’alimentazione, e tutto ciò lo troviamo all’interno di esso.
Non dobbiamo quindi dimenticarci che al suo interno tra i numerosi terminali vi sono quelli di
alimentazione (V+ e V- ai quali dobbiamo collegare l’alimentazione, che molto speso è duale, perchè
collego due batterie uguali e opposte):
Posso avere per esempio + 12V per V+ e -12V per V-, oppure posso avere anche un’alimentazione non
duale ma singola in cui un terminale viene posto a un'unica batteria collegato tra il + e il -.
Il mio terminale di riferimento delle tensioni è il cosiddetto baricentro tra le batterie e sarà il terminale di
riferimento per tutte le tensioni. Quindi andrebbe disegnato in realtà almeno a 5 terminali:
Abbiamo poi realtà altri terminali, per esempio quello che ci permette di annullare l’offset ma d’ora in poi
per semplicità non andremo a indicare i collegamenti con l’alimentazione ma dobbiamo ricordarci della loro
presenza.
Il circuito equivalente per le variazioni risulta il seguente:
Nel caso ideale è un amplificatore differenziale che non ha nessun guadagno di modo comune e quindi dal
punto di vista delle variazioni può essere identificato così.
La porta + e la porta – di ingresso sono collegate al loro interno tramite una resistenza di ingresso, e la
tensione di ingresso è la differenza di tensione tra il terminale + e il terminale -.
La tensione di uscita è invece riferita rispetto al terminale di riferimento che è quello ottenuto dal
baricentro delle alimentazioni.
Ho poi un generatore di tensione controllato in tensione il cui valore è proporzionale alla differenza di
tensione tra + e – tramite un parametro Avol, guadagno di tensione con ol che sta per open loop ad anello
aperto perché l’operazionale viene spesso utilizzato all’interno dei sistemi a reazione e si vuole distinguere
l’amplificazione propria, che è Avol da quella che prima indicavamo con Ad.
La nostra vin è quella che prima indicavamo con vd.
Ro è invece la resistenza di uscita del nostro amplificatore operazionale.
La tensione di uscita viene invece presa tra vout e il baricentro delle alimentazioni:
I terminali di ingresso invece non hanno un collegamento diretto col terminale di riferimento.
Prendiamo le caratteristiche di un operazionale ideale e confrontiamole con quelle di un operazionale
reale, il μA 741 che è caratterizzato dalle seguenti caratteristiche.
Per quanto riguarda l’amplificazione ad anello aperto, quindi la nostra amplificazione differenziale, nel caso
di operazionale ideale è infinita, ho quindi un amplificazione differenziale a guadagno infinito nel caso
ideale, mentre il guadagno differenziale è elevatissimo nel caso reale.
Questa è una caratteristica peculiare di tutti gli operazionali.
La resistenza di ingresso è invece infinita nel caso ideale, mentre nel caso reale è molto elevata-
La resistenza di uscita è nulla nel caso ideale, mentre nel caso reale è piccola e dell’ordine di qualche decina
di ohm. Queste sono le tre caratteristiche di base relative al nostro circuito equivalente visto prima.
Altri parametri di merito sono la banda, ovvero per quali frequenze posso considerare il guadagno
differenziale pari a infinito e abbiamo nel caso ideale a qualunque frequenza, tra l’altro è il parametro
meno rispettato nella realtà, infatti nella realtà la frequenza è molto piccola (4-8Hz).
Abbiamo quindi degli operazionali che fino a qualche Hz hanno un guadagno di 10^5 che poi decrementa di
circa 20db/dec, con una fdt a polo dominante.
Un parametro che si trova molto spesso non è tanto la banda ma il prodotto tra il guadagno e la banda, PGB
grandezza che nel caso di sistemi a polo dominante rimane costante anche nei sistemi in reazione, e si ha
che nel caso ideale è infinito mentre in quello reale è molto elevato, infatti è vero che la banda è piccola ma
il guadagno è molto grande.
Il CMRR nel caso ideale è infinito perché ha Ad -> infinito ma anche perché Ac = 0. Nel caso reale non è così
ma è molto elevata, e molto spesso viene infatti riportata in db.
Si hanno dei CMRR molto elevati di un centinaio di db perché abbiamo un elevato guadagno differenziale,
un guadagno a modo comune piccolo e ciò porta ad avere un CMRR grande.
Più alto è il CMRR e più l’operazionale reale si avvicina a quello ideale.
Notiamo che la scala del segnale di ingresso è in mV mentre quella del segnale di uscita è in V.
Vo viene quindi fissata ad un massimo e un minimo della tensione di alimentazione, si dice che
l’amplificatore operazionale satura.
Qui il termine saturazione assume un significato diverso nel senso che indica che il valore massimo e quello
minimo sono fissati da alimentazione.
Il nostro amplificatore operazione non può fornire in uscita più di questa tensione. Quindi quando viene
detto che amplifica 10^5 se in ingresso presenta 1V presenterà in uscita il valore di saturazione
determinato dalla amplificazione.
In figura vediamo in particolare la caratteristica di riferimento di un operazionale con Avol = 10^4, livelli di
saturazione di +-10V e tensione di offset di 5mV.
Ottengo che il mio range di linearità in cui ottengo una tensione di uscita proporzionale alla tensione
differenziale di ingresso con un range molto piccolo, ho infatti solo un intervallo di 2mV, infatti si ottiene
facendo 20 (che ho in verticale) / 10^4.
Quindi fornisce una tensione di uscita proporzionale alla tensione di ingresso soltanto se la tensione di
ingresso è compresa in un’intervallino molto stretto.
E se il guadagno diventa 10^5, l’ intervallo si riduce ancora di più.
Noto quindi che il range di linearità in cui l’operazionale è in grado di lavorare è molto stretto.
Inoltre sono affetti da offset, il che significa che l’uscita è non nulla quando la tensione di ingresso è nulla ,
ma per esempio qui è nulla quando vi di ingresso è pari a -5mv, effetto che non tratteremo, infatti ci sono
apposta dei piedini per correggere questo comportamento applicando delle tensioni.
Il range di linearità è molto piccolo per cui se prendiamo un amplificatore operazionale a loop aperto dato
l’elevato guadagno che possiede è sufficiente una piccola variazione ai terminali di ingresso per farlo
saturare.
E’ quindi sufficiente solo il rumore presente nel circuito per esempio, perché l’intervallo si riduce ai valori
tipici del rumore del circuito stesso, quindi l’operazionale se viene usato a loop aperto lo trovo sempre
saturo o al valore alto o al valore basso ed ecco perché l’amplificatore operazionale viene utilizzato quasi
esclusivamente in sistemi in reazione che fanno sì da mantenere il funzionamento dell’operazionale
all’interno della sua regione lineare in cui è in grado di fornire una proporzionalità tra ingresso e uscita.
Dopodichè non abbiamo più un legame, l’uscita satura a 10V qualunque sia la tensione di ingresso.
In zona di saturazione quindi l’operazionale non risponde più ai segnali di ingresso ma è saturo e quindi se
lo voglio mantenere con un’uscita proporzionale alla tensione di ingresso dovrò attuare degli accorgimenti
tra cui inserirlo in una reazione che mantiene la tensione di ingresso ai suoi capi piccola in modo tale da
mantenerlo in regione lineare.
Esistono anche dei circuiti in cui si vuole che l’operazionale sia in saturazione, come i circuiti di
comparazione.
Metodo del corto circuito virtuale
Vediamo un metodo che permette di studiare circuiti con amplificatori operazionali, un metodo
approssimato.
Il metodo si basa sul fatto che se ipotizziamo che il nostro amplificatore si trovi a funzionare in regione
lineare, al suo interno l’amplificatore operazionale ha una scala di ingresso in mv e una di uscita V, dovuto
al fatto che l’amplificazione è molto elevata, quindi posso avere una tensione di uscita finita con una
tensione di ingresso molto piccola.
Nel metodo del corto circuito virtuale il fatto di avere una vo limitata (limitata dalla alimentazione, è infatti
al più pari alla tensione di alimentazione) e un’amplificazione a loop aperto molto elevata indica che la
tensione di ingresso è molto piccola, tanto piccola che in alcuni casi si può prendere nulla:
Si fa quindi l’ipotesi che quando l’operazionale opera nella sua zona lineare la differenza di tensione tra
terminale invertente e non invertente è trascurabile:
Quindi il potenziale del terminale invertente è circa uguale al potenziale del terminale non invertente.
Tra questi due terminali dobbiamo ricordare che c’è la Rin, e solo già con questa ipotesi che ci dice che vin è
piccola e la posso prendere circa uguale a 0, sussegue una conseguenza: se stiamo ipotizzando che i due
terminali sono allo stesso potenziale, vuol dire che nella resistenza Rin non scorre corrente:
Quindi ciò implica che le due correnti i+, assorbita dal terminale +, e i-, assorbita dal terminale –:
Il metodo ci dice quindi che in opportune condizioni il comportamento del mio operazionale lo posso
studiare ipotizzando che tra i due terminali non ci sia differenza di potenziale e che le correnti assorbite dai
due terminali risultano essere entrambe nulle.
E’ detto metodo del cortocircuito perché se due terminali sono allo stesso potenziale è come se fossero
cortocircuitati tra di loro, ma è virtuale perchè non c’è un vero e proprio cortocircuito ma anche il
cortocircuito è particolare perché non ci scorre corrente.
Questo metodo è applicabile se sono soddisfatte le seguenti condizioni:
1. L’amplificatore operazionale non è saturo, ovvero funziona in zona lineare. Deve essere nella zona
di funzionamento in cui la grandezza di uscita è collegata alla grandezza di ingresso, altrimenti non
è più vero che c’è un legame dato da Avol, e non avrei più controllo sulla tensione di uscita dalla
tensione di ingresso.
2. Il modulo del guadagno di anello (BA) della rete in reazione nella quale l’operazionale è inserito è
molto maggiore di 1.
Se sono in queste due condizioni allora poso applicare il metodo del cortocircuito virtuale, noi lo
applicheremo sempre ma andremo tute le volte a utilizzarlo in modo tale da fare una trattazione molto
semplificata dei circuiti che andremo a utilizzare.
Amplificatore invertente
Trattiamo uno schema in cui vi è l’applicazione dell’operazionale.
Prendiamo il nostro amplificatore operazionale e realizziamo una configurazione con il terminale non
invertente collegato a GND, (all’interno non hanno un collegamento al terminale di riferimento ma lo
possiamo imporre dall’esterno), e abbiamo due resistenze, una usata per collegare il generatore di segnale
al terminale non invertente dell’operazionale, l’altra che collega il terminale invertente dell’operazionale
con l’uscita. E’ evidente che ho un sistema di reazione, la tensione di uscita viene prelevata tramite R2 e
riportata in ingresso confrontandola con la tensione di ingresso.
Abbiamo che anche che i+ e i- sono nulle e quindi se faccio il bilancio delle correnti al nodo invertente:
Percorrendo la maglia:
ma v- = 0 quindi:
IR2 per quel che ho trovato prima è pari a IR1, ma posso esprimere IR1 e quindi:
Ecco che quindi il circuito mostrato in figura è un metodo semplice che permette di realizzare un
amplificatore invertente di valore pari al rapporto tra due resistenze esterne aggiunte, questo è vero fino a
quando BA >> 1, ovvero fino a quando l’amplificatore ha un guadagno molto elevato e quindi non è
necessario conoscere precisamente quanto vale l’amplificazione dell’amplificatore operazionale, ma
l’importante è che BA >> 1.
Qualunque sia l’operazionale che inserisco l‘amplificazione è data dal rapporto tra due resistenze, è quindi
stabile ed indipendente dalle caratteristiche.
Il guadagno è quindi più piccolo di 10^4, l’amplificatore operazionale ideale ha Avol -> inf ed è quindi
sicuramente molto maggiore dell’A che otteniamo ma anche se rinuncio ad aver un’amplificazione enorme,
questa è riproducibile e indipendente dalle caratteristiche dell’operazionale e dalle variazioni di
temperatura.
Non dobbiamo dimenticarci che ci sono i due terminali:
Calcoliamo la Rout, resistenza che vedo guardando l’uscita del mio sistema reazionato.
La nostra Ro è piccola, la resistenza di uscita del nostro amplificatore operazionale nel caso ideale è nulla,
mentre nel caso reale è dell’ordine di una decina di Ohm.
Quando applichiamo una reazione e quando questa consiste nel fare un prelievo della tensione di uscita e
riportarla in ingresso, otteniamo che:
La Ro è molto piccola, mentre poi viene divisa per il fattore BA che è molto maggiore di 1, A è dell’ordine
dell’amplificatore Avol dell’operazionale, tra cui siamo nelle condizioni in cui è applicabile il cortocircuito
virtuale. Quindi succede che la resistenza di uscita del nostro sistema in reazione:
Per la resistenza di ingresso, valutiamo la resistenza vista dal nostro generatore di tensione. Dobbiamo
valutare la tensione del generatore e la corrente erogata. Se vale il cortocircuito virtuale:
L’aver collegato R2 ha significato riportare in ingresso un segnale che è proporzionale alla tensione di uscita
Vu, infatti Vu tramite un partitore viene riportata sulla V-:
Amplificatore non invertente
Si può realizzare un amplificatore non invertente basato su un operazionale con piccole modifiche rispetto
allo schema già visto per l’amplificatore invertente:
Vin = V+ - V- e quindi ho la tensione Vs meno una partizione della tensione di uscita, che viene riportata in
ingresso. Con l’ipotesi di cortocircuito virtuale:
Posso quindi dire che la Rof sarà data dalla resistenza interna dell’operazionale diviso 1 – BA e quindi
essendo Ro piccolo e BA molto grande, anche in questo caso ho una resistenza tendente a 0:
Per quanto riguarda la resistenza di ingresso questa coincide con la resistenza che ottengo guardando il
terminale non invertente del mio operazionale:
ma abbiamo l’ipotesi di i+ = 0 e quindi ciò comporta che la is, corrente erogata dal generatore vs, è nulla.
Quindi la resistenza vista dal generatore Vs è molto grande invece nel caso reale, e infinita nel caso ideale:
Ho quindi un operazionale con guadagno che tende a infinito, una tensione di uscita prelevata e riportata
sull’ingresso invertente, mentre sull’ingresso non invertente ci applico il segnale.
Ma ponendo:
dove il circa uguale è tanto più verificato quando il guadagno del mio operazionale a loop aperto è alto.
Abbiamo realizzato un circuito con un guadagno unitario, una resistenza di uscita nulla e una resistenza di
ingresso idealmente infinita.
La resistenza di uscita è Ro/A è quella vista dal morsetto di uscita dal circuito infatti, mentre la resistenza di
ingresso è infinita ed è quella vista dal generatore.
Un circuito con queste caratteristiche : guadagno unitario, resistenza di uscita bassa e resistenza di ingresso
infinita viene chiamato circuito buffer.
Una delle applicazioni immediate che vengono usate da un circuito buffer è la seguente.
Supponiamo di essere nel caso in cui abbiamo un generatore di segnale con resistenza interna non
trascurabile (dell’ordine del KOhm), ovviamente Vs e RS posso anche essere l’equivalente thevenin di
qualcosa di più complicato, e vogliamo trasferire il segnale su un carico piccolo dell’ordine di 10Ohm,
ordine di grandezza tipico per esempio delle casse degli altoparlanti.
Mi trovo nella necessità di trasferire un segnale dal generatore di segnale a un carico di valore piccolo.
Se effettuo in modo diretto il collegamento collegando il generatore di segnale alla resistenza piccola:
La resistenza che trovo sul carico Vo sarà una partizione della Vs:
Ciò significa che ho applicato il mio segnale, tramite magari degli amplificatori multistadio ottenendo un
amplificazione elevata, ma facendo questo collegamento perdo un fattore 100 perché la resistenza di uscita
è molto più grande della resistenza del carico.
Posso riuscire a trasferire in modo corretto questa tensione di segnale Vs al carico senza perdite? Riesco a
farlo con un circuito buffer.
Se applico il segnale al mio terminale non invertente del buffer, la resistenza che si vede Rif -> inf e quindi
se valuto la corrente is, questa è uguale a 0 e quindi su Rs non scorre corrente e di conseguenza V+ = Vs.
Il mio generatore di segnale Vs lo ritrovo di un valore esattamente uguale ai capi del mio V+, il metodo del
cortocircuito virtuale mi dice anche che Vo = Vs e quindi ottengo:
Ai capi del mio carico ho trasferito esattamente la tensione di ingresso senza applicare nessun tipo di
attenuazione. Posso avere Vo = Vs perché in uscita ho una resistenza di uscita nulla.
E’ importante avere una resistenza di uscita nulla perché schematizzando l’uscita in questo modo:
Il fatto che Rof è uguale a 0 significa che tutta la tensione presente sul terminale la trasferisco
automaticamente su RL e quindi posso affermare che la tensione di uscita che ho ottenuto è Vo = Vs.
Ho ottenuto quindi un circuito buffer che mi separa l’ingresso dall’uscita.
Il buffer mette in comunicazione l’ingresso con l’uscita senza che vi siano interferenze tra la resistenza di
uscita e quella di ingresso e viceversa, lato carico fa vedere una resistenza nulla mentre lato ingresso fa
vedere una resistenza infinita.
Amplificatore differenziale (amplificatore di differenza)
Combinando la struttura di un amplificatore invertente con quella di un non invertente si può ottenere un
amplificatore differenziale caratterizzato da un guadagno preciso, che dipende soltanto da un rapporto di
resistenze, con una scelta opportuna delle resistenze. Si noti che anche un amplificatore operazionale preso
da solo, non reazionato, è un amplificatore differenziale, ma non può, nella maggior parte dei casi, essere
utilizzato direttamente come tale, a causa dell’eccessivo e non esattamente noto guadagno.
Se compriamo un certo numero di operazionali uguali nominalmente e se si misura il gudagno in loop
aperto questo cambia notevolmente tra un operazionale e l’altro.
Se uso un operazionale a loop aperto accade che il guadagno è così elevato che è difficile mantenere il
funzionamento del dispositivo in zona lineare e quindi l’operazionale diventa immediatamnete saturo,
positivo o negativo.
Ho quindi la necessità di avere una tensione di uscita Vu che è uguale a K(V2-V1). Voglio avere una
situazione di questo tipo dove è importante conoscere il valore di K, che è la nostra amplificazione
differenziale.
Voglio realizza usando un operazionale un circuito che mi fornisce l’amplificazione della differenza tra due
segnali che sia però predicibile e costante al variare delle caratteristiche dell’operazionale.
Usiamo questa configurazione in cui la reazione viene sempre ottenuta come in precedenza tramite R2
collegata tra l’uscita e V-, poi abbiamo la tensione V1 applicata al terminale invertente tramite R1, mentre
V2 è applicata non direttamente a V+ ma tramite un partitore di resistenze.
Le amplificazioni del modo invertente e non invertente infatti non sono esattamente una l’opposto
dell’altra ma dobbiamo modificare la tensione sul + andando a inserire due resistenze.
Vediamo qual’è la scelta di R1, R2 R3 e R4 che consente di avere una situazione di questo tipo, un valore
costante K che moltiplica V2 – V1.
Andiamo a studiare il circuito usando il metodo del cortocircuito virtuale e visto che tutto si comporta in
modo lineare posso usare il principio sovrapposizione degli effetti.
Determino l’effetto che hanno V1 e V2 sull’uscita separatamente e poi sommo i contributi.
Partiamo dal caso in cui:
V+ è collegata a due resistenze in parallelo ma non ho nessun tipo di segnale e quindi in R3 e R4 non scorre
corrente visto che anche i+ = 0, e si ha quindi V+ = 0.
Ho ottenuto esattamente la configurazione dell’amplificatore invertente.
Sappiamo che la tensione di uscita è semplicemente data da:
Questa confgiurazione è motlo simile a quella dell’amplificatore non invertente. R1 e R2 fanno da reazione
e il segnale è applicato a V+, ma adesso non direttamente ma tramite una partizione.
Sappiamo che i+ = 0 e quindi se indico con i2 la corrente erogata da v2 questa scorrerà in R3 e in R4, dal
momento che i+ = 0, quindi V+ valrà:
Perché ho semplicemente scritto la V+, differenza di potenziale ai capi della resistenza R4.
Quindi a questo punto se considero questa tensione come la mia Vs, la mia configurazione è diventata
esattamente uguale alla configurazione non invertente dove stavolta il mio Vs non è V2 ma questa
partizione. Quindi:
DI fatto è la configurazione non invertente con la differenza che il mio segnale non è applicato direttamente
sul + ma è applicato tramite un partitore. A questo punto ho trovato l’uscita Vu dovuta a V1 e V2 e metto
insieme i risultati:
Abbiamo un termine negativo dovuto alla parte invertente e un termine positivo dovuto alla parte non
invertente. Vediamo se riusciamo a trasformare questa espressione per ottenere il nostro scopo.
Il fatto che abbiamo un segno positivo e negativo ci di ce che siamo sulla strada che ci permette di ottenere
una situazione come quella che desideriamo.
Deve però verificarsi che:
Se voglio realizzare un amplificatore che mi amplifica la differenza tra due segnali devo avere che quando
ho un segnale solo di modo comune l’uscita deve essere nulla.
Notiamo che se scelgo a caso i valori di R1, R2, R3 e R4 questa cosa non è verificata ma vedremo che questa
si realizza solo se effettuo una scelta opportuna di R1, R2, R3 e R4. Andiamo a cercare i valori in modo che
la tensione di uscita si annulla quando V1 = V2.
Imponiamo che la tensione di uscita sia nulla nel caso in cui le due tensioni di ingresso siano uguali.
Mettendo insieme i risultati che abbiamo ottenuto, se faccio questa scelta di resistenze:
Se inglobo il mio operazionale in una scatola con le 4 resistenze scelte opportunatamente ho realizzato un
nuovo amplificatore differenziale con queste nuove proprietà.
Ci avviciniamo a un amplificatore differenziale ideale.
Vediamo quando vale la resistenza di ingresso vista dall’ingresso 1 valutata quando v2 = 0 (ingresso 2
cortocircuitato):
La resistenza di ingresso Ri2 per il cortocircuito virtuale e per il fatto che V+ = 0 e quindi da lì vedo una
resistenza infinita:
La resistenza di uscita vista dall’uscita dell’amplificatore:
E’ complicato realizzare quella relazione R3/R4 = R1/R2 e quindi nella realtà viene presa una di queste
resistenze come variabile prendendo questa uguaglianza con il circa uguale.
Integratore di Miller
Possiamo utilizzare l’amplificatore operazionale per ottenere un circuito integratore, circuito che fornisce in
uscita l’integrale della tensione di ingresso. Per farlo si utilizza una configurazione invertente, la cui
trattazione resta valida anche nel dominio della variabile s.
Se al posto delle resistenze R2 e R1 in un amplificatore invertente abbiamo due generiche impedenze Z1 e
Z2, la funzione di trasferimento potrà essere espressa come:
Con le due impedenze se nel dominio della variabile s analizzo questo circuito e applicp il metodo del
cortocircuito virtuale e ottengo le stesse conclusioni a cui siamo arrivati nell’amplificatore invertente, dove
si ottiene anche qui, risolvendo:
Se, in particolare, consideriamo il caso Z1 = R, Z2 = 1/(Cs), vale a dire poniamo al posto di R1 una resistenza
R e al posto di Z2 un condensatore C:
La funzione di trasferimento risulterà:
Abbiamo quindi:
Quindi:
Ho dimostrato anche nel dominio del tempo quindi che la tensione di uscita sarà pari all’integrale della
tensione di ingresso a meno di alcune costanti.
E’ un circuito non stabile sulla base del criterio BIBO (Bounded Input Bounded Output), applicando un
segnale limitato in ingresso non ottengo un’uscita limitata.
Se applico infatti in ingresso una costante e quindi un segnale limitato l’uscita sarà l’integrale dell’ingresso e
quindi sarà una rampa, diverge nel tempo. Lo notiamo anche dal fatto che la sua fdt ha un polo nell’origine.
Inolte l’offset stesso dell’amplificatore operazionale verrà integrato e quindi dopo un po’ anche con
ingresso nullo l’uscita si satura.
Questo circuito presenta poi anche una resistenza in parallelo al condensatore, e questa modifica rende il
circuito molto più stabile che risulta un buon integratore solo in un certo range di frequenze.
E’ anche possibile ottenere, scambiando tra loro il condensatore e la resistenza, un circuito derivatore, con
funzione di trasferimento A = −RCs, ma questo non è praticamente mai usato, a causa dell’estrema
sensibilità ai disturbi.
Sommatore
E’ possibile, utilizzando un amplificatore operazionale e alcuni componenti passivi, ottenere un circuito
sommatore la cui uscita è proporzionale alla somma delle tensioni in ingresso. Il più semplice e utilizzato
circuito sommatore è quello invertente di cui riportiamo lo schema per una configurazione a tre ingressi.
Ipotizziamo di collegarli al nodo invertente con la stessa resistenza R e utilizzo la resistenza R’ come
resistenza di reazione:
Possiamo analizzarne il funzionamento utilizzando il metodo del corto circuito virtuale e il principio di
sovrapposizione degli effetti, facendo agire un generatore di ingresso per volta.
Ne discende che la corrente che scorre nelle resistenze grazie al fatto che vale il cortocircuito virtuale:
Le correnti dipendono solo dal corrispondente generatore e sono indipendenti una dall’altra.
Questo è dovuto al fatto che l’amplificatore operazionale grazie alla reazione è in grado di mantenere il
terminale V- circa uguale a 0, frutto che BA >> 1.
prendiamo il bilancio delle correnti al nodo:
Posso dire che la corrente uscente IR’ è uguale alla somma delle correnti entranti:
La Vu sarà data dalla caduta sulla resistenza R’ dovuta al fatto che la tensione C- è circa 0:
L’operazionale è molto versatile e consente di amplificare in modo invertente, non invertente, amplificare
la differenza, fare l’operazione di integrazione, di derivazione e di somma, oltre ad altre operazioni.
Regolatori di tensione
I regolatori di tensione sono circuiti che permettono di avere una tensione costante.
Abbiamo visto come partendo dalla sorgente di alimentazione sinusoidale possiamo riuscire a raddrizzare la
tensione (portando una tensione a valore medio nullo ad una tensione a valore medio non nullo) e abbiamo
visto come applicando dei condensatori era possibile diminuire il ripple. Questa tipologia di circuiti portava
ad avere però una tensione sempre affetta da un certo ripple nell’intorno del valore costante che volevamo
ottenere.
I circuiti che vedremmo a partire da questa tensione non regolata permettono di avere una tensione
costante che può essere di valore minore o maggiore della tensione di ingresso e anche di segno opposto.
Un regolatore di tensione ideale è un circuito elettronico progettato per fornire una tensione d’uscita Vu
continua predeterminata indipendentemente da:
- corrente erogata al carico (IL), se dobbiamo fornire una tensione al carico il circuito deve essere in
grado di mantenere questa tensione costante al variare del carico stesso e al variare della corrente
erogata.
- variazioni della tensione di rete (Vin), nella catena di trasformazione partiamo dalla tensione di rete
dalla quale compiamo un certo numero di operazioni. La tensione di rete è altamente variabile, e
dobbiamo essere in grado di fornire una tensione costante anche al variare della tensione di
ingresso.
- Temperatura (T), i vari componenti attivi hanno infatti delle caratteristiche che variano con la
temperatura.
Quindi la nostra Vu sarà funzione di;
Poiché funzione delle tre grandezze possiamo definire questi tre parametri come segue:
Questo parametro tiene conto della sensibilità della tensione di uscita difronte alle variazioni in
temperatura.
Questi parametri forniscono informazioni sulla bontà di un regolatore di tensione, e saranno tanto più
piccoli quanto la tensione di uscita è insensibile alle variazioni.
Con il diodo zener abbiamo sfruttato il fatto che la caratteristica nella zona di breakdown è molto verticale e
quindi la tensione ai suoi capi resta entro certi limiti costante al variare della corrente che scorre nel diodo
stesso.
Questa soluzione presenta però dei limiti, come i limiti in potenza, quindi in termini di potenza massima che
può dissipare il diodo prima che questo si bruci.
La tensione di ingresso (Vin) nel circuito è non regolata, si può schematizzare come una tensione costante a
cui viene sommata un segnale variabile nel tempo.
All’altro estremo abbiamo il nostro carico RL a cui dobbiamo applicare una Vu costante.
Partiamo da una Vin variabile e vogliamo ottenere in uscita una Vu costante anche al variare dei vari
parametri visti prima.
Tra il carico e l’ingresso è posizionato quello che viene posizionato il transistore di “passo” (che troviamo in
alto), elemento attivo che può essere un BJT o un MOSFET e che è un elemento di potenza, componente
attivo costruito opportunamente in modo tale da fornire correnti elevate, essendo in grado di dissipare
potenze elevate. E’ un elemento fondamentale e dovrà assorbire le variazioni, se percorriamo la maglia
esterna vediamo che la Vu = Vin – VCE, quest’ultima caduta sul transistore di passo.
Questo elemento deve essere pilotato opportunatamente in modo che la caduta ai suoi capi sia regolata in
modo da assorbire le variazioni:
Se la Vin varia, la VCE deve cambiare in modo opportuno in modo tale da mantenere la differenza sempre
al valore costante Vu che voglio ottenere.
Come sappiamo se vogliamo mantenere un parametro circuitale a un valore costante, lo facciamo tramite
un sistema in reazione. Il circuito presenta una reazione ottenuto tramite un amplificatore operazionale, e
l’idea è quella di misurare la tensione di uscita, confrontarla con la tensione di riferimento e in base al
confronto decidere come pilotare il transistore di passo.
Se è maggiore di quella che voglio ottenere dovrò modificare la corrente di base fornita al transistore in
modo che la VCE cambi e porti la Vu al valore iniziale.
Ci serve una reazione di tipo negativo, infatti deve essere tale da mantenere un parametro costante.
Prelevo la tensione di uscita, cosa che viene fatta tramite il partitore costituito da R1 e R2, che preleva una
porzione del segnale di uscita e generano la tensione V-, terminale invertente dell’operazionale, che sarà
quindi uguale a una funzione della Vu.
Sul terminale non invertente viene applicata un tensione di riferimento che nel nostro caso è uguale alla
tensione ai capi del nostro diodo zener, polarizzato tramite la resistenza Rz opportunamente e mantenuto
in zona di breakdown tramite Vin e Rz e così da fornire una tensione di riferimento Vz:
Tramite l’operazionale faccio la differenza tra la tensione di riferimento e una funzione della tensione di
uscita e in funzione del confronto vado a cambiare la corrente IB del transistore così da cambiare la VCE in
modo opportuno, mantenendo così la tensione di uscita costante al variare dei vari parametri.
Se il nostro sistema in reazione è tale da avere:
Posso usare il metodo del ccv e quindi scrivere le due equazioni sopra indicate.
La V- in queste condizioni è pari alla tensione tra R1 e R2 e quindi ho un partitore di tensione:
Ciò ci dice che se sono in presenza di un circuito in reazione con modulo di BA >> 1, la tensione di uscita
non dipende dal carico RL, non dipende da Vin e non dipende dalla VCE, ma il suo valore è fissato dalla
nostra tensione di riferimento VZ e da un rapporto di resistenze, costante anche difronte alle variazioni di
temperatura. Sono quindi in grado di ottenere una tensione di uscita costante proporzionale alla tensione
di riferimento Vz che ho scelto.
Dimostriamo che il nostro sistema è in reazione negativa ed è tale da mantenere Vu costante. Andiamo a
prendere la grandezza che voglio mantenere costante e applichiamo una variazione a questo parametro.
Supponiamo che Vin sia aumentata e che Vu volesse anch’essa aumentare, se la tensione di uscita Vu
aumenta allora anche la V- aumenta, perchè data da Vu per il partitore di tensione.
La V+ è invece pari a Vz che possiamo considerare costante.
Allora se la tensione sul terminale + rimane costante e la tensione sul terminale – aumenta, la Vin
diminuisce.
La tensione di ingresso al mio operazionale diminuisce e quindi anche la tensione di uscita diminuisce e
quindi la corrente IB che viene fornita al transistore diminuisce.
Se diminuiamo la corrente di base del transistore bipolare diminuisce anche la corrente di emettitore.
Diminuisce la corrente che viene erogata dal mio transistore bipolare, in particolare quella fornita a RL e
quindi la Vu diminuisce.
L’anello di reazione agisce nel modo corretto. Una causa che ha comportato un aumento della Vu fa sì che il
sistema in reazione agisca in modo opposto alla variazione che l’ha determinato, ciò dimostra come la
reazione sia di tipo negativo. La stessa cosa accade se la tensione di uscita diminuisce.
Il transistore di passo viene opportunamente pilotato dal sistema in reazione in modo tale che la tensione
ai suoi capi venga modificata così da mantenere la Vu costante.
Abbiamo visto come la Vu è costante se BA è in modulo >> 1, e dipende solo dalla tensione di riferimento e
da un rapporto di resistenze. Comprendiamo ora la presenza dei condensatori C1 e C2.
Ragioniamo sull’impedenza di uscita del circuito.
Siamo in un circuito in cui si preleva la tensione di uscita, abbiamo quindi una reazione di tensione, quindi la
sua impedenza di uscita è molto bassa, dell’ordine di pochi mOhm.
Questo perchè la resistenza di uscita del sistema non in reazione, quindi quella che vedo in uscita dal
transistore di passo e quindi la resistenza vista dall’emettitore è bassa e questo perché è data dalla
resistenza vista dalla base/hfe + 1, e viene anche divisa per il fattore 1 – BA.
Anche se avessi un transistore MOSFET è piccola e pari a 1/gm.
E’ molto facile ottenere una resistenza di uscita molto bassa, quindi ci avviciniamo al comportamento di un
generatore ideale di tensione. Posso infatti schematizzarlo come segue applicando poi un carico RL:
Se Rof è circa uguale a 0 ho che il mio generatore di tensione funziona come un generatore di tensione
ideale, cosa vera finchè il modulo di BA è molto piccolo.
Il problema del circuito però è che la condizione attuale, in cui sto considerando il modulo di BA >> 1. è
verificata solo a bassa frequenza.
Il problema dell’alta frequenza è determinato dall’amplificatore operazionale, che ha una banda nel caso
reale abbastanza limitata e quindi all’aumentare della frequenza il guadagno dell’operazionale inizia a
diminuire. Ad alte frequenze |BA| diminuisce. Il regolatore di tensione a bassa frequenza può essere
considerato come un generatore di tensione ideale ma se sono presenti variazioni ad alta frequenza non è
più vero che la Rof può essere considerata praticamente nulla.
Ciò potrebbe darmi problemi quando utilizzo questo regolatore di tensione per alimentare più carichi.
Si parla infatti di accoppiamenti indesiderati ad alta frequenza tra carichi diversi connessi allo stesso
alimentatore e vediamo perché.
A bassa frequenza qualunque sia il numero di carico che applico in parallelo alla tensione di uscita, ciascun
carico avrà una tensione di uscita pari a V0.
Ad alta frequenza invece, Rof sarà != 0 e se uno dei carichi presenta dei disturbi (scorre una corrente con
dei disturbi ad essa sovrapposti, come il rumore elettronico) succede che un disturbo presente su un carico
si va a ripercuotere su tutti gli altri carichi. Infatti la Vu applicata a un carico:
E’ sufficiente che la corrente IL2 abbia dei disturbi in alta frequenza che questo disturbo si vada a
presentare su tutti gli altri carichi.
La tensione Vu applicata in parallelo a tutti i carichi presenta lo stesso disturbo presente in uno solo dei
carichi.
Se la corrente che scorre su un carico è affetta da variazioni ad alta frequenza queste stesse variazioni si
ripercuoteranno su tutti i carichi visto che Rof != 0 e quindi la tensione applicata a questi carichi risente di
queste variazioni. Mentre se Rof fosse nulla questo non accadrebbe.
Se voglio ottenere che Zc sia circa pari a 0 anche a bassa frequenza (per f piccolo) possiamo prendere un
condensatore con una capacità (C) sufficientemente grande.
Ottengo quindi come risultato il modulo dell’impedenza piccolo anche a bassa frequenza.
Per avere a frequenza bassa Zc piccolo basta prendere un C grande.
I condensatori che mi consentono di avere una capacità grande (dell’ordine del microfarad) sono i
condensatori elettrolitici, che contengono al loro interno un elettrolita e hanno delle capacità di qualche
unità di microfarad e posso quindi utilizzarli in questa applicazione.
Il loro problema è però quello che dati i materiali impiegati per realizzarli, questi condensatori mostrano
una capacità di questo ordine di grandezza a bassa frequenza, ma se aumento la frequenza i condensatori
elettrolitici mostrano un comportamento di tipo induttivo.
Se faccio il grafico del modulo di Zc in funzione della frequenza abbiamo un range in cui questo diminuisce
all’aumentare della frequenza in modo lineare, ma superato un certo range di frequenza l’impedenza
aumenta all’aumentare della frequenza, non funzionando più come una capacità ideale.
Si mette allora in parallelo al condensatore elettrolitico un condensatore ceramico, condensatori che
utilizzano materiali ceramici al loro interno come dielettrico e hanno delle capacità che non sono di grande
entità, sono dell’ordine del nanofarad/picofarad, ma che però hanno la proprietà che ad alta frequenza si
comportano come un condensatore ideale.
Ho quindi degli elettrolitici ideali a bassa frequenza e condensatori ceramici che invece funzionano bene ad
alta frequenza.
Ad alta frequenza non ho bisogno di capacità elevate, infatti la frequenza è elevata dall’equazione vista
prima e allora Zc è comunque piccola, il problema si ha quindi solo quando f è piccola.
La soluzione è quindi di mettere condensatori in parallelo, ottenendo un’impedenza risultante che è la
somma delle impedenze con almeno uno dei due che presenta un’impedenza piccola, l’elettrolitico a bassa
frequenza mentre il ceramico ad alta frequenza (f molto alta).
Un parametro interessante di tutti questi circuiti è la caduta di potenziale minima sul transistore di passo
necessaria affinché questo funzioni correttamente, la indichiamo con Vdropout.
Il transistore deve infatti essere in funzione e quindi devo avere una VCE non nulla i suoi capi nel caso di
BJT, mentre una VS non nulla nel MOSFET.
Questi componenti presentano poi una parte in metallo, solitamente si tratta della parte posteriore, che
molte volte finisce con un anello, ed è usata per poterci attaccare un dissipatore di calore, così da
aumentare il raffreddamento.
Abbiamo una tensione di uscita di 12V, una tensione di dropout di 2V, una corrente di 1.5 .
Siamo quindi nell’ordine di dissipazione di 18W (12 * 1.5) con una tensione di ingresso che gli va fornita che
deve essere almeno di 14V. Abbiamo che 2V è il dropout, la caduta di potenziale minima tra ingresso e
uscita che gli deve essere fornita in modo tale che sia in grado di fornire 12 V, è infatti ottenuta come 12V +
2V.
La line regulation ci fornisce invece informazioni su come varia la tensione di alimentazione, quindi se Vi
varia in quel range con una corrente erogata di quel valore, avrò una variazione in uscita di soli 13 mV,
quindi in uscita un valore di 12V +- 13mV.
A una variazione notevole della tensione di ingresso otteniamo in uscita una variazione di soli 13mV.
Invece da load regulation vediamo come se vario tanto la corrente erogata, avendo una tensione di
ingresso costante la tensione di uscita varia solo di 25mV.
Per la temperatura ci viene detto che per ogni variazione di 1 grado abbiamo che la tensione varia di 1mV.
Se cambiamo anche di 100° abbiamo la tensione scende al più di 100mV (avremo 11.9 o 12.1), quindi sono
molto efficienti.
Di seguito rappresentiamo lo schema di un tipico alimentatore basato su un regolatore monolitico in grado
di fornire una tensione di 12V:
SI prende un trasformatore così che ci fornisca isolamento galvanico con l’alimentazione di rete, e con un
certo rapporto spire tale in funzione della tensione che mi serve.
Poi ho un raddrizzatore a ponte di Graetz, il 7812 e un condensatore di ingresso e di uscita, i cui valori sono
consigliati dal costruttore. Con questo semplice circuito si ottiene una tensione costante pari a 12V.
Ne esistono di questo tipo anche il suo duale che fornisce una tensione negativa, basato anch’esso su un
regolatore lineare serie, ma la sigla cambia e diventa pari a 79xx e quindi un 7912 ha le stesse
caratteristiche di un 7812 soltanto che fornisce in uscita una tensione di -12V tra l’ingresso e l’uscita.
Usando un 7812 e un 7912 si può ottenere un’alimentazione duale e per farlo utilizzo un trasformatore a
presa centrale con singolo primario e doppio secondario con ponte di Graetz.
Il terminale intermedio del secondario viene preso come riferimento (0V) mentre un terminale della
diagonale viene mandata in ingresso al 7812 mentre l’altro terminale viene mandato in ingresso al 7912.
Quindi hanno il terminale di massa a comune e il 7812 mi fornirà in uscita rispetto al mio riferimento mi
fornirà in uscita rispetto al mio riferimento (terminale centrale) una tensione di 12V mentre il 7912 mi darà
in uscita una tensione di -12V.
Regolatore di corrente
I regolatori monolitici integrati possono essere usati per realizzare un regolatore di corrente, in modo da
ottenere una corrente costante.
Prendiamo il regolatore monolitico 78XX e colleghiamo tra l’uscita e la massa una resistenza R costante e
dopodichè colleghiamo l’uscita a un carico RL sul quale vogliamo erogare una corrente costante.
VDC alimenta il nostro regolatore di tensione.
Se faccio operare il 78XX in modo tale che la corrente erogata da esso IR risulti molto grande rispetto al
valore di IM, la corrente che scorre nel mio carico è costante al variare di RL.
Posso cambiare il carico ma gli verrà sempre fornita una corrente costante.
Questa soluzione presenta alcuni problemi, ci sono un ceto numero di ipotesi che devono essere
soddisfatte in modo che la corrente erogata sia indipendente dal carico.
La corrente erogata non può essere innanzitutto troppo piccola, perché se la IR diventa paragonabile alla
IM e la IM presenta delle variazioni, la IL non può più essere considerata costante.
La RL non può essere scelta a piacere, se scelgo RL troppo grande il circuito smette di funzionare.
Andiamo a scrivere la caduta di tensione sulla maglia esterna, che sarà pari alla caduta ai capi del 78XX più
la caduta VXX che abbiamo ai capi di R più la caduta ai capi della resistenza.
Il problema è che devo garantire che il mio 78XX funzioni sempre correttamente. Abbiamo visto che il 78XX
funziona correttamente se la caduta ai suoi capi VEU >= Vdropout.
Devo quindi garantire che la differenza di potenziale tra E e U sia almeno pari a questo valore.
Se fisso VDS il valore minimo che può ottenere è Vdropout nel worst case.
Se aumento troppo RL visto che IR è fissata accade che la caduta sulla resistenza RL è così grande che,
mantenendo costante VDC e VXX, non è più garantito che tra il terminale E ed U sia rispettata la caduta di
potenziale Vdropout. La situazione peggiore è la seguente:
Il circuito funziona correttamente a patto che la resistenza non sia così grande da non garantire più che tra
ingresso e uscita del mio regolatore vi sia la tensione minima richiesta.
La RL non può essere troppo grande o il 78XX smette di funzionare.
Se indichiamo con TS il periodo di pilotaggio dell’interruttore (supponendo quindi di aprire e chiudere con
ton e toff fissi) questa forma d’onda si ripeterà nel tempo.
Ottengo quindi sulla resistenza una tensione periodica di tipo rettangolare.
Parto da una tensione costante e ottengo in uscita una tensione variabile nel tempo.
Vediamo quanto vale il valore medio della tensione V0.
Visto che è periodica e si ripete pari a sè stessa nel tempo l’uscita avrà un valore medio diverso da 0 e di
valore costante. Il valore medio avendo una forma d’onda periodica è l’integrale sul periodo diviso il
periodo stesso.
Quindi essendo Vd costante, ipotesi di lavoro da cui siamo partiti, il valor medio è dato dal valore Vd per
l’intervallo in cui l’interruttore è chiuso, diviso il periodo.
Il rapporto tra ton e Ts prende il nome di duty cycle.
Se prendiamo la tensione ai capi del diodo, trascurando la caduta ai capi del diodo stesso, quando
l’interruttore è chiuso questa vale Vd mentre quando è aperto il diodo è in conduzione e ai capi del diodo
ho Vy, che possiamo considerare nullo così da avere un cortocircuito.
Le componenti armoniche del segnale, facendo la Trasformata di Fourier, visto che il segnale è a frequenza
fs che si ripete, avranno una componente a frequenza nulla, ovvero il suo valore medio, e poi abbiamo le
altre armoniche che sono multiple della frequenza del nostro segnale (fs, 2fs, 3fs, ecc.).
Il filtro ideale è quello in figura a sinistra tratteggiato, con una frequenza di taglio tale da far passare solo la
componente a frequenza nulla:
Nella realtà i filtri non hanno un andamento verticale di questo tipo ma il filtro reale ha un andamento di
questo tipo:
Ha una banda più o meno piatta fino a fc, poi se è del 2° ordine abbiamo una pendenza di -40db/dec.
Posso fare in modo che la frequenza fc del mio filtro sia molto più piccola di fs.
Se la tensione ai capi dell’induttore è costante, la sua corrente sarà linearmente dipendente nel tempo, e
quindi durante l’intervallo A la corrente aumenterà linearmente, con un andamento di una rampa
crescente, del tipo (Vd – V0)* t. Ho una corrente nell’induttore che risulta quindi essere periodica.
Stiamo facendo l’ipotesi del valor medio della corrente sia tale che la corrente non si annulli mai.
L’integrale tra 0 e t + Ts lo posso spezzare in due per le proprietà dell’integrale. Ho due membri uguali al
primo e secondo membro e quindi:
Graficamente questa espressione analitica che ho trovato ci dice che l’area tra il rettangolo A e B devono
essere uguali, essendo che la loro somma deve essere nulla.
Se lo traduciamo ciò implica:
Quando l’interruttore è chiuso il diodo è polarizzato inversamente (D OFF) e quindi la corrente scorrerà
attraverso l’induttanza, una parte attraverserà poi il condensatore e una parte attraverso la resistenza e
dopodichè entrambe le correnti si richiudono scorrendo appunto sul terminale in basso.
Quando l’interruttore è aperto nell’induttore sta scorrendo una corrente, e questa istantaneamente non
può cambiare altrimenti avrei una tensione infinita ai capi dell’induttore. Il diodo entra in conduzione e fa
scorrere una corrente che scorrerà attraverso l’induttore, in parte attraverso il condensatore in parte
resistenza e si richiuderà attraverso il diodo stesso.
Il diodo entra in conduzione per consentire alla corrente di poter continuare a scorrere.
Il condensatore e l’induttanza svolgono il proprio ruolo di filtro e fanno sì che sulla nostra resistenza RL
ottengo una tensione costante.
Questo è il nostro regolatore di tipo forward che consente di ottenere una tensione di uscita della stessa
polarità della tensione di ingresso il cui valore è però inferiore (D <= 1, è 1 quando ton = Ts) e quindi:
Visto che anche in questo caso la tensione VL assume una forma d’onda periodica e visto che possiamo
quindi assumere che corrente nell’induttore sia periodica essa stessa, per le considerazioni viste prima
imponiamo che l’area nell’intervallo ton sia uguale all’area del rettangolo nell’intervallo toff. Quindi:
Dividiamo tutto per Ts e otteniamo delle quantità pari al duty cycle. La tensione di uscita è pari a:
La polarità della tensione di uscita è opposta rispetto a quella di VDC per le polarità viste nel circuito e il suo
valore dipende da D. Posso ottenere un valore maggiore di VDC, perché anche se D è minore di 1:
Il circuito è molto versatile e mi consente di ottenere in funzione del duty cycle una tensione che può
essere minore, uguale o maggiore della tensione di ingresso.
Ho una tensione di uscita che riesco a controllare mediante un parametro, il duty cycle.
Isolamento galvanico
I regolatori switching finora visti necessitano di una sorgente di alimentazione continua: questa può essere
ottenuta con un trasformatore (che garantisce l’isolamento galvanico dalla rete di distribuzione dell’energia
elettrica) seguito da un ponte di Graetz e da un filtro capacitivo. Tale soluzione funziona ed è in certi casi
utilizzata, ma mantiene uno degli svantaggi tipici degli alimentatori tradizionali, vale a dire l’elevato
ingombro e l’elevato peso del trasformatore.
Partendo dalla tensione di rete a 50Hz deve esserci però per forza la presenza di un trasformatore per
motivi di sicurezza.
Nella parte a) della figura seguente viene illustrata la situazione di pericolo che si viene a creare quando si
tocca una qualunque parte di un’apparecchiatura connessa alla rete direttamente senza trasformatore.
Prendiamo un’apparecchiatura che alimentiamo direttamente con l’alimentazione a 230V come valore
efficace e 50Hz coi due fili, fase e neutro, quest’ultimo vincolato a terra.
L’apparecchiatura avrà delle impedenze Z1, Z2 (dipendenti dal circuito interno) tra il terminale di fase e
neutro e il terminale di riferimento dell’apparecchiatura.
L’impedenza Zp rappresenta la persona che se tocca una parte circuitale è sottoposta a scossa elettrica
perché viene percorsa da una corrente che si richiude poi a terra, tramite i piedi.
Si innesca un circuito che si può chiudere tra la persona e la terra attraverso la fase e quindi Z1 e poi Zp, si
chiude una maglia.
In presenza di un trasformatore (b), si ha il cosiddetto “isolamento galvanico”, permette di avere circuiti
collegati al secondario galvanicamente isolati dal primario.
Viene interrotto il collegamento che riferiva a terra le tensioni all’interno della apparecchiatura, le tensioni
sul secondario sono riferite rispetto al terminale di massa che non ha nessun collegamento al terminale di
terra, e non c’è nessuna possibilità di avere una maglia chiusa, infatti l’unico modo perchè l’utente possa
subire una scossa elettrica è che questi tocchi contemporaneamente due punti del circuito a tensione
diversa. Il secondario non ha un proprio collegamento tramite un conduttore a un collegamento di terra
che prima avevo. Un trasformatore nel circuito devo averlo, ma un buon trasformatore che funziona a 50Hz
è molto ingombrante.
Parto quindi dalla tensione di rete, non applico il trasformatore, vado solo a raddrizzare, prendo il
condensatore che mi fa diminuire il ripple, dopo il quale metto l’interruttore e solo dopo questo ho una
tensione variabile nel tempo ad alta frequenza e metto quindi un trasformatore ad alta frequenza.
Posso quindi usare un trasformatore molto piccolo, è ancora in grado di darmi la separazione tra primario e
secondario e quindi isolamento galvanico, ma è molto piccolo e compatto.
Avrò però la necessità di avere due diodi.
In questa configurazione il trasformatore non funziona più come tale, poiché, come discuteremo nel
seguito, non opera a flusso magnetico nullo.
Quando S è chiuso, la corrente scorre nel primario e sul secondario la corrente dovrebbe scorrere uscendo
dal pallino, però c’è il diodo che impedisce che questo avvenga e quindi la corrente non scorre perché D1 è
OFF. La corrente nel secondario è quindi nulla.
Scorre una corrente nel primario che lo porta a considerarlo come una semplice induttanza in cui sto
accumulando energia magnetica perchè ci scorre una corrente attraverso.
Quando apro l’interruttore nel primario non scorre più corrente ma comunque nel mio trasformatore avevo
un flusso magnetico presente dovuto al fatto che vi stava scorrendo corrente e l’inerzialità della variazione
di flusso magnetico fa sì che sul secondario scorra una corrente per avere un flusso costante.
L’unico modo di mantenere il flusso magnetico che era presente subito prima dell’apertura consiste nel far
circolare una corrente nel secondario, entrante nel pallino.
Se prima la corrente entrava nel pallino adesso nell’istante successivo all’apertura scorrerà una corrente nel
secondario entrante nel pallino e questa volta può scorrere perché il diodo D1 glielo consente.
Questa corrente determina una polarizzazione diretta del diodo D1 (D1 ON) e va ad alimentare il
condensatore C2 e il carico.
Durante il primo semiperiodo scorre corrente solo nel primario mentre durante il secondo semiperiodo
scorre corrente solo nel secondario e l’induttanza è quella che avevo prima nel circuito flyback.
L’induttanza che avevo prima è stata sostituita dall’induttanza del trasformatore.
il fatto che la corrente scorre nel secondario è dovuto al fatto che il flusso magnetico non può interrompersi
istantaneamente nel mio trasformatore.
Avevo un flusso magnetico generato dalla corrente nel primario, apro l’interruttore e questo flusso
magnetico viene mantenuto diverso da 0 perché non sto funzionando a flusso magnetico nullo e deve
scorre nello stesso modo in cui scorreva prima la corrente e quindi anche nel secondario deve entrare nel
pallino.
Si può dimostrare che questa configurazione flyback è equivalente a quella studiata in precedenza.
Ho bisogno di un raddrizzatore di tensione di rete dato dal ponte di Graetz, il sistema migliore per avere un
raddrizzatore a doppia semionda, in parallelo al quale metto un condensatore. Dopo il quale dobbiamo
realizzare il nostro interruttore e per fare questo possiamo usare un MOSFET di potenza, dobbiamo erogare
comunque una certa potenza dovuta al fatto che ci passa corrente attraverso l’interruttore ma quando ci
passa corrente farò in modo che la tensione ai suoi capi sia la più piccola possibile, cerco di dissipare il
meno possibile, non ci riuscirò nel caso reale ma cerco di fare un interruttore vicino a questo
comportamento. Metto quindi in serie il mio interruttore come MOSFET di potenza, su cui vado a pilotare
opportunamente il gate tramite il circuito di controllo dello switch.
Ho poi il mio regolatore flyback dato dal mio trasformatore col diodo, il condensatore e il mio carico.
Il controllo viene fatto con un circuito in reazione, che preleva la tensione di uscita che porta al partitore di
tensione dato da R1 e R2. Quindi è possibile calcolare il valore di V+.
La tensione di uscita la vado a confrontare con una tensione di riferimento che genero con un regolatore di
riferimento che prende in ingresso la tensione Vu.
L’amplificatore A1 è un amplificatore differenziale e amplificherà la differenza tra il mio segnale di uscita
partizionato e il mio segnale di riferimento. L’amplificazione viene portata in ingresso al terminale – di un
comparatore, operazionale che viene tenuto a loop aperto, e che sarà sempre o saturo alto o saturo basso
a seconda del segno (se V+ > V- sarà saturo alto, mentre se V- > V+ sarà a saturo basso, a tensione
negativa): se l’onda triangolare applicata all’ingresso non invertente ha un valore superiore a quello
dell’uscita di A1, l’uscita di A2 è al valore di saturazione positiva, altrimenti si trova al valore di saturazione
negativa.
L’uscita di A1 sarà il segnale continuo che viene portato in ingresso al comparatore al – di di A2.
Negli intervalli di tempo in cui l’onda triangolare è maggiore dell’uscita di A1, significa che V+ > V- e quindi
la tensione di uscita è al valore di saturazione positiva.
Durante il secondo semiperiodo invece il segnale a onda triangolare è minore del segnale costante e ci
troviamo al valore di saturazione negativa.
Il mio segnale di uscita dal comparatore sarà alto durante l’intervallo in cui l’onda triangolare è maggiore
della tensione di uscita di A1.
Supponiamo che quando l’uscita è saturo alto questo corrisponde a quando l’interruttore è chiuso, Ton,
mentre che quando è saturo basso corrisponda a Toff.
L’uscita di A2 è il segnale che per semplicità possiamo considerare come quello che pilota Ton e Toff.
Supponiamo che Vu diminuisce, l’uscita di A1 si porta nella situazione in figura. La tensione v1 diminuisce e
in tal caso l’intervallo Ton in cui l’onda triangolare è maggiore della tensione costante diventa maggiore.
Succede che quindi che Ton aumenta e che Toff diminuisce.
Il sistema è quindi in grado di modificare il valore di Ton e Toff in modo opportuno, tramite una reazione
negativa. Questa onda triangolare si ottiene mediante un generatore di onda triangolare di valore massimo
e minimo scelti in modo tale che tutto funzioni correttamente.
Il valore della tensione in uscita da A2, segnale di controllo, viene portato al circuito di controllo del switch
tramite l’accoppiatore ottico, che garantisce l’isolamento galvanico: se l’uscita di A2 è in saturazione
positiva, il transistore è in conduzione, altrimenti è in interdizione.
Nel percorsi di andata la separazione è data dal trasformatore ma anche nel ritorno devo riportare il
segnale mediante un disaccoppiamento.
I circuiti di controllo dello switch sono alimentati mediante un altro secondario, tipicamente usato per
alimentare il circuito in modo diverso senza usare la parte regolata.
Troviamo un altro componente particolare, RA. Il sistema in reazione funziona a regime, all’inizio ci deve
essere qualcuno che comincia ad aprire/chiudere Q1, l’interruttore, a quel punto avrò una tensione di
uscita Vu e quindi posso alimentare il circuito di reazione e far funzionare il tutto. Però all’inizio deve
funzionare l’oggetto e quindi all’inizio qualcuno deve iniziare ad aprire/chiudere Q1 e lo fa il circuito di
controllo del switch.
Qualcuno deve alimentare il circuito di controllo dello switch all’inizio altrimenti non ho possibilità di farlo
funzionare. All’inizio lo fa funzionare proprio la resistenza RA, resistenza dimensionalmente grossa perché
attraverso esso passa molta corrente, che ha lo scopo di portare la tensione al circuito di controllo all’inizio.
A questo punto si apre/chiude l’interruttore e si mette in moto il regolatore flyback, viene generata la
tensione sul secondario e una volta fatto ciò D2 e C3 forniscono la tensione di alimentazione e tutto
funziona correttamente. La resistenza svolge quindi il suo ruolo solo all’inizio e dopo non lo svolge più.
E’ quella resistenza che quando si rompe, dopo aver spento il PC questo non si riaccende più e pensiamo si
sia rotto allo spegnimento. Ma si è rotta solo la resistenza e si è rotta l’ultima volta che lo abbiamo acceso.
Essendo RA rotta nessuno fornisce la tensione iniziale al circuito di controllo del switch.
Circuiti digitali
Un segnale analogico è un segnale definito all’interno di un certo range di ampiezze all’interno del quale
può assumere un qualsiasi valore.
Un segnale analogico può essere tempo-continuo, se definito in qualsiasi istante temporale all’interno di un
intervallo, oppure tempo-discreto (o campionato), se definito solo per alcuni istanti temporali precisi.
Definiamo x(t) una qualsiasi forma d’onda di una qualsiasi grandezza fisica, avremo:
Potremo usare qualunque sistema per la rappresentazione dei valori di ampiezza, tipicamente si usa
usando il sistema binario perché è semplice da un punto di vista implementativo visto che dobbiamo
discriminare solo due livelli (0/1), un livello ON e un livello OFF.
L’elettronica digitale è l’insieme dei circuiti e funzioni logiche che servono a processare segnali digitali.
Logica a diodi
Iniziamo vedendo come si può realizzare la porta logica AND.
E’ infatti sufficiente che soltanto VA o soltanto VB siano a tensione 0 perchè il corrispondente diodo
conduca e anche l’uscita vada a 0.7V.
Nel primo caso si accendono entrambi i diodi, nel secondo caso solo il diodo 1 e nel terzo solo il diodo 2, ma
basta un solo diodo per portare in basso la tensione di uscita.
E’ sufficiente che uno solo dei due sia a 5V per avere una tensione di uscita di 4.3V.
Abbiamo quindi realizzato una funzione OR; è sufficiente che uno dei due ingessi abbia un livello di tensione
alto per portare l’uscita a un livello di tensione alto.
Si osserva che almeno uno dei due livelli di uscita non è pieno, la tensione di uscita è identificabile come
livello alto ma non abbiamo 5V pieni.
Nel caso in cui abbiamo A = 1 e B, C e D siano uguali a 0, ci aspettiamo che Vout sia 1, visto che è sufficiente
che uno solo dei due ingressi valga 1 per avere 1 in uscita.
Se guardiamo le tensioni in gioco però osserviamo che:
Per la AND il problema si pone in cui almeno uno degli ingressi è nullo.
Nel caso in cui VA e/o VB sono pari a 0V si ha assorbimento di corrente e quindi dissipazione di potenza.
Il diodo si accende e quindi sull’anodo abbiamo una tensione pari a 0.7 e quindi dinuovo:
Inverter 1NMOS/1R
Vediamo adesso la realizzazione di un inverter usando un NMOS e una resistenza.
In generale il transistore viene realizzato sfruttando tutta la dinamica dell’ingresso e dell’uscita.
Il segnale di ingresso può assumere un qualsiasi valore e lo stesso per l’uscita.
Prendiamo un NMOS con il Source a massa e il Drain che è portato attraverso una resistenza a VCC e
definiamo VGS come tensione di ingresso, mentre sul Drain andiamo a prendere la tensione di uscita.
I transistori MOSFET usati per realizzare circuiti digitali vengono usati solo in due stati:
- OFF (spento), quando la VGS < VTN.
Un transistore MOS con una VGS minore della tensione di soglia ha una ID = 0 e quindi il
suo circuito equivalente sarà un circuito aperto.
- ON (acceso), in cui abbiamo VGS >= VTN e con VGS – VT >> VDS.
La relazione tra corrente di drain e la tensione VDS è lineare e quindi possiamo definire una resistenza
equivalente esattamente pari al rapporto tra VDS e ID.
e questa resistenza tipicamente è molto piccola, ed essendo VGS – VT molto grande, il denominatore si può
approssimare come segue:
Vogliamo realizzare la seguente tabella di verità:
Osserviamo che:
Quindi visto che la corrente che attraversa la resistenza è nulla (abbiamo un circuito aperto infatti in
entrambi i lati) la tensione di uscita sarà pari a 5V.
Quando ho Vin pari a VCC, la differenza VCC – VTn è sostanzialmente pari a VGS – VTn, per VGS – VTn molto
grande la resistenza Ron sarà molto piccola e molto probabilmente sarà più piccola della resistenza R.
Nel modello equivalente tra drain e source abbiamo una resistenza Ron molto piccola:
Resistenza che è proporzionale a 1/(VGS – VTn) ma VGS coincide con VIN e quindi è molto piccola.
Qui avrò una Ron molto piccola e quindi se calcolo l’espressione sul drain posso scrivere:
Inverter 1PMOS/1R
Vediamo invece come realizzare un inverter con una resistenza e un PMOS (1PMOS/1R).
La configurazione è molto simile ma dobbiamo scambiare le posizioni di transistor e resistenza,
rispettivamente in alto e in basso. Stavolta la resistenza sarà di PULL-DOWN.
La VDS è quella in figura e tipicamente è negativa, mentre la VGS è quella che va da source a gate,
anch’essa tipicamente negativa.
Abbiamo:
Vin sarà al più VCC visto che VGS < 0. La tensione di uscita invece:
Disegniamo la transcaratteristica (VTC) e adesso il transistore sarà spento se metto la Vin a una tensione
alta e quindi vicina alla VCC così la VGS è vicina a 0.
Quindi se il PMOS è spento posso sostituirlo con un circuito aperto e quindi la Vout sarà forzata al nodo di
Ground attraverso la resistenza di PULL-DOWN e questa condizione si mantiene finchè la Vin non la
abbasso fino a una certa tensione di soglia, fino a quel valore in modulo ho una VGS sempre compresa tra 0
e la soglia VTp.
All’altro estremo se la Vin la porto a 0, ho VGS = - VCC che è molto minore della tensione di soglia VTp.
Posso quindi assumere che la Ron del PMOS è molto piccola e disegnando il modello equivalente:
Quando Vin = 0 la Ron assume il suo valore minimo e quindi VU sarà molto vicina a VCC, visto che:
Inverter CMOS
Possiamo sfruttare i vantaggi delle due configurazioni studiate, nella zona per ingressi bassi i vantaggi
dell’NMOS e per gli ingressi alti invece, i vantaggi del PMOS così da avere un inverter sia veloce che con una
potenza dissipata piccolissima, in ognuna delle due fasi statiche avremo infatti almeno uno dei due
transistor interdetti. Usiamo 1 NMOS come PULL-DOWN e 1 PMOS come PULL-UP.
La soluzione al problema della dissipazione di potenza in condizioni statiche da parte dell’inverter consiste
nel realizzare la cosiddetta configurazione MOS complementare (Complementary MOS, CMOS).
Abbiamo un transistor di tipo P che connette attraverso il suo drain l’uscita a VCC e quindi in base allo stato
della sua VGS può connettere l’uscita a VCC e svolgere l’operazione di PULL-UP, mentre in basso abbiamo
un NMOS che connette il suo drain quando è acceso al ground attraverso il canale del transistore.
Queste sono le relazioni che valgono nel circuito e possiamo disegnare il modello equivalente che è sempre
valido ma cambiano le resistenze in gioco.
Entrambe le resistenze equivalenti dipendono da Vin e quando o l’NMOS o il PMOS è spento la resistenza
equivalente associata è infinita.
Prendiamo la transcaratteristica e vediamo il suo andamento da un punto di vista qualitativo.
Quando almeno uno dei due transistori è spento, abbiamo un ingresso che può andare da 0 a VCC e per Vin
= 0, la VGS dell’NMOS è nulla e quindi minore della sua tensione di soglia e quindi l’NMOS è aperto.
Abbiamo allora che la resistenza equivalente è infinita, la corrente che scorre quindi sulla resistenza del
PMOS è nulla. Per una tensione che va da 0 alla tensione di soglia dell’NMOS ho una resistenza del PMOS
finita e una resistenza equivalente dell’NMOS a cui sostituiamo un circuito aperto.
Quindi la Vu va a coincidere con la VCC visto che abbiamo una caduta trascurabile sulla resistenza del
PMOS.
Considerazioni simili si possono fare quando la tensione di ingresso è molto alta e vicina a VCC con una
distanza massima pari al modulo della tensione di soglia del PMOS.
In questa zona VGSp = Vi-Vcc ma se al posto di Vin inserisco un valore in questo intervallo, la VGSp non sarà
in modulo maggiore rispetto alla sua soglia e quindi alla resistenza equivalente del PMOS sostituiamo un
circuito aperto perché stavolta è il PMOS ad essere spento.
Abbiamo quindi tre regioni e abbiamo sicuramente zone in cui i dati sono interpretati in modo corretto.
Se la tensione di ingresso si discosta poco da 0, l’inverter mi fornisce un uscita esattamente pari a VCC e
quindi interpretabile in modo preciso pari all’1 logico.
La stesso cosa per Vin vicina a VCC perché l’inverter è in grado di fornire in uscita esattamente pari a 0V
anche se l’ingresso si discosta poco da VCC.
Nella prima regione abbiamo quindi Input Low (IL) e Output High (OH).
Nella terza regione abbiamo invece Input High (IH) e Output Low (OL).
La seconda regione invece, detta anche zona proibita, dal punto di vista del funzionamento dell’inverter
potrebbe sembrare inutile, perché la porta logica voglio usarlo solo per ingressi e uscite ben definite.
Questa zona è però essenziale affinché una porta logica generica abbia la capacità di operare una
rigenerazione dei livelli logici.
E’ importante osservare che negli stati che usiamo nominalmente, prima e terza regione, abbiamo sempre
almeno uno dei due transistori spento. Per un ingresso basso abbiamo l’NMOS OFF e quindi la corrente
sulla Ron del PMOS è nulla, e dualmente quando è il PMOS a essere spento non abbiamo corrente sulla
resistenza dell’NMOS perché il ramo è interrotto.
Questa porta si indica con il nome di buffer, e se abbiamo un segnale nel primo ingresso molto rumoroso.
Il buffer dal punto di vista logico è trasparente, trasferisce in uscita ciò che vede in ingresso. Ha però la
grande proprietà di rigenerare il segnale, riuscendo a rigenerare il livello logico.
Questa proprietà deriva dalla fdt della porta logica invertente ed è strettamente legata alla presenza della
zona proibita.
Se calcoliamo la derivata della Vout in funzione della Vin e la tracciamo in modulo al variare della Vin,
tracciando quindi il guadagno, abbiamo nella zona proibita una pendenza all’inizio piccola, che poi aumenta
sempre di più e arriva a un massimo per poi ritornare piccola.
Se prendiamo con riferimento il punto 1, punto in cui la VTC ha una pendenza di -45°, se portiamo questi
punti nel grafico del guadagno possiamo riconoscere bene due zone in cui il guadagno è minore di 1 e zone
in cui il guadagno è maggiore 1.
Abbiamo rigenerazione del segnale quando il segnale di ingresso si trova nelle due zone di ingresso a
guadagno minore di 1, perché difronte a una variazione grande dell’ingresso l’uscita varia poco, anche se
l’ingresso è molto rumoroso l’uscita è molto più stabile.
In ingresso ho una scala che va da 0 a Vcc e lo stesso per l’uscita e per VCC ci devo passare ma per garantire
che agli estremi il guadagno sia minore di 1 è che nella zona intermedia il guadagno sia minore di 1, e quindi
la zona intermedia ci garantisce la proprietà di rigenerare il segnale.
Avere una zona proibita in cui la sua VTC mostra un guadagno in modulo maggiore di 1 ci permette la
rigenerazione.
La condizione necessaria per rigenerare i livelli logici è che la porta logica sia implementata con almeno un
elemento attivo che consenta di ottenere una caratteristica di trasferimento in tensione tra ingresso e
uscita (Voltage Transfer Characteristics, VTC) con una regione a guadagno differenziale > 1 (regione
«proibita»).
Questa condizione non è sufficiente, ma sicuramente se non abbiamo componenti attivi che non ci
permettono di avere questa zona allora non sarà possibile garantire di avere anche le altre due zone.
Questo spiego perché la logica a diodi non ci permette di rigenerare segnali, questo perché non presenta
elementi attivi ma solo passivi.
Margini di rumore
Consideriamo una transcaratteristica:
Definiamo i margini di rumore prendendo i punti a pendenza -1 sulla VTC e proiettiamo i due punti sui due
assi così da ottenere 4 diversi punti. In generale possiamo assumere che tutti i punti a sinistra di VILmax
possono essere tranquillamente interpretati come uno zero in ingresso, VILmax risulta quindi essere il
massimo punto dell’ingresso in cui l’ingresso viene interpretato come basso.
Definiamo invece VOHmin il minimo punto dell’ingresso che viene interpretato come un ingresso alto.
Notiamo quindi che allarghiamo il range, prendiamo come valido tutto il range in cui il guadagno è minore
di 1.
Il punto in alto sulle ordinate lo indichiamo con VOHmin, uscita alta nel caso minimo, mentre quello in
basso lo indichiamo con VOLmax, massimo del range di uscita che viene interpretato come livello basso.
Immaginiamo ora di avere due inverter in cascata o comunque due porte logiche implementate con la
stessa logica e quindi con questi parametri molto simili.
Se ci mettiamo al nodo Vout1 cosa è necessario affinché la porta 2 riconosca in modo corretto l’uscita della
porta 1?
E’ necessario che:
Se sappiamo che il primo inverter ci dà nel caso peggiore VOHmin, e se questo è comunque maggiore del
minimo che viene interpretato come ingresso alto allora va bene. Analogamente se:
siamo sicuri che l’uscita bassa dell’inverter 1 sia riconoscibile come ingresso basso dall’inverter 1.
Queste differenze in modulo rappresentano i margini di rumore, noise margin, quello per il livello alto e
quello per il livello basso.
Questi due valori ci dicono il valore massimo che si può tollerare a quel nodo.
L’ingresso che vede l’inverter 2 è l’uscita dell’inverter 1 più un rumore esterno che si sovrappone al segnale.
Questi valori ci dicono il rumore massimo che si può avere affinché sia correttamente interpretabile.
Generalmente si definisce un parametro di merito, che è il caso peggiore tra questi due:
Assumiamo correnti trascurabili entranti/uscenti sui nodi di ingresso e uscita (sempre vero per la logica
CMOS). Questo è sicuramente vero per le porte logiche CMOS, perché gli ingressi finiscono ai gate dei
transistori MOS e quindi la corrente è nulla.
L’uscita è connessa sul drain ma solitamente serve a pilotare un altro circuito logico, e se quello è anche di
tecnologica CMOS in condizione statiche, la corrente di uscita sarà anch’essa nulla.
Facciamo due test.
Nel primo test usiamo una configurazione degli ingressi che pone l’uscita nello stato alto (‘H’).
Misuriamo la corrente ICC che sarà indicata come ICC(H), che ci dice che l’uscita è nello stato alto, e quindi:
Caratteristiche dinamiche
Sono le caratteristiche che un circuito digitale mostra quando viene operato nel tempo, per esempio
quando commutiamo l’ingresso del circuito e vogliamo vedere come cambia l’uscita.
Le caratteristiche che dipendono dalle variazioni nel tempo dell’uscita in seguito a una variazione
dell’ingresso.
Modello equivalente dinamico
Consideriamo una porta logica, per esempio un inverter, come studiamo la risposta di questo oggetto nel
tempo?
Dobbiamo arricchire il modello con una serie di parametri.
Chiamiamo l’inverter DUT (Device Under Test).
Aggiungiamo un carico plausibile LOAD, per esempio una porta logica dello stesso tipo, pilotata dalla porta
logica che stiamo indagando.
Dopodichè ci mettiamo al nodo di uscita della porta che stiamo considerando e valutiamo tutte le capacità
che afferiscono a questo nodo.
Sicuramente abbiamo un effetto capacitivo data da questa intersezione, che schematizziamo con una
capacità equivalente (Cw, wire) verso massa.
Abbiamo poi una capacità di ingresso mostrata dal carico, Cin(LOAD), e poi abbiamo una capacità a cavallo
di ingresso e uscita del DUT, Cmiller.
Sarà pari alla somma delle capacità tra il nodo OUT e un nodo costante, ad esempio la massa (Cw +
CINload) e poi dobbiamo anche considerare il contributo della capacità Cmiller, che però contrariamente a
Cw e CINload va pesata due volte.
Questo perché se analizziamo Cw e immaginiamo che l’ingresso passi da 0 a 1 (quindi da 0 a VCC), noi ci
aspettiamo che l0uscita varierà da VCC a 0.
Cw vede ai suoi capi una variazione pari a +-Vcc, a seconda se si passa da 0 a 1 e viceversa, lo stesso vale
per CINload.
A ogni commutazione dell’ingresso segue una commutazione dell’uscita e la variazione in tensione vale
VCC.
Per Cmiller quando l’ingresso varia da Low a High, l’uscita del DUT varierà da High a Low e quindi prima
della commutazione avremo al nodo a sinistra del Cmiller un livello basso e a destra un livello alto, mentre
dopo la commutazione quello a sinistra sarà salito a VCC mentre quello a destra a Ground.
Ho una variazione doppia rispetto agli altri che hanno un terminale sul nodo di uscita e un terminale sul
nodo costante. Poiché vede una variazione doppia di tensione, dobbiamo pesarla due volte.
Se consideriamo il modello equivalente dinamico avremo due possibili variazioni, quando l’ingresso varia da
un livello basso a un livello alto e quindi l’uscita subirà la commutazione opposta, e passando da VCC a
Ground lo fa perché il nodo di uscita viene connesso internamente a Ground attraverso la resistenza
equivalente del MOS.
Abbiamo quindi che VC(t0) è carica VCC, ma all’istante t0+ viene connessa a bassa attraversa la resistenza
Ron del MOS che implementa la porta logica.
La dinamica che dobbiamo studiare quindi è la seguente, con Vout che ha una forma di questo tipo:
La carica sul condensatore ci scaricherà attraverso la resistenza e la tensione di uscita si scaricherà con una
forma come quella in figura.
Il tempo di scarica, e quindi il tempo di commutazione dell’uscita, dipende dalla costante di tempo
t=Ronpull-down*Cout.
Circuiti con capacità grandi e resistenze di pull-down grandi tendono a essere lenti nel commutare il livello
dell’uscita.
Se invece l’ingresso passa dal livello alto al livello basso ci aspettiamo che l’uscita passi da livello basso a
livello alto e lo fa perché a questo istante il condensatore che era scarico viene cortocircuitato attraverso la
resistenza equivalente di un PMOS dell’inverter al nodo VCC.
Vc(t0) = 0 ma col passare del tempo il nodo viene tirato su a VCC, avremo un passaggio di corrente sulla
resistenza che carica il condensatore e porta la tensione di quel nodo a VCC.
Si ottiene quindi una dinamica di questo tipo:
con una tensione iniziale pari a 0 e dopo t0 abbiamo una forma di questo tipo, tipica della carica di un
condensatore.
Il tempo di carica è proporzionale ancora una volta al prodotto tra Ronpull-up e la capacità Cout.
Ritardi di propagazione
Sono definiti come il ritardo tra i due istanti in cui uscita e ingresso hanno raggiunto il 50% della
commutazione. Prendiamo il modello equivalente:
Grafichiamo Vout e Vin in funzione del tempo, all’inizio l’ingresso è a 0 e a un certo punto viene commutato
al valore alto VCC e poi torna di nuovo a 0.
Noi consideriamo Vol = 0V e Voh = 5V.
La forma d’onda dell’uscita ci aspettiamo che sia come quella in figura.
Alla commutazione basso/alto dell’ingresso l’uscita andrà a commutare ma con un certo ritardo e lo stesso
accadrà difronte all’altra commutazione.
Se prendiamo l’istante temporale in cui la commutazione è al 50% nella commutazione basso/alto
dell’ingresso e se facciamo lo stesso nell’uscita la differenza temporale definisce il ritardo di commutazione
alto/basso e i pedici che useremo fanno sempre riferimento alla commutazione dell’uscita.
Nell’altra commutazione si può fare lo stesso campionando l’istante temporale in cui l’ingresso ha
raggiunto il 50% della sua commutazione e lo stesso all’uscita, facendone poi la differenza.
Abbiamo quindi che si tratta del ritardo con cui un segnale si propaga dall’ingresso verso l’uscita.
Anche questi ritardi dipendono dalle costanti di tempo, infatti quelli in figura non sono altro che carica e
scarica del condensatore.
Proporzionali come segue:
Per dimostrarlo immaginiamo di avere un condensatore con una capacità C, supponendo che Vc(t0) = 0V e
Q(t0) = 0 (condensatore inizialmente scarico) e che con un generatore di corrente con una forma d’onda a
impulso lo andiamo a caricare.
Se disegniamo il grafico della tensione ai capi del condensatore, partendo da un condensatore inizialmente
scarico, dopo deltaT raggiungeremo il valore Vfinale.
Durante il transitorio la forma della tensione nel tempo va come l’integrale della corrente/C.
Ma ic in questo periodo è costante e quindi otteniamo una funzione lineare del tempo, si passa quindi da 0
a Vfinale con una retta.
L’energia immagazzinata su C alla fine della carica si calcola come l’integrale della potenza.
Il prodotto per tempi minori di 0 e superiori a deltaT essendo la corrente nulla è pari a 0 e quindi l’integrale
diventa, dopo aver sostituito il valore della tensione in quella zona come sopra.
Se integro e moltiplico e divido per C:
La scarica avviene grazie a una corrente ic che è positiva se entrante usando il verso convenzionale, e quindi
in questo caso la corrente va nel verso opposto rispetto a quello convenzionale e sarà quindi di segno
negativo.
Possiamo calcolare le due forme d’onda, che coincidono con tensione e corrente che scorrono sulla
resistenza di PullDown, e calcolarne il prodotto per ottenerne la potenza e fare l’integrale del prodotto per
ottenere l’energia dissipata sulla resistenza di pull-down.
Possiamo osservare che il condensatore all’istante iniziale aveva un energia pari a ½*C*VCC^2 e visto che
alla fine del processo si sarà completamente scaricata possiamo assumere che tutta questa energia si sarà
dissipata sotto forma di calore sulla resistenza del transistore.
L’energia immagazzinata nella Cout caricata a VCC è pari a:
Nel processo di scarica, su Ronpull-down viene dissipata tutta l’energia precedentemente immagazzinata in
Cout, quindi nella transizione H->L sarà pari a:
Nella transizione L->H dell’uscita abbiamo la tensione iniziale ai capi del condensatore pari a 0V e in questa
commutazione connettiamo la capacità equivalente inizialmente scarica attraverso una resistenza di pull-up
a VCC.
La corrente ic invece sarà sicuramente 0 prima della commutazione e appena avviene la commutazione
abbiamo un impulso di corrente, che si estingue man mano che il livello di tensione sul nodo di uscita
raggiunge quello di VCC.
Anche in questo caso non ha senso calcolare l’energia dissipata moltiplicando le forme d’onda e calcolando
l’integrale, è poco pratico.
Bensì possiamo:
1. calcolare l’energia erogata dal generatore Vcc
2. considero la quota di quest’energia che troverò nel condensatore alla fine della commutazione
3. se vale il principio di conservazione dell’energia, la differenza tra l’energia erogata dal generatore
VCC nel processo di carico e quella che trovo su Cout alla fine della commutazione, sarà l’energia
che avrò dissipato sulla resistenza di pull-up.
Abbiamo una resistenza di pull-up che deve caricare da 0 a VCC un condensatore equivalente, calcolo
l’energia erogata da VCC come l’integrale tra 0 e infinito della tensione (costante) per la corrente:
L’integrale della corrente è la quantità di carica che troverò sul condensatore alla fine della commutazione.
Ma tutta la carica erogata dal generatore finisce sul condensatore, non ho altri rami, e quindi coincidono.
In termini di potenza dinamica media, troviamo l’energia dissipata per ciclo di clock diviso il periodo di
clock:
Nel caso di circuiti logici in logica CMOS questa è l’unica potenza che conta veramente.
In condizioni statiche infatti la dissipazione di potenza è trascurabile, avremo sempre un NMOS e un PMOS
in serie in cui almeno uno dei due è spento e quindi preclude il passaggio di corrente sull’altro.
L’unica dissipazione che conta nel caso di circuiti CMOS è quella dinamica, e dipende dalla frequenza di
clock, dalle capacità equivalenti e dal quadrato della tensione di alimentazione.
La capacità dipende dai fenomeni capacitivi parassiti che abbiamo nei circuiti logici, quindi difficilmente si
può modificare in genere.
La frequenza di clock è un parametro che di solito tendiamo ad aumentare, così che il nostro circuito
digitale svolga più operazioni possibili a parità di tempo.
Il parametro più semplice da modificare affinchè la potenza dinamica sia contenuta è quindi la tensione di
alimentazione, ed è conveniente per la presenza del quadrato.
Prodotto Potenza Ritardo (PDP: Power Delay Product, DP: Delay Power)
Nel caso di porta logica CMOS questa cifra di merito vale:
La potenza nel caso generale è costituita da una quota statica e una dinamica ma nel caso di logica CMOS
conta solo quella dinamica.
FAN-IN e FAN-OUT
FAN-IN e FAN-OUT sono caratteristiche che dipendono sia da aspetti statici che dinamici.
Il FAN-IN è il numero massimo di ingressi che una tipologia di porta logica implementata in una determinata
logica e tecnologia può avere.
Sull’inverter non ha senso, perché il numero di ingressi sarà sempre 1.
Se pensiamo a una porta logica NAND, invece che può essere implementata a più ingressi FAN-IN coincide
con N.
Il FAN-OUT è il numero massimo di porte logiche dello stesso tipo che una porta logica può pilotare in
parallelo (in cascata).
Abbiamo un doppio limite, a limitare FAN-IN e FAN-OUT possiamo avere sia degli aspetti statici come i
margini di rumore, all’aumentare del numero di ingressi o del numero di porte che possono essere pilotate
in uscita i margini di rumore tendono a peggiorare, oppure aspetti dinamici, perché all’aumentare di
ingressi e porte che carichiamo in uscita aumenta il valore di Cout, dovremo considerare il contributo
capacitivo di quella porta aggiuntiva per esempio, aumentando i tempi di ritardo che il consumo di energia.
Inverter CMOS
Riprendiamo l’inverter CMOS e ricaviamo la transcaratteristica utilizzando un metodo grafico a partire dalle
caratteristiche di NMOS e PMOS.
Questo lo possiamo scrivere perché le correnti dei gate sono sempre trascurabili e quindi la corrente di
source e drain coincidono.
Possiamo ricavare un’espressione unica per la Vin e Vout in relazione all’NMOS e al PMOS.
Vin e Vout saranno sempre comprese tra 0 e VCC e quindi lo stesso possiamo dire per VGSn e VDSn e
questo è possibile perché VGSp e VDSp sono sempre comprese tra -VCC e 0.
Quando VGSn < VTn la corrente è sempre nulla, mentre quando la VGSn >= VTn all’aumentare di VGSn
abbiamo le curve in figura.
Per quanto riguarda le caratteristiche ID(VDS, VGS) del PMOS abbiamo che le caratteristiche saranno nel
terzo quadrante, essendo entrambe negative.
All’aumentare che la VGSp in modulo aumenta il transistore inizia ad accendersi.
Partendo dai due grafici appena disegnati e facciamo delle trasformazioni affinché le grandezze che
abbiamo sull’asse x/y siano le stesse tra i due grafici.
Grafichiamo su un piano Vout-ICC le caratteristiche di NMOS e PMOS.
Per l’NMOS è semplice, al posto del IDSn potrei scrivere ICC e al posto della VDSn posso scrivere Vout e
inoltre possiamo sostituire VGSn con Vin.
Per il PMOS possiamo dire che IDp = -ICC e quindi sicuramente il grafico sarà ribaltato in verticale. Inoltre
tra Vout e VDSp notiamo che c’è un offset pari a VCC. Devo ribaltare il grafico in verticale e poi traslarlo di
una quantità pari a VCC.
Dire che VGSP diminuisce equivale a dire che Vin diminuisce, ma inverto il segno della variazione e cambio il
segno della freccia.
Quando la Vin aumenta accendiamo sempre di più l’NMOS così da avere correnti via via più grandi, mentre
la corrente massima sul PMOS la abbiamo quando Vin è nulla, quindi all’aumentare della Vin andiamo a
diminuire in valore assoluto VGSp.
Ricaviamo la transcaratteristica prendendo queste due caratteristiche e fissata una Vin possiamo plottare la
caratteristica dell’NMOS e del PMOS e la loro intersezione ci darà il punto di riposo dell’inverter.
Per esempio prendiamo:
Quando Vin supera di poco 1V, per esempio 1.5V, l’NMOS si accende e il PMOS è ancora acceso ma visto
che la sua VGSp dipende da Vin – VCC, avendo aumentato Vin la sua VGSp sta diminuendo.
Le curve si intersecano in un punto molto vicino a VCC.
Per Vin = 2.5V abbiamo entrambi i transistori bene accesi, la corrente dell’NMOS aumenta e quella del
PMOS diminuisce.
Per Vin = 3.5V andiamo ad aumentare la corrente dell’NMOS e a diminuire quella del PMOS, abbiamo qui
l’NMOS in zona triodo e il PMOS in saturazione.
Avremo la Vout molto vicina a 0 in questo caso, anche se non ancora a 0
Per Vin molto vicina a VCC infine avremo l’NMOS completamente acceso e il PMOS completamente spento.
In tutta la regione in cui Vin supera VCC - |VTp| avremo il PMOS completamente spento, stesse
considerazioni possiamo fare nella regione con Vin compreso tra 0 e VTn.
Per quanto riguarda le zone di funzionamento descritte le abbiamo in due condizioni, ce la da la Vin e punto
di intersezione, sia per l’NMOS che per il PMOS stiamo scrivendo esplicitamente la regione di
funzionamento nel punto di riposo ottenuto.
Siamo quindi in grado di costruire in modo molto preciso la transcaratteristica, che risulta dall’unione di
tutti questi punti.
Abbiamo ricavato per ogni punto di Vin la VOUT corrispondente, possiamo adesso costruire un grafico in cui
mettiamo in relazione la ICC rispetto alla Vin.
Da 0 fino a VTn, abbiamo ICC nulla perché l’NMOS è spento.
Tra VCC - |VTp| e VCC abbiamo invece il PMOS spento e quindi ancora ICC = 0, mentre in mezzo abbiamo
una corrente che prima aumenta e poi diminuisce, e questo succede in zona proibita.
Abbiamo la conferma che a Vin basse o a Vin alte la corrente è nulla, ma abbiamo una buona zona nella
zona proibita in cui la corrente non è più trascurabile.
Il punto massimo della corrente si indica con Isc (corrente di cortocircuito, short circuit).
Se pensiamo all’inverter se la Vin è compresa nella zona proibita la ICC è non nulla e nel punto massimo
(che non è esattamente nel mezzo) abbiamo la corrente massima Isc, alla quale è associata una dissipazione
di potenza, PSC = VCC * ISC, quota di potenza dinamica perché nella zona proibita ci passiamo solo quando
dobbiamo commutare lo stato dell’inverter.
In condizioni statiche infatti o solo nella zona di NMOS OFF e o nella zona di PMOS OFF.
Questa quota è però piccola rispetto alla potenza dinamica calcolata considerando la quota dovuta alla
carica/scarica della potenza di uscita.
Quindi avremo come potenza dinamica totale:
Partendo da queste due espressioni abbiamo che la VTC ha una forma di questo tipo, partendo molto
arrotondata ma poi con entrambi i transistori in saturazione abbiamo una pendenza molto verticale (con un
guadagno che può essere assunto infinito) e con le assunzioni fatte la soglia logica ricade in questa zona.
La VIN che soddisfa queste due equazioni messe a sistema è esattamente la definizione di soglia logica.
Se le due equazioni sono vere e visto che abbiamo:
Nell’ipotesi di saturazione abbiamo bisogno di una VGSp – VTP negativa e quindi dobbiamo prendere la
soluzione col segno meno.
Poi visto che IDp = -IDn e scrivendo sotto radice il valore di IDn si ottiene:
Assumendo che la Cox di NMOS e PMOS sia la stessa, cosa genericamente vera e sostituendo il valore di Kn,
Kp, VGSn e VGSp.
Portando a sinistra i termini con Vin e tutti gli altri a destra, si ottiene:
Notiamo che la soglia logica non è detto che sia pari a VCC/2, purchè ciò accada dobbiamo avere:
Il rapporto tra le mobilità è una costante, mentre W, L sono parametri che da progettisti siamo in grado di
modificare, e se scegliamo:
La Cout equivalente da usare nel modello equivalente sarà pari alla capacità del wire, due volte la capacità
di ingresso del carico (due perché abbiamo una capacità per l’NMOS e uno per il PMOS, lo stesso per la
capacità di uscita del DUT e poi due volte il doppio CGD, uno per l’NMOS e uno per il PMOS e poi perché si
tratta della capacità di Miller.
Se viene richiesto il calcolo dell’energia dinamica di un inverter CMOS si devono usare i passaggi visti la
volta scorsa nelle transizioni H->L, L->H, da lì stimare la potenza dinamica e poi usare questa espressione
come Cout.
Una PDN costituita da due (o più) NMOS in parallelo implementa la funzione logica NOR.
Oppure possiamo vedere l’uscita come una AND tra gli ingressi negati.
Nella configurazione serie l’uscita viene porta a massa da un percorso di due transistori NMOS.
La PDN connette l’uscita a massa, portandolo a 0 solo nel caso in cui entrambi i transistori sono accesi.
È necessario che tutti gli ingressi siano ‘1’ per avere l’uscita ‘0’.
In tutti gli altri casi almeno uno dei due transistori è interdetto, quindi l’uscita non sarà sicuramente a 0 e
quindi l’uscita è in alta impedenza rispetto alla massa.
Una PUN costituita da due (o più) PMOS in serie implementa la funzione logica AND tra gli ingressi negati.
Ragionando sugli ingressi non negati basta un uno affinchè l’uscita negata non sia a 0.
Nella configurazione in parallelo l’uscita viene porta a massa da due transistori PMOS in parallelo.
È sufficiente un ingresso a ‘0’ per avere l’uscita ‘1’.
Una PUN costituita da due (o più) PMOS in parallelo implemeta la funzione logica OR tra gli ingressi negati.
Oppue ragionando sugli ingressi diretti:
Se voglio evitare i casi di alta impedenza potrei pensare di realizzare una NAND utilizzando come PDN due
transistori in serie e come PUN due transistori in parallelo.
Realizzo la stessa funzione solo che la PDN mi assicura lo 0 quando ho entrambi gli ingressi a 1 mentre la
PUN mi assicura l’uscita a 1 quando ho almeno un ingresso a 0.
Oppure posso realizzare una NOR utilizzando una configurazione parallelo di NMOS e una configurazione
serie di PMOS.
La stessa porta può essere usata come AND utilizzando gli ingressi negati, oppure posso prendere una
NAND con un inverter in cascata.
La porta NAND può invece essere usata come OR utilizzando gli ingressi negati, oppure posso prendere una
NOR con in cascata un inverter.
NAND e NOR rappresentano una coppia di porte che messe insieme in particolari condizioni possono
realizzare una qualsiasi porta logica.
Applicando ripetutamente De Morgan e i passaggi algebrici vari possiamo scomporre questa funzione.
Caso 1) Sintesi di PUN tramite l'espressione logica
È conveniente partire dalla PUN (che è la rete che implementa la funzione di connettere l’uscita a VCC) e i
cui transistori si attivano con segnali logici bassi, quindi è conveniente ragionare con gli ingressi negati.
Se abbiamo l’uscita diretta e gli ingressi negati conviene realizzare prima la PUN.
Ogni + sarà un parallelo e ogni * è una serie.
Avrà un parallelo tra A due reti, dove quella di sinistra è solo un PMOS mentre quella di sinistra sarà una
serie tra un transistor e un parallelo tra altri due transistor.
NB: Il transistor è pilotato dal negato del’ingresso che corrisponde alla variabile logica, notare infatti che i
segnali dati in ingresso ai gate dei transistori PMOS sono negati.
Quindi la PUN implementa la funzione Y diretta e si attiva con gli ingressi bassi (rispetto all’espressione è
necessario quindi invertire i segnali che pilotano i transistori).
Se nell’espressione logica ci fosse un A non negato l’ingresso sarebbe negato.
Mentre l’uscita negata vale:
NB: notare che i segnali dati in ingresso ai gate dei transistori NMOS sono esattamente quelli indicati
nell’espressione logica, si attiva infatti con gli ingressi a 1 e quindi bisogna usare gli stessi segnali riportati
nell’espressione di y negato.
Invece l’uscita è negata rispetto a quella riporta nell’espressione logica, in quanto la rete di Pull-Down forza
uno ‘0’ in uscita quando almeno uno dei possibili percorsi verso ground è attivo.
Il nodo rimane Y, non Y negato, significa semplicemente che quando questa rete è attiva il nodo viene
portato a 0.
Tipicamente non conviene usare questo approccio, è difficile in genere ottenere un’espressione della y
negata.
Caso 3) Derivazione di una rete dall’altra usando il principio di dualità
Una proprietà fondamentale delle porte logiche CMOS consiste nel fatto che la PUN e la PDN, in condizioni
statiche, non devono mai essere entrambe attive per la stessa configurazione di ingressi
Questa proprietà ci consente di derivare una rete (es. la PDN) dall’altra (quindi dalla PUN) utilizzando il
principio di dualità: ogni connessione serie si trasforma parallelo e viceversa.
Gli ingressi per la PDN inoltre non vanno negati, bensì sono gli stessi che si hanno nei transistori associati
della PUN.
Partiamo dal parallelo e lo mettiamo in serie, dopodichè la serie diventa un parallelo e poi il parallelo
diventa una serie, e siamo quindi in grado di realizzare la PDN a partire dalla PUN.
La soluzione coinciderà con quella realizzata precedentemente.
Il consiglio è quello di partire dalla PUN, esprimendola come somme e prodotti delle singole variabili e
utilizziamo i segnali per pilotare i singoli transistori come negati rispetto a quelli che vediamo
nell’espressione logica.
Se si ha almeno un ingresso negato, per crearlo si può utilizzare un inverter.
Dopodichè per dualità si può ottenere la PDN.
La Ron del NMOS ci interessa quando l’ingresso è alto e quindi VGSn – VTn coincide con VCC meno la
tensione di soglia.
La Ron del PMOS ci interessa quando l’ingresso è a 0 e quindi VGSp – VTp in modulo coincide con VCC
meno la tensione di soglia.
Possiamo quindi semplificare le espressione dove costp e costn sono due costanti che possiamo assumere
coincidenti, lo sono se le soglie sono esattamente uguali e di segno opposto e se è uguale anche Cox, che è
tipicamente uguale.
Quindi se scelgo il rapporto tra le dimensioni di PMOS e NMOS pari al rapporto tra le mobilità, soddisfo la
condizione e il rapporto è in genere vicino a 2.5.
La resistenza Ron complessiva del percorso è la somma delle resistenze equivalenti dei singoli transistori.
La stessa espressione si può ricavare per un percorso di pull-up esattamente con gli stessi passaggi, dove N*
è la dimensione del percorso.
Il flusso da seguire per dimensione i transistor della PDN e PUN è il seguente:
1. Individuare tutti i possibili percorsi che connettono l’uscita a VCC o a ground. Le connessioni in
parallelo vanno considerati come percorsi diversi, per percorso si intende una serie di transistori.
2. Dobbiamo ordinare i percorsi per priorità e il dimensionamento si fa in ordine di criticità
decrescente, con la criticità legata al numero di transistori in serie che compongono quel percorso.
Si parte quindi dai percorsi più lunghi.
3. Escludere i percorsi impossibili, non mi troverò mai nella condizione di portare l’uscita a
ground/VCC attraverso quel percorso, dovuto al fatto che in quel percorso ci sono due transistor
che sono comandati dal segnale e dal suo negato.
Per gli eventuali inverter necessari per realizzare la variabili negate sarà semplice, per renderlo equivalente
dal punto di vista dei ritardi di propagazione all’inverter di riferimento, basta prendere il rapporto di
aspetto dell’NMOS pari a quello dell’inverter di riferimento n, e lo stesso per i PMOS.
Quando si procede per criticità verso percorsi con un numero di transistori minori possiamo avere più
opzioni e in tal caso si sceglie l’opzione di area minore, posso fare il confronto sommando W/L dei vari
transistori perché quando si fa il dimensionamento tipicamente si prende L = Lmin e si modifica solo W
quando si dimensionano i transistori ed è quindi valido questo confronto.
Se facciamo i conti con una delle opzioni può tornare per un percorso una Ron sovradimensionata, noi la
poniamo uguale ma se maggiore è uguale.
Porta logica XOR (OR Esclusivo) - CMOS
Possiamo pensare di scrivere questa funzione logica come la OR tra i due casi centrali.
Disegniamo la PUN e la PDN, partendo dalla PUN. Abbiamo il parallelo tra due transistori in serie.
Nella PDN abbiamo invece la serie tra due paralleli per il principio di dualità.
Possiamo semplificare la rete se osserviamo che nella rete di pull-down abbiamo due coppie di transistori in
parallelo tra di loro che formano una serie, ma dei quattro percorsi che portano a ground solo due sono
possibili: 10-9, 12-11. I due percorsi 10-11 e 9-12 invece non sono possibili.
Osservando ciò possiamo accorgerci di poter semplificare la rete. Nella PDN posso evitare di fare le
connessioni che implementano percorsi impossibili, quei due transistor non saranno contemporaneamente
accesi, posso connettere 10 e 9 in un ramo e 11 e 12 nell’altro ramo.
Se sono entrambi a 1 accendiamo 9-10 mentre se so no entrambi a 0 attiviamo 11-12 e quindi portiamo
l’uscita a 0, mentre in entrambi i rami di pull-up abbiamo almeno un transistore spento.
Quando sono diversi almeno un ramo della PUN sarà acceso mentre nella PDN almeno uno dei transistori
nella serie è spento.
Abbiamo bisogno di 4 PMOS in parallelo nella PUN e di 4 NMOS in serie nella PDN.
Entrambe le funzioni logiche sono realizzate con 8 transistori e sono del tutto complementari, 4 PMOS in
parallelo nella PUN della NAND mentre il parallelo lo abbiamo nella PDN della NOR e viceversa per la serie.
Dimensioniamo i transistori prendendo come riferimento un inverter di riferimento, definendo n e p, così
da confrontarli dal punto di vista dell’area.
Prendiamo per l’inverter di riferimento:
Immaginiamo che la lunghezza dei transistori sia la stessa e che sia pari alla lunghezza minima Lmin
realizzabile con quel processo tecnologico, così andremo a modificare solo W.
Calcoliamo l’area come la somma delle aree di tutti i transistori, ma poiché tutte le Li sono le stesse,
possiamo mettere in evidenza Lmin^2:
Abbiamo 4 percorsi possibili implementati con un solo transistor, quindi per avere una resistenza
equivalente pari a quella di base ogni transistor deve essere dimensionato pari al p dell’inverter di base.
Per gli NMOS della NAND:
Nonostante la somiglianza delle due porte l’area della NOR è in generale molto più grande di quella NAND,
e queste differenza aumenta all’aumentare del numero degli ingressi. La differenza deriva dal fatto che è
sicuramente più conveniente mettere 4 NMOS in serie che 4 PMOS in serie, perché a parità di numero di
transistori nel percorso, il dimensionamento del PMOS dell’inverter di riferimento è più grande rispetto a
quello dell’NMOS. Una porta logica con percorsi lunghi di NMOS occupano in generale un’area più piccola
delle porte logiche con percorsi lunghi di PMOS.
Protezione delle scariche elettrostatiche
I condensatori MOSFET sono molto sensibili e possono essere facilmente danneggiati nel caso in cui
vengono depositate anche poche cariche sul gate.
Il terminale di gate è isolato da S e D e quindi la resistenza che si vede dal gate è pressoché infinita, inoltre
l’ossido di gate è molto sottile e quindi la capacità del gate è molto piccola.
Se ricordiamo il legame tra la tensione e la capacità, la tensione ai capi di un condensatore è pari alla carica
fratto la capacità ed essendo la capacità molto piccola è sufficiente una piccola carica per avere forti
tensioni e quindi elevati campi elettrici che possono portare a auna rottura dell’ossido di isolamento.
Dobbiamo quindi porre molte attenzione al terminale di gate senza toccarlo con le mani, è sufficiente che
siano poche cariche per essere sufficiente a determinare la rottura del transistore.
Se valutiamo un inverter CMOS dobbiamo fare in modo che il terminale di gate della nostra porta non
assuma mai un potenziale troppo elevato, e per farlo si introduce un circuito di protezione, composto da
due diodi e una resistenza, un diodo collegato tra il gate e VDD e un diodo collegato tra il gate e il ground.
Nel normale funzionamento della nostra porta Vin sarà compresa tra 0 e VDD, in questo range il diodo D1
avrà una tensione anodo-catodo:
Per quanto riguarda il diodo D2 avremo una tensione anodo-catodo sempre negativa e quindi anche qui:
Nel normale funzionamento i due diodi sono interdetti e quindi è come se non ci fossero e quindi si
comporta normalmente.
Se accade qualcosa che porta Vin a uscire dal normale funzionamento, se Vin prova a salire sopra VDD
quando arriva a VDD + Vy il diodo D1 entra in conduzione e blocca a questo valore la tensione di gate.
Lo stesso accade se la tensione Vin diventa minore o uguale di Vy, entra in conduzione D2 e la tensione Vg
rimane bloccata al valore -Vy.
I due diodi, in caso di funzionamento anomalo, entrano in conduzione e bloccano la tensione sul gate a due
valori di sicurezza che consentono di avere il corretto funzionamento dei transistori MOS e quindi sia il
NMOS che il PMOS non si rompono.
La resistenza R deve essere presente per limitare la corrente che scorre in D1 e D2 quando entrano in
conduzione, così da evitare che vi sia la rottura di D1 e D2.
Questo circuito di protezione non interviene in condizioni normali, mentre interviene in condizioni
anomale.
Abbiamo anche un effetto negativo, anche quando D1 e D2 sono spenti dobbiamo tenere conto che nei due
diodi scorrono delle correnti inverse di saturazione.
Ipotizzando che tutti e due abbiano la stessa caratteristica, se ingrandiamo la zona di saturazione inversa
questa corrente non è in realtà costante, anche se è dell’ordine di 10^-9 A.
Dobbiamo considerare che anche nel normale funzionamento i due diodi non funziona con la stessa
tensione ai loro capi, da un capo hanno entrambi Vin ma dall’altro uno è collegato a VDD e l’altro a ground.
I nostri diodi funzionano quindi in due punti di polarizzazione diversi e quindi con due correnti inverse di
saturazione diverse.
Accade che in presenza dei diodi di protezione, anche se apparentemente non danno contributi in termini
di tensione nella realtà abbiamo che i due diodi hanno una corrente inversa di saturazione diversa anche se
non fossero diversi, a maggior ragione se lo fossero, e quindi la nostra porta CMOS vista dall’esterno avrà
una corrente Iin assorbita dalla porta diversa da 0 e quindi non è più vero che la porta non assorbe
corrente.
Senza circuito di protezione in realtà assorbe una piccola corrente, ma dell’ordine del picoA, mentre in
presenza del circuito di protezione assorbe correnti dell’ordine del nanoA o del microA, e quindi non è più
trascurabile.
Questa corrente diversa da 0 porta problemi in termini di FAN-OUT.
Immaginiamo di avere un inverter CMOS che pilota in uscita un altro inverter dotato di circuito di
protezione e supponiamo di essere nel caso in cui sia attivo l’NMOS e quindi cerco di mantenere basso il
valore della tensione di uscita del primo inverter.
Indicando IDn la corrente che scorre nell’NMOS, senza circuito di protezione abbiamo:
Se invece attacco una porta dotata di circuito di protezione, accade che IDn è diversa da 0 perché la porta
ha una certa corrente.
La VDSn senza circuito di protezione è praticamente nulla, mentre se ho una certa corrente che scorre mi
trovo a lavorare in un punto in cui la VDSn è pari a Vk.
Questo se ho attaccato una singola porta.
Se al nodo attacco N porte questa cosa peggiore, perché ogni porta darà un contributo pari a Ik e la
tensione in uscita al mio inverter aumenta sempre di più e quindi avrà un livello massimo a cui può arrivare
VOLmax, altrimenti la tensione in uscita alla porta non viene più considerata come un livello logico basso.
Pass-Transistor Logic
L’implementazione vista finora delle porte logiche in tecnologia CMOS garantisce buone prestazioni, ma
richiede spesso un numero piuttosto elevato di transistori
Una logica alternativa è nota sotto il nome di “Pass Transistor Logic” perchè sfrutta dei transistori MOS
utilizzati come elementi di passo (interruttori) per la realizzazione di una logica a interruttori.
Questa è una famiglia logica in cui si utilizza ancora il MOSFET ma come interruttore, mentre però nella
logica complementare il MOSFET collega il nodo o a VDD o a ground, nel caso di questa metodologia i
MOSFET vengono usati come elemento di passo, posti nel percorso tra l’ingresso e l’uscita in serie.
Utilizzando in questo modo il MOSFET è possibile realizzare funzioni logiche in modo semplice con un
numero basso di MOSFET.
Se consideriamo la possibilità di disporre di interruttori ideali e vogliamo trasferire la tensione di ingresso A
all’uscita Y, prendiamo due interruttori controllati dalle variabili logiche B e C.
Se la variabile logica vale 0 l’interruttore è aperto mentre se vale 1 sarà chiuso.
L’uscita Y sarà uguale ad A quando entrambi gli interruttori risultano essere chiusi e quindi da un punto di
vista logica Y sarà l’and tra A, B e C.
Quando si va a realizzare questa tipologia di logica dobbiamo stare attenti a un requisito fondamentale,
avendo inserito interruttori in serie al percorso del segnale dobbiamo stare attenti che non vi siano nodi
flottanti, ovvero che i vari nodi del circuito in ogni istante devono presentare un percorso a bassa resistenza
verso VDD o massa.
Se prendiamo due inverter in cascata indicando esplicitamente la capacità intrinseca, capacità del nodo di
gate del mio inverter e supponiamo di aver voluto realizzare una funzione logica tramite un interruttore
comandato dalla mia variabile binaria.
Se indichiamo con A l’uscita del primo stadio e C l’ingresso del secondo stadio, avremo:
Mentre se apro l’interruttore (B = 0) il nodo C non ha nessun percorso a bassa impedenza verso ground o
VDD e quindi succede che attraverso il condensatore intrinseco se vc = 0 rimane a 0 e non succede nulla,
mentre se Vc = VDD il condensatore è inizialmente carico mentre se lasciato a sé stesso non mantiene la
sua tensione per un tempo indefinito, abbiamo delle perdite di carica nel tempo e quindi si scarica
lentamente e quindi la tensione in questo nodo assume un valore indefinito in quanto a seconda della
durata dell’intervallo di tempo in cui teniamo l’interruttore aperto lì possiamo avere VDD o per tanto
tempo possiamo anche avere 0. Ho un comportamento non predicibile.
Dobbiamo modificare la porta in modo da avere due interruttori, uno comandato da B e uno dal suo
negato.
Quando B = 1 il comportamento è lo stesso del precedente, l’ingresso del secondo inverter coincide con
l’uscita del primo inverter.
Quando l’interruttore è aperto B = 0, e l’ingresso del secondo inverter viene forzato a ground.
Ho un comportamento predicibile che mi dice che a seconda del valore di B.
Se voglio che il MOSFET conduca dobbiamo avere una tensione sul gate che deve essere portata sul livello
alto.
In un NMOS la corrente scorre dal drain verso il source, tramite Vin vogliamo caricare il condensatore e
quindi se la corrente deve scorrere nel verso in figura i terminali di Drain e Source saranno quelli in figura.
Il MOSFET è perfettamente simmetrico in condizioni integrate.
Se il transistore funziona in che condizioni funziona?
All’istante t = 0+ ho:
All’istante 0+ il MOSFET entra in conduzione ed è saturo e quindi condurrà una corrente che permetta al
condensatore di caricarsi.
Vediamo se il condensatore avrà una tensione ai suoi capi pari a VDD alla fine del transitorio.
Non posso dire quando vale VS, che sarà sicuramente != 0 perché coincide con la Vc, tensione ai capi del
condensatore.
Può esserci una situazione in cui smette di condurre.
La tensione di drain è però uguale alla tensione di gate a ogni valore di t e quindi ciò significa:
Quindi la condizione, essendo VDS sempre uguale a VGS:
Sulle caratteristiche ciò significa che inizialmente VGS = VDD e poi man mano che si carica il condensatore
VS aumenta e VGS diminuisce, ma abbiamo che su questo piano l’equazione indicata sopra non è alto che
una parabola traslata in VT.
I punti di funzionamento del mio dispositivo sono i punti che soddisfano entrambe le caratteristiche, e
posso identificarli come l’intersezione nel tempo tra le due caratteristiche.
Man mano che scorre il tempo VGS diminuisce e il punto di funzionamento si sposta lungo la curva fino ad
arrivate fino al punto VT e poi il transistore smette di condurre.
Ma se VDS non può scendere sotto VT ne ricavo che la massima tensione che posso avere sul condensatore:
In questa configurazione sul mio condensatore non posso arrivare una tensione esattamente pari a VDD
finito il transitorio perché il MOSFET a un certo punto smette di condurre e quindi non può far caricare il
condensatore, e smette di condurre quando VDS = VT.
VDS diminuisce e vorrei diventasse 0 per avere VC = VDD, ma non può scendere sotto VT.
Se facciamo un grafico temporale della tensione di uscita Vc in funzione del tempo, abbiamo che vorrei
fosse uguale a VDD finito il transitorio ma nella realtà parte da 0 e sale ma si blocca a un valore pari a VDD –
VT.
Ho una degenerazione del livello logico visto che il livello logico alto non è trasmesso completamente.
Questo problema è allargato dal fatto che nei MOSFET integrati il terminale di body è collegato a ground e
quindi la tensione VT è diversa da quella che ho in condizioni normali, ho l’effetto body che dice che se
Source e Body non sono allo stesso potenziale, la tensione di soglia che devo considerare è:
VT0 più una certa funzione che dipende da VSB, la tensione tra Source e Bulk, la tensione di soglia risulta
essere maggiore di Vt0 e quindi il problema di degradazione del livello logico è peggiore.
Un transistore MOSFET non è in grado di trasmettere un livello logico alto pieno ma lo trasmette solo
parzialmente.
L’NMOS non è in grado di trasmettere il livello logico 1 pieno ma lo è per il livello logico 0.
Non è un ottimo candidato, vediamo invece il PMOS.
Interruttore PMOS: carica di un condensatore
Attivo il PMOS applicando tensione nulla sul terminale di gate e la corrente per caricare il condensatore
deve scorrere come in figura.
Ricordando che nel PMOS la corrente va dal source al drain abbiamo il source a sinistra e il drain a destra.
Nel caso di PMOS VT < 0.
Inizialmente avremo:
All’inizio:
Non sarà sempre saturo però, lo sarà dipendentemente dalla tensione del drain che sta cambiando:
Se valutiamo le caratteristiche, ora siamo nel terzo quadrante, dobbiamo considerare una caratteristica,
quella per VGS = - VDD.
In questa caratteristica il punto di funzionamento si sposta in questo modo.
L’andamento della tensione Vc sarà il seguente:
Per cui posso dire che il PMOS trasmette il livello logico 1 pieno, risolvendo il problema del livello logico 1.
Quindi:
Quindi l’andamento di Vo in funzione del tempo nella scarica fa sì che parto da VDD ma mi fermo a un
valore positivo pari a -VT e quindi il PMOS non trasmette il livello logico 0 pieno.
Il transistore NMOS trasmette bene un livello logico basso mentre il PMOS trasmette bene un livello logico
alto e quindi nessuno die due singolarmente riesce a funzionare come un interruttore ideale.
Pass-gate CMOS
La soluzione ottimale è quella di combinare entrambi i transistori, soluzione sotto il nome di Pass-gate
CMOS, costituita dal parallelo di un NMOS e un PMOS, comandati dalla variabile logica e dalla variabile
logica complementare.
Se applico un condensatore in uscita, se in ingresso avrà una tensione alta associata al valore logico 1
avremo che all’inizio, ponendo VC = VDD e VC negato a 0V quindi.
La corrente passerà attraverso entrambi i MOSFET e comincerà a caricare il condensatore e quando l’NMOS
smetterà di condurre perché arrivo a VDD – VT il PMOS continuerà a condurre e porterà il condensatore a
VDD.
Dualmente durante la scarica del condensatore, arrivati sul condensatore a una tensione pari al modulo di
VT, il PMOS smetterà di condurre ma l’NMOS ancora in conduzione porterà alla scarica totale del
condensatore. L’altro transistore completerà quindi la carica o la scarica del condensatore.
Questa soluzione è il metodo che ci permette di schematizzare un interruttore tra la Vin e la Vo, tensione di
uscita nel caso più ideale possibile.
Vediamo come realizzare alcune funzioni logiche molto semplicemente con questo circuito e come il
numero di MOSFET sarà minore della logica CMOS.
Multiplexer 2-a-1
Realizziamo la seguente funzione logica:
OR esclusivo (XOR)
La funzione logica XOR:
Nella logica CMOS abbiamo che il numero di MOSFET richiesti sarebbe pari a 2x(4+2) = 12.
Utilizzando la pass-transistor logic supponendo che A sia il nostro segnale e che B sia quello che comanda
l’interruttore, avremo:
Ho bisogno di due pass-gate e per implementarlo ho bisogno di due inverter per generare la variabile A
negato e B negato e poi la pass-gate di sopra realizza l’interruttore superiore e quella sotto realizza
l’interruttore inferiore.
Realizzo la stessa funzione logica con solo 8 MOSFET, risparmiando quindi 4 MOSFET.
Utilizzando un processo di tipo CMOS, che mette a disposizione un transistore NMOS e un transistore PMOS
con caratteristiche complementari (stessa tensione di soglia e dimensionamento tale da renderli
complementari) possiamo realizzare delle famiglie logiche.
Abbiamo la famiglia logica MOS complementare, la famiglia logica pass-transistor ma possiamo
implementare anche altre famiglie logiche.
la tensione che applico sulla base non è in grado di portare in polarizzazione diretta la giunzione base-
emettitore, posso ipotizzare che il BJT sia OFF, quindi non scorre corrente e ciò significa che IC = 0 e quindi
non avendo caduta su RC abbiamo Vo = VCC, valore tipico 5V.
Se Vin è piccola la tensione di uscita è alta.
Se invece applico una tensione di ingresso:
Possiamo ipotizzare che il BJT sia in conduzione ma se scelgo opportunamente i valori di Rb e Rc posso fare
in modo che il BJT sia in conduzione ma che sia anche saturo.
Se è in saturazione possiamo scrivere quella relazione sulla VCE.
Se la Vin è a un valore alto se il mio transistore è in saturazione l’uscita avrà un valore molto piccolo, ma
associando il valore logico 0 a 0.2V e 1 a 5V l’oggetto si comporta come un inverter.
Quando il BJT è in conduzione posso fare in modo che sia in saturazione come segue.
Disegnando la retta di carico, determinata dal circuito di uscita:
Se scelgo VCC e RB in modo che IB5 sia il valore VCC – Vy / RB e se scelgo RC in modo che quella in figura sia
la retta di carico ottengo che il punto di lavoro sarà quel punto a cui corrisponde la Vcesat.
Il mio BJT funziona come inverter a patto che scelgo RB e RC, ma anche VCC alla fine, in modo tale che
quando il BJT entra in conduzione si trova a lavorare in saturazione.
Tipico esempio pratico è il seguente:
La VTC che ci permette di riportare vo in funzione di vi, ci dice che fino a quando vi < VIL, pari a Vy, la
tensione di uscita rimane a VOH praticamente pari a VCC, dopodiché il transistore entra in conduzione e
abbastanza velocemente, per una tensione di ingresso pari a VIH il transistore va in saturazione e l’uscita va
al valore di VOL.
Abbiamo una zona di interdizione e poi un breve tratto in cui passa in zona attiva diretta e infine in
saturazione.
Quando ragioniamo in termini di margini di rumore ci piacerebbe averli simmetrici così da avere un
comportamento migliore nelle porte logiche, mentre qui la zona di interdizione è molto spostata verso
sinistra e quindi il margine NML è piccolo, svantaggio di queste porte logiche.
Sono state comunque implementate nella tecnologia RTL.
RTL (Resistor Transistor Logic)
In questa famiglia l’inverter viene collegato mediante delle resistenze per creare delle porte logiche.
Prendiamo l’esempio di un NOR a due ingressi.
La tensione di uscita diventa bassa quando almeno uno dei due transistori va in conduzione, e per averlo in
conduzione devo avere delle variabili logiche alte.
Altrimenti se entrambi sono a 0 ho un uscita a un livello alto.
Abbiamo però diverse problematiche:
- margini di rumore diversi tra di loro e NML molto piccolo, portando problematiche sul livello basso
- dissipazione di potenza statica non trascurabile. Dissipo infatti potenza nella resistenza RC, quando
almeno uno dei due BJT è in conduzione attraverso RC ci passa una corrente di collettore
staticamente che non è trascurabile (VCC - VCEsat /RC quindi quasi pari a VCC/RC), e rimane finchè
uno dei due è acceso.
- Tempo di commutazione dal livello basso al livello alto molto lungo (tpLH) e il problema si ha
perchè quando il BJT va in saturazione entrambe le giunzioni sono polarizzate in diretta e quindi
entrambe le giunzioni stanno iniettando nella base un’elevata quantità di portatori ma per il
funzionamento in ambito digitale dalla saturazione dobbiamo spegnere il BJT, renderlo interdetto e
quindi si deve portare via dalla base questi portatori che vi si sono accumulati e rimuovere le
cariche iniettate dalla base richiede un certo tempo. E’ richiesto un certo tempo per far transitare
un BJT dalla condizione di saturazione a quella di interdizione. Per spegnere un BJT in saturazione
richiede un certo tempo.
- FAN-OUT piccolo. Quando il BJT è saturo sulla RB scorre una corrente IBsat di saturazione e per
poterlo mandare in saturazione devo fornire una corrente di base.
Se devo pilotare un inverter all’uscita posso collegare un numero di inverter in cascata tale da tener
conto che l’uscita della porta deve essere in grado di fornire N volte la corrente di saturazione degli
stadi a valle.
Mentre nelle porte a tecnologia CMOS l’ingresso è costituito dal gate che non assorbe corrente ora
quando il BJT viene portato in saturazione questo assorbe una corrente pari a IBsat che non è
trascurabile e ciò porta dei limiti al numero di porte che sono in grado di pilotare.
Se ho N stadi devo fornire una corrente pari a N * IBsat.
La giunzione BC, essendo B a una tensione molto alta (dipenderà dalla corrente che scorre in R) però la
tensione sul collettore non può avere un valore molto alto perché al limite se Q1 è in conduzione potrà
valere 0.7V, posso quindi ipotizzare che anche questa giunzione sia polarizzata in diretta.
Quando Q2 conduce la corrente di base è entrante, non può essere uscente, e quindi la corrente uscente da
un transistore NPN può essere solo molto piccola.
Non posso avere in modo statico una corrente elevata che esce dalla base.
Ciò significa che Q1 è saturo ma sta funzionando con una IC1 circa nulla e quindi la VCEsat è molto piccola,
la mia retta di carico è tale che la VCEsat è molto piccola.
Se A = 0 allora Y = 1.
Dovrei verificare le ipotesi ma scegliendo Rc e R possono fare in modo che Q2 è interdetto e quindi l’uscita
sia alta.
Nel caso in cui la tensione VA = 5V (A = 1):
L’emettitore è alla tensione più alta presente nel circuito e quindi posso fare l’ipotesi che la giunzione BE sia
polarizzata in inversa.
La base è a una tensione più bassa rispetto all’emettitore.
Per la giunzione BC la base è comunque collegata a VCC tramite R e quindi essendo la tensione VC non
troppo elevata.
Quindi posso ipotizzare:
Ciò significa che la corrente ora scorre in verso opposto e le due correnti si scambiano di ruolo, quindi
avremo BR*IB e (BR+1)*IB.
Solo che BR è molto piccolo, in questo caso scelto pari a:
Quasi tutta la corrente IB viene fatta scorrere come corrente di uscita di collettore che viene iniettata in Q2:
E questa viene fatta in modo che sia pari alla Ib di saturazione di Q1.
Inietto una corrente sufficientemente grande da mandare in saturazione Q2, quindi:
Quindi la corrente Iin risulta essere piccola per effetto del Br, grazie al comportamento del BJT la corrente
assorbita risulta essere molto piccola quando devo mandare Q2 in saturazione, vantaggio che però avevo
già coi diodi.
La grande utilità si vede però nel transitorio, nel transitorio devo spegnere Q2 e quindi Q2 da saturo deve
diventare interdetto e quindi vedo se riesco a diminuire i tempi per portare Q2 da saturo a interdetto.
All’istante:
Abbiamo 5V sul nodo A visto che A = 1,sulla base 1.4V e sul collettore 0.7V.
Con queste tre tensioni abbiamo che Q2 è saturo e quindi in uscita abbiamo 0.2V.
Supponiamo che avvenga poi la commutazione dell’ingresso e quindi all’istante t = 0+ avremo A = 0.
Dobbiamo avere idealmente Y che va a 1 e quindi Q2 si dovrebbe interdire, all’ingresso A è andato a 0V, la
giunzione è polarizzata in diretta e quindi abbiamo sulla base 0.9V visto che VBE = 0.7V.
Il problema è che Q2 era saturo e tende a rimanere in saturazione e quindi all’istante 0+ la tensione sulla
base di Q2 tende a rimanere a 0.7V.
Il problema è che VC1 è ancora a 0.7V e ciò fa sì che Q2 non si riesca a spegnere.
Ma guardando le tre tensioni abbiamo che:
Ma in zona attiva diretta il BJT riesce a condurre a una corrente di collettore non trascurabile, con Bf
almeno dell’ordine di 50 e quindi durante il transitorio riesco a condurre una corrente molto grande che mi
svuota velocemente i portatori sulla base di Q2 e quindi quei portatori che mantenevano a 0.7 quella
tensione, quindi nel transitorio la presenta di Q1 è fondamentale perché mandandolo temporaneamente in
ZAD, svuotati i portatori diventa saturo infatti e quindi la tensione 0.7V a regime passa a 0.3V.
A regime avremo quindi Q1 saturo e Q2 interdetto.
Nel transitorio da 0.7V passa a 0.3V e quindi riesce a portare in interdizione Q2.
Configurazione Totem-Pole
Nelle famiglie TTL standard l’ultimo problema che dobbiamo risolvere riguarda come viene caricata e
scaricata la capacità equivalente.
Troviamo una certa simmetrica perché quando devo caricare la capacità la carica avviene lungo il percorso
in figura attraverso la resistenza RC:
Mentre nel caso di scarica questa avviene attraverso il BJT, producendo un comportamento asimmetrico.
Quando l’uscita deve essere portata al livello basso lo faccio attraverso il BJT viceversa con la resistenza e
quindi i tempi di commutazione sono diversi uno dall’altro.
Si è pensato a fare in modo che la carica e scarica avvenga nello stesso modo.
Si usano due BJT Q1 e Q2 pilotati in modo uguale e opposto, Q2 deve portare l’uscita al livello basso mentre
Q1 deve essere utilizzato quando devo portare l’uscita al livello alto.
Qui le cose sono complementari, se funziona il circuito di sopra carico il condensatore tramite la corrente di
emettitore mentre la scarica quando funziona solo Q2 devo scaricare il condensatore di uscita tramite Q2.
La VCB assume come valore massimo –0.5 mentre la VBEmax è dell’ordine di 0.8 se uso correnti di
saturazione elevata.
Quindi la VCE può scendere al minimo a 0.3V.
Si impedisce alla VCE del transistore di scendere sotto 0.3V, non è consentito al transistore di entrare in
saturazione profonda dove avrei una grande iniezione di portatori in base bensì si limita il numero di
portatori che possono essere iniettati in base che poi devo rimuovere quando voglio andare a spegnere il
transistore. Si diminuiscono così i tempi per poterlo portare fuori dalla saturazione.
In questo caso il valore di tensione associato al livello basso diventa 0.3V, ho aumentato un po’ il valore di
tensione ma ho guadagnato in termini di commutazione.
Un transistore in cui si usa un diodo Schottky tra B e E è detto Transistore Schottky, e assume un simbolo
che ricorda la S di Schottky.
Si ottiene una NAND di tipo TTL Schottky che presenta migliore in tempi di commutazione.
Sono nate successivamente diverse famiglie a tipologia bipolare, dove la famiglia TTL standard è la 74 e ha
come caratteristiche quelle in figura (la NAND assume come sigla 7400).
Se sostituisco i transistori con quelli Schottky ottengo la TTLS (74S) che hanno un grande vantaggio in
termini di tempi di commutazione, e anche se si aumenta la potenza permette di avere un PDP minore.
L’evoluzione successiva ha cercato di diminuire la potenza con la TTL-LS (TTL Low Power Schottky)
aumentando però i tempi di commutazione. I due sono infatti in contrasto l’uno con l’altro.
La TTL-ALS (TTL Advanced Low Power Schottky) ha fatto diminuire ulteriormente la potenza e anche I tempi
di commutazione.
Introducendo la tecnologia basata su CMOS sono nati dei problemi di compatibilità con la necessità di
sostituire tutti i componenti digitali sviluppati con la famiglia TTL.
E’ nata la famiglia 74HC realizzata in tecnologica CMOS con circuiti però perfettamente compatibili che ha
portato a un abbattimento enorme della potenza dissipata sfruttando il fatto che il CMOS ha una potenza
dissipata quasi nulla.
Questo ha portato all’obsolescenza della famiglia TTL.
Se considero la tensione di uscita su uno dei due rami succede che questa tensione può assumere solo due
valori. Se assumo che l’interruttore sia comandato da una variabile A e che la posizione dello 0 e 1 è quella
in figura, se A = 1 tutta la corrente viene fatta scorrere sul ramo di destra, mentre se A = 0 e la corrente
passa tutta sul ramo di sinistra.
La tensione vo2 assume un valore alto quando A = 0, mentre un valore basso di tensione quando A = 1.
Tutto sta poi ad associare ai valori di tensione un valore logico opportuno.
In tecnologia bipolare si sceglie come tensione di riferimento, per motivi di disturbi, la tensione nulla.
Nei due rami ho una resistenza e un BJT, i quali hanno l’emettitore accoppiati insieme e collegati a un
generatore di corrente costante IEE collegato a una tensione negativa pari a -VEE.
Le uscite della mia porta sono quelle in figura.
Se indichiamo con Vin la tensione applicato sulla base di Q1 mentre sulla base di Q2 applichiamo una
tensione di riferimento costante.
Scegliendo opportunamente Vin è possibile far scorrere IEE tutta nel ramo di sinistra o di destra.
Facciamo un’ipotesi di lavoro:
Ed esplicitando VBE1 e VBE2 e considerando che E1 e E2 sono poste allo stesso potenziale otteniamo
l’espressione indicata.
Il rapporto tra le due correnti dipende in modo esponenziale dalla differenza tra Vin e Vref divisa per Vt.
Se prendiamo dei valori di esempio:
Se applico una differenza di potenziale positiva di soli 300mV la corrente di collettore di Q1 è 10^5 più
grande di quella di Q2.
Applicando piccole differenze tra Vin e Vref spostiamo tutta la corrente tra il transistore Q1 e Q2.
E’ Ic2 ad essere circa pari a IEE. Quasi tutta la corrente passa sul ramo di destra.
A seconda del segno della differenza tra vin e vref si riesce a far andare quasi tutta la corrente verso destra
o verso sinistra.
Nell’altro ramo un po’ di corrente ci scorre comunque, perché il transistore Q2 è mantenuto in ZAD con una
corrente molto piccola, di fatto trascurabile rispetto a quella nell’altro ramo.
I due valori di tensione in cui può funzionare vo2 sono i seguenti:
avremo che:
Mentre se B = 1:
L’uscita x va a 1 e l’uscita y va a 0.
Il segnale X non sarà altro che la NOR tra A e B, mentre l’uscita Y è la OR tra A e B.
La stessa porta è in grado di fornirmi una funzione logica e anche la sua complementare, sono disponibili sia
l’uscita che la sua complementare.
Questo è un altro vantaggio della logica ECL.
Un altro vantaggio è che si tratta di una logica a commutazione di corrente, ho una corrente costante
shiftata tra rami diversi.
Il generatore deve sempre alimentare la stessa corrente, fornisce sempre una corrente costante pari a IEE,
e quindi ho un rumore inferiore.
Abbiamo però che viene dissipata sempre la stessa quantità di potenza, che è la massima possibile.
Sono porte ad elevato consumo ma sono porte con tempi di commutazione molto piccoli e quindi per
molto tempo sono state usate in applicazioni che richiedono un elevata capacità a discapito di elevati
consumi.
Logica sequenziale
L’uscita in certi istanti non dipende esclusivamente del valore delle variabili di ingresso in quell’istante ma
anche dal valore di queste grandezze negli istanti precedenti.
Le porte logiche sono dotate di memoria in quanto esistono variabili di stato che mantengono l’evoluzione
della porta.
Vedremo come circuitalmente con gli elementi attivi visti posso implementare questo tipo di
funzionamento.
Ci sono diversi tipi di approcci in elettronica per la memorizzazione di un dato:
- memorizzazione statica tramite circuiti bistabili, implemento circuiti che fino a quando risultano
essere alimentati (richiedono un’alimentazione) presentano due stati stabili e questo circuito può
rimanere in uno di questi due stati per un tempo indefinito finchè non viene stimolato a passare ad
un altro stato. Avendo due stati di funzionamento se riuscissi ad associare le variabili logiche ad
ogni stato di funzionamento posso utilizzare questo circuito come elemento di memoria.
E’ detto statica perché riescono a mantenere il dato per un tempo indefinito finchè c’è
alimentazione o finchè viene sollecitato a passare ad uno stato diverso.
- memorizzazione dinamica, che utilizza come elemento di memoria un condensatore, oggetto che
riesce a mantenere una volta che è stato opportunamente caricato una tensione ai suoi capi per un
certo intervallo di tempo. Se esistono dei percorsi con correnti piccole che riducono la corrente sul
condensatore la tensione sul condensatore varierà nel tempo.
Dobbiamo tenere in conto che la memorizzazione è di tipo dinamico, se vogliamo mantenere
l’informazione dobbiamo prevedere un refresh, ogni condensatore a seconda delle correnti di
perdita manterrà la carica solo per un certo intervallo di tempo, dovrò quindi introdurre carica
aggiuntiva ristabilendo quella persa.
Latch
L’elemento di base è il latch e può essere realizzato tramite due inverter collegati in retroazione.
L’uscita dell’inverter 1 viene riportata in ingresso all’inverter 2 e viceversa.
Il circuito è in reazione positiva perché abbiamo una doppia inversione del segnale, il segnale viene preso
invertito di segno e riportato in ingreso due volte, e vediamo se è in grado di memorizzare
un’informazione.
Supponiamo che in ingresso all’inverter 1 vi sia un valore pari a 0, questo viene invertito e portato in
ingresso all’inverter 2 che avrà in uscita 0 che viene riportato in ingresso e quindi viene mantenuto il dato.
Lo stesso per l’ingresso pari a 1.
Riusciamo ad avere apparentemente due stati stabili e l’anello fa sì che ci permanga per un tempo
indefinito.
La caratteristica sarà quella di due inverter in cascata, ottengo la curva dell’inverter ribaltata perché ognuno
dei due ha la caratteristica dell’inverter che però viene invertita.
Per riportarlo al nostro latch prendiamo questo circuito e la condizione:
Il latch deve soddisfare entrambe le curve, quindi i punti di funzionamento sono i punti a comune tra le due
curve. Troviamo tre punti di intersezione, punti di funzionamento del mio latch perché sono i punti in cui si
soddisfano entrambe le equazioni.
Il mio dispositivo ha tre punto di funzionamento e non due come avevo studiato prima, A e C sono i punti
analizzati prima in cui la caratteristica è piatta e il guadagno è quindi nullo.
Questi sono punti di funzionamento stabili e sono quei due in cui fuinziona da circuito bistabile.
Abbiamo però un terzo punto (B) detto meta-stabile. Se il nostro circuito si trova a funzionare in A e C
quello rimane in quel punto anche per piccole variazioni, perchè si trovano nei punti in cui la caratteristica è
piatta, a guadagno nullo.
Se si sposta poco dal punto di funzionamento mantiene quel valore in uscita.
Se mi trovo però nel punto meta-stabile, questo è un punto in cui mi posso trovare a lavorare solo dal
punto di vista del tutto teorico.
Nel caso in cui ho realizzato inverter CMOS perfettamente simmetrici questo punto stabile è a metà
dell’escursione logica, quindi sia le tensioni Vi1 che Vu2 devono trovarsi a metà e in tal caso l’uscita
dell’inverter è esattamente a metà e viene mantenuto, VDD/2.
Questo punto si trova nel punto in cui la caratteristica è motlo ripida, è sufficiente un piccolo spostamento
per far si che il sistema evolva velocemente verso uno dei due punti.
Se Vu2 aumenta leggermente si tende a incrementare questa variazione verso l’alto, questo incremento
viene ulteriormente aumentato e ciò permette di raggiungere velocemente C.
Questo punto è meta-stabile perché se si trova esattamente a V*, se ho:
Ed ecco perché viene detto meta-stabile, idealmente ci potrei rimanere ma bastano piccole variazioni per
far cadere il punto di funzionamento o in C o in A.
Se voglio far commutare il latch è sufficiente che io riesca ad uamentare vi1 non portandola per forza verso
C ma basta che supero il valore di V* anche di una piccola di quantità.
Il meccanismo di reazione interno è tale da fare portare il punto verso A.
Un’analogica è la bilancia a due piatti, è sufficiente modificare leggermente l’equilibrio per far cascare il
punto in C o in A.
Flip-Flop Set-Reset
Il circuito implementato per ottenere la forzatura è costituito da NOR invece che da inverter.
In teoria c’è anche la possibilità di avere lo stato R = 1 e S = 1 ma non è consigliato utilizzarlo per due
motivazioni. La prima è che si forza sia Q che Q negato allo stesso valore, non ottenendo più la situazione in
cui sono uno il negato dell’altro.
Inoltre non è definito lo stato in cui ci si trova dopo aver usato questa configurazione, quando si riporta a 0
almeno uno dei due segnali dal punto di vista fisico non si riesce a fornire una variazione istantanea e
quindi uno dei due segnali va a 0 prima dell’altro e a seconda di quali dei due segnali va a 0 prima dell’altro
si ottiene un valore in uscita non deterministico.
Per la sua realizzazione possiamo realizzare i NOR in CMOS complementare, richiedendo 2 x 4 = 8 MOS.
Esistono anche delle implementazioni alternatiche che invece di realizzare ciascuna porta partendo da
questa funzione logica sfruttano il circuito del latch, usando quindi un approccio che parte dal basso,
sapendo che ho a disposizione il circuito del latch e vedo se posso forzarlo a commutare il suo stato
ottenendo un numero di MOSFET inferiore.
Quindi il mio latch è isolato, senza alcuna sollecitazione dall’esterno e quindi sarà in memorizzazione,
mantenendo lo stato in cui si trova.
Se invece:
ho Q5 OFF mentre ad andare in conduzione è Q7 e quindi abbiamo che Q7 forza Q verso 0 e ciò forza Q
negato verso 1.
Se invece:
non accade nulla essendo sia Q5 che Q7 spenti, non commuto lo stato latch.
In questo caso se io prendo:
sia Q5 che Q7 risultano ON e quindi forzerei Q verso 0 ma anche Q negato verso 0, e inoltre poi mi ritroverò
a seconda di quale dei due per ultimo torna a 0 avrei un valore non deterministico nel mio latch.
Il segnale di clock verrà utilizzato come segnale di enable.
Un’altra versione simile a questa permette di ridurre la quantità dei transistori perchè inglobo quello di
enable con quello di configurazione come segue:
Il segnale di reset viene applicato con un transistore di passo il cui gate è comandato da fi e viene applicato
stavolta a Q negato.
Il segnale di set viene applicato attraverso Q6, il cui gate è collegato da fi, e viene applicato stavolta a Q.
Se abbiamo:
In questo caso R è collegato direttamente a Q negato e forzo direttamente Q negato a 1 e quindi Q tenderà
a 0. In questa configurazione con 6 MOSFET ha però due configurazioni che non posso usare e non più una.
Questo perché intervengo diurettamebte sulle variabili del latch, forzando Q e Q negato verso la stessa
tensione. Ho un’implementazione migliore ma non possono essere usate ben due configurazioni.
Flip-Flop D
I flip-flop di tipo D presentano in uscita il valore fornito all’ingresso finchè il terminale di enable è allo stato
alto, abbiamo la cosiddetta trasparenza (Q = D). Se il terminale di enable viene portato allo stato basso, in
uscita viene mantenuto il valore logico presente all’ingresso nell’istante immediatamente precedente la
transizione della variabile di enable, siamo quindi nello stato di memorizzazione.
Da un punto di vista logico, perciò un flip-flop di tipo D può essere ottenuto semplicemente utilizzando un
flip-flop SR con enable unitamente a un inverter, come indicato in figura: se il terminale di enable è allo
stato alto, l’uscita sarà una copia dell’ingresso, dato che per un valore logico alto in ingresso viene attivato il
terminale di set e per un valore logico basso viene attivato quello di reset (trasparenza). Se il terminale di
enable viene portato poi a livello basso, l’uscita del flip-flop rimane al valore memorizzato dal latch interno
(memorizzazione).
Esistono quindi almeno due possibili implementazioni per il flip-flop perché per il flip-flop SR con enable
esistono due possibili implementazioni. Esiste un metodo più semplice che prevede l’utilizzo di un numero
minore di componenti e che sfrutta entrambi i tipi di memorizzazione nei circuiti elettronici.
Abbiamo visto la possibilità di avere circuiti bistabili, come il latch, oppure lo stato viene memorizzato su un
condensatore.
Esiste un circuito che sfrutta entrambi i meccanismi.
Il circuito è semplice e prevede l’utilizzo di due inverter in cascata che possono essere realizzati in
tecnologia CMOS, quindi con due MOSFET per ogni inverter.
Dopodichè si utilizza un MOSFET per collegare l’ingresso all’ingresso del primo inverter, comandato dal
segnale fi.
Abbiamo un percorso di retroazione che collega l’uscita all’ingresso del primo inverter e lungo questo
anello abbiamo un altro MOSFET dove abbiamo il controllo da parte delle variabile fi negato.
In realtà fi negato non è la negazione di fi, ma sono sostanzialmente due clock non overlapping.
fi e fi negato sono due segnali l’uno l’opposto dell’altro dal punto di vista logico, ma dal punto di vista
temporale non esiste mai un intervallo di tempo in cui i due segnali sono contemporaneamente al valore
logico 1.
Chiamiamo i due transistori M1 e M2 e vediamo il funzionamento del nostro flip-flop.
Supponiamo di avere:
In questo caso avremo M1 ON e 2 OFF e il flip-flop non è altro che la serie di due inverter.
Abbiamo quindi la condizione di trasparenza e l’uscita dopo il primo inverter sarà Q negato e quella dopo il
secondo sarà Q.
Quando invece:
M1 sarà OFF mentre M2 sarà ON, abbiamo quindi due inverter in serie ma con un anello di reazione e
quindi la presenza di un latch e quindi di conseguenza sono in memorizzazione.
In condizioni statiche, negli intervalli in cui sono verificate queste due condizioni sul valore di enable il tutto
funziona correttamente.
E’ fondamentale che questi due comportamenti siano separati temporalmente, non devo avere e M1 e M2
contemporaneamente ON.
Avrei un latch a cui vado ad applicare un segnale dall’esterno e a seconda se questo segnale è in grado di
forzare o meno lo stato del latch, avremo che il dispositivo si può comportare da latch (non modifica il
proprio stato) o potrà andare in trasparenza.
Avrei sia il latch attivo con un collegamento dall’esterno ma non è garantito che D sia in grado di modificare
lo stato del dispositivo e che quindi siamo in trasparenza.
Considerando i due segnali esiste quindi un intervallo deltaT in cui i miei due transistori risultano entrambi
spenti.
Nella commutazione tra la trasparenza e la memorizzazione ho un piccolo intervallo di tempo che devo
garantire in cui siano entrambi spenti, Deltat != 0.
Questo intervallo di tempo in cui entrambi sono spenti può essere lungo a piacere o deve essere il più
piccolo possibile?
Supponiamo di essere nell’istante prima del spegnimento di M1 (a sinistra di deltat), il dato D che vale VDD
(valore logico 1) è applicato in ingresso al mio inverter. Ho M2 spento e vado a fare la mia commutazione,
ho un intervallo in cui M1 sarà quindi anch’esso spento.
Ho un intervallo in cui in ingresso al primo inverter avevo VDD, ma chi mi mantiene questa tensione.
In ingresso ho una tensione VDD che devo mantenere fino a quando M2 entra in conduzione.
Quando M2 entra in conduzione Q valrà VDD e quindi l’anello di reazione mantiene la memorizzazione.
Ma chi mi conserva il dato in ingresso al primo inverter quando M1 e M2 sono spenti?
Il dispositivo che abbiamo di fronte è però un inverter in tecnologia CMOS e quindi il terminale di ingresso è
costituito dai gate dei due MOSFET e quindi troviamo il gate di un MOSFET che è un terminale isolato e
abbiamo individuato anche la capacità di gate.
La risposta a questa domanda è quindi la capacità di gate del primo inverter.
Ho in questo punto una capacità di gate, sulla quale memorizzo il dato in questo intervallo Deltat, nel quale
il dato è memorizzato su questa capacità.
Non ci può rimanere a lungo perchè anche se i gate sono isolati presentano una certa corrente di perdita e
quindi non posso lasciarla per un tempo indefinito ma può essere mantenuto per un certo intervallo di
tempo.
Il segnale che in uno stadio comanda l’anello di reazione nell’altro stadio comanda il segnale di accesso.
I due devono essere ancora due clock non sovrapposti, e abbiamo che:
Con questa configurazione gli stadi si comportano in modo duale e avendo imposto la condizione che fi1 = 1
e f2 = 1 non avvengano mai contemporaneamente, esiste sempre l’intervallo deltaT != 0, non esiste mai un
percorso diretto tra D e Q in ciascun istante.
Quindi quando il master è in trasparenza il valore di D si blocca nel punto prima del MOSFET di accesso
pilotato da fi2, quando quest’ultimo diventa 1, l’ultimo dato in ingresso che avevo prima che fi1 cambiasse
il suo stato viene memorizzato dal master e reso disponibile in uscita, perché si attiva l’anello di reazione
del master che mentiene il dato e fi2 si attiva facendo in modo che questo dato venga reso disponibile in
uscita.
Posizionandoci nel solito istante, nel fronte in discesa di fi1 il MOSFET M1 va in interdizione, il dato viene
memorizzato dalla capacità di gate di ingresso del master e quando ci sarà il fronte in salita di fi2 lo slave
viene messo in comunicazione, Q cambia e il master manterrà nell’anello questo dato.
Un nuovo dato in uscita lo vediamo solo quando vi è il fronte in salita di fi2, ma questo dato era presente in
ingresso nel fronte in discesa di fi1.
Quindi se il dato prevede delle oscillazioni queste non le vedrò mai in uscita perché l’unico dato che trovo
in uscita era quello presente in ingresso nel fronte di discesa di fi1 precedente.
Se D presenta oscillazioni e poi si stabilizza, queste oscillazioni non le vedrò mai in Q, prelevando quindi il
dato in un opportuno istante.
Multivibratori (Oscillatori)
Vediamo dei possibili circuiti che ci consentono di ottenere segnali che variano nel tempo in modo
ripetitivo.
I flip-flop rientrano in una categoria più generale che prende il nome di multivibratori, dispositivi che
vengono suddividi in tre categorie.
I multivibratori stabili sono circuiti che presentano due stati stabili, mantiene un determinato stato di uscita
fintanto che non viene applicato un segnale esterno, trigger che forza la commutazione.
I latch sono dispositivi logici che rientrano in questa categoria.
I multivibratori monostabili sono circuiti che presentano uno stato stabile e in presenza di una
sollecitazione esterna (trigger) i circuiti sono in grado di commutare in un altro stato nel quale permangono
per un tempo determinato per poi tornare nel vecchio stato.
In poche parole riescono a emettere un impulso di durata nota a seguito dell’applicazione di un trigger.
I multivibratori astabili sono circuiti che non hanno uno stato stabile ma continuano a oscillare tra due stati
quasi-stabili. Questo è il tipico comportamento di un segnale di clock, se associo il valore logico 0 a un
valore di tensione basso e il valore logico 1 a un valore di tensione alto avrà una continua commutazione da
uno stato all’altro.
il BJT viene mandato in conduzione e considerato come saturo, quindi come un interruttore chiuso e il
terminale di Discharge ha come valore praticamente 0V.
Quando invece:
Tracciamo un diagramma che rappresenti lo stato dell’uscita in funzione dello stato delle tensioni di
ingresso VTH e VTR.
Per VTR < 1/3 VCC, il terminale di set è attivo e quindi l’uscita è sempre a livello alto, anche se VTH > 2/3
VCC, perchè, come abbiamo già detto, il set ha priorità sul reset.
Se invece VTR supera 1/3 VCC, l’uscita rimarrà nello stato in cui si trovava precedentemente se VTH < 2/3
VCC (dato che in tal caso nè il set nè il reset sono attivi), siamo quindi in uno stato di memorizzazione,
oppure sarà forzata al livello basso se VTH > 2/3 VCC. Abbiamo così diviso il piano di lavoro in quattro
quadranti. Le zone di funzionamento diventano 3 perché a sinistra abbiamo che in ogni caso in uscita
troviamo un valore logico alto.
Andremo a utilizzare il segnale di trigger e quello di soglia pilotandoli opportunamente in modo da ottenere
il risultato che vogliamo.
Quando all’ingresso TR è presente una tensione superiore a 1/3 VCC, il set si trova a 0.
Vediamo se questa configurazione è stabile ipotizzando che Q = 0.
Se Q = 0 e Vin = VCC vediamo se ci troviamo in uno stato stabile:
VTH è collegato al + del comparatore e in questo circuito accade che i+ = 0 e ho un circuito in cui scorre
della corrente da VCC attraverso R sul condensatore e quindi la tensione sul condensatore inizierà ad
aumentare e a regime se non accadesse nulla lui andrebbe a VCC.
Se supponiamo che l’impulso dato sul trigger sia già concluso, VTR va nello stato alto, VTH aumenta e
quando questo arriva al valore di 2/3 VCC e diventa maggiore di questo valore, R = 1 e se VTR è già ritornata
al valore alto, S = 0, e avremo una situazione in cui abbiamo R = 1, e poichè S = 0 abbiamo che l’uscita
rimarrà alta solo fino a questo istante.
Se il BJT è saturo scarica velocemente la tensione sul condensatore e poi la riporta a 0 e in questo stato
sono dinuovo nello stato di partenza in cui il condensatore è scarico, la Vu è tornata a 0 e sono tornato nel
mio stato stabile, dove però ho generato un impulso in uscita di valore T.
Deve essere che però l’intervallo deltaT << T, in modo che quando R va a 1 il valore di S sia già a 0.
Possiamo facilmente calcolare la durata dell’impulso di uscita: questa corrisponde al tempo impiegato dalla
tensione sul condensatore per raggiungere 2/3 VCC.
Dove Vf è la tensione su C quando la corrente che scorre nel circuito è nulla, quindi quando il condensatore
si è caricato.
La tensione Vi è la tensione iniziale e tau è la cosiddetta costante di tempo = R*C.
La tensione finale su cui si troverebbe il nostro condensatore quando non scorre resistenza in R è VCC,
mentre la tensione iniziale è pari a 0, supponendo che l’asse dei tempi partisse dall’istante in cui vin = 0.
Questo transitorio dura fino a quando la tensione sul condensatore vale 2/3*VCC.
Se prendo l’origine degli assi nell’istante indicato, posso ricavare che T = t1 = RC*ln3.
Ottenendo che questo circuito è in grado di fornirmi un impulso in uscita la cui durata dipende dal valore
della resistenza, della capacità applicata e di una costante, ln3.
Nei circuiti astabili non c’è uno stato stabile in quanto il circuito continua ad oscillare tra due stati possibili.
Si parte da uno stato possibile e vediamo come evolve il sistema.
Supponiamo di partire dall’istante in cui Q è diventato 1 e realizziamo un diagramma temporale dove Vc =
VTH = VTR.
Supponiamo che Q sia appena diventato 1 e partiamo quindi dal fronte in salita.
Se siamo nell’istante in cui Q = 1, in quell’istante VTR è diventato pari a 1/3*VCC.
Se VC = 1/3*VCC abbiamo S = 1, Q negato vale 0 e ciò vuol dire che D è in alta impedenza e quindi il circuito
diventa questo.
Come prima avrà la carica del condensatore attrvaverso RA e RB.
Non potrà raggiungere VCC perché quando la tensione arriva a 2/3*VCC abbiamo R = 1 con S = 0, perché TR
e TH sono alla stessa tensione.
La curva commuterà a 0.
Se Q = 0, Q negato vale 1 e quindi D diventa 0.
Il circuito diventa allora il seguente:
Intervallo di tempo indipendente dalle caratteristiche specifiche dell’NE555 ma solo dalla capacità, dalle
resistenze e da una costante.
Calcoliamo T2 e per farlo indichiamo con 0 l’istante in cui inizia il semiperiodo:
La tensione finale, se si esaurisce tutto il transitorio è pari a 0V, visto che il condensatore si scaricherebbe
con RB verso ground.
La costante di tempo in questo caso è il prodotto della capacità per la resistenza vista, ma se disattivo VCC
RA non dà alcun contributo visto che è cortocircuitata, e l’unica resistenza che il condensatore vede è RB.
Quindi:
Possiamo allora calcolare la frequenza del segnale, l’inverso del periodo, che è quindi pari a:
Siamo in grado di generare un segnale con questa frequenza, ma il problema è che il duty cycle non può
essere del 50%, perché le costanti di tempo sono diverse, da una parte abbiamo RA+RB e dall’altra solo RB,
si potrebbe avere solo se RA << RB.
Il duty cycle è quindi sempre diverso da ½.
Ho un segnale quindi astabile con una continua oscillazione tra il livello alto e il livello basso.
Quando c’è l’istante di commutazione abbiamo una sequenza di impulsi su vset e un vreset che mi fanno
commutare Q.
Il duty cycle:
Ma se abbiamo:
Abbiamo due porte NOR che le utilizziamo a componenti discreti, e aggiungiamo un condensatore e una
resistenza.
In uno dei due ingressi della prima porta NOR applichiamo la Vin, mentre sull’altro ingresso è riportato il
segnale di uscita della seconda porta NOR.
Per ottenere un comportamento monostabile troviamo un anello di reazione.
Tra l’uscita del primo NOR e l’ingresso del secondo NOR viene posto un condensatore C e la tensione di
ingresso viene posto a VDD con una resistenza.
Il secondo NOR è collegato coi due ingressi insieme e quindi funziona come un inverter.
Ipotizziamo che le porte NOR sono realizzate in tecnologia CMOS complementare e abbiamo la rete di pull-
up e la rete di pull-down.
Per cui quando l’output è al valore logico basso è attivo il pull-down e quindi avremo una Ronpull-down che
schematizza il fatto che sarà attivo la rete di pull-down costituita dall’NMOS.
Quando l’uscita della porta NOR è a un valore logico alto è attivo il pull-up, per cui l’uscita è collegata a VDD
dalla Ron del PMOS.
Lo stato stabile noi vogliamo che sia lo stato in cui Vin = 0V, abbiamo quindi un ingresso al primo NOR.
Nello stato stabile non scorre corrente nel condensatore e quindi o è completamente carico o
completamente scarico.
Se non scorre alcuna corrente nel condensatore, la tensione v2 si troverà al valore di VDD e quindi in
ingresso all’inverter 2 avremo un valore logico alto.
Poiché l’uscita sarà ottenuta tramite un inverter, ciò avrà come conseguenza:
Quindi in uscita abbiamo un livello logico basso che viene riportato in ingresso e quindi v1, uscita di un NOR
in cui gli ingressi sono entrambi 0, in uscita avrò un 1 logico e quindi in uscita avrò VDD.
Quindi v1 = v2 e quindi se identifico la tensione ai capi del condensatore con questa polarità:
Se ora arriva un impulso su Vin, e quindi se Vin passa a VDD, il primo NOR ha un’uscita che commuta e
quindi v1 tende a un valore di tensione piccolo, che non sarà proprio 0.
Il condensatore è inerziale alle variazioni di tensione e quindi la tensione ai suoi capi non può variare
istantaneamente.
Abbiamo un condensatore di tensione nulla e quindi dobbiamo verificare il suo comportamento perché se
la sua tensione era a 0V, all’istante immediatamente successivo tende a rimanere a questo valore.
Se il primo NOR è commutato a 0, il circuito sarà questo.
Durante tutto questo periodo è vero che all’istante t = 0+ il condensatore era scarico, ma guardando questo
circuito avremo una corrente che scorrerà nel verso in figura che porterà alla carica del condensatore con
una costante di tempo determinata da R e Ron e si caricherà con v2 che va verso VCC e v1 che va verso 0.
Bisogna ricordare che in parallelo a R c’è la R del diodo, la RON è molto piccola, lo è anche il parallelo, ho
quindi una resistenza vista molto piccola e quindi V1 cresce velocemente, tende al valore VDD in un modo
molto veloce.
Per quanto riguarda V2, questa decresce fino a VDD ma appena inizia V2 è minore di VDD + Vy il diodo si
interdice.
La resistenza vista, se il diodo si spegne, è quindi data da:
Ma la resistenza R non è piccola, quindi in questo caso la costante di tempo è maggiore e quindi v2
decresce lentamente.
Quindi abbiamo ottenuto che la nostra costante di tempo dipende da C, dalla resistenza esterna e dalla
Ron.
Valutiamo un caso particolare, che si presenta spesso.
Ottenendo anche in questo caso un circuito che è in grado di generare un impulso di durata T che dipende
dalla costante di tempo e da una costante.
L’unico svantggio è che dobbiamo aspettare il transistorio di v2, che torni al valore di VDD, mentre il
transitorio di v1 non è visibile.
Altrimenti se non lo aspetto ottengo ancora un impulso in uscita ma di durata diversa, avendo tenuto conto
del fatto che il condensatore fosse inizialmente scarico, se così non è V* ha un valore diverso e quindi
cambia la tensione iniziale del transitorio e quindi cambia la durata di T.
Se vogliamo fare in modo che il nostro circuito abbia sempre un intervallo dell’impulso generato costante
dobbiamo aspettare un certo tempo prima di ri-applicare un altro impulso in ingresso.
Ritornando alla formula generale per il calcolo della durata dell’impulso:
Otteniamo questa formula generale che possiamo utilizzare direttamente nel calcolo di t1.
Multivibratore astabile a porte logiche CMOS
Si prendono due porte NOR utilizzate come due inverter, sono presenti anche qui degli anelli di reazione.
L’uscita del primo inverter viene collegato all’ingresso della prima con un condensatore, troviamo poi una
resistenza opportuna.
Il condensatore viene caricato e scaricato in modo continuo alternando queste due fasi.
Facciamo delle ipotesi semplificative:
Ipotizziamo che vi sia il circuito di protezione, però semplificato con Vy del diodo pari a 0 e Rs anch’esso
pari a 0.
Andremo ad analizzare la carica e la scarica del condensatore attraverso la resistenza C tenendo conto che i
due terminali saranno vo1 e vo2.
Essendo il circuito astabile dobbiamo partire da una condizione di partenza e vediamo come evolve il
nostro schema.
Supponiamo di partire dal caso in cui vi1 > vth, quindi avrò un valore logico 1 in ingresso, un valore logico 0
in uscita e un valore logico 1 in uscita al secondo inverter.
Il circuito di protezione impedisce alle tensioni di superare certi valori e l’inerzialità del condensatore fa sì
che le variazioni di tensione siano le stesse nelle due armature, così da mantenere costante la differenza di
potenziale ai capi del condensatore.
La situazione sul condensatore è variata, la vo1 è diventata VCC e l’uscita vo2 nonostante è a questa
tensione molto velocemente va a 0 e quindi possiamo considerare vo2 a 0.
La corrente scorrerà nel verso opposto rispetto a prima.
La tensione vi1 tenderà a salire verso VCC perché a regime quando non scorrerà corrente la vi1 sarà pari a
VCC.
Prima di arrivare a VTH l’uscita vo1 si manterrà al livello alto e di vo2 a livelo basso.
Arrivati a VTH avremo una commutazione in ingresso al primo inverter che viene interpretato come 1, men
tre vo1 sarà pari a 0 e vo2 sarà pari a 1.
La tensione di uscita si abbassa, la tensione vo2 vorrebbe alzarsi e vorrebbe alzarsi di VDD, quindi vi1
vorrebbe andare al valore pari a VDD + VTH ma ci sono i diodi di protezione e quindi questa tensione si
bloccherà al valore di VDD e quindi anche vo2 non raggiungerà VDD, ma da questo punto in cui arriva,
arriverà a VDD molto velocemente.
Quindi si ritorna al circuito 1 in cui nuovamente il condensatore si riscarica, l’uscita rimane bassa, vo2
rimane alta e poi dinuovo avremo la caduta su vo1 e così via.
La cosa si ripete e quindi vo1 si ripete.
Andiamo a calcolare l’intervallo di tempo T1 in cui l’uscita vo1 è al livello alto (quindi vo2 a livello basso).
Usando la formula generale e prendendo Vi, Vf, Vcomm:
Vi = 0 perchè il diodo me lo impone, Vf è VCC, tensione finale quando non scorre più corrente, e la tensione
di commutazione si ha quando arriva a VTH.
Avendo imposto che le varie Ron sono nulle, si può dire che:
Andiamo a calcolarci T1, considerando la vi1 si parte da VDD e si scende verso 0 fermandoci a VTH.
in questo caso abbiamo un duty cycle esattamente pari a 50%, visto che sia per T1 e T2:
Oscillatore ad anello
Un altro circuito che ci permette di ottenere un’onda quadra con duty cycle a 50% è l’oscillatore ad anello,
realizzato attraverso degli inverter, in particolare un numero dispari di inverter altrimenti non si è in grado
di oscillare.
L’uscita dell’inverter 3 viene riportata in ingresso, abbiamo un anello di reazione, sempre necessario
quando vogliamo realizzare un circuito oscillante.
Se in ingresso abbiamo un valore logico 1, in uscita al primo inverter ho un livello logico basso, in uscita al
secondo ho un livello logico basso, in uscita al terzo ho un livello logico basso e quindi cambierà l’ingresso
del primo inverter e lo stesso accadrà ripetutamente.
Ho quindi un oscillatore, circuito astabile, in cui l’uscita varierà tra i due livelli logici in modo alternato.
Per studiare questi circuito supponiamo che il tempo di propagazione delle porte sia lo stesso e pari a tau,
tempo necessario all’uscita per cambiare per effetto di un cambiamento dell’ingresso.
Non abbiamo uno stato stabile, scegliamo una condizione da cui partire, partiamo dal fronte in salita di v1.
Dopo un certo tempo tau il fronte di salita di v1 si ripercuoterà anche sul segnale v2, che era alto e pari a
VDD e dopo un tempo pari a tau dalla modifica dell’ingresso, v2 scenderà al livello basso.
Questa modifica si propagherà in uscita all’inverter 2 dopo un tempo pari a tau, e quindi l’uscita andrà al
livello alto pari a VDD.
Questo fronte in salita su v3 lo troverò come fronte in discesa su v1 dopo un certo tempo tau.
Troviamo quindi che il semiperiodo è durato 3*tau.
Il fronte in discesa su v1 si ripercuoterà dopo tau con un fronte in salita su v2 che si ripercuoterà su v3
come fronte in discesa, che si ripercuoterà su v1 dopo un altro intervallo pari a tau e quindi anche in questo
caso questo periodo è durato pari a 3 *tau.
Tutte e tre le tensioni sono onde quadre con un duty cycle pari al 50%.
Ho quindi una frequenza del segnale dipendente dal numero di inverter che vado ad utilizzare (che deve
essere dispari).
Se N è il numero di inverter che andiamo ad utilizzare:
Memorie a semiconduttore
Le memorie possono essere realizzate con tecnologie molto diverse tra loro. Troviamo innanzitutto
memorie che consentono un accesso non sequenziale ai dati immagazzinati (quindi con tempo
sostanzialmente indipendente dalla posizione del dato), dette anche RAM (Random Access Memory) che si
distinguono tra “volatili”, nelle quali l’informazione permane soltanto in presenza della tensione di
alimentazione e “non volatili”, che sono in grado di conservare i dati anche in assenza della tensione di
alimentazione.
Queste ultime vengono di solito indicate come ROM (Read Only Memory) se hanno un contenuto
predeterminato in fabbrica o PROM (Programmable Read Only Memory) se il loro contenuto può essere
modificato dall’utente. Tra le memorie volatili si fa un’ulteriore distinzione tra quelle “statiche” (SRAM), le
quali mantengono i dati indefinitamente fintanto che viene mantenuta l’alimentazione e quelle
“dinamiche” (DRAM), nelle quali i dati devono subire un’operazione di “refresh” ogni pochi millisecondi,
altrimenti vengono perduti.
L’accesso alle memorie pu`o avvenire per gruppi di bit (byte, word, double-word) o un singolo bit per volta.
Per quanto riguarda l’architettura, tipicamente questi presentano una struttura bidimensionale, che
corrisponde a organizzare la memoria in forma matriciale, dove ciascun bit si trova all’incrocio tra una riga
(word line) e una colonna (bit line). Quest’ultima è inoltre tipicamente quadrata.
In questo modo i tempi di accesso della singola cella sia praticamente costante.
Inoltre l’accesso alla singola cella avviene attraverso degli indirizzi, non fornito direttamente ma attraverso
un decoder degli indirizzi, così da limitare anche il numero di contatti che il chip di memoria ha verso
l’esterno.
Abbiamo un decodificatore dell’indirizzo di riga, in cui vengono presentati gli M bit dell’indirizzo di riga
(word line) attraverso i quali viene selezionata la singola riga tra le 2^M-1 possibili e la stessa cosa avviene
attraverso l’indirizzo di colonna dove vengono forniti gli N bit dell’indirizzo colonna (bit line) e tramite un
decoder viene indirizzata la singola colonna.
Il circuito di uscita è diverso perché non solo devo poter scrivere nella cella di memoria ma anche leggere.
Abbiamo quindi un circuito di sense amplifier/driver dove il sense amplifier serve per interpretare
correttamente il valore logico contenuto nella cella di memoria e renderlo disponibile all’esterno, mentre i
driver servono per scrivere correttamente la tensione associata a quel valore logico all’interno della cella di
memoria.
L’ingresso-uscita è gestito attraverso un multiplexer/demultiplexer così che dato l’indirizzo di bit da fornire
o in uscita il dato o alla memoria in ingresso il dato che vogliamo scrivere.
Vediamo come viene realizzata la singola cella di memoria e come possono essere implementati questi
circuiti di servizio all’accesso della cella di memoria.
Quindi si va ad utilizzare un latch, due MOSFET di accesso che sono collegati a due bit line perché nella
SRAM è presente la bit line e la bit line complementata, le colonne sono quindi duplicate.
L’elemento di memorizzazione è il latch, in grado di mantenere il dato per un tempo indefinito purchè non
avvenga una sollecitazione dall’esterno a cambiare il suo stato.
Per quando riguarda la scrittura, supponendo di voler scrivere l’1 logico, ciò avviene forzando la tensione
sulla bit line al valore VDD e sulla bit line complementata il valore 0, connettendo effettivamente le bit line
a delle sorgenti di tensione.
Dopodichè si attiva la word line che va a comandare i gate dei due MOSFET di accesso e le tensioni che ho
applicato vanno a forzare il cambiamento di stato del latch interno in quanto forzo a VDD la tensione
sull’ingresso dell’inverter 1 e a 0 quella dell’inverter 2.
Il latch ha uno stato meta-stabile, quindi non è necessario che la tensione vada a VDD ma basta che salga al
di sopra di VDD/2 in modo che il latch possa evolvere verso VDD in modo veloce.
Se si deve scrivere il livello logico 0 si deve fare la cosa opposta.
Anche qui è sufficiente che VQ diventi inferiore a VDD/2 e la VQ negato superiore a VDD/2 per fare in modo
che il latch modifichi il proprio stato.
Il dimensionamento dei MOSFET che costitutiscono il latch, dei MOSFET di accesso che dei circuiti che
impostano i valori di tensione deve essere fatto in modo che il latch venga forzato a modificare lo stato, per
esempio allo stato 0 devo fare in modo che VQ se valeva VDD riesco a portarlo a un valore inferiore a
VDD/2.
Per quanto riguarda la lettura, si precarica innanzitutta la BL e la BL complementata a VDD/2.
La BL e la BL complementata sono conduttori che possono essere anche piuttosto lunghi se la matrice è
grande, ed oltre ad avere una certa resistenza avrà una certa capacità intrinseca equivalente.
Precaricare significa collegare un generatore alla bit-line che poi vado a staccare, infatti lasciandolo
attaccato la tensione sulla bit-line non potrebbe cambiare.
Staccandolo rimarrà a VDD/2 grazie alla capacità.
Dopo la precarica attivo la word line, quindi la tensione sulla bit line andrà a cambiare perché ponendo
word line a 1 ho posto i MOSFET di accesso nello stato ON. La tensione cambierà e in particolare se Q = 1, la
tensione sulla bit line sarà pari al valore che aveva prima più una variazione positiva, se Q = 1 avremo per la
bit line Q5 e Q3 ON e quindi andremo verso VDD, mentre sulla bit line complementata visto che Q negato
valrà 0, quindi Q2 è attivo, la bit line tramite Q6 e Q2 tende ad andare verso 0V.
Se invece porto Q a un valore logico basso avrò Q4 ON e quindi VBL avrà una variazione negativa, mentre
VBL complementata avrà una variazione positiva.
A seconda che ci sia memorizzato un 1 o uno 0 la tensione di bit line e bit line complementata si spostano.
Dopodichè si deve attivare il circuito di sense amplifier che interpreta la variazione, e quindi è in grado di
capire se la bit line si è alzata (quindi la corrispondente bit line complementata si è abbassata) o la bit line si
abbassata e quindi è in grado di capire se era memorizzato un 1 o uno 0 logico.
Le variazioni deltaV sono molto piccole per evitare che la lettura non sia distruttiva e che quindi il dato
contenuto nella cella non venga cancellato durante la cella, quindi la cella viene mantenuta aperta per il
tempo minimo possibile per cui bit line e bit line complementata si siano spostati per il minimo possibile in
modo che il sense amplifier sia in grado di interpretarlo correttamente.
Dopodichè la word line viene subito chiusa in modo tale che è vero che la tensione magari se c’era un 1 si è
leggermente abbassato ma poi il loop interno del sense amplifier ristabilisce il valore logico pieno.
Abbiamo quindi deltaV dell’ordine di 100mV, è deve essere in modo che il sense amplifier sia in grado di
intepretarlo.
Più il sense amplifier è sensibile, minore è la variazione che devo applicare, minore è il tempo che devo
lasciare aperta la cella e può subire interferenze dall’esterno e più inoltre è veloce la lettura che riesco a
fare.
Il sense amplifier è uno degli elementi più critici che devo progettare in modo che la mia memoria funzioni
correttamente.
Per quanto riguarda la lettura il primo passo da effettuare è la precarica che andiamo a vedere con la
soluzione che riguarda la precarica a VDD/2 della bit line, in realtà ci sono diverse soluzioni.
Questo valore dipende da come andiamo a implementare il sense-amplifier, per la nostra implementazione
andiamo a utilizzare questo valore.
Attivo poi la word line e quindi metto in comunicazione i due condensatori, ho Cs, il MOSFET in conduzione
che schematizzato come una resistenza e la CB.
Le due capacità sono inizialmente a tensioni diverse, su CB avrò VDD/2 mentre su CS avrò VCS pari a 0 o
VDD – VT a seconda di cosa ho memorizzato.
Avverrà uno scambio di carica tra le due capacità in modo tale che alla fine del transitorio, quando non
scorrerà più corrente sulla resistenza, avranno lo stesso potenziale,
Quale sarà la tensione presenta sulla bit line dopo lo scambio di carica?
Non sono interessato al transitorio ma solo al valore finale e quindi posso utilizzare il principio di
conservazione della carica.
Avrò due condensatori con una certa carica ciascuno prima che il MOSFET entra in conduzione e al termine
della carica, la carica si sarà distribuita ma si sarà conservata.
Essendo che Q = CV, si ha che la carica sul condensatore CS e la carica sul condensatore CB prima di
chiudere WL a 1, dopo la pre-carica.
Dopo aver attivtao WL a 1, ed è terminato il transitorio, non passa più corrente su Ron avrò due
condensatori allo stesso potenziale.
La carica si è distribuita in modo che i due abbiano lo stesso potenziale, si trovano quindi al valore di VDD/2
+ deltaV.
Risolvendo:
Otteniamo deltaV:
Abbiamo che Cs e Cb non sono uguali e quindi essendo CB >> CS si ha che deltaV è circa uguale a:
Se indichiamo questi due valori precedenti di deltaV con deltaV(1) e deltaV(0), otteniamo che:
Il deltaV è distinguibile, ho due valori di segno diversom ma è piccolo e quindi il sense amplifier deve essere
in grado di discriminare questa variazione.
Troveremo 2.5V + 33mV e 2.5V – 83mV e quindi al termine della lettura dobbiamo necessariamente
rinfrescare il dato per ri-ottenere il valore iniziale.
Sense amplifier
Una possibile implementazioen del sense amplifier è la seguente.
Abbiamo un latch costitutio da 4 MOSFET collegato alla bit line e alla bit line complementata, latch che
devo attivare solo se necessario, quindi quando la bit line e la bit line complementata sono sbilanciate.
Per la nostra implementazione valutando la SRAM abbiamo che a seconda del valore logico la bit line aveva:
Circuito di precarica
Successivamente si attiva la WL della cella da leggere. Supponiamo di voler leggere la cella Wo.
Se attivo la WL0, che è una cella a sinistra, attivo WR.
Quindi se voglio leggere una cella a sinistra del sense amplifier attivo il comando di accesso alla dummy cell
posizionata a destra.
Il valore di tensione a sinistra del mio sense amplifier da VDD/2 aumenterà di un deltaV, stabilito dal dato
contenuto nella cella attivata da andare a leggere, mentre il valore di tensione della bit line di destra sarà
uguale a quello del contenuto della cella dummy, quindi rimmarà a VDD/2.
Ai capi del sense amplifier ho determinato un sbilanciamento, stavolta il latch interno è sbilanciato solo da
un lato, ma data la reazione interna è sufficiente che uno dei due lati sia sbilanciato rispetto al punto
metastabile per fare la commutazione e per darmi un valore a sinistra che sarà diventato VDD o 0, a
seconda del dato memorizzato, mentre quello di destra sarà sbilanciato nel verso opposto.
Al momento dell’attivazione della word line della cella di cui intendiamo leggere il contenuto, viene attivata
la dummy cell di destra se la cella da leggere si trova nel tratto di sinistra della bit line e, viceversa, viene
attivata la dummy cell di sinistra se la cella da leggere è nella porzione a destra della bit line.
Un lato rimane costante mentre l’altro dato viene sbilanciato in alto o in basso rispetto a VDD/2.
Se uso questo tipo di sense amplifier che è in grado di fornirmi esattamente il livello logico pieno in
tensione al termine della lettura, questo comportamento nella DRAM mi torna utile perché devo riscrivere
nella cella quando ho finito la lettura.
Quindi è sufficiente che al termine della lettura riattivo la word line che ho letto e a questo punto riscrivo
nella cella il dato corretto, VDD – VT (se accesso determinato dal singolo MOSFET) se c’era un 1 logico
oppure 0V se c’era uno 0 logico.
L’implementazione mediante NOR è una delle più classiche implementazioni, ed è detta wired-NOR, in cui
l’implementazione è ottenuta attraverso l’opportuno collegamento di fili, ottenuto non realizzando la porta
logica NOR con tecnologia CMOS ma con opportuni collegamenti e degli interruttori.
Viene realizzata una matrice in cui le righe orizzontali sono le nostre word line, e a questa matrice arrivano i
bit di indirizzamento e tramite degli inverter interni al decoder si ottengono anche i bit complementari.
Ciascuna word line è collegata a VDD tramite un PMOS comandato da un segnale attivo basso che attiva i
vari PMOS.
Abbiamo poi alcuni NMOS, N per ogni word line se abbiamo N bit, 3 per ogni wordline qui perché ho tre bit,
dei quali il gate è collegato al bit o al bit complementare, il drain è collegato alla word line e il source a
ground.
Inizialmente precarico tutte le word line a livello alto, dando il comando fip negato quindi fip
complementato viene posto a 0 e attivo tutti i PMOS e quindi tutte le word line sono portate al valore di
tensione VDD.
Dopdoichè disattivo la precarica, i PMOS vengono interdetti e scarico tutte le word line tranne quella che
voglio che rimanga a 1. Le precarico tutte al valore logico alto e dopodiché le scarico tutto e mantengo a
livello alto quella che voglio indirizzare in quel momento.
La carica è fatta attraverso i PMOS e la scarica attraverso gli NMOS, posizionati opportunamente in modo
che tale word line rimanga al livello alto solo quando è opportunamente configurata.
La W0 per esempio deve rimanere al livello alto quando tutti i 3 bit valgono 0 e quindi devo collegare i 3
NMOS ai bit A0, A1 e A2.
Quando avrò tutti 0 i tre MOSFET risulteranno tutti interdetti e quindi W0 rimarrà al livello alto.
E’ sufficiente che almeno uno dei tre sia a 1 per fare in modo che sia in conduzione e quindi che la porti a 0.
Ho realizzato un’operazione di NOR non con una porta logica ma usando degli opportuni collegamenti in
modo molto efficiente.
Un’inconveniente è che la memoria non può essere collegata direttamente alle linee ma nel mezzo ci deve
essere un interruttore perché all’inizio si precaricano tutte le word line e se fossero tutte collegate
attiveremmo tutte le word line della memoria.
Noi vogliamo che la WL sia collegata alla memoria solo quando ne è rimasta una a livello alto, devo quindi
isolare questo circuito con un interruttore opportunamente programmato in modo tale che si abbassi solo
quando l’indirizzo è pronto, per esempio con un semplice MOSFET di accesso che ha un certo comando fis
di selezione, che è comune a tutti e attiva tutti gli NMOS di passo in modo da dare il comando fis quando
sono sicuro che tutte le word line si sono scaricare tranne quella che doveva rimanere a 1.
Avrò gli N bit di indirizzi e avrò quindi le 2^N configurazioni di uscita che vanno ad attivarmi i MOSFET di
accesso e quindi se per esempio metto l’indirizzo composto da tutti zeri mi andrà ad attivare il gate del
MOSFET collegato alla bit line 0 e quindi verrà attivata la bit line che sarà disponibile agli altri circuiti che
gestiranno l’ingresso e l’uscita.
Il multiplexer/demultiplexer per gli indirizzi di colonna sfrutta la stessa configurazione con l’aggiunta dei
MOSFET in serie alla bit line per poter attivare solo la colonna di mio interesse.
Questo è un NOR decoder diverso da quello degli indirizzi di riga, non ho quindi le word line ma bensì le bit
line. All’intersezione di ogni word line e ogni bit line ci sarà la cella.
Il bit mi va ad attivare il MOSFET collegato alla bit line.
Il decoder dell’indirizzo di colonna deve garantire sia l’ingresso che l’uscita dei dati.
Nel momento in cui si attiva la word line collegandola a VDD, se W0 = 1 e quindi VW0 = VDD il diodo va in
conduzione e la bit line B0 andrà a livello alto, mentre per esempio la B1 rimarrà a 0 perché collegata a
ground dalla resistenza mentre la B2 sarà a livello alto.
Nelle celle dove voglio che sia memorizzato un 1 ci sarà il diodo e ogni volta che sarò l’alimentazione avrò
questo tipo di configurazione.
Si deve utilizzare un diodo e non una resistenza altrimenti si mette in cortocircuito varie bit line tra di loro
tramite la word line.
Nella realtà in forma integrata si preferisce non realizzarla in questo modo, ma si preferisce ricorrere a dei
MOSFET così da avere anche una maggiore separazione tra la bit line e la word line attraverso il gate dei
MOSFET.
Memorie ROM a MOS
E’ molto simile al decoder di riga visto prima.
Ho una matrice in cui le bit line sono collegate a VDD tramite dei PMOS che sono comandati attraverso un
segnale attivo basso di precarica, mentre la cella di memoria è coastituita dalla presenza o dall’assenza dei
MOSFET, costituiti in modo tale che il gate sia comandato dal valore della word line, mentre il drain è
collegato alla bit line e il source a ground.
Quando l’NMOS viene attivato non fa altro che portare a 0 il potenziale della bit line corrispondente.
Quindi nella cella in cui ho il MOSFET ho uno 0 logico memorizzato.
La memoria ROM viene fatta in modo molto semplice, e nella realtà i MOSFET vengono realizzati in tutte le
celle e solo negli step finali del processo produttivo decido quali MOSFET andare a collegare, se viene
lasciato flottante avrò memorizzato un 1 altrimenti se collegato con gate, source e drain come prima sarà
memorizzato uno 0 logico.
Posso avere due strategie per i PMOS, posso decidere di mantenere i PMOS sempre attivi ma in questo caso
la ROM dissipa molto, oppure posso decidere di attivare fip solo in fase di precarica, precaricando le righe e
poi alcune rimarranno alte mentre altre vengono portare basse dove c’è il MOSFET che le scarica,
ottenendo un pilotaggio di tipo dinamico dove precarico e poi scarico un po’ come nei decoder di riga.
Se vogliamo che nella cella venga memorizzato uno 0 si lascia intatto il fusibile, visto che quando il MOSFET
verrà attivato porterà a 0 la bit line, mentre se si vuole che sia memorizzato un 1 si deve rompere il fusibile,
visto che il MOSFET non è più in grado di portare a 0 la bit line quando attivato.
In fase di programmazione devo decidere in quali celle avere un 1 logico e in quelle celle fare passare una
corrente elevata così che a causa dell’effetto termico si fonda il fusibile.
Questo tipo di ROM non potrà più essere recuperata, si possono rompere fusibili facendo diventare degli 0
degli 1 ma non si può fare il viceversa.
EPROM
Vediamo delle ROM che posso programmare in modo elettrico.
L’elemento alla base delle EPROM e delle EEPROM è un MOSFET particolare detto MOSFET a gate flottante,
floating gate.
Supponiamo di prendere il nostro substrato di tipo P, abbiamo due gate uno il più vicino al canale
completamente immerso all’interno dell’ossido di sicilio, con nessun contatto diretto verso l’esterno,
completamente immerso in un materiale isolante.
Al di sopra di questo gate ne abbiamo uno che ha un contatto con l’esterno. Il gate superiore è collegato al
terminale esterno di gate e svolge una funzione analoga a quella del gate di un normale MOS.
Una struttura di questo tipo può essere utile per memorizzare un’informazione.
La presenza di uno 0 o di un 1 logico è dipendente dalla quantità di carica presente all’interno del gate
flottante. Supponiamo di essere in grado di portare degli elettroni all’interno del gate flottante.
In tal caso il comportamento della struttura cambia.
Per avere la conduzione devo creare il mio canale tra source e drain costituito dai miei elettroni che si ha
per una VGS >= VT, canale costituto da elettroni e se ho quindi la presenza di elettroni nel gate flottante
questi respingeranno gli elettroni che hanno formato il canale.
Se ho quindi degli elettroni nel gate flottante questi ostacoleranno la formazione del canale e quindi devo
applicare una tensione di gate superiore per poter realizzare il canale, la presenza di elettroni aumenta il
valore della tensione di soglia.
Se vado disegnare la transcaratteristica del dispositivo, accade che se il mio gate flottante è scarico ho la
caratteristica con un certo valore di VT mentre se sono riuscito a introdurre degli elettroni nel gate flottante
la tensione di soglia mi si alza.
Se poniamo questo dispositivo nella cella di memoria, quando attivo la cella applico la tensione della word
line sul gate e se vado a utilizzare come tensione di lettura una VGS intermedia tra il valore di VT1 e VT2
accade che il mio MOSFET risulterà in conduzione oppure no a seconda che il gate flottante sia carica o
scarico.
Se è scarico il MOSFET va in conduzione e quindi scaricherà la bit line memorizzando uno 0, mentre se il
gate flottante è carico il MOSFET non andrà in conduzione e quindi la bit line rimarrà al valore alto e a
quella cella avrò come valore logico 1.
Ho quindi un MOSFET con una VT programmabile che dipende dal fatto che nel gate flottante sono riuscito
o meno a inserire elettroni, tensione di soglia bassa se nel gate flottante non ho elettroni, tensione di soglia
alta se ho la presenza di elettroni.
Il problema ora è capire come portare/togliere gli elettroni dal gate flottante.
Quest’ultimo è immerso in un materiale isolante e quindi normalmente gli elettroni che ho inserito vi
possono rimanere per un tempo molto lungo realizzando una sorta di memorizzazione.
Per portare elettroni nel gate flottante e quindi per quanto riguarda la carica, visto che gli elettroni ci
possono arrivare solo dal canale, gli elettroni devono superare una barriera di potenziale imposta dal
materiale isolante.
Nelle EPROM si impone una tensione VDS piuttosto elevata (18 V), ho una forte conduzione di elettroni e gli
elettroni assumono una forte energia visto che c’è un forte campo elettrico da Source verso Drain, sono
infatti detti elettroni caldi o hot electron, elettroni con un’energia molto più alta di quella termica di
equilibrio.
Si impone anche una tensione sufficientemente grande tra il gate superiore e il canale, VGS (25 V), in modo
da favorire il trasferimento di elettroni caldi nel gate flottante, visto che questi elettroni acquisiscono un
potenziale tale sia per superare la barriera ma anche per passarci attraverso per effetto “tunnel”,
meccanismo quantistico.
In queste condizioni di tensioni applicate si può avere una condizione di passaggio degli elettroni così da
farli andare a depositare all’interno del gate flottante.
Man mano che gli elettroni occupano il gate flottante gli elettroni presenti tenderanno a respingere gli
ulteriori elettroni che cercano di arrivarci, si caricherà quindi a un valore di carica auto-limitata.
Per la scarica del gate flottante invece, non posso fare in modo gli elettroni acquisiscono un’energia elevata
con un campo elettrico in modo da renderli nuovamente caldi.
Quello che accade è che devo fornire un’energia sufficiente per superare questa barriera o per attraversarla
per effetto tunnel.
Si fornisce agli elettroni l’energia per superare la barriera sotto forma di radiazione a ultravioletti con una
lunghezza d’onda opportuna, quest’ultima fondamentale perché l’energia associata a ciascun fotone che
compone la radiazione è legata alla lunghezza d’onda.
L’energia associata ai fotoni è pari al prodotto tra la costante di planck e frequenza della radiazione, la
quale è pari al rapporto tra la velocità della luce e la lunghezza d’onda.
A numeratore ho delle costanti e quindi la lunghezza d’onda deve essere sufficientemente piccola così da
dare un’energia tale da essere maggiore di un certo valore.
La lunghezza d’onda che lo consente è di 253.7nm.
Esponendo la memoria a una radiaziona ultravioletta si fa in modo che tutti gli elettroni presenti nel chip
vengano riportati completamente nel canale.
EEPROM
Il passi avanti successivo è stato quello di modificare la configurazione del MOSFET a gate flottante
riducendo lo spessore dell’ossido, riducendo in una parte lo spessore così da potr consentire la transizione
degli elettroni dal drain al gate flottante attraverso l’applicazione di un campo elettrico, siain un verso che
nel verso opposto.
Per poter caricare il gate flottante si applica una tensione VGD elevata (18V) così la barriera di energia
potenziale tra canale e floating gate è così sottile da consentire il passaggio di elettroni verso il floating gate
stesso per effetto tunnel.
Per scaricare il gate flottante si impone una tensione VGD di segno opposto (-18V).
Questo dispositivo prende il nome di FLOTOX (Floating Gate Thin Oxide MOS).
Questo tipo di floating gate presenta anche dei problemi, supponiamo di implementare la memoria in
questo modo:
Prendiamo 4 celle in ognuna delle quale inseriamo un MOSFET programmabile all’interno della quale ci sarà
un 1 o un 0 a seconda se il gate flottante è scarico o carico.
Supponiamo di voler programmare la cella (i,j) posizionandoci degli elettroni nel gate flottante,
aumentando la tensione di soglia e quindi memorizzandovi un 1.
Dobbiamo applicare tra G e D una tensione di 18V e per farlo devo collegate la WL i a 18V e la BL j
mantenendola a 0V:
La cella sottostante non la voglio selezionare e quindi la i+1 la mantengo a 0V, la bit line j è a 0V e quindi la
cella (i+1)j sarà a 0V così da non modificare il valore contenuto in essa.
Per quanto riguarda la cella i+1,j+1 avrà 0 sulla word line i+1 perché ho dovuto lasciare inalterata quella a
sinistra ma la bit line j+1 è a 18V e quindi:
La soluzione adottata è quella di una cella elementare più complessa, in serie al MOSFET viene messo un
altro MOSFET, un MOSFET di selezione.
La cella sarà costituita da un MOSFET programmabile a gate flottante col gate collegato word bit line i-
esima, dopodichè non viene collegato direttamente alla bit line j-esima ma il collegamento viene fatto
attraverso un MOSFET di selezione con il gate comandato da un altro comando sel i, aggiuntivo, che va a
selezionare tutti i MOSFET di accesso di quella riga e anche il collegamento a ground non viene fissato a
ground ma avviene attraverso un collegamento a una colonna gnd j e si stabilisce di volta in volta se
collegarlo a 0 o mantenerlo flottante.
Per quanto riguarda la scrittura della cella i-esima, devo avere l’accesso e quindi sel i la portiamo a 18V,
anche la i viene portata a 18 V e la j viene posta a 0V.
Su i devo avere 18V e su j 0V così da avere una VGD pari a 18V e quindi si attirano gli elettroni all’interno del
gate flottante.
Il gnd j nell’operazione di scrittura non serve e quindi lo lascio flottante, il MOSFET non è collegato a GND.
Sulle celle delle altre righe, non dovendo selezionare quelle celle manteniamo sel(i+1) a 0, anche i+1 la
lascio a 0 e questo mi risolve il problema che continuo a non scrivere sulla cella sottostante.
Vediamo se risolviamo il problema di non cancellare la riga sottostante e non dissipare in quella affianco.
Metto j+1 a 18V visto che non devo scrivere in quella affianco, quella affinaco riceverà la selezione i perché
è la stessa, riceverà la word line i e metto allora la bit line j+1 in modo tale che VGD = 0,
Quella affianco dissipava perché conduceva una forte corrente dal drain verso il source e il source era
collegato a GND. Mettendo però adesso flottante il GND j+1 non ho più problemi di dissipazione sulla cella
affianco, che anche se ha G e D a 18V ha il source flottante e quindi non può condurre.
Ho protetto la cella (i+1), (j+1) perché la selezione è uguale a 0 e quindi tutte le celle nella riga sottostante
non sono accessibili perché il loro MOSFET di accesso viene mantenuto interdetto tramite il comando
seli+1.
Nel caso di cancellazione avrò una situazione simile, devo selezionare la cella (sel i = 18V), devo invertire le
tensioni tra i e j perché devo avere VG e VD opposte, gnd j rimane lo stesso, sel i+1 rimane a 0V perché non
devo selezionare sotto, lo stesso i+1, non devo scrivere e quindi j+1 deve essere uguale a i e gnd i+1 deve
rimanere flottante.
L’operazione è duale, devo invertire i con j per cancellare e devo tenere conto che j+1 deve essere uguale a
i altrimenti le altre celle sulla stessa riga vengono toccate.
Infine per quanto riguarda la lettura, si prevede che devo attivare la selezione e lo faccio con una tensione
più bassa (5V) perché non devo andare a nulla.
Sulla i applico ad esempio 2.5V, sul gate applico quindi un valore intermedio tra la tensione di soglia
quando ho il gate flottante privo e pieno di cariche e in questo modo con questa tensione di soglia che vado
ad utilizzare sul gate il MOSFET sarà in conduzione oppure no a seconda del contenuto di cariche del gate
flottante.
Quindi se il floating gate è scarico il transistore conduce e in uscita abbiamo uno 0 logico; se il floating gate
è invece carico il transistore non conduce e in uscita otteniamo un 1 logico.
Quindi sulla bit line j avrò il contenuto della cella (i,j), dato Di,j, e stavolta la gndj devo metterlo a 0 perché
se il MOSFET va in conduzione con questa tensione di gate la bit line (i,j) viene forzata a 0 mentre se invece
il MOSFET resta interdetto vuol dire che la bit line (i,j) rimarrà al suo valore.
Poiché leggo solo la riga i-esima seli+1 e i+1 vengono tenuti a 0 e poiché si legge tutta una riga su j+1 avrò il
contenuto della riga (i,j+1) e quindi troverò Di,j+1 e anche in questo caso Gnd(j+1) va tenuto a 0 perché
devo andare a leggere tutte le varie colonne.
Ho complicato la struttura ma sono riuscito ad ottenere in questo caso una lettura, una programmazione e
una cancellazione corretta della cella.
Un DAC riceve in ingresso un insieme di bit e fornisce in uscita una tensione Vo analogica.
Per effettuare la conversione è necessaria una tensione di riferimento Vref, in quanto la tensione di uscita
che si ottiene è una frazione della tensione di riferimento, che deve essere una tensione stabile, e la
tensione di uscita è una frazione della Vref:
Dove la frazione F è data dalla parola digitale che si ha in ingresso, dove per un convertitore a N bit:
Due parametri di merito per la valutazione delle caratteristiche di un convertitore digitale analogico sono la
minima variazione della tensione di uscita, che è la tensione che si trova in uscita quando si ha in ingresso
una parola il cui valore decimale corrispondente al numero 1.
Un’altra quantità è la tensione di fondo scala che corisponde col valore massimo della tensione di uscita,
che non è Vref ma è pari a:
Quindi 2^N-1* VLSB, perché il valore più alto che si ottiene con N bit è 2^N-1.
La caratteristica di ingresso uscita del nostro convertitore è la seguente.
Sull’ingresso abbiamo un certo numero di bit, dove qui ne abbiamo 3, e in uscita abbiamo i corrispondenti
valori di tensione, qui normalizzati rispetto a Vref e quindi abbiamo una frazione della Vref.
La caratteristica non è una retta ma bensì un insieme di punti perché l’ingresso può assumere solo un
numero discreto di valori.
Notiamo che il valore massimo della tensione è 7/8 quindi 2^N-1/ 2^N.
Per la loro implementazione possiamo usare diverse configurazioni.
Nell’espressione che si ricava è possibile mettere in evidenza la quantità indicata per ottenere poi il valore
decimale della nostra parola D.
Quindi la vo essendo che io scorrerà in Rf:
Se ci concentriamo sull’ultimo nodo e valutiamo la resistenza vista da quel nodo guardando verso destra,
quello che si ottiene è il parallelo di 2R e 2R e quindi la resistenza vista è esattamente pari a R.
Avremo successivamente una resistenza R che va in serie a R e un altro ramo con una resistenza pari a 2R e
la resistenza vista sarà ancora pari a R e così via.
Facendo la rete in questo modo accade che se valuto la resistenza vista in ogni nodo i, si ottiene:
Questo può esserci d’aiuto perchè se indico con Iref la corrente erogata da Vref, vede una resistenza 2R
verso il basso e lo stesso dopo, visto che avremo la serie tra R e R e quindi si dividerà in due parti uguali.
Pertanto, la corrente che scorre verso la destra di ciascun nodo è uguale alla corrente che scorre verso il
basso a massa. In pratica, la corrente che entra da sinistra in un nodo si divide in due parti uguali, una verso
il basso e una verso destra.
La corrente su R dopo 2R verso il basso e poi dinuovo 2R, quindi la corrente di riferimento si divide
esattamente in parte uguali e le correnti nei vari rami sono scalate di 2 a ogni ramo e poi il concetto è
uguale a quello precedente.
Nel primo ramo ci scorre una corrente Vref/2R e così via si dimezzerà procedendo verso destra.
Identificando la vo, avremo:
E’ cambiato il valore numerico del VLSB rispetto a prima se utilizzo gli stessi valori ma ottengo comunque
una tensione legata alla parola D presentata in ingresso.
Devo utilizzare più resistenze ma solo di due valori, rimangono le problematiche della stabilità della Vref e
dell’idealità degli interruttori.
Poiché il segnale di ingresso è un segnale continuo mentre quello di uscita è discreto, la curva assume
l’aspetto di una gradinata.
Poichè si ha la conversione di una quantità continua a una discreta avremo un errore di quantizzazione.
Tale errore viene definito come la differenza tra il valore attuale dell’ingresso analogico e il valore
dell’uscita digitale riportato in tensione.
Questo è sempre presente in presenza di un DAC, e dipende da come è fatto il convertitore.
Se la commutazione tra una configurazione e la successiva avviene in corrispondenza di 1/8, 2/8, ecc.
l’errore di quantizzazione varierà tra 0 e 1*VLSB.
Questo perché se la tensione è nulla abbiamo un errore nullo, poi finchè arriviamo a 1/8 continuiamo a
associarci 0 anche se non sono 0 e quindi l’errore aumenta man mano che ci si avvicina a 1/8*Vref per poi
annullarsi arrivati a 1/8 Vref, perché diamo a 1/8*Vref diamo la configurazione 001 che convertita dà
esattamente 1/8*Vref.
Graficamente l’errore è la differenza tra la gradinata e la bisettrice, che rappresenta la conversione
analogica di tipo perfetto ma non si può realizzare perché abbiamo un numero discreto di valori di uscita.
Molto spesso si preferisce avere l’errore di quantizzazione centrato nello zero cosi da avere una variazione
complessiva di ± ½ LSB. Questa condizione si può ottenere facilmente traslando la caratteristica a sinistra di
½ LSB.
La caratteristica viene quindi traslata a sinistra di 1/16*Vref e quindi se la commutazione avviene per
1/16*VLSB, 2/16*VLSB gli errori si annullano in questi punti, partono da 0 aumentano, poi si annullano e
poi cambiano di segno visto che la gradinata va sopra la bisettrice, poi ri-aumenta e così via.
Nell’ultimo punto l’errore ritorna sopra e per risolvere questo si può fare in modo che il convertitore invece
di arrivare a 8/8Vref si fermi prima ma che la tensione di ingresso arrivi a 15/16Vref.
Troviamo l’integratore di Miller, e ipotizzando Vref positiva mettiamo -Vref poiché vogliamo una rampa
positiva e l’integratore di Miller sappiamo che è invertente, e la tensione di uscita vc(t) deve essere
confrontata da un comparatore con la tensione vin che però deve rimanere costante durante tutto il tempo
in cui viene generata la rampa e quindi viene inviata ad un circuito di sample/hold che mantiene il valore
della vin e il comparatore avrà uscita alta quando vin > vc e uscita bassa nel viceversa.
Ho una commutazione in uscita quando le due tensioni diventano uguali, e l’uscita viene mandata in
ingresso a una logica di controllo che riceve in ingresso il clock visto che devo contarlo.
Il clock viene mandato in ingresso a un contatore, che una volta resettato dalla logica di controllo inizierà a
contare i cicli di clock finchè la logica di controllo che lo risetta dinuovo.
Prima di resettarlo il suo valore viene memorizzato in una serie di latch che mi danno il valore contato dal
contatore stesso.
Il reset comanda anche un interruttore che ha il compito di azzerare vc alla fine della conversione,
scaricherà il condensatore e la tensione sul condensatore si annulla e riparto quindi da 0.
Quindi quando la tensione di uscita dell’integratore supera il valore della tensione di uscita del circuito S/H,
il comparatore commuta e segnala al circuito di controllo di memorizzare nel latch il valore che ha
raggiunto il contatore. Il circuito di controllo provvede poi a generare il segnale di reset che serve sia per
resettare il contatore sia per azzerare l’uscita dell’integratore preparando il sistema ad un’altra operazione
di conversione
Abbiamo:
La condizione iniziale è nulla, e abbiamo tc che è il tempo di conteggio, numero dei cicli di clock.
Infatti si fa l’ipotesi che l’uscita dell’integratore sia nulla all’istante t=0 in cui iniziamo ad integrare e a
contare gli impulsi di clock.
Il numero di impulsi di clock conteggiato sarà proporzionale al valore della tensione di ingresso che
vogliamo convertire.
Fermo il conteggio quando questa è uguale a Vin e quindi tc vale:
Le due rampe sono l’integrazione di due tensioni che devono essere però una di segno opposto all’altra e
quindi il circuito ha bisogno di due tensioni.
Durante il primo intervallo di tempo vado a integrare la tensione incognita e lo faccio per un intervallo di
tempo noto, pari al massimo numero di intervalli di clock che posso contare, quindi 2^N cicli di clock.
Se ho un contatore parto a conteggiare i cicli di clock e arrivo al fondoscala del contatore.
Il valore della tensione finale a cui arrivo, valore massimo che ottengo alla fine di questa integrazione (su 3
bit 8 periodi di clock), sarà a una tensione che dipende dal valore di vin, e se v2 > v1 vin2 > vin1, infatti se la
tensione che integro è più grande a parità di tempo avrò una tensione più grande.
Successivamente integro una tensione nota, Vref, di segno opposto a vin, e misuro il tempo che impiega vc
a ritornare a 0. La scarica è sempre a tensione costante e le rette sono parallele infatti, faccio l’integrale di
Vref in entrambi i casi.
Il valore di picco a cui si arriva nella prima fase è proporzionale al segnale di ingresso. Nella seconda fase,
invece, la pendenza delle curve è costante in quanto si integra in entrambi i casi la tensione costante Vref.
Come mostrato in figura, l’intervallo di tempo necessario per tornare a zero è proporzionale al valore di
picco ottenuto nella prima fase, ovvero alla tensione di ingresso.
Nel primo intervallo di tempo vado a integrare una tensione incognita per un tempo noto e
successivamente dado a fare un integrale di una tensione noto per un tempo incognito che vado a misurare
e può essere ricondotto al valore della tensione incognita che avevo durante il primo semiperiodo.
E’ più lento perché il primo periodo deve essere pari a 2^N cicli di clock, e non posso avere di meno
altrimenti non sarei in grado di misurare la tensione massima possibile, anche il secondo conteggio deve
arrivare al massimo e ci può arrivare solo se ci è arrivato il primo.
Il circuito si complica un po’, gli elementi circuitali sono gli stessi.
Prima di iniziare il ciclo di conversione viene inviato il segnale di reset che azzera il contatore e chiude
l’interruttore ai capi del condensatore scaricandolo in modo che la tensione d’uscita dell’integratore sia
nulla. Il ciclo di conversione inizia con il collegamento dell’ingresso analogico dell’integratore all’uscita del
circuito di S/H che ha campionato la tensione di ingresso che ipotizziamo per comodità negativa.
Ho l’integratore dove stavolta devo commutarlo, in una fase integra Vin e in un'altra Vref, nell’esempio in
figura si è ipotizzato vin < 0 e vref > 0, ma in generale l’importante è che siano opposte così ho in un caso
una pendenza positiva e in un’altra una pendenza negativa.
Ho ancora poi gli altri elementi ma ho due interruttori, quello di reset che va a resettare il condensatore alla
fine di tutte e due le rampe, per essere sicuro da ripartire da 0, ma devo fare una commutazione anche
quando il contatore va in overflow, comando che viene mandato al deviatore che fa sì che integro vin
finchè vado in overflow e poi vref finchè vado a 0 e poi il risultato del conteggio viene salvato nel latch.
La tensione di uscita del comparatore inizierà ad aumentare e allo stesso tempo il contatore inizia la sua
operazione di conteggio degli impulsi di clock a frequenza fissa. Questa fase di conteggio continua fino a
quando il contatore non arriva a contare 2^N impulsi e il segnale di over-flow (O/F) segnala questa
condizione.
Il circuito di controllo provvede a resettare il contatore e spostare l’interruttore in ingresso all’integratore
sul segnale Vref che ipotizziamo positivo.
La tensione in uscita all’integratore comincia a diminuire e contemporaneamente il contatore inizia il
conteggio. Questa fase dura fino a quando la tensione non diventa nulla. Infatti, quando la tensione in
uscita all’integratore diventa pari a zero, il comparatore commuta e segnala al circuito di controllo di
interrompere il conteggio, salvare il valore nel latch e inviare il comando di reset per il contatore e il
condensatore.
Il conteggio inizierà quando inizio a integrare Vref e inizia quindi la rampa a pendenza negativa e si fermerà
quando arriva a 0, ecco perché il confronto viene fatto con 0.
Perdendo più tempo a effettuare la conversione ho guadagnato in termini di precisione e ripetibilità della
conversione?
Nella fase 1 integro vin per un tempo noto e quindi vc sarà l’intergale della vin (prendiamo il modulo per
semplicità) diviso RC moltiplicato per il tempo di integrazione, e poiché conto fino al fondo scala ho 2^N
cicli di clock.
Indichiamo con Vpicco la tensione in uscita dall’integratore alla fine della prima fase. Tale valore sarà dato
da:
Durante la seconda fase, la tensione d’uscita dell’integratore inizierà da tale valore e decrementerà fino ad
arrivare a zero
Durante questa fase, la tensione in uscita all’integratore varrà:
L’integrale di vc si porta al valore 0, tensione iniziale meno il risultato dell’integrazione deve essere nullo.
Quindi per quanto riguarda il valore di D:
Ottengo questo importante risultato in cui la parola D che ottengo in uscita è pari al modulo di Vin
moltiplicato 2^N/Vref, conversione immune dalle variazioni delle componenti circuitali e dal clock.
Cosa che funzione se nelle due fasi si utilizza lo stesso integratore e lo stesso clock nelle due fasi, perché le
variazioni si ripercuotono in modo uguale tra le due fasi.
Convertitore A/D flash
I convertitori a rampa sono sicuramente lenti, si può utilizzare in alternativa un altro tipo di convertitore più
veloce, detto convertitore flash.
Per determinare la conversione di una tensione avrò bisogno di un certo numero di livelli e dovremo vedere
la tensione di ingresso a che valore è rispetto alla tensione di riferimento Vref, e il valore della parola
digitale in uscita è legata al rapporto tra vin e Vref.
Nel convertitore flash l’idea è creare tramite una rete di resistenza i valori di confronto, le frazioni di Vref.
La tensione analogica di ingresso vin viene inviata in ingresso a (2N -1) comparatori che la confrontano con
ciascuno dei (2N -1) livelli di quantizzazione in cui è stata suddivisa la tensione di riferimento VREF tramite
la serie di 2N resistori tutti uguali.
Poi valuto contemporaneamente la tensione di ingresso con tutti questi livelli e a quel punto conosco la
risposta perché questi valori di quantizzazione li porto in ingresso a 2^N-1 comparatori che ricevono sul
terminale invertente i livelli di quantizzazione e al terminale non invertente invio la tensione vin.
Supponendo che vin sia una valore di tensione compreso tra due diversi valori di tensione che
comprendono un intervallo.
Quindi partendo dal basso avrò che nei comparatori al di sotto di quel valore la tensione sul + sarà
maggiore della tensione sul – e quindi avrò un valore logico alto.
Nel comparatore immediatamente superiore avrò la tensione sul + è più bassa della tensione sul – quindi
avrò una tensione più bassa.
Ottengo una codifica termometrica, tanti valori di tensioni alte partendo dal basso verso l’alto e il primo a
essere pari a 0 è quello che ha una tensione di ingresso maggiore della vin.
Leggendo l’ordine del comparatore più alto per avere un numero proporzionale alla tensione vin di
ingresso.
Ponendo in uscita alla codifica termometrica un decoder con priorità che da il numero del comparatore più
alto che ha l’uscita alta ottengo la mia codifica dei bit.
Un semplice decoder con priorità, che restituisce l’indirizzo binario della linea di ingresso a livello alto di
maggior priorità (con l’ordine più alto), convertirà i 2^(N-1) valori della codifica termometrica nella parola D
di N bit che costituisce la conversione digitale della tensione analogica di ingresso.
In un unico ciclo di clock ho un’indicazione della vin, la quale viene immediatamente confrontata con tutti i
livelli di quantizzazione della tensione di ingresso.
E’ il convertitore più veloce in assoluto poiché teoricamente è in grado di fare tutto in un ciclo di clock, e
non abbiamo un circuito di S/H proprio per questo motivo.
L’inconveniente è che in un circuito integrato si deve integrare 2^N resistenze ma anche 2^N-1
comparatori, dove per esempio se N = 8 devo avere 255 comparatori, che sono operazionali che occupano
una certa area, e quindi l’area occupata è non trascurabile.
Tipicamente 8 bit è il massimo dei convertitori flash e si preferisce la velocità al numero di bit.
I convertitori flash possono avere strutture più compatte se riununcio di far tutto in un solo ciclo di clock.
Se si rinuncia a voler effettuare la conversione completa in un unico ciclo di clock si può adottare una
configurazione di convertitore flash a due step che consente, a parità di risoluzione, di ottenere una
notevole riduzione dell’area del chip.
Il convertitore a N bit è suddiviso in due convertitori flash a N/2 bit in cui il primo (MSB – ADC) fornisce i bit
più significativi della conversione, mentre il secondo (LSB – ADC) fornisce i bit meno significativi.
1) la tensione di ingresso viene campionata e mantenuta dal circuito di Sample/Hold (S/H), necessario
perché rinunciamo a fare tutto in un solo ciclo di clock. Il convertitore flash MSB – ADC fornisce gli N/2 bit
più significativi che sono memorizzati nel latch; Quindi per 8 bit dà in uscita 4 bit e i 4 bit che mi da in uscita
li salvo perché saranno quelli che risulteranno i 4 bit più significativi della conversione.
2) il risultato viene riconvertito in una tensione analogica dal DAC e sottratto alla tensione di ingresso; Il
DAC la riconverte in una tensione e quindi in uscita al DAC avrò una tensione conversione della tensione di
ingresso su 4 bit, non esattamente uguale alla tensione di ingresso (con un errore di quantizzazione
certamente), vicina a vin ma non proprio uguale.
3) il risultato della sottrazione, denominato residuo, è moltiplicato per 2^N/2 dall’amplificatore e fornito in
ingresso al secondo convertitore flash (LSB – ADC). Il residuo sarà una tensione solitamente piccola legata
all’errore fatto andando a quantizzare su 4 bit la tensione di ingresso.
4) il secondo convertitore fornisce i bit meno significativi della conversione che vengono memorizzati nel
latch
Ho una conversione in due step, ma la prima conversione pesa molto perché determina i bit più
significativi.
Amplifico il residuo e vediamo perché.
Il residuo è una tensione molto piccola e devo convertirla su 4 bit.
Una possibilità è utilizzare un convertitore flash con una tensione di riferimento piccola perché devo
scalarla nei vari livelli di quantizzazione e confrontarla, pppure posso scegliere di utilizzare un amplificatore
che amplifica il residuo.
Nella prima conversione supponendo che la vin cada in quell’intervallo posso dire che i primi due bit
saranno magari 01 e dopodichè devo convertire l’errore che compio nella prima conversione, la differenza
indicata, quindi se ri-amplifico questa quantità per esattamente 2^(N/2) è come se prendessi questo
intervallo e andassi a riespanderlo su intervallo più grande su cui faccio la conversione fine.
La moltiplicazione per 2^N/2 consente di utilizzare due convertitori flash identici con la stessa tensione di
riferimento, non è necessario generare una Vref diversa.
Lavorando su tensioni più grandi i rumori presenti nel circuito sono più trascurabili.
La moltiplicazione può essere evitata se si progetta il convertitore LSB – ADC in modo che sia in grado di
convertire tensioni molto piccole.
Devo aspettare due cicli di clock come notiamo, ma in realtà il primo campione arriva, faccio la conversione
dei bit più significativi e poi procedo col residuo.
Ma siccome ho salvato i bit più significativi del primo campione nulla mi vieta che complicando il circuito
nel frattempo posso calcolarmi i 4 bit più significativi del secondo campione.
Il primo campione verrà convertito in un tempo pari a 2 clock ma dopo 1 clock mi arriva già la conversione
del seocndo campione, e così via, ottenendo un funzionamento a pipeline.
Mentre calcolo i bit meno significativi del primo campione calcolo i bit più significativi del campione
successivo.
Al limite si hanno convertitore di singoli bit in cascata, ho un throughput dopo i primi N cicli di clock che fa
sì che tutti i campioni mi escono con una frequenza pari a un unico ciclo di clock.
Il vantaggio di questa architettura risiede nella diminuzione dell’area del chip. Infatti, per una conversione a
N bit il numero di comparatori necessari scende dagli (2 N -1) necessari nella configurazione tradizionale a
2(2^(N/2)-1) per la configurazione a due step. Per esempio, per una risoluzione a 8 bit si passa da 255
comparatori per la flash tradizionale a 30 comparatori per la flash a due step. Lo svantaggio consiste nella
necessità di aspettare almeno due cicli di clock per avere il risultato definitivo della conversione.
Sono passato dal dover fare un convertitore flash a singolo ciclo di clock a farne uno che impiega due cicli di
clock anche se posso portare il throughput a un ciclo solo utilizzando solo 30 comparatori.